Dissertations / Theses on the topic 'CALCIO MODERNO'

To see the other types of publications on this topic, follow the link: CALCIO MODERNO.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'CALCIO MODERNO.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Polastri, Edoardo. "Gli stadi per il calcio. Proposta di ristrutturazione e ampliamento del Paolo Mazza di Ferrara." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Il 13 maggio 2017 la S.P.A.L. , ha ottenuto la promozione in Serie A. Da qui l'esigenza di programmare dei lavori di ristrutturazione e ampliamento dello stadio Paolo Mazza, per soddisfare i criteri infrastrutturali imposti dalla Lega. In questa tesi si propone un progetto che non si limita ad adeguare l'impianto a tali parametri, ma è finalizzato a trasformare il Paolo Mazza in un'arena moderna e multifunzionale. Si prevede la costruzione della nuova Tribuna Nord, della Curva Est e dei quattro curvini necessari a raccordare tutti i settori dello stadio. Si propone la realizzazione di un nuovo sistema di copertura, che garantisca un riparo a ogni spettatore. Attraverso questa serie di interventi, si prevede di raggiungere la capienza complessiva di 16˙078 posti a sedere. La tesi è suddivisa in sei capitoli. Nel primo capitolo vengono analizzate le peculiarità costruttive degli stadi realizzati da Pier Luigi Nervi, uno dei più grandi progettisti dello scorso secolo. Nel secondo capitolo si pone l’attenzione sulle caratteristiche degli impianti moderni, utilizzando alcuni esempi significativi. Gli stadi di ultima generazione ospitano diversi tipi di eventi e servizi, mantenendo l’impianto sempre attivo anche al di fuori del singolo evento sportivo. Nel terzo capitolo viene ripercorsa la storia dello stadio Paolo Mazza, soffermandosi sulle diverse ristrutturazioni che hanno interessato l’impianto nel corso degli anni. Nel quarto capitolo si descrive dal punto di vista architettonico la ristrutturazione proposta per il Paolo Mazza. Il quinto capitolo riporta i calcoli strutturali effettuati per il predimensionamento del sistema di copertura della Curva Ovest. La tesi si conclude con considerazioni sulla funzione chiave che può avere uno stadio moderno, se inserito opportunamente nella città di Ferrara. Un'opera di questo genere costituirebbe un polo di attrazione, non alternativo ma sinergico con il centro storico, e consentirebbe di valorizzare la città estense.
APA, Harvard, Vancouver, ISO, and other styles
2

Sforzi, Luca. "Sviluppo di un modello di calcolo per accoppiamenti conici albero-mozzo." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
In questo elaborato viene sviluppato un modello di calcolo per accoppiamenti conici tra albero e mozzo con l'obbiettivo di studiare il fenomeno del fretting tramite prove a flessione rotante. Nell'elaborato viene descritto il fenomeno del fretting e come agisce sui provini; vengono sviluppate le formule che costituiscono il modello di calcolo e consentono di calcolare il valore di pressione che si vuole applicare nell'accoppiamento; viene, infine, valutata la sensibilità di tale modello al variare di valori chiave presenti in fase di montaggio del provino.
APA, Harvard, Vancouver, ISO, and other styles
3

Alotaibi, Shaikhah M. A. M. "The efficacy of modern remineralising therapies containing calcium phosphate in remineralising enamel subsurface lesions." Thesis, University of Leeds, 2018. http://etheses.whiterose.ac.uk/22091/.

Full text
Abstract:
Aims: To investigate in vitro the effect of Calcium Phosphate delivering technologies: Tooth Mousse (10% w/v CPP-ACP), MI paste Plus (10% w/v CPP-ACP, 900 ppm F), Clinpro 5000 (Tri-Calcium Phosphate, 5000 ppm F), Clinpro Tooth Crème ( Tri-Calcium Phosphate, 950 ppm F) in the remineralisation of artificial enamel subsurface lesions of bovine teeth and compare it with the effect of 1450 ppm F, 5000 ppm F, and 0 ppm F toothpastes using Quantitative Light-induced Fluorescence (QLF) technology. Materials and Methods: Artificial enamel subsurface lesions were created in bovine enamel slabs (N=182) which were assigned randomly to seven groups; (1) Fluoride-free Toothpaste (negative control), (2) 1450 ppm F toothpaste (positive control), (3) 5000 ppm F toothpaste, (4) 1450 ppm F toothpaste + Tooth Mousse (10% w/v CPP-ACP), (5) 1450 ppm F toothpaste + MI Paste Plus (10% w/v CPP-ACP, 900 ppm F), (6) Clinpro 5000 (Tri-Calcium Phosphate, 5000 ppm F), and (7) Clinpro Tooth Crème ( Tri-Calcium Phosphate, 950 ppm F). All the experimental products were used according to the manufacturer recommendation of dosage. The enamel slabs were cycled for 28 days, QLF images were taken at the baseline and at the endpoint of the experiment. Data analysis was carried out using one-way analysis of variance (One way ANOVA). Results: There were significant improvements in QLF values with all remineralising agents at the end of the study compared with baseline values within each group (P < 0.05). All groups showed a statistically significant improvement in ΔQ and Area of the lesion values compared with negative control (0 ppm fluoride) (P < 0.05). In term of ΔF values measurement, Clinpro Tooth crème was significantly more effective than high fluoride toothpaste (5000 ppm F) (P < 0.05). 5000 ppm fluoride toothpaste was not different significantly to either Clinpro 5000 or the fluoride-free toothpaste (P > 0.05). Conclusion: All group products were significantly more effective as remineralising agents of artificial early enamel subsurface lesions as compared with the negative control 0 ppm F. Calcium Phosphate delivering technologies; CPP-ACP with and without fluoride and Tri-Calcium Phosphate products were as effective as fluoridated toothpastes (1450 ppm F and 5000 ppm F) in remineralising artificial early enamel subsurface lesions. Tooth Mousse was as effective as MI Paste Plus when used in conjunction with 1450 ppm F toothpaste in remineralising artificial early enamel subsurface lesions in bovine teeth assessed using QLF technology.
APA, Harvard, Vancouver, ISO, and other styles
4

Simon, Bertrand. "Ordonnancement de graphes de tâches sur des plates-formes de calcul modernes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEN022/document.

Full text
Abstract:
Cette thèse porte sur trois thématiques principales liées à l'ordonnancement de graphes de tâches sur des plates-formes de calcul modernes. Un graphe de tâches est une modélisation classique d'un programme à exécuter, par exemple une application de calcul scientifique. La décomposition d'une application en différentes tâches permet d'exploiter le parallélisme potentiel de cette application sans adapter le programme à la plate-forme de calcul visée. Le graphe décrit ces tâches ainsi que leurs dépendances, certaines tâches ne pouvant être exécutées avant que d'autres ne soient terminées. L'exécution d'une application est alors déterminée par un ordonnancement du graphe, calculé par un logiciel dédié, qui décrit entre autres quelles ressources sont allouées à chaque tâche et à quel moment. Les trois thèmes étudiés sont les suivants: exploiter le parallélisme intrinsèque des tâches, utiliser des accélérateurs tels que des GPU, et prendre en compte une mémoire limitée.Certaines applications présentent deux types de parallélisme que l'on peut exploiter: plusieurs tâches peuvent être exécutées simultanément, et chaque tâche peut être exécutée sur plusieurs processeurs afin de réduire son temps de calcul. Nous proposons et étudions deux modèles permettant de régir ce temps de calcul, afin d'exploiter ces deux types de parallélisme.Nous étudions ensuite comment utiliser efficacement des accélérateurs de calcul tels que des GPU, dans un contexte dynamique où les futures tâches à ordonnancer ne sont pas connues. La difficulté principale consiste à décider si une tâche doit être exécutée sur l'un des rares accélérateurs disponibles ou sur l'un des nombreux processeurs classiques. La dernière thématique abordée concerne le problème d'une mémoire principale limitée, et le recours à des transferts de données coûteux. Nous avons traité ce problème via deux scénarios. S'il est possible d'éviter de tels transferts, nous avons proposé de modifier le graphe afin de garantir que toute exécution ne dépasse pas la mémoire disponible, ce qui permet d'ordonnancemer les tâches dynamiquement au moment de l'exécution. Si tout ordonnancement nécessite des transferts, nous avons étudié le problème consistant à minimiser leur quantité.L'étude de ces trois thèmes a permis de mieux comprendre la complexité de ces problèmes. Les solutions proposées dans le cadre d'étude théorique pourront influencer de futures implémentations logicielles
This thesis deals with three main themes linked to task graph scheduling on modern computing platforms. A graph of tasks is a classical model of a program to be executed, for instance a scientific application. The decomposition of an application into several tasks allows to exploit the potential parallelism of this application without adaptating the program to the computing platform. The graph describes the tasks as well as their dependences, some tasks cannot be initiated before others are completed. The execution of an application is then determined by a schedule of the graph, computed by a dedicated software, which in particular describes which resources should be allocated to each task at which time. The three studied themes are the following: exploit inner task parallelism, use accelerators such as GPUs, and cope with a limited memory.For some applications, two types of parallelism can be exploited: several tasks can be executed concurrently, and each task may be executed on several processors, which reduces its processing time. We propose and study two models allowing to describe this processing time acceleration, in order to efficiently exploit both types of parallelism.We then study how to efficiently use accelerators such as GPUs, in a dynamic context in which the future tasks to schedule are unknown. The main difficulty consists in deciding whether a task should be executed on one of the rare available accelerators or on one of the many classical processors. The last theme covered in this thesis deals with a available main memory of limited size, and the resort to expensive data transfers. We focused on two scenarios. If it is possible to avoid such transfers, we propose to modify the graph in order to guarantee that any execution fits in memory, which allows to dynamically schedule the graph at runtime. If every schedule needs transfers, we studied how to minimize their quantity.The work on these three themes has led to a better understanding of the underlying complexities. The proposed theoretical solutions will influence future software implementations
APA, Harvard, Vancouver, ISO, and other styles
5

Facciani, Matteo. "Ottimizzazione delle proprietà di restituzione della durata del potenziale d'azione in un modello di cardiomiocita ventricolare umano." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6985/.

Full text
Abstract:
Questo elaborato ha avuto come obiettivo la modifica di un modello matematico di potenziale d’azione ventricolare umano per migliorare la relazione che lega la durata del potenziale d’azione all’incremento degli intervalli diastolici, al fine di riprodurre correttamente i risultati sperimentali noti in letteratura. Ruolo principe nell’analisi e nell’implementazione di tale modello è stato quello dello ione calcio, coinvolto in numerosi processi chimici all’interno della cellula cardiaca, e responsabile anche della sua contrazione. Tutte le modifiche effettuate sono state fatte preservando la dipendenza inversa tra la durata del potenziale d’azione e le variazioni di calcio extracellulare, che costituiva il punto di forza del modello considerato rispetto alla sua versione originale. Le modifiche effettuate hanno riguardato in parte la struttura del modello (compartimenti, volumi) e in parte il calcium handling, ovvero la gestione del Ca2+ all’interno della cellula, in termini di flussi e correnti. Il modello così ottenuto, denominato “newORk”, è stato validato rispetto a numerosi protocolli sperimentali (sia di voltage-clamp, sia di current-clamp) presenti in letteratura e i risultati di simulazione hanno dimostrato un comportamento coerente con i risultati in vitro. In particolare la risposta del modello al protocollo S1S2, che non era fisiologica nel modello precedente, viene adesso riprodotta correttamente dal nuovo modello, presentando un aumento dell’APD all’aumentare dell’intervallo diastolico considerato. Il modello qui descritto può quindi essere ritenuto un importante, per quanto specifico, miglioramento nella descrizione matematica della elettrofisiologia cardiaca umana e potrà essere utilizzato per esplorare contesti clinici in cui le concentrazioni di calcio nel sistema cardiocircolatorio si modificano, come per esempio la terapia dialitica.
APA, Harvard, Vancouver, ISO, and other styles
6

De, Cesaris Claudio. "Sviluppo di un modello di calcolo per la compressione e lo stoccaggio dell’idrogeno." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Il seguente elaborato affronta lo sviluppo di un modello di calcolo per la compressione e lo stoccaggio dell’idrogeno in forma gassosa tramite un compressore volumetrico a membrana, inserito all’interno del progetto internazionale Zero Emission Hydrogen Turbine Center (ZEHTC). L'analisi dal punto di vista termodinamico delle fasi di compressione e stoccaggio è stata effettuata nell'ambiente Visual Basic for Application (VBA) ed il modello elaborato consente di effettuare una previsione affidabile delle condizioni fisiche reali in ogni sezione del compressore a membrana e nel serbatoio di accumulo, tramite una serie di procedimenti iterativi che coinvolgono le pressioni e le temperature in gioco. Fondamentale è stato l'utilizzo del fattore di comprimibilità Z all'interno dell'equazione di stato, che lega pressione, temperatura e volume specifico relativi all'idrogeno gassoso, al fine di ottenere un buon riscontro dei dati con la realtà del fenomeno. Applicando questo modello alla sezione dell'impianto ZEHTC, deputata alla produzione e stoccaggio dell'idrogeno, e variando la potenza installata del fotovoltaico, il grado di riempimento del serbatoio e la taglia dell'elettrolizzatore, si è determinata la migliore configurazione che massimizza la produzione di idrogeno tramite elettrolisi, utilizzando l'energia elettrica proveniente dall'impianto fotovoltaico e quella prodotta da una turbina a gas, alimentata da una miscela di gas naturale ed idrogeno.
APA, Harvard, Vancouver, ISO, and other styles
7

Fedele, Domenico. "Modello di calcolo per la valutazione delle prestazioni propulsive di un motore ibrido." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4735/.

Full text
Abstract:
Questo lavoro di tesi, svolto presso AVIO S.P.A, sede di Colleferro (RM), divisione spazio, si inserisce all'interno del progetto Theseus, che ha come scopo finale lo sviluppo di un dimostratore di un motore ibrido a combustibile solido e ossidante gassoso. In particolare, in questo momento è richiesto un codice di calcolo, preciso ma allo stesso tempo abbastanza contenuto nei tempi di calcolo, che permetta l'analisi e le previsioni della balistica interna di tale motore ibrido. Il codice di calcolo si basa su una versione già esistente per i motori a solido (CUBIC) scritto in ambiente FORTRAN, ed è stato riadattato ai motori ibridi. In particolare è stata scritta una routine per il calcolo della velocità di combustione che tiene conto di diversi fattori, tra cui blowing e il fenomeno di entrainment presente in superficie. Sempre per quanto riguarda la velocità di combustione, nel suo calcolo si tiene conto dell'impingement dell'iniettore sul grano e del valore locale (per quanto riguarda la temperatura di fiamma) dell'O/F. Inoltre è stato anche modellato il comportamento termodinamico delle eventuali protezioni termiche presenti internamente al motore, considerando tutti i fenomeni di pirolisi e ablazione che caratterizzano tali materiali. In fine il modello completo è stato testato e validato grazie al fatto che si disponeva di alcuni tiri al banco di un motore ibrido, effettuati presso il dipartimento di Ingegneria Aerospaziale dell'Università di Napoli Federico II.
APA, Harvard, Vancouver, ISO, and other styles
8

Temellini, Davide. "Implementazione in Matlab di un modello di calcolo di giunzioni bullonate secondo norma VDI 2230." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Mottola, Margherita. "Calcolo dei parametri perfusionali epatici mediante TC dinamica secondo un modello dual-input mono-compartimentale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12933/.

Full text
Abstract:
INTRODUZIONE. In oncologia, lo studio perfusionale consente di individuare i processi angiogenici tipici dei tumori e di monitorare gli effetti delle terapie anti-angiogeniche sulle sedi target. Una delle tecniche di imaging funzionale è la Tomografia Computerizzata perfusionale (TCp) eseguita con mezzo di contrasto (MdC), che consente di ricostruire le Time Concentration Curve (TCC) del MdC nei vasi sanguigni e nel tessuto. La convoluzione tra la TCC vascolare e la Impulse Residue Function (IRF) restituisce la TCC tessutale. Valutare la perfusione significa calcolare l’apporto di sangue al tessuto, mediante l’analisi della cinetica del MdC. Tra i metodi preposti vi sono il Maximum Slope (MS) e la deconvoluzione, che vuole stimare la IRF dalle TCC estratte, risolvendo quindi il problema inverso. OBIETTIVI. Il lavoro di Tesi nasce per calcolare i parametri perfusionali epatici, con modello mono compartimentale dual input. A questo scopo, si volevano approfondire le relazioni esistenti tra i diversi elementi coinvolti nel processo diretto di convoluzione, con particolare interesse per la IRF. METODI. È stato individuato un set di curve idonee a rappresentare la IRF e ne sono stati definiti metodi di calcolo automatici dei parametri, traendo informazioni dalle TCC reali. È stato quindi sviluppato un simulatore per generare TCC di tessuto, attraverso la convoluzione della IRF con TCC vascolari. Si è studiato un metodo di calcolo dei parametri perfusionali, effettuati sugli output del simulatore. I dati perfusionali sono stati analizzati con un classificatore non supervisionato, per individuare gruppi significativi di pazienti. RISULTATI. Il metodo è stato applicato per lo studio perfusionale di 10 pazienti. I dati ottenuti sono stati confrontati con quelli calcolati indipendentemente con MS sulle stesse curve, ottenuta correlazione e proporzionalità tra le misure. Inoltre, sono stati rilevati gruppi di esami con caratteristiche cliniche simili.
APA, Harvard, Vancouver, ISO, and other styles
10

Möller, Nathalie. "Adaptation de codes industriels de simulation en Calcul Haute Performance aux architectures modernes de supercalculateurs." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV088.

Full text
Abstract:
Durant de longues années, la stabilité dans le paradigme d'architecture a facilité la portabilité de performance des grands codes en Calcul de Haute Performance d'une génération à l'autre de supercalculateurs.L'effondrement programmé de la loi de Moore - qui règle les progrès en gravure des micro-processeurs - bouscule ce modèle et requiert un effort nouveau du côté logiciel.Une modernisation des codes basée sur une algorithmique adaptée aux futurs systèmes est ainsi nécessaire.Cette modernisation repose sur des principes de base connus tels que la concurrence des calculs et la localité des données.Cependant, la mise en œuvre de ces principes dans le cadre d'applications réelles en milieu industriel – lesquelles applications sont souvent le fruit d’années d’efforts de développement - s’avère bien plus compliquée que ne le laissait prévoir leur simplicité apparente.Les contributions de cette thèse sont les suivantes :D’une part, nous explorons une méthodologie de modernisation de codes basée sur l’utilisation de proto-applications et la confrontons à une approche directe, en optimisant deux codes de simulation dévéloppés dans un contexte similaire.D’autre part, nous nous concentrons sur l’identification des principaux défis concernant l’adéquation entre applications, modèles de programmation et architectures.Les deux domaines d'application choisis sont la dynamique des fluides et l'électromagnétisme
For many years, the stability of the architecture paradigm has facilitated the performance portability of large HPC codes from one generation of supercomputers to another.The announced breakdown of the Moore's Law, which rules the progress of microprocessor engraving, ends this model and requires new efforts on the software's side.Code modernization, based on an algorithmic which is well adapted to the future systems, is mandatory.This modernization is based on well-known principles as the computation concurrency, or degree of parallelism, and the data locality.However, the implementation of these principles in large industrial applications, which often are the result of years of development efforts, turns out to be way more difficult than expected.This thesis contributions are twofold :On the one hand, we explore a methodology of software modernization based on the concept of proto-applications and compare it with the direct approach, while optimizing two simulation codes developed in a similar context.On the other hand, we focus on the identification of the main challenges for the architecture, the programming models and the applications.The two chosen application fields are the Computational Fluid Dynamics and Computational Electro Magnetics
APA, Harvard, Vancouver, ISO, and other styles
11

Suffritti, Valentina. "Riqualificazione energetica di un edificio residenziale: comparazione fra calcolo statico e dinamico delle prestazioni energetiche e analisi di un modello semplificato." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24165/.

Full text
Abstract:
Scopo di questo studio è fornire una analisi delle differenze fra i metodi di calcolo disponibili delle dispersioni energetiche di un edificio, sia calcolate in maniera dettagliata che tramite approssimazioni, al fine ultimo di semplificarlo e renderlo più accessibile all’utente comune. Il caso studio è un complesso condominiale risalente al 1936 situato in via Magenta presso Reggio Emilia, attualmente soggetto di riqualificazione. Sono stati realizzati modelli dettagliati allo stato di fatto originario e allo stato riqualificato con TerMus, per il calcolo semi-stazionario, e con DesignBuilder/EnergyPlus, per il calcolo dinamico, oltre a modelli semplificati tramite tipologie costruttive standard per epoca e classe edilizia con DesignBuilder/EnergyPlus seguendo le tipologie costruttive offerte dal progetto TABULA. È inoltre stata analizzata una seconda semplificazione che prevede la diretta sostituzione dell’edificio analizzato con l’edificio-tipo offerto da TABULA nella sua matrice delle tipologie edilizie italiane. Dai risultati ottenuti è stato possibile dare legittimità a parte delle semplificazioni applicate e indicare quali non siano applicabili, è stata offerta una analisi sulle differenze riscontrabili fra TerMus e DesignBuilder/EnergyPlus e una chiave di confronto fra i dati ottenibili da tali programmi, e infine è stata svolta una valutazione sul successo della riqualificazione energetica analizzata.
APA, Harvard, Vancouver, ISO, and other styles
12

Nakov, Stojce. "On the design of sparse hybrid linear solvers for modern parallel architectures." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0298/document.

Full text
Abstract:
Dans le contexte de cette thèse, nous nous focalisons sur des algorithmes pour l’algèbre linéaire numérique, plus précisément sur la résolution de grands systèmes linéaires creux. Nous mettons au point des méthodes de parallélisation pour le solveur linéaire hybride MaPHyS. Premièrement nous considerons l'aproche MPI+threads. Dans MaPHyS, le premier niveau de parallélisme consiste au traitement indépendant des sous-domaines. Le second niveau est exploité grâce à l’utilisation de noyaux multithreadés denses et creux au sein des sous-domaines. Une telle implémentation correspond bien à la structure hiérarchique des supercalculateurs modernes et permet un compromis entre les performances numériques et parallèles du solveur. Nous démontrons la flexibilité de notre implémentation parallèle sur un ensemble de cas tests. Deuxièmement nous considérons un approche plus innovante, où les algorithmes sont décrits comme des ensembles de tâches avec des inter-dépendances, i.e., un graphe de tâches orienté sans cycle (DAG). Nous illustrons d’abord comment une première parallélisation à base de tâches peut être obtenue en composant des librairies à base de tâches au sein des processus MPI illustrer par un prototype d’implémentation préliminaire de notre solveur hybride. Nous montrons ensuite comment une approche à base de tâches abstrayant entièrement le matériel peut exploiter avec succès une large gamme d’architectures matérielles. À cet effet, nous avons implanté une version à base de tâches de l’algorithme du Gradient Conjugué et nous montrons que l’approche proposée permet d’atteindre une très haute performance sur des architectures multi-GPU, multicoeur ainsi qu’hétérogène
In the context of this thesis, our focus is on numerical linear algebra, more precisely on solution of large sparse systems of linear equations. We focus on designing efficient parallel implementations of MaPHyS, an hybrid linear solver based on domain decomposition techniques. First we investigate the MPI+threads approach. In MaPHyS, the first level of parallelism arises from the independent treatment of the various subdomains. The second level is exploited thanks to the use of multi-threaded dense and sparse linear algebra kernels involved at the subdomain level. Such an hybrid implementation of an hybrid linear solver suitably matches the hierarchical structure of modern supercomputers and enables a trade-off between the numerical and parallel performances of the solver. We demonstrate the flexibility of our parallel implementation on a set of test examples. Secondly, we follow a more disruptive approach where the algorithms are described as sets of tasks with data inter-dependencies that leads to a directed acyclic graph (DAG) representation. The tasks are handled by a runtime system. We illustrate how a first task-based parallel implementation can be obtained by composing task-based parallel libraries within MPI processes throught a preliminary prototype implementation of our hybrid solver. We then show how a task-based approach fully abstracting the hardware architecture can successfully exploit a wide range of modern hardware architectures. We implemented a full task-based Conjugate Gradient algorithm and showed that the proposed approach leads to very high performance on multi-GPU, multicore and heterogeneous architectures
APA, Harvard, Vancouver, ISO, and other styles
13

Masini, Filippo. "Coca cola hbc italia: Modello per il calcolo di inventory stock target e production cycles ottimali." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/8060/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

MASTINO, COSTANTINO CARLO. "Modello di calcolo multifisico per la progettazione dei requisiti acustici, energetici ed illuminazione naturale degli edifici." Doctoral thesis, Università degli Studi di Cagliari, 2013. http://hdl.handle.net/11584/266215.

Full text
Abstract:
Multi physical calculation model for the design of acoustic requirements, energy and natural lighting of buildings interfaced with three-dimensional CAD architectural. The model calculates with single procedure the physical performance of buildings by taking the geometric information from the three-dimensional model generated in CAD.
APA, Harvard, Vancouver, ISO, and other styles
15

Germanò, Santangelo Luca. "Creazione di un modello di calcolo per la valutazione della convenienza dell'outsourcing della funzione acquisti: il caso Makeitalia." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
L’applicazione di tale progetto riguarda la tematica del Make or Buy, nello specifico sull’approfondimento dell’esternalizzazione della gestione della funzione acquisti e quindi su di un processo non strettamente legato alla produzione. L’obiettivo è quello di ottenere un modello di calcolo tale da poter effettuare una valutazione della convenienza dell’outsourcing della funzione acquisti, sia dal lato dell’outsourcee (azienda cliente) sia dal lato dell’outsourcer (azienda fornitore).
APA, Harvard, Vancouver, ISO, and other styles
16

Bompensa, Francesco. "Iniezione di acqua in camera di combustione di turbine a gas: sviluppo di un modello di calcolo evaporativo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
La tesi è focalizzata sull'iniezione di acqua in camera di combustione delle turbine a gas; l'iniezione di acqua ha lo scopo di limitare la temperatura in camera di combustione per ridurre gli ossidi di azoto ed ottenere contemporaneamente un incremento delle prestazioni. La parte iniziale della tesi è dedicata alla descrizione degli ossidi di azoto come composti inquinanti, gli effetti principali sull'ambiente e la cinetica chimica che porta alla loro formazione. Segue quindi una descrizione generale dei gruppi turbogas con particolare riferimento all'architettura della camera di combustione e alle tecnologie utilizzate per la riduzione degli ossidi di azoto. Nella parte centrale è introdotta la descrizione matematica del modello evaporativo a singola goccia utilizzato per determinare l'andamento delle principali grandezze coinvolte nel processo analizzato; in particolare è stato sviluppato un codice di calcolo con l'ausilio del software MATLAB per determinare il punto di fine evaporazione delle gocce introdotte. Con il codice ottenuto sono state effettuate simulazioni al variare delle condizioni operative del turbogas ed ambientali; le simulazioni effettuate hanno permesso l'individuazione del caso più sfavorevole in termini di input per la velocità di evaporazione ed hanno portato ad una stima del diametro limite della goccia che assicura la completa evaporazione entro una determinata quota spaziale. L'evaporazione deve essere completa per evitare l'ingresso di gocce residue a contatto diretto con la zona di fiamma. Nella parte finale sono state effettuate delle simulazioni tramite l'ausilio del software Thermoflex per determinare le variazioni delle principali grandezze operative del turbogas in seguito all'iniezione di acqua e i risultati ottenuti sono stati poi confrontati con il ciclo base.
APA, Harvard, Vancouver, ISO, and other styles
17

Giuntini, Francesca. "Applications of sunspaces in building facades: energy performances and technical/economic feasibility." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
La presente tesi è incentrata sullo studio della serra solare bioclimatica applicata a edifici esistenti. Per serra solare bioclimatica si intende uno spazio tampone tra lo spazio riscaldato e l’esterno, che permetta in inverno di ridurre le dispersioni termiche ed aumentare i guadagni di energia solare, mentre in estate riduca l’apporto solare funzionando come una schermatura fissa. L’obiettivo della tesi è duplice: la creazione di uno strumento di calcolo semplificato per valutare l’impatto della serra solare sul bilancio energetico di un edificio e l’ottimizzazione costi-benefici di vari interventi di ristrutturazione con addizione volumetrica in facciata, per valutarne la reale fattibilità tecnica ed economica. È stato sviluppato un modello di calcolo semplificato, in collaborazione con RenEsco, a Riga (Lettonia), nell’ambito del progetto europeo ABRACADABRA (Assistant Building addition to Retrofit Adopt, Cure And Develop the Actual Building up to zeRo energy), basato sullo standard europeo EN ISO 13790. Nella tesi è stato preso in esame un edificio di Bologna, che è stato poi inserito anche in altre quattro città italiane. Di tale edificio sono state studiate varie tipologie di rinnovamento con addizione volumetrica in facciata, nelle diverse condizioni climatiche. I calcoli sono stati effettuati mediante il modello di calcolo semplificato e il programma commerciale Edilclima, basato sulla normativa italiana UNI EN 11300 e sulla EN ISO 13790. Infine è stata effettuata un’analisi dei costi dei singoli interventi per le varie città. Analizzando il rapporto costi-benefici in termini di anni di recupero si è notato che la serra solare è una soluzione adatta soprattutto nel Nord e Centro Italia, dove è predominante il fabbisogno di energia per riscaldamento, mentre la sua efficacia è minore nel Sud Italia, al crescere del fabbisogno per raffrescamento.
APA, Harvard, Vancouver, ISO, and other styles
18

Zhiyue, Wan. "Application of some modern analytical techniques for investigations of non-metallic inclusions in steel samples." Thesis, KTH, Materialvetenskap, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-231963.

Full text
Abstract:
The non-metallic inclusions (NMI) have large influence on steel properties. Therefore, evaluation of inclusion size, number, composition and morphology by using modern analytical techniques are very important for control of steel production and steel quality. Three dimensional analysis method of electrolytic extraction is applied in this work. Metals are dissolved and undissolved inclusions are collected on the film filter. Scanning Electron Microscope (SEM) with Energy Dispersive Spectrometer (EDS) is applied to observe different non-metallic inclusions. Apart from electrolytic extraction, several other different methods can be used to analyse the inclusions. Each of them has their advantages and drawbacks. A part of this work compares different methods for investigation of inclusions. To modify the inclusion size, number and morphology, calcium or zirconium can be added in to the steel with certain amount according to the steel grade. This work discussed how inclusion size, number and morphology changed after the modification. In samples of Heat A, the addition of Zr leads to the appearance of ZrO2 clusters. Large size particles disappeared while the peak value for the number of inclusions per unit volume didn’t decrease. The electrolytic extraction and fractional gas analysis (FGA) results show some differences on the inclusion compositions. In samples of Heats B and C, the effect of calcium treatment is investigated. Calcium treatment modified the spinels with large content of Al2O3 into spherical CaS+CaO-MgO-Al2O3 inclusions. Large size inclusions were removed after calcium treatment.Key
APA, Harvard, Vancouver, ISO, and other styles
19

Chapuis, Guillaume. "Exploiting parallel features of modern computer architectures in bioinformatics : applications to genetics, structure comparison and large graph analysis." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-01012222.

Full text
Abstract:
The exponential growth in bioinformatics data generation and the stagnation of processor frequencies in modern processors stress the need for efficient implementations that fully exploit the parallel capabilities offered by modern computers. This thesis focuses on parallel algorithms and implementations for bioinformatics problems. Various types of parallelism are described and exploited. This thesis presents applications in genetics with a GPU parallel tool for QTL detection, in protein structure comparison with a multicore parallel tool for finding similar regions between proteins, and large graph analysis with a multi-GPU parallel implementation for a novel algorithm for the All-Pairs Shortest Path problem.
APA, Harvard, Vancouver, ISO, and other styles
20

Di, Nocco Francesca. "Il nuovo modello di calcolo CEN per la determinazione dell'isolamento acustico degli edifici: analisi critica e applicazione ad un caso studio." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11306/.

Full text
Abstract:
L'obiettivo del presente studio è l'indagine del comportamento acustico di edifici in legno, vista la loro crescente diffusione in Italia. Il lavoro analizza le potenzialità del nuovo metodo trattato nell'aggiornamento della normativa UNI EN 12354 e si propone come caso di sperimentazione del nuovo modello di calcolo per la valutazione prestazionale acustica di un edificio in legno. A supporto dell'analisi della normativa, viene presentato il caso studio di un edificio residenziale in legno che presenta tutti gli elementi oggetto di discussione nello sviluppo normativo. La validazione del modello di calcolo è stata effettuata tramite il confronto dei risultati ottenuti con i dati raccolti precedentemente da misurazioni in opera sull'edificio in esame.
APA, Harvard, Vancouver, ISO, and other styles
21

Lucchetti, Federica. "Simulazioni BIM per la definizione del comportamento strutturale di un edificio: il complesso demaniale in piazza VIII agosto a Bologna, sede del Provveditorato Interregionale per le Opere Pubbliche Lombardia – Emilia-Romagna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21082/.

Full text
Abstract:
L’obiettivo del presente lavoro di tesi è quello di descrivere il processo di digitalizzazione di un edifico esistente, in particolare dei suoi aspetti strutturali, e di verificare se sia possibile sfruttare il modello informativo prodotto per estrapolarne un modello analitico su cui eseguire analisi strutturali. Nella prima parte, si introducono i temi riguardanti digitalizzazione e BIM, focalizzandosi sugli aspetti di interesse per il lavoro di tesi (normativa, software BIM, interoperabilità e formati di scambio aperti). Nella seconda parte, si descrive il rapporto tra BIM e ingegneria strutturale, esponendo alcuni dei vantaggi legati all’utilizzo di strumenti e processi BIM ed anche eventuali criticità. Nella parte finale, viene trattata la digitalizzazione dell’edificio sede del Provveditorato per le Opere Pubbliche Lombardia – Emilia-Romagna, ubicato a Bologna. Inizialmente si descrive la metodologia seguita, partendo dalla validazione del modello informativo preesistente, trattando l’interpretazione delle fonti e concludendo con l’aggiornamento e l’integrazione delle informazioni necessarie per il modello analitico ai fini delle successive analisi. Per concludere, viene esposto il processo operativo effettivamente seguito, ponendo particolare attenzione all’interoperabilità tra discipline differenti e tra software di modellazione e analisi. Vengono esposti degli esempi di criticità riscontrabili nelle varie fasi di scambio delle informazioni, dall’importazione del modello preesistente all’aggiornamento bidirezionale tra software di modellazione e di analisi, e come esse possano essere gestite. Il modello informativo prodotto confluisce poi nel modello federato, che raccoglie modelli e informazioni riguardanti le diverse discipline coinvolte. Questo lavoro di tesi, infatti, rientra nell’ambito di un lavoro di ricerca riguardante l’opera in questione iniziato nel 2016 e ancora in corso e che coinvolge la disciplina strutturale, architettonica e impiantistica.
APA, Harvard, Vancouver, ISO, and other styles
22

PERTUET, YVES. "L'hypertension arterielle moderee du sujet age : comparaison de la tolerance et de l'efficacite par mesure continue ambulatoire d'un nouvel antagoniste calcique selon l'horaire matinal ou vesperal de la prise unique." Clermont-Ferrand 1, 1989. http://www.theses.fr/1989CLF13085.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Pierrot, Laurent. "Développement, étude critique et validation de modèles, de propriétés radiatives infrarouges de CO2 et H2O à haute température : applications au calcul des transferts dans des chambres aéronautiques et à la télédétection." Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0512.

Full text
Abstract:
Ce mémoire est consacré à l'étude de modèles de propriétés radiatives de H2O et CO2 à haute température dans l'infrarouge. L'approche raie-par-raie, fondée sur les bases de données du laboratoire EM2C, sert de référence. Une étude bibliographique de différents modèles est menée dans le chapitre 1: modèles à bandes étroites (SNB, C-K, CKFG) et modèles globaux (WSGG, SLW, ADF, MADF), beaucoup plus légers en temps de calcul, mais qui ne peuvent s'appliquer qu'a des milieux dont les frontières sont grises. Pour des applications ou la pression est élevée (chambres de combustion de moteurs d'avion), nous montrons dans le chapitre 2 qu'un modèle simplifié (box model) permet des calculs de luminances précis à quelques pour cent. L'étude de modèles permettant la prise en compte les corrélations spectrales à haute résolution, indispensable à pression atmosphérique, est menée dans les chapitres 3 et 4. Dans le chapitre 3, nous développons le modèle global ADF-FG, fondé sur une décomposition du spectre de H2o ou CO2 en gaz fictifs (regroupant les raies dont l'énergie du niveau bas de la transition est similaire), et nous montrons son apport par rapport au modèle ADF. Dans le chapitre 4, nous comparons les performances des différents modèles dans une situation de transfert, dans le cas de mélanges H2O-N2 et CO2-N2. Dans la plupart des situations usuelles, les modèles à bandes étroites (SNB, C-K, CKFG) conduisent à de bonnes prédictions des grandeurs radiatives (flux, puissances). En revanche, le modèle WSGG peut conduire à des erreurs considérables, et la précision des modèles SLW et ADF, même si elle reste acceptable, dépend fortement de leur température de référence. Le modèle ADF-FG reste précis, y compris pour des applications de type télédétection. Par ailleurs, le traitement de parois fortement réfléchissantes est plus facile avec des modèles formulés en coefficient d'absorption (notamment C-K et ADF-Fg) qu'avec des modèles formulés en transmittivité moyenne (SNB, CKFD). Dans le dernier chapitre de ce mémoire, nous montrons que le décalage Doppler des raies d'un jet gazeux chaud à grande vitesse se traduit par une augmentation de la luminance du rayonnement transmis, mais que cet effet est négligeable pour les vitesses usuelles des jets de moteur d'avion
APA, Harvard, Vancouver, ISO, and other styles
24

Bracone, Nicola. "Isolamento termico di balconi a sbalzo realizzati con giunto termico: analisi con un modello di calcolo agli elementi finiti e studio della trasmittanza termica lineare." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
L' argomento principale della tesi è il calcolo del valore della trasmittanza termica lineare di un ponte termico balcone-solaio isolato termicamente da un giunto termico. Dopo una prima definizione di ponte termico, segue un’analisi dei vari metodi utilizzati per smorzare gli effetti provocati. Per ricavare questo valore sono state analizzate e seguite le linee guida definite nelle normative di riferimento. E' stato utilizzato il software TRISCO, strumento digitale utilizzato per l’analisi termica dei componenti edilizi, con il quale verranno analizzati otto modelli di balcone a sbalzo differenziati nella stratigrafia della parete, balcone e la presenza o meno del giunto termico. Si concluderà con un confronto tra i risultati ottenuti dall’ analisi dei vari modelli proposti ed una verifica termoigrometrica sullo spigolo parete-solaio evidenziando l’efficacia ed i benefici derivanti dall’utilizzo di un giunto termico proponendo il metodo migliore di isolamento termico da adottare su edifici esistenti e di nuova costruzione.
APA, Harvard, Vancouver, ISO, and other styles
25

Chapuis, Guillaume. "Exploiter les capacités parallèles des architectures modernes en bioinformatique applications à la génétique, la comparaison de structures et l'analyse de larges graphes." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00912553.

Full text
Abstract:
La croissance exponentielle de la génération de données pour la bioinformatique couplée à une stagnation des fréquences d'horloge des processeurs modernes accentuent la nécessité de fournir des implémentation tirant bénéfice des capacités parallèles des ordinateurs modernes. Cette thèse se concentre sur des algorithmes et implementations pour des problèmes de bioinformatique. Plusieurs types de parallélisme sont décrits et exploités. Cette thèse présente des applications en génétique, avec un outil de détection de QTL paralllisé sur GPU, en comparaison de structures de protéines, avec un outil permettant de trouver des régions similaires entre protéines parallélisé sur CPU, ainsi qu'à l'analyse de larges graphes avec une implémentation multi-GPUs d'un nouvel algorithme pour le problème du "All-Pairs Shortest Path".
APA, Harvard, Vancouver, ISO, and other styles
26

D'Ostilio, Debora. "Sviluppo di un programma per il calcolo del termine sorgente ai fini della valutazione del rischio." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
Nel laboratorio PQAT dell’istituto IQS School of Engineering di Barcellona si realizzano analisi quantitative di rischio per gli stabilimenti chimici classificati, secondo la direttiva Seveso, come stabilimenti a rischio di incidente rilevante. In fase di valutazione è necessario seguire un procedimento metodico che prevede fasi di calcolo manuali coadiuvate dall’utilizzo di software. La normativa catalana specifica che possono essere impiegati software commerciali come ALOHA e EFFECTS per la quantificazione del termine sorgente, mentre per la valutazione delle conseguenze fisiche legate a scenari di dispersione tossica e la generazione delle curve isorischio il gruppo IQS utilizza un codice proprio implementato in MATLAB. Col fine di rendere il procedimento completamente automatizzato, così da eliminare le fasi iniziali di calcolo supportate dai software, è stato introdotto nel programma generale un codice appositamente sviluppato in MATLAB per la quantificazione del termine sorgente in seguito a rilasci accidentali di sostanza in fase liquida. Il codice sostituisce il lavoro svolto dal software EFFECTS e fornisce informazioni relative alla quantità di sostanza rilasciata in atmosfera e allo stato fisico del rilascio, da cui è possibile procedere alla modellazione della dispersione e alla valutazione del rischio finale. Col fine di comprovarne il corretto funzionamento, il programma così ottenuto è stato utilizzato per simulare alcuni casi di rilascio relativi a serbatoi di sostanze pericolose stoccate in un’industria chimica situata nel territorio catalano. Il codice oltre ad essersi dimostrato decisamente accurato e completo, ha permesso una notevole riduzione in termini di tempo e complessità delle operazioni da svolgere per operare le analisi di valutazione del rischio secondo la metodologia IQS.
APA, Harvard, Vancouver, ISO, and other styles
27

Dib, Jorge Antonio. "O setor de laminado sintetico : perspectivas para um novo entrante." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1993. http://hdl.handle.net/10183/165633.

Full text
Abstract:
Este estudo analisou a estrutura do mercado de laminados sintético brasileiro, mais especificamente o segmento fornecedor das fábricas de calçados. É apresentado o produto, a estrutura do mercado, os grupos estratégicos e barreiras de entrada presentes na indústria. As possibilidades e probabilidades de entrada no mercado são discutidas considerando-se o tipo de relacionamento que o entrante posssui com a indústria de laminados sintéticos. A revisão teórica apresenta uma discussão sobre as forças estruturais de acordo com o modelo de Porter; as vantagens derivadas da entrada; os tipos de entrada; e as barreiras de entrada.
This study analised the structure of the brazilian synthetic leather market, more precisely the shoe makers supplyers segment. It is presented the product, the market structure, the strategic groups and the barriers to enter the industry. Also are discussed the possibilities and probabilities of a new company entering the market according to the relationship between the company and the synthetic leather industry. The theories regarding the Porter Model; the advantages derived from the entry order; the entry types; and the barriers of entry are discussed in the literature review.
APA, Harvard, Vancouver, ISO, and other styles
28

Betini, Raquel Souza Dias. "Estudo do metabolismo do fósforo utilizando modelos matemáticos." Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/64/64132/tde-06032007-094036/.

Full text
Abstract:
O fósforo (P) é responsável por funções essenciais nos ruminantes, tais como transporte de energia, formação dos fosfolipídeos e efeito tampão no rumem. A falta desse mineral pode prejudicar o apetite e conseqüentemente causar a perda de peso. Entretanto, o seu fornecimento em excesso leva a perda por excreção que pode causar poluição quando o P alcança as águas de rios e mananciais. O objetivo desse trabalho foi utilizar a modelagem matemática como ferramenta para o estudo do metabolismo e cinética do P em ruminantes. Dezesseis ovinos machos jovens foram alimentados com dietas contendo diferentes fontes de cálcio (Ca) e níveis semelhantes de P e Ca. Após adapatação às dietas os animais receberam uma injeção única contendo 7,4 MBq de 32P e 7,4 MBq de 45Ca. As coletas de fezes, urina e sangue foram feitas diariamente durante sete dias para análise desses minerais. Depois de sacrificar os animais, foram coletadas amostras de tecidos moles (rins, fígado, coração e músculo) e ossos para análise do P e do Ca. Num primeiro trabalho, os dados obtidos foram utilizados para revisar o modelo Vitti, e dados referentes ao P do fitato foram adicionados ao modelo. Os resultados referentes aos fluxos obtidos entre os ossos e o plasma (23,8 e 22,9 g/d) foram maiores do que os fluxos entre os tecidos e o plasma (3,35 e 2,83 g/d), refletindo a maior precisão do modelo revisado. As predições do modelo quanto à absorção e excreção do P do fitato poderão ser utilizadas em estudos futuros relativos ao seu metabolismo em ruminantes. No segundo trabalho, os tratamentos contendo as diferentes fontes de cálcio (calcário, feno de alfafa, polpa cítrica e farinha de conchas de ostras) foram comparados através da análise estatística dos fluxos obtidos de dois modelos: Vitti revisado (VD) e modelo Fernandez revisado por Lopes (FL). Os resultados referentes à presença de Ca líquido nos ossos estão de acordo entre os modelos VD e FL, no entanto o modelo VD apresentou maior valor de retenção líquida de Ca nos tecidos. Ambos os modelos mostraram o mesmo padrão para os fluxos de P, assim como para as retenções líquidas de P nos ossos e tecidos. Os modelos refletiram de maneira semelhante o metabolismo do P. No terceiro trabalho, o modelo VD foi utilizado para avaliar o efeito de diferentes níveis de suplementação de P na dieta sobre o metabolismo do P em ovinos em crescimento (0; 1,5; 3,0; 4,5 g de P/animal/dia correspondendo aos tratamentos T1, T2, T3 e T4 respectivamente). O maior valor para o P absorvido nos ossos foi obtido pelos animais do T4 que excretaram os maiores níveis de P nas fezes. O T3 forneceu o melhor nível de P para essa categoria de animal, pois o P absorvido nos ossos e tecidos indicou que a absorção total de P foi adequada. Como conclusão final dos três trabalhos realizados, pode-se afirmar que o modelo VD é uma importante ferramenta para ser utilizada no estudo do metabolismo do P em ruminantes
The phosphorus (P) is responsible for essential functions in ruminants as such energy transportation, phospholipids formation and buffer effect on rumen. The lack of this mineral can impair appetite therefore causing loss of weigh. However the excess of P provided leads to losses through excretion that can cause pollution when it reaches river and stream water. The objective of this work was to apply mathematical modeling as a tool to study P metabolism and kinetics in ruminants. Sixteen young male sheep were fed with diets containing sources of Ca and similar levels of P and Ca. After adaptation to diets the animals received a single injection of 7,4 MBq of 32P and 7,4 MBq of 45Ca. Collections of feces, urine and blood were made daily for 7 days for further P and Ca analyses. After animals were sacrificed, samples were collected from soft tissue (kidney, liver, heart and muscle) and bone for P and Ca analyses. In the first paper, the obtained data was used to revise Vitti model, and data from phytate P were added to the model. The results concerned to the fluxes obtained between bone and plasma (23,8 and 22,9 g/d) were greater than the fluxes between tissue and plasma (3,35 and 2,83 g/d) reflecting the better precision from the revised model. The model prediction for phytate P absorption and excretion can be further used in studies related do phytate P metabolism in ruminants. In the second paper, the treatments containing different Ca sources (limestone, alfalfa hay, citrus pulp and oyster shell meal) were compared using statiscal analyses from the fluxes obtained from two models: Vitti model revised (VD model) and Fernandez model revised by Lopes (FL model). The results concerned to the presence of net Ca in bone are in agreement between the two models; however the net Ca retention in tissue was greater for VD model. Both models showed the same pattern for P fluxes, as well as for net P retention in bone and tissue. The models reflected P metabolism in the same way. In the third paper, the Vitti model revised was used to assess the effect of different levels of P supplementation (0; 1,5; 3,0 and 4,5 g P/animal/ day corresponding to T1, T2, T3 and T4 respectively) upon P metabolism in growing sheep. The higher value for P absorbed in bone was obtained by animals from T4 that also excreted the greater levels of P in feces. The T3 provided the best P level for this animal category because P absorbed in bone and tissue indicated that total P absorption was adequate. As final conclusion from the accomplished work, it can be claimed that the revised Vitti model is an important tool to be used to study P metabolism in ruminants
APA, Harvard, Vancouver, ISO, and other styles
29

Genovese, Filippo. "Sviluppo e implementazione di un codice di calcolo per la verifica delle prestazioni energetiche e della carica ottimale di refrigerante in pompe di calore aria-acqua invertibili." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
Il presente elaborato, svolto all'interno del reparto R&D di Galletti S.p.A, descrive lo sviluppo e la successiva implementazione di un modello fisico-matematico per pompe di calore aria-acqua invertibili. Il codice di calcolo sviluppato, basandosi su modelli matematici creati ad-hoc per i singoli componenti, permette di bilanciare termodinamicamente una macchina aria-acqua al variare dei componenti utilizzati e delle condizioni di lavoro e fornisce il valore della carica di refrigerante necessaria al funzionamento ottimale della macchina in entrambe le modalità operative (chiller/pompa di calore). Il codice è stato implementato su due pompe di calore progettate in azienda, di cui erano disponibili i dati sperimentali ottenuti in fase prototipale, dimostrando un'ottima capacità predittiva. Attraverso il post-processing dei dati di output del modello è stato poi possibile valutare alcune strategie per la riduzione della carica di refrigerante indagando sugli effetti indotti sulle prestazioni energetiche nominali. Infine, è stato implementato il codice per la previsione del comportamento stagionale di una macchina ad alta efficienza, evidenziando alcune criticità indotte dalla ridistribuzione della carica all'interno degli scambiatori di calore durante le parzializzazioni del carico.
APA, Harvard, Vancouver, ISO, and other styles
30

Ridolfi, Giulia. "Il valore dell'acquisto e l'acquisto del valore: Studio ed implementazione di un modello per l'analisi del Cost Breakdown e il calcolo del Total Cost of Ownership per una classe merceologica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15120/.

Full text
Abstract:
Obiettivo del progetto è l’analisi e lo sviluppo di un sistema di reporting per l’area Acquisti di Ducati, azienda all’interno della quale ho potuto implementare due modelli di costo che risultino utili alle attività decisionali dei buyer. La classe merceologica d’analisi scelta è quella delle forcelle, uno dei pochi prodotti ingegnerizzati dal fornitore il cui know-how è sconosciuto a Ducati. La prima parte della ricerca si concentra su un’ analisi relativa al prezzo d’acquisto perciò è stato creato un data sheet, ottenuto mediante uno studio del prodotto disassemblato, disegni tecnici e analisi meccanica che permetta la classificazione tecnologica della forcella. A seguito della classificazione si è generato un modello di Cost Breakdown, col quale si può calcolare il costo pieno aziendale, a partire dal costo pieno industriale includendo costi diretti ed allocando gli indiretti. Queste due schede sono state consegnate al fornitore. Il prezzo d’acquisto è solo una parte dei costi della Supply Chain, quindi in seconda analisi, si è implementato un modello che consideri anche i costi logistici, qualitativi, finanziari e di pianificazione specifici per le forcelle: il Total Cost of Ownership. Sono state confrontate poi le catene di approvvigionamento di un fornitore italiano e uno giapponese con differenti prezzi d’acquisto, in modo da mettere in risalto la miglior performance tra i due. Attraverso l’individuazione e l’analisi dei costi, utilizzando questi modelli, il buyer identifica le leve negoziali che gli permettono di generare un valore economico-finanziario dato che secondo la Catena del valore di Porter, l’acquisto è una delle attività di supporto per la creazione di marginalità aziendale.
APA, Harvard, Vancouver, ISO, and other styles
31

Katsikoudis, Stergios. "Modellazione di generatori fotovoltaici." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Nella seguente tesi si affrontano le tematiche e le problematiche legate all'utilizzo di fonti rinnovabili e come esse influenzano il funzionamento della rete. Vengono descritti i principali sistemi di accumulo atti a compensare la non programmabilità delle fonti rinnovabili. Successivamente si descrive il laboratorio di Microreti in tutte le sue componenti. Infine si espone il lavoro svolto con il fine di ottenere un modello matematico in grado di rappresentare il comportamento dei pannelli fotovoltaici. La relazione inizialmente utilizzata è stata modificata, con un’operazione di tuning, per meglio interpolare i dati sperimentali raccolti durante le svariate giornate di test. Si è proceduto poi, mediante fitting dei dati, a ricavare i parametri fondamentali per poter rappresentare la curva tensione-corrente del pannello ovvero: corrente di cortocircuito, corrente di massima potenza, tensione a vuoto e tensione di massima potenza. Per fare ciò sono stati suddivisi i dati in gruppi mantenendo l’irraggiamento costante variando la temperatura di cella e viceversa, con l’intento di isolare il comportamento dei pannelli nelle diverse situazioni. Il lavoro ha portato all’ottenimento delle relazioni cercate. È possibile ricavare i coefficienti precedentemente ottenuti utilizzando i dati di targa forniti dal costruttore dei pannelli. In tal caso tuttavia si perviene a risultati differenti. Il passo successivo è la validazione del modello creato. Per farlo si prende un campione di dati composto da un migliaio di punti sperimentali compresi fra valori di irraggiamento pari a 510W/m2 e 830 W/m2 mentre la temperatura varia fra 24°C e i 51°C. Si è calcolato l’errore che si commette e la relativa dispersione con l’intento di valutare le bontà del modello, utilizzando le diverse relazioni. Il risultato che si ottiene è da considerarsi soddisfacente e risulta preferibile l’utilizzo delle relazioni ricavate nel corso della presente tesi.
APA, Harvard, Vancouver, ISO, and other styles
32

Perrone, Claudia. "Master Tower: sviluppo e innovazione di un impianto per la produzione di conglomerato bituminoso." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Il presente lavoro di tesi riguarda lo studio dell’impianto di produzione di conglomerato bituminoso Master Tower, focalizzandosi in particolar modo sulla barra di essicazione. Innanzitutto, viene riportato quanto presente in letteratura relativo al processo di essicazione, oltre che al funzionamento generale degli impianti per la produzione di asfalto e quindi delle varie macchine e quasi-macchine che li compongono. Nello specifico viene poi descritto il funzionamento del Master Tower. Per lo sviluppo della presente tesi è stato eseguito uno studio riguardo gli impianti di produzione di agglomerati bituminosi di vario tipo per comprenderne a pieno il processo di lavoro, dopodiché si è passati all’analisi del processo di essicazione. Infine, ci si è concentrati sul progetto Master Tower per il quale si sono analizzate le innovazioni introdotte rispetto agli altri impianti tradizionali e il suo funzionamento. Si è poi approfondita la conoscenza dei tamburi, sia degli aggregati vergini che dei riciclati, delle portate d’aria presenti, nonché del circuito di ricircolo, dei ventilatori, del bruciatore e del filtro. Le attività sperimentali hanno previsto una fase di acquisizione dei dati di performance della macchina sul sito (cioè il cantiere Socob di Cesena), seguita da elaborazione e analisi. Si è passati, poi, all’elaborazione e sviluppo di un modello matematico per il calcolo della produttività e dei consumi dell’impianto. Infine, si è validata l’ipotesi di calcolo attraverso l’esperienza diretta sul campo. Sono stati valutati anche i flussi d’aria che interessano gli essiccatori e il filtro.
APA, Harvard, Vancouver, ISO, and other styles
33

SANTOS, Juliano Barbosa dos. "Aplicação de modelos cinético e energético para análise da fragmentação ultrafina de partículas de calcário e quartzo em moinho planetário de bolas." Universidade Federal de Pernambuco, 2016. https://repositorio.ufpe.br/handle/123456789/19486.

Full text
Abstract:
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-07-10T18:48:53Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação completa.pdf: 8076647 bytes, checksum: 5dc16e9ca5f10026afed3fda08fda16b (MD5)
Made available in DSpace on 2017-07-10T18:48:53Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação completa.pdf: 8076647 bytes, checksum: 5dc16e9ca5f10026afed3fda08fda16b (MD5) Previous issue date: 2016-05-12
Minerais industriais em faixas ultrafinas (< 10 μm) têm suas propriedades potencializadas em relação ao mesmo mineral com maior granulometria. Os materiais ultrafinos são utilizados em diversos seguimentos industriais; por exemplo: materiais cerâmicos, papel e celulose, fármacos, polímeros e tintas. A produção de ultrafinos ocorre em moinhos de alta energia. Dentre estes, o moinho planetário de bolas destaca-se pelas altas taxas de redução de tamanho e pelo fato de poderem ser alimentados via seco ou via úmido em regime contínuo (escala industrial) ou por batelada. A produção de ultrafinos é limitada pelo consumo de energia e pela necessidade de controle das condições operacionais, tamanho, morfologia e composição das partículas. Para otimização das variáveis do processo, usam-se ferramentas computacionais embasadas em modelos matemáticos, tais como os modelos de balanço populacional (MBP), dada pela equação da moagem por batelada, e modelos energéticos. Este trabalho teve por objetivo estudar modelos cinético e energéticos, sendo o primeiro uma solução analítica da equação da moagem por batelada utilizado para descrever as distribuições de tamanhos de partículas, e o segundo dado pela relação energia-tamanho, que prevê uma taxa de redução de tamanho ilimitada, e pela relação tempo-tamanho, que está fundamentada na taxa de moagem () e no limite de moagem. Os modelos foram aplicados em duas centenas de curvas granulométricas resultantes de ensaios de moagem executados anteriormente em alíquotas de calcário e quartzo (duas procedências) com massa e granulometria controladas. Os tempos de moagem variaram de 2 a 960 minutos com velocidades de revolução de 100 a 300 rpm. Os ajustes dos modelos cinético e energéticos foram avaliados considerando os seguintes fatores: coeficiente de determinação (R2), erro padrão (EP), erro de ajuste () e índice de dependência (ID). O modelo cinético apresentou, para a maioria das condições de moagem testadas, grande incerteza associada a alguns de seus parâmetros ( > 10%), tornando os ajustes insatisfatórios segundo os critérios utilizados. Os fatores de avaliação para o modelo cinético só foram adequados para o quartzo de uma procedência, na faixa de 38x75 μm, satisfazendo a condição de compensação estabelecida. No caso dos modelos energéticos, os ajustes obtidos para a relação energiatamanho foram melhores para aquelas situações em que os diâmetros característicos não apresentaram uma estabilização em seu decrescimento. Por sua vez, a relação tempo-tamanho mostrou ajustes compatíveis com as situações em que foi observado um estado estático de decrescimento dos diâmetros característicos, atingindo o limite de moagem. A partir dos ajustes da relação tempo-tamanho foi possível determinar uma constante k’ que caracterizasse a resistência à fragmentação do material em função das condições de moagem estudadas. Os valores dessa constante mostraram que materiais mais resistentes à fragmentação possuem os menores valores de k’, que variaram entre 0,96 e 2,6 g/J para o calcário e entre 0,06 a 0,53 g/J para o quartzo. Concluiu-se, que o modelo cinético foi incompatível com a moagem ultrafina, devida a presença de eventos significativos de aglomeração e interações mecânicas multipartículas, confirmados pela variação do índice de uniformidade () com o tempo de moagem. Os modelos energéticos se complementam na descrição dos resultados experimentais. Logo um modelo intermediário que considere uma taxa de redução de tamanho como uma função potência, com um expoente e um parâmetro (l) que represente o limite de moagem, seja o mais recomendado para a representação dos processos de moagem ultrafina de minerais industriais.
Industrial minerals in ultrafine ranges (< 10 μm) have their properties potentiated compared to the same mineral with larger particle size. The ultrafine materials are used in several industries; for example, ceramics, paper and cellulose, pharmaceuticals, polymers and paints. The production of ultrafine occurs in high energy mills. Among these mills, the planetary ball mill stand out by high rates and can be fed dry or wet in continuous (industrial scale) or batch operation. The production of ultrafine is limited by the energy consumption and the need to control of the operating conditions, size, morphology and composition of the particles. Computational tools based on mathematical models are used in the optimization and control of process variables, such as the population balance models (MBP), given by equation milling batch, and energetic models. This work has as objective to study kinetic and energetic models, the first is a analytical solution for the batch grinding equation used to describe particle size distributions; the second given by the energy-size relations, which predict a size reduction rate unlimited, and by the time-size relations, which are based on the milling rate () and grinding limit. The models were applied to two hundred of particle sizes distributions curves resulting from grinding tests performed previously in aliquots of limestone and quartz (two origins) with control of mass and particle size. The milling times range 2 - 960 min with revolution speeds of 100 to 300 rpm. The fits of the kinetic and energetic models were evaluated considering the following factors: coefficient of determination (R2), standard error (SE), fit error (ε) and dependency index (ID). The kinetic model showed uncertainty associated with some of its parameters (ε > 10%) for most of the grinding conditions tested, resulting in unsatisfactory fits to the criteria used. The evaluation factors for the kinetic model were only suitable for one quartz, in the range of 38x75 μm satisfying the compensation condition. In the case of energetic models, the fits to the energy-size relation were better for those situations where the characteristic diameters did not show a stabilization in its decrease. On the other hand, the sizetime relation shown compatible fits with the situation where was observed a decrease static state of the characteristic diameters reaching the grinding limit. From the fits of the time-size relation was possible to determine a constant ′ that characterizes the resistance to fragmentation of the material depending on the grinding conditions studied. The values of this constant showed that materials more resistant to fragmentation have the smaller ′ values, ranging between 0.96 and 2.6 g/J for the limestone and from 0,06 to 0.53 g/J to quartz. It was concluded that the kinetic model was incompatible with ultrafine grinding, due to the presence of significant events of multi-particle interactions and agglomeration, which was confirmed by variation in the uniformity index (′) in milling time function. Energetic models complemented each other for description of the experimental results. Ready an intermediate model which consider a size reduction rate as a power function with an exponent η and a parameter (l) representing the grinding limit is the most recommended for the representation of the ultrafine grinding processes of industrial minerals.
APA, Harvard, Vancouver, ISO, and other styles
34

D'Apote, Beatrice. "Studio del danno indotto dalla detonazione e della temperatura media di pistoni in lega di alluminio e sviluppo di un modello analitico per il calcolo in Real-Time della temperatura dei gas di scarico." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
In campo motoristico, negli ultimi anni, la ricerca si è orientata allo studio approfondito dell'efficienza di combustione, individuandone in primo luogo i principali aspetti limitanti. Primo tra tutti la detonazione che, essendo dannosa per i componenti del motore (e in particolare quelli della camera di combustione), è adesso al centro di molti studi. L'obiettivo è di conoscerla a fondo in modo da poterne arginare gli effetti. Questa tesi si colloca in un ampio progetto volto a perseguire tale risultato. Infatti, lo studio del danno che viene indotto sui componenti della camera di combustione (i pistoni in particolare), della sua morfologia, della localizzazione prevalente e i principali parametri ai quali esso risulta correlabile, fanno parte dell'attività sperimentale esposta in questo lavoro. Essa si concentra inoltre sul degrado termico della lega dei pistoni a seguito di prove a banco sul motore, che si pongono l'obiettivo di provocare elevati livelli di detonazione e su eventuali benefici che derivano dal poterne accettare episodi di entità incipiente. A tale proposito, viene esposto e validato un modello di temperatura dei gas di scarico Real Time, tramite il quale è possibile calcolare la temperatura di essi una volta noto il punto motore.
APA, Harvard, Vancouver, ISO, and other styles
35

Sandoval, Urmeneta Mayling Isabel, and Farfán Andrés Eduardo Angulo. "Determinar si el tipo de Cultura Organizacional de la Aduana Marítima del Callao favorece el alineamiento a los principios que se desprenden del Acuerdo sobre Facilitación del Comercio (AFC) de la Organización Mundial de Comercio (OMC)." Master's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/653861.

Full text
Abstract:
El presente trabajo de investigación plantea como premisa la necesidad de que la cultura organizacional de la Intendencia de Aduana Marítima del Callao (IAMC) facilite la adecuación y el cumplimiento de los principios que se desprenden del Acuerdo sobre Facilitación de Comercio (AFC), que constituye el primer acuerdo multilateral concertado por la Organización Mundial del Comercio y que entró en vigor en el año 2017. A partir de ello, se pretende establecer si el tipo de cultura organizacional de la IAMC permite un adecuado alineamiento a los principios que se desprenden del AFC, lo que ha permitido plantearse la pregunta de investigación: ¿El tipo de cultura organizacional actual en la IAMC, favorece el alineamiento a los principios que se desprenden del Acuerdo de Facilitación de Comercio? Se ha pretendido realizar una aproximación a las características de la cultura predominante, mediante un diagnóstico de la cultura organizacional de la Intendencia de Aduana Marítima del Callao (IAMC), utilizando como ayuda para este propósito, la metodología del Modelo de Valores en Competencia propuesta por Cameron y Quinn. Se realizó una investigación bajo el enfoque cualitativo de tipo descriptivo, bajo un diseño no experimental de carácter transversal, para lo cual se utilizó como apoyo el instrumento denominado Organizational Culture Assessment Instrument (OCAI) para realizar el diagnóstico señalado. Finalmente, luego del análisis realizado, se determina que de los 7 principios identificados que se desprenden del Acuerdo sobre Facilitación de Comercio (AFC) de la Organización Mundial de Comercio (OMC) cinco de ellos pueden ser facilitados por el actual tipo de cultura de la organización y dos de ellos encuentran dificultades para su alineamiento. Dentro de las recomendaciones se indica el desarrollo de una estrategia de comunicación que contribuya en facilitar un mejor alineamiento de todos los principios del AFC en la cultura de la organización.
The present research work raises as a premise the need for the organizational culture of the Callao Maritime Customs Intendancy (IAMC) to facilitate the adaptation and compliance of the principles that emerge from the Trade Facilitation Agreement (TFA), which constitutes the first multilateral agreement concluded by the World Trade Organization (WTO), which entered into force in 2017. Based on this, it is intended to establish whether the type of organizational culture of the IAMC allows an adequate alignment to the principles that emerge from the TFA, which has allowed to pose the research question: Does the current type of organizational culture in the IAMC favor alignment with the principles that emerge from the Trade Facilitation Agreement? It has been intended to make an approach to the characteristics of the predominant culture, through a diagnosis of the organizational culture of the Callao Maritime Customs Intendancy (IAMC), using as an aid for this purpose, the methodology of the Competing Values Framework proposed by Cameron and Quinn. An investigation was carried out under a qualitative, descriptive approach, under a non-experimental design of a cross-sectional nature, for which the instrument called Organizational Culture Assessment Instrument (OCAI) was used as support to make the diagnosis indicated. Finally, after the analysis carried out, it is determined that of the 7 identified principles that emerge from the Trade Facilitation Agreement (TFA) of the World Trade Organization (WTO), five of them can be facilitated by the current type of culture of the organization and two of them encounter difficulties for their alignment. The recommendations indicate the development of a communication strategy that contributes to facilitating a better alignment of all the principles of the TFA in the culture of the organization.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
36

Mondardini, Maria Lucia. "Contribution au développement des structures en pierre de taille : modélisation, optimisation et outils de conception." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1084/document.

Full text
Abstract:
Du fait de la richesse de ses ressources naturelles, la France est traditionnellement un grand producteur de roches destinées à la construction. Le secteur souffre pourtant d'une sous-utilisation de ces produits et il est caractérisé par une organisation artisanale, avec un grand nombre de petites entreprises distribuées sur le territoire. Produit naturel, la pierre a de nombreux attributs positifs du point de vue du développement durable : un cycle de vie long, une bonne résistance, une grande facilité d'entretien et de recyclage, et des pratiques d'extraction et de fabrication avancées générant de faibles coûts en termes d'énergie et de pollution. Compte tenu des caractéristiques positives de la pierre, cette thèse vise à encourager un rapprochement de l'architecture contemporaine et de la pierre de taille, afin de répondre aux normes environnementales et à la qualité de vie de ceux qui utilisent les ouvrages construits. Toutefois, il existe de fortes contraintes liées aux caractéristiques propres de ce matériau. D'abord des contraintes morphologiques, liées à la transmission de force typique des systèmes voutés qui, sollicitées par un état de compression qui est favorable à la pierre et qui est transmis seulement par le contact continu entre les surfaces des éléments, transmettent une poussée non négligeable sur les structures de confinement. En outre des contraintes technologiques, liées à la nécessité de créer une structure temporaire qui simplifie la mise en œuvre qui s'avère exigeante en ressources et matériaux et suppose un temps de réalisation long. La méthode que nous définissons dans la thèse, en s'inspirant de la stéréotomie, vise la mise en place d'un processus continu et contrôlé de création de l'objet architectural, de sa conception à sa validation, sur la base de critères objectifs, jusqu'à sa réalisation. Dans le champ très vaste des structures en pierre de taille, sur la base des objectifs de notre recherche, nous nous sommes concentrés sur des systèmes obtenus à partir d'un appareillage plat de pierres, breveté par l'ingénieur français Joseph Abeille en 1699. Cette proposition se trouve à l'interface entre les systèmes voûtés et les structures réciproques. Nous avons donc mis en place une méthode de support à la conception et à la fabrication s'appuyant sur des logiciels de modélisation géométrique et mécanique actuels. Une procédure automatique permet de générer des familles paramétriques des structures caractérisées par l'assemblage de claveaux en pierre. Plusieurs sorties graphiques sont programmées dans la même procédure, visant à optimiser les processus de fabrication. Si plusieurs possibilités formelles sont disponibles, il est nécessaire de disposer d'un outil et de critères pour opérer la sélection. Dans certains cas, ceux-ci concernent les conditions de fabrication, d'installation et de fonctionnement des structures, dans d'autres cas, ils portent sur la mécanique des structures en pierre de taille. Nous avons donc utilisé un modèle numérique pour simuler le comportement des structures clavées en pierre, afin de sélectionner une structure performante sur la base de ces critères. Cette étape nous permet également d'étudier l'influence des paramètres considérés comme significatifs et indiqués au stade de la conception sur la performance de la structure. La relation soulignée par cette analyse de sensibilité devient un outil d'évaluation, qui peut être utile dans les choix de conception. Enfin, il nous est apparu indispensable d'expérimenter plusieurs réalisations à grande échelle, afin de tester la faisabilité des structures dessinées et la fonctionnalité de l'outil numérique. Les conclusions de ce travail visent à promouvoir la possibilité de mettre à disposition des architectes et ingénieurs des outils adéquats pouvant favoriser la réappropriation de la pierre massive comme matériau de construction, et proposer des formes et des caractéristiques positives adaptées à la demande actuelle
Due to the abundance of its natural resources, France has traditionally been a major producer of rocks for construction. Yet the sector suffers from underuse of these products and is characterized by an artisanal organization, with a large number of small-scale industries distributed over the territory. Thanks to their natural origin, stones have many attributes that fit with sustainable development principles: a long life cycle, good resistance, ease of maintenance and recycling, and advanced mining and manufacturing practices characterized by low energy consumption and pollution. Considering these good characteristics, this thesis aims at encouraging reconciliation between contemporary architecture and dimension stone, in order to meet the environmental standards and enhance the quality of life of those using the buildings. However, there are strong constraints related to the specific characteristics of this material. First of all, the morphological constraints related to the transmission of forces typical of the vaulted systems. Vaulted systems are solicited by compressions transmitted only through the direct contact between the surfaces of the different elements, but that exert a significant thrust on the confinement structures. In addition, technological constraints are related to the need of creating a temporary structure to simplify the construction. This temporary sub-structure proves demanding in terms of resources and materials, and requires a long time to be completed. The method described in the thesis, which is inspired by stereotomy, aims at building a continuous and controlled process for the creation of the architectural object – going from design to validation to construction - based on objective criteria. In the huge field of structures made of dimension stones, we are focusing for this research on systems obtained from a flat bonding of stones patented by the French engineer Joseph Abeille in 1699. The characteristics of this flat stones bonding make it particularly interesting and potentially effective from the formal and structural point of view. We have therefore created a way to support the design and the production - based on existing modeling and mechanical software. An automatic procedure generates parametric families of structures based on Abeille's bonding. Several graphical outputs are programmed in the same procedure, aimed at optimizing the manufacturing process. However, if many formal opportunities are created by the process, it is necessary to have tools and criteria to make the selection. In some cases, these criteria are related to the conditions of manufacturing, installation and functioning of the structures; in other cases, they are related to the mechanics of stone structures. To achieve this, we have used a numerical model to simulate the behavior of the different stone structures and helps the identification of the most performing one – depending on the defined criteria. This simulation also allows us to study the influence of some parameters, considered significant at the design stage, on the performance of the structure. The relationships underlined by this analysis provide an assessment tool that can be useful in design choices. Finally, we considered necessary to experiment with several large-scale construction - to test the feasibility of the designed structures and the functionality of the digital tool. The conclusions of this study are intended to provide architects and engineers with adequate tools to promote and facilitate the appropriation of the stone as a building material, and propose forms and materials suitable to contemporary requirements
APA, Harvard, Vancouver, ISO, and other styles
37

Egidi, Leonardo. "Developments in Bayesian Hierarchical Models and Prior Specification with Application to Analysis of Soccer Data." Doctoral thesis, Università degli studi di Padova, 2018. http://hdl.handle.net/11577/3427270.

Full text
Abstract:
In the recent years the challenge for new prior specifications and for complex hierarchical models became even more relevant in Bayesian inference. The advent of the Markov Chain Monte Carlo techniques, along with new probabilistic programming languages and new algorithms, extended the boundaries of the field, both in theoretical and applied directions. In the present thesis, we address theoretical and applied tasks. In the first part we propose a new class of prior distributions which might depend on the data and specified as a mixture between a noninformative and an informative prior. The generic prior belonging to this class provides less information than an informative prior and is more likely to not dominate the inference when the data size is small or moderate. Such a distribution is well suited for robustness tasks, especially in case of informative prior misspecification. Simulation studies within the conjugate models show that this proposal may be convenient for reducing the mean squared errors and improving the frequentist coverage. Furthermore, under mild conditions this class of distributions yields some other nice theoretical properties. In the second part of the thesis we use hierarchical Bayesian models for predicting some soccer quantities and we extend the usual match goals’ modeling strategy by including the bookmakers’ information directly in the model. Posterior predictive checks on in-sample and out-of sample data show an excellent model fit, a good model calibration and, ultimately, the possibility for building efficient betting strategies.
Negli ultimi anni la sfida per la specificazione di nuove distribuzioni a priori e per l’uso di complessi modelli gerarchici è diventata ancora più rilevante all’interno dell’inferenza Bayesiana. L’avvento delle tecniche Markov Chain Monte Carlo, insieme a nuovi linguaggi di programmazione probabilistici, ha esteso i confini del campo, sia in direzione teorica che applicata. Nella presente tesi ci dedichiamo a obiettivi teorici e applicati. Nella prima parte proponiamo una nuova classe di distribuzioni a priori che dipendono dai dati e che sono specificate tramite una mistura tra una a priori non informativa e una a priori informativa. La generica distribuzione appartenente a questa nuova classe fornisce meno informazione di una priori informativa e si candida a non dominare le conclusioni inferenziali quando la dimensione campionaria è piccola o moderata. Tale distribuzione `e idonea per scopi di robustezza, specialmente in caso di scorretta specificazione della distribuzione a priori informativa. Alcuni studi di simulazione all’interno di modelli coniugati mostrano che questa proposta può essere conveniente per ridurre gli errori quadratici medi e per migliorare la copertura frequentista. Inoltre, sotto condizioni non restrittive, questa classe di distribuzioni d`a luogo ad alcune altre interessanti proprietà teoriche. Nella seconda parte della tesi usiamo la classe dei modelli gerarchici Bayesiani per prevedere alcune grandezze relative al gioco del calcio ed estendiamo l’usuale modellazione per i goal includendo nel modello un’ulteriore informazione proveniente dalle case di scommesse. Strumenti per sondare a posteriori la bontà di adattamento del modello ai dati mettono in luce un’ottima aderenza del modello ai dati in possesso, una buona calibrazione dello stesso e suggeriscono, infine, la costruzione di efficienti strategie di scommesse per dati futuri.
APA, Harvard, Vancouver, ISO, and other styles
38

Grim, Jakub. "Spektroskopie fotoionizačního přechodu neutrálního atomu vápníku emitovaného laserovou ablací." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2020. http://www.nusl.cz/ntk/nusl-417152.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

DORANTI, ALESSANDRO. "La forma stadio. Pratiche del conflitto urbano e crisi della trasmissione dei saperi tra generazioni." Doctoral thesis, 2015. http://hdl.handle.net/2158/1043371.

Full text
Abstract:
L'oggetto della ricerca è l'indagine dei mutamenti del rito calcistico dalle origini fino all'avvento del cosiddetto “calcio moderno”. Il calcio è analizzato come forma di attività collettiva che condensa e trasfigura significati sociali profondi che rimandano alla messinscena di una battaglia. La riflessione si concentra in particolar modo sulle istituzioni che governano il gioco del calcio, sull’economia che lo ristruttura e su come mutano i conflitti che lo attraversano. Lo studio teorico dell'evolversi e del mutare del rito è supportato da una ricerca sul campo relativa a una vicenda specifica: la forte conflittualità che a Livorno per circa un quinquennio (fine secolo - inizio anni 2000) ha avuto come fulcro lo stadio.
APA, Harvard, Vancouver, ISO, and other styles
40

Hatch, Rosemary. "Trace element incorporation in modern speleothem calcite and implications for paleoclimate reconstruction." Thesis, 2014. http://hdl.handle.net/2152/28233.

Full text
Abstract:
Trace element compositions, expressed as ratios relative to Ca (Mg/Ca, Sr/Ca and Ba/Ca), in drip water and modern speleothem calcite were measured at multiple sites within a single cave system (Natural Bridge Caverns) in central Texas. These measurements are used to investigate how water and calcite compositions respond to changes in climate. Drip water trace element ratios respond to changes in climate and in soil, vadose zone and/or in-cave processes, which are in turn influenced by climate. It is commonly assumed that speleothem calcite directly reflects these changes in the drip water composition. To test this assumption, this study quantifies the partitioning of trace elements into speleothem calcite in a natural cave setting. To determine the controls on calcite trace element ratios, empirical partition coefficients (K [subscript D]) for Mg, Sr, and Ba are measured using a unique time series of water and modern calcite geochemistry at two drip sites. One drip site, dominantly supplied by conduit flow, has relatively invariant calcite trace element compositions that reflect correspondingly small variations in drip water chemistry. A second drip site, supplied by a combination of conduit and diffuse flow, exhibits a seasonal change in drip water composition due to changes in cave-air CO₂ concentrations. The drip water seasonality at this site is recorded in the calcite trace element compositions; however the partitioning of Mg/Ca from drip water to calcite is not controlled by the same mechanism(s) that control Sr/Ca and Ba/Ca partitioning. Results of this study indicate that the partitioning of Mg changes with drip water Mg concentration, temperature and location of the calcite relative to the point of drip impact. Calcite Sr/Ca and Ba/Ca ratios are more strongly influenced by changes in cave-air CO₂ that cause changes in CO₂ degassing, affecting calcite precipitation. This element specific partitioning complicates the interpretation of speleothem trace element records, since calcite Mg/Ca and Sr/Ca may not always covary even at drip sites that experience PCP. Although there is a strong correlation between Mg/Ca and Sr/Ca ratios in the drip water at these sites, there is considerable scatter between these two values in calcite. Average K [subscript D] values at both sites fall within the range of previous theoretical and empirical studies and are 0.025, 0.12 and 0.15 for Mg, Sr and Ba respectively. It is important to note that not all trace element partitioning is controlled by the same mechanism, since this has implications for interpretations of hydrologic processes from speleothems.
text
APA, Harvard, Vancouver, ISO, and other styles
41

Rassu, Nicoletta. "REGOLAMENTAZIONE DEI SERVIZI AEROPORTUALI: CREAZIONE DI UN MODELLO APPLICATIVO PER IL CALCOLO DELLE TARIFFE AEROPORTUALI." Doctoral thesis, 2012. http://hdl.handle.net/10447/94617.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Tambè, Giuseppe. "Measuring brand equity in football clubs: the case of Reggiana Calcio 1919." Master's thesis, 2020. http://hdl.handle.net/10071/21696.

Full text
Abstract:
This Study presents a marketing and statistical analysis that focuses on the measurement of the brand equity of Reggiana Calcio 1919, an Italian second division football club that has recently been promoted to the second division, namely, Serie B. Reggiana Calcio 1919 was selected as the target club in this research project because in the literature there are limited studies on small sports organisations. The main aim of this study is to analyse the most significant determinants of brand equity of the club and how both its fanbase and customers perceive the brand. Reggiana Calcio 1919 is a historic Italian football club, although it does not have a victorious past. For the purpose of the research project, a quantitative research approach was followed by using IMB SPSS software along with being a qualitative approach as primary and secondary data. The data collected was applied to the Keller Customer-Based Brand Equity model (CBBE), based on its four main dimensions: Brand Awareness, Brand Response, Brand Meaning and Brand Loyalty. The results have identified that Reggiana Calcio 1919 strongly position its brand at a regional level, the club has a well-established engagement with its fanbase and customers who are intensely loyal and identify themselves with the brand. However, the club lack of investments on football facilities which, in turn, subtracts potential market value as these investments would benefit the club not only financially but also in terms of image as it would appear as a strongly reliable brand. The research is significant to understand what makes a small football club competitive within modern football industry.
Este estudo apresenta uma análise estatística e de marketing que se centra na medição do valor da marca do Reggiana Calcio 1919, um clube italiano de futebol da segunda divisão que foi recentemente promovido à segunda divisão, ou seja, a Serie B. Reggiana Calcio 1919 foi selecionada como clube alvo neste projeto de pesquisa devido à existência de um número limitado de estudos na literatura sobre pequenas organizações de desporto. O objetivo principal deste estudo è analisar os determinantes mais significativos do valor da marca do clube e como a marca é percebida pelos seus fãs e clientes. O Reggiana Calcio 1919 é um histórico clube de futebol italiano, embora não tenha um passado vitorioso. Para o propósito do projeto de pesquisa, foi seguida uma abordagem de pesquisa quantitativa, usando o software IMB SPSS, e uma abordagem qualitativa como dados primários e secundários. Os dados recolhidos foram aplicados ao modelo de Keller Customer-Based Brand Equity (CBBE), baseado em quatro dimensões principais: Consciência da Marca, Resposta da Marca, Significado da Marca e Lealdade à Marca. Os resultados identificaram que Reggiana Calcio 1919 posiciona fortemente a sua marca ao nível regional e o clube tem um compromisso bem estabelecido com a sua base de fãs e clientes que são extremamente fiéis e se identificam com a marca. No entanto, o clube carece de investimentos em instalações de futebol o que, por sua vez, subtrai valor potencial de mercado, pois tais investimentos beneficiariam o clube não só financeiramente, mas também em termos de imagem, visto que se apresentaria como uma marca fortemente confiável. A pesquisa é importante para entender o que torna um pequeno clube de futebol competitivo na indústria do futebol moderno
APA, Harvard, Vancouver, ISO, and other styles
43

FERSINI, PAOLA. "Un modello stocastico per il calcolo del Fair Value della Riserva Sinistri R.C.Auto in presenza dell'Indennizzo Diretto e valutazione del requisito patrimoniale in ottica Solvency II." Doctoral thesis, 2012. http://hdl.handle.net/11573/916910.

Full text
Abstract:
L’introduzione dell’Indennizzo Diretto nel ramo R.C.A., ha comportato negli ultimi anni una maggiore complessità nell’utilizzo delle metodologie statistico - attuariali per la stima della riserva sinistri, sia per la eterogeneità dei dati disponibili per le valutazioni (gestione dei sinistri ante e post 2007), sia e soprattutto per le diverse dinamiche sottostanti i fattori di rischio che caratterizzano e determinano il costo aziendale complessivo delle Compagnie di assicurazioni, in relazione alla gestione sinistri. In particolare, il D.P.R. n. 254 del 18 luglio 2006, e successivamente la Convenzione tra Assicuratori per il Risarcimento Diretto (CARD) che ha recepito le norme e stabilito gli accordi, disciplinano i limiti e le modalità di applicazione del risarcimento diretto, prevedendo una nuova struttura del costo dei sinistri, basata sul meccanismo dei Forfait gestionari e debitori. Pertanto il nuovo costo aziendale risulta composto da quattro componenti (sinistri No Card, Sinistri Card, Forfait gestionari e forfait debitori), caratterizzate da evoluzioni aleatorie differenti. Le quattro tipologie di sinistri elencate presentano, infatti, profili di sviluppo diversi: basti pensare, ad esempio, alla velocità di liquidazione dei sinistri Card, presumibilmente superiore a quella dei sinistri No Card. Tuttavia, a meno che non si effettui una suddivisione a ritroso delle serie storiche dei pagamenti ed un’analisi separata delle stesse, potrebbe verificarsi la situazione in cui in un triangolo run-off compaiano importi relativi a generazioni antecedenti all’entrata in vigore dell’indennizzo diretto, e comprensivi quindi di sinistri di tipologia diversa, che pertanto rischiano di intaccare l’attendibilità di una stima, che si basi appunto su quel triangolo. In questo lavoro si intende individuare una metodologia che, utilizzando come dato di input le differenti ipotesi che descrivono l’evoluzione delle quattro gestioni, sia capace di quantificare la riserva sinistri separatamente tenendo conto delle caratteristiche di ciascuna tipologia di sinistro. L’idea è quella di applicare le tecniche attuariali delle assicurazioni sociali e delle assicurazioni vita alla stima della riserva sinistri. In particolare, l’intenzione è quella di utilizzare l’impalcatura metodologica utilizzata per la stima dei cash flows prodotti da un portafoglio assicurativo vita attraverso un approccio operativo basato su ‘models point’ (operando quindi su un numero ridotto di sinistri ‘campione’, omogenei per caratteristiche, anziché analizzarli analiticamente), con stima delle assunzioni relative alla ‘movimentazione’ del numero dei sinistri (probabilità di eliminazioni, di riapertura, di passaggio tra gestioni differenti) e dei costi medi distinti per ciascuna variabile discriminante individuata (per esempio per zona territoriale, per tipologia di gestione, per tipo di veicolo). Nel lavoro è stato utilizzato un data set di una reale compagnia di assicurazione e attraverso un’applicazione numerica è stato possibile effettuare un confronto dei risultati ottenuti con quelli derivanti dall’applicazione dei tradizionali metodi statistici sia deterministici che stocastici. In particolare, partendo dall’elenco dei sinistri ‘attivi’ a riserva alla fine di un determinato anno di bilancio, contenente tutte le informazioni disponibili per ciascun sinistro, incluso l’indicazione di eventuali pagamenti parziali, si è proceduto al raggruppamento per classi omogenee distinte sulla base delle caratteristiche ritenute rappresentative ai fine del calcolo della riserva. I modelli tradizionali di stima della riserva sinistri che raccolgono i dati di input nel noto triangolo run-off, valutano le incidenze di liquidazione e i costi medi tenendo in considerazione solo le due variabili che risultano nella tabella a doppia entrata (anno di accadimento e antidurata). L’idea in questo caso è quella di calcolare le probabilità di eliminazione e i costi medi tenendo conto delle informazioni a disposizione per ciascun sinistro, quindi non solo per anno di accadimento e anno di sviluppo. Per ogni caratteristica dei sinistri selezionata è necessario individuare gli stati che può assumere, e successivamente si stimano le probabilità di transizione tra i differenti stati. Riguardo alla stima delle probabilità di transizione tra stati, l’implementazione del modello necessita di dati di flusso, cioè dati che quantificano il numero e le caratteristiche dei sinistri che si muovono da uno status all’altro. A tale scopo si utilizzano anche i dati relativi ai sinistri ‘eliminati’ nei 5 anni precedenti alla valutazione, con indicazione di tutte le caratteristiche e della causa di chiusura (per pagamento definitivo, o per senza seguito). Ogni sinistro avrà un codice identificativo attribuito nell’anno di accadimento che permetterà di seguire la storia del sinistro (relativa a pagamenti parziali, ai passaggi tra tipo di gestioni) sino al momento di chiusura definitiva. Relativamente allo stato del sinistro possiamo avere, sinistri aperti (sono i sinistri a riserva all’anno di valutazione compresi i riaperti e al netto dei sinistri pagati parzialmente), sinistri chiusi perché pagati definitivamente, sinistri chiusi perché senza seguito ed infine i sinistri pagati parzialmente. I sinistri oggetto di valutazione sono i sinistri a riserva aperti ad una specifica chiusura di bilancio. Al fine di determinare la riserva sinistri sarà necessario stimare per ogni anno successivo a tale chiusura il numero di sinistri attesi per ciascuno stato e determinare i corrispondenti cash flow attesi. La best estimate della riserva sinistri complessiva sarà calcolata come il valore attuale di tutti i futuri cash flow attesi. La versione stocastica del modello è stata sviluppata con l’utilizzo di tecniche simulative che hanno permesso di stimare sia le probabilità di transizione tra i possibili stati che i costi medi dei sinistri. In particolare si è assunto che il costo medio dei sinistri sia distribuito secondo una Lognormale con media uguale, per ciascun gruppo, alla media del costo dei sinistri utilizzato nel modello deterministico e un dato coefficiente di variazione. È stata effettuata anche un’analisi di sensitività sia rispetto il coefficiente di variazione che facendo un’ipotesi differente sul tipo di distribuzione. Il metodo stocastico proposto permette di effettuare le valutazioni senza operare nessun raggruppamento sui dati iniziali, in altri termini si tiene conto di tutte le informazioni di ciascun sinistro accaduto che si trova nel database. L’eventuale verificarsi delle cause di passaggio dipende da estrazioni, seguite da reimbussolamento, da un’urna con composizione assegnata, urna ponderata con probabilità di passaggio riferite a ciascun sinistro singolarmente considerato. Per mezzo delle estrazioni pseudo-casuali per i passaggi di stato, si ottiene per ogni replicazione un differente cash-flow relativo alle uscite per pagamenti di sinistri. Una volta determinati i futuri cash flow per via simulativa, è possibile aggregarli per ciascuna caratteristica analizzata, per esempio per tipologia di veicolo, per area geografica, per tipologia di gestione, per anno di accadimento. Nel lavoro è stato affrontato anche il problema dell’aggregazione della riserva sinistri delle quattro gestioni (sinistri No Card, Sinistri Card, Forfait gestionari e forfait debitori), con l’obiettivo di costruire un’unica distribuzione relativa alla riserva sinistri delle quattro gestioni congiuntamente, ovvero la distribuzione della riserva sinistri aggregata. A tal fine sono state utilizzate le copule, ovvero una famiglia di funzioni che descrivono la struttura di dipendenza indipendentemente dalla forma delle distribuzioni marginali. In questo caso le distribuzioni marginali consistono nelle distribuzioni di probabilità delle riserve sinistri relative ad una singola gestione. Il modello proposto permette di determinare la distribuzione di probabilità delle riserva sinistri aggregata (in termini di differenti gestioni dei sinistri) mediante la quale è possibile determinare in ottica di fair valuation il margine di rischio utilizzando il metodo del costo del capitale. Inoltre in ottica Solvency II, è stato determinato il requisito di capitale a fronte del rischio di riservazione sulla base del modello interno proposto. Tale requisito è stato confrontato con il medesimo della formula standard proposta dall’EIOPA. Nella valutazione della riserva sinistri il valutatore ha come elemento di partenza la riserva sinistri stimata dal liquidatore per ciascun sinistro (metodo dell’inventario). E’ data poi la possibilità di affiancare la valutazione analitica da metodologie statistico-attuariali o sistemi di valutazione previsionale dell’evoluzione dei costi per i rami caratterizzati da processi liquidativi lenti. La metodologia proposta riduce la discrezionalità del valutatore nell’applicazione dei metodi statistici, dato che le ipotesi sono esplicitate e possono essere facilmente monitorate e controllate. Inoltre, è possibile effettuare stress-test su tutti i parametri che possono influenzare il fenomeno liquidativo e pertanto la riserva. Infine, il metodo proposto, in un’ottica di back testing, da la possibilità di analizzare ex-post gli scostamenti dei cash flow effettivi rispetto ai valori attesi, individuando le variabili che hanno condotto a tali differenze.
APA, Harvard, Vancouver, ISO, and other styles
44

Driver, John Patrick. "Performance and bone quality of the modern broiler chicken as influenced by dietary calcium, phosphorus, phytase and 1-alpha-hydroxycholecalciferol." 2004. http://purl.galileo.usg.edu/uga%5Fetd/driver%5Fjohn%5Fp%5F200412%5Fphd.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Casteel, Richard Cain. "The modern assessment of climate, calcite growth, and the geochemistry of cave drip waters as a precursor to paleoclimate study." Thesis, 2011. http://hdl.handle.net/2152/ETD-UT-2011-08-4177.

Full text
Abstract:
The overall goal of this study is to determine the resolution and type of proxy that any one drip site can provide for the determination of past climate. The study examines surface conditions (effective rainfall, temperature, PDSI), cave characteristics (cave geometry, cave air CO2, location), drip site characteristics (drip rate, drip rate response to rainfall), and drip water characteristics (pH, trace element ratios, alkalinity, temperature). The study encompasses two distinctly different caves, Inner Space Cavern (Chapter 2) and Westcave (Chapter 3). A goal of Chapter 2 is to identify drip sites where there is an intra-annual climate signal, which can assist with high resolution paleo-drought reconstructions when extended to speleothem studies. To be considered an intra-annual climate sensitive drip site, a site should display statistically significant correlations between (1) effective rainfall and drip rate; (2) effective rainfall and Mg/Ca; (3) drip rate and Mg/Ca; (4) Palmer Drought Severity Index (PDSI) and drip rate; and (5) PDSI and Mg/Ca. These relationships can be explained by the extent to which water flux in the karst overburden influences flow path characteristics, water residence time, and water-rock interactions. The data in Chapter 3 will indicate that (1) variations in trace element/Ca values in cave drip waters are temperature dependent and vary on a seasonal time scale, (2) the standardization of trace element/Ca values allows for between drip site comparisons, (3) the standardization of trace element/Ca values can add statistical power to statistical analyses by increasing the sample size, (4) calcite growth rates follow a seasonal pattern based on variations in surface temperature, (5) a regional drought indicator provides correlation with trace element/Ca values at some drip sites and this relationship is most likely dependent upon temperature.
text
APA, Harvard, Vancouver, ISO, and other styles
46

ALESSANDRINI, Adriano. "Modello di simulazione per il calcolo di consumi energetici ed impatto ambientale del trasporto urbano di superficie." Doctoral thesis, 2003. http://hdl.handle.net/11573/481107.

Full text
Abstract:
Alla luce di un’approfondita analisi dello stato dell’arte dei modelli per il calcolo delle emissioni si è proposto un nuovo approccio per superare i problemi dei modelli attuali. Si sono analizzate tre categorie di modelli, quelli basati sui fattori di emissione, quelli basati sui cicli di marcia medi e quelli basati sulla microsimulazione. I primi sono senz’altro i più diffusi, semplici da usare ed affidabili per ottenere dei valori medi su grandi aree, tuttavia si è dimostrato come a livello locale falliscano commettendo errori anche del 200% sul singolo arco ed anche maggiori sulla singola sezione d’arco. I secondi, per quanto abbiano avuto degli ottimi spunti sono ormai in via di abbandono perché a fronte di onerosissime campagne di acquisizione si ottengono dei modelli assolutamente inflessibili e tendenti all’obsolescenza precoce. I terzi sono i più studiati e promettenti tuttavia soffrono di due problemi, il primo è quello di richiedere enormi potenze di calcolo, problema che si risolverà da solo col tempo con l’aumento delle capacità di calcolo degli elaboratori commerciali, il secondo, di molto più difficile soluzione, è la cronica dipendenza da dati sperimentali del modello a tutti i livelli. Inoltre l’uso di questi ultimi modelli ha dimostrato che, sebbene possibile a livello teorico gestire grosse reti, sia molto semplice perdere il controllo delle simulazioni qualora la rete si allarghi al punto di non poter più guardare ogni veicolo della simulazione individualmente. Il modello che risolverebbe i problemi del calcolo delle emissioni è un modello accurato al contempo in locale e su vaste aree che descriva in dettaglio il fenomeno ma che si accontenti di lavorare, se non con pochi dati sperimentali, quantomeno con dati di facile reperimento. Per fornire un tale strumento si è pensato di integrare i valori di tre livelli di simulazione il tradizionale livello macro utilizzato per la pianificazione dei trasporti, un livello micro utilizzato solo a livello locale (quindi grandemente più semplice da gestire ed affidabile) per descrivere in dettaglio il moto dei veicoli sulla rete ed un livello ultra-micro che simula il singolo veicolo. L’architettura complessiva del modello proposto è organizzata in tre step corrispondenti ai tre livelli di simulazione. In particolare ognuno dei tre livelli di simulazione svolge parte del calcolo nel seguente modo: 1. il modello macro è un tradizionale modello trasportistico che identifica i flussi di traffico e le velocità medie dei flussi sugli archi della rete partendo dalle condizioni socioeconomiche, dalle caratteristiche del territorio e dalla rete dei trasporti; 2. il modello micro ricostruisce i diagrammi di marcia di tutti i veicoli transitanti su ogni arco nella finestra temporale della simulazione a partire dai valori di flusso e velocità media del singolo arco determinati dal modello macro; 3. il modello ultra-mico calcola il consumo di combustibile (energia) e le emissioni inquinanti di ogni singolo veicolo su ogni arco a partire dal diagramma di marcia determinato dal modello micro, dalle caratteristiche del veicolo assegnate probabilisticamente in accordo con la composizione veicolare e dalle pendenze degli archi percorsi. Questa ricerca non apporta nessuna particolare innovazione al modello macro utilizzato e, può addirittura rinunciare all’uso di un modello per determinare i flussi e le loro velocità medie qualora si disponga di dati tali dati perché sperimentalmente misurati sulla rete. Il modello macro scelto è un software commerciale, TRANSCAD® della Caliper, che coniuga le capacità trasportistiche con una gestione geografica GIS (Geographic Information System) dei dati che facilita visualizzazione e trattamento dei dati sia di input che di output del modello. Il modello micro determina i cicli di marcia dei veicoli presenti sull’arco nella finestra temporale. Per fare ciò oltre agli input che provengono dal modello macro, flusso medio d’arco nella finestra temporale, velocità media del flusso e le caratteristiche geometriche dell’arco per ogni arco, ha bisogno di alcuni parametri quali la distanza libera che il veicolo accetta senza accodarsi o iniziare la manovra di sorpasso e la velocità che il veicolo manterrebbe se fosse solo sull’arco. Tali parametri scaturiscono da una calibrazione effettuata, tramite dati sperimentali, su un certo numero di archi “tipo”. I risultati della calibrazione sono anch’essi input al modello micro. Il modello macro fornisce al micro il numero di veicoli che accedono ad ogni arco nell’unità di tempo ma non l’esatta distribuzione degli accessi. In prima ipotesi il modello micro considera gli ingressi dei veicoli ad ogni arco scaglionati secondo una distribuzione statistica quindi, una volta simulati tutti gli archi della rete, verifica che la distribuzione assunta per ogni arco sia coerente con i risultati ottenuti alla fine degli archi confluenti. Se le distribuzioni differiscono il procedimento di calcolo viene iterato adottando come distribuzioni d’ingresso quelle ricavate a valle della precedente simulazione. L’ultimo passo della simulazione consiste nel determinare per ogni veicolo su ogni arco, di cui istante per istante si conoscono i cicli di marcia, emissioni e consumi istantanei. Oltre a cicli di marcia e pendenza della strada il simulatore ultra-micro necessita di altri input quali la densità dell’aria (o temperatura, pressione ed umidità relativa) e le caratteristiche del veicolo. In dettaglio per ogni veicolo è necessario conoscere: la superficie frontale, il coefficiente di penetrazione aerodinamica CX, la massa a vuoto, la condizione di carico ed i piani quotati potenza, consumo ed emissioni specifiche del motore. Dati di tale dettaglio identificano il singolo veicolo con notevole precisione, tuttavia che sia proprio quel singolo veicolo di cui si hanno i dati ad essere in quel preciso istante su quel dato arco è un’ipotesi piuttosto restrittiva. Quindi si è ritenuto di suddividere i veicoli in “classi veicolari” i cui veicoli hanno caratteristiche simili tra loro e raccogliere dati caratteristici della classe e non del singolo veicolo. Variazioni possono senz’altro esistere ma se l’appartenenza di un veicolo ad una certa classe è ben studiata tali variazioni sono piuttosto contenute. Si è scelta, come classificazione, quella adottata dal progetto MEET (MEET Consortium, 1999: 49–51) che suddivide i veicoli secondo la taglia del motore, il combustibile l’anno di prima immatricolazione tuttavia tale classificazione non è vincolante e si potrebbe scendere in maggior dettaglio qualora lo si ritenesse necessario. Gli output della catena di modelli consistono nelle emissioni istantanee di ogni veicolo presente sulla rete in ogni istante della finestra temporale. Per renderli fruibili questi dati possono essere aggregati per posizione geografica, per tempo, per veicolo, per strada o anche per combinazioni di questi fattori. A tale scopo la catena di modelli è completata dall’interfaccia grafica GIS, che è indispensabile per il trattamento dei dati che altrimenti sarebbero solo “montagne” di numeri.
APA, Harvard, Vancouver, ISO, and other styles
47

Anacleto, Jorge Miguel Veríssimo. "Estudo da influência das dimensões no comportamento mecânico de alvenaria de calcário de edifícios antigos." Master's thesis, 2019. http://hdl.handle.net/10400.26/30825.

Full text
Abstract:
O presente estudo foi baseado na realização de uma investigação com base experimental, que pretende prestar uma contribuição para o conhecimento do comportamento mecânico da alvenaria de pedra, nomeadamente de calcário. De forma a analisar a influência da variação do número de fiadas de alvenaria no comportamento da compressão uniaxial, são utilizadas três séries de provetes de alvenaria de dimensões reduzidas com diferentes números de fiadas A caracterização dos materiais constituintes da alvenaria (calcário e argamassa) é realizada. Os provetes de alvenaria utilizados, foram de alvenaria aparelhada regular de pano simples com juntas de argamassa á base de areia e cal hidráulica natural. Os materiais utilizados no trabalho experimental foram selecionados e fabricados para serem representativos das características mecânicas presentes em edifícios antigos, caracterizadas por blocos de pedra heterogéneos e argamassas de baixa resistência. É apresentado um novo modelo de preditivo da resistência à compressão de alvenaria, tendo em consideração o número de fiadas e a altura da alvenaria. O modelo é avaliado através da comparação com outros modelos existentes e valores experimentais, os resultados apresentaram uma boa concordância entre os valores experimentais e analíticos.
The present study was based on a research based on experimental basis, which intends to provide a contribution to the knowledge of the mechanical behavior of stone masonry, namely limestone. In order to analyze the influence of varying the number of masonry courses on the behavior of uniaxial compression, three series of small size samples with different numbers of masonry courses are used. The characterization of the masonry materials (limestone prisms and mortar) are performed. The masonry specimens used are single-leaf regular ashlar masonry with joints made of natural hydraulic lime mortar and sand. The materials used in the experimental work are selected and manufactured to be representative of the mechanical characteristics present in old buildings, characterized by the non-homogenous stone blocks and low strength mortars. A new prediction model of the masonry compressive strength is herein presented that take into account the number of courses and the height of the dimensioned specimens. This procedure is evaluated by comparison with other existing models, experimental values and the results show a good agreement between the analytical and experimental values.
APA, Harvard, Vancouver, ISO, and other styles
48

De, Lorenzo Gianluca, and Francesco Macchione. "Modello matematico ad un solo parametro per la descrizione dell' ingrandimento di una breccia nelle dighe in materiali sciolti ai fini del calcolo dell'idrogramma di piena." Thesis, 2010. http://hdl.handle.net/10955/665.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

ORECCHINI, FABIO. "Analisi energetica ed exergetica dei sistemi complessi, realizzazione e sviluppo di un modello di calcolo e sua applicazione al sistema Italia, simulazione di interventi strutturali e innovazioni tecnologiche." Doctoral thesis, 1996. http://hdl.handle.net/11573/473951.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography