To see the other types of publications on this topic, follow the link: Sistemi di controllo delle vibrazioni.

Dissertations / Theses on the topic 'Sistemi di controllo delle vibrazioni'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 23 dissertations / theses for your research on the topic 'Sistemi di controllo delle vibrazioni.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nilvetti, Fabio. "Controllo delle vibrazioni mediante l'uso di PAC (Programmable Automation Controller)." Doctoral thesis, Universita degli studi di Salerno, 2012. http://hdl.handle.net/10556/368.

Full text
Abstract:
2010 - 2011
Con l'espressione `Vibration Control' si intende l'insieme delle tecniche e dei dispositivi che consentono di mitigare in modo rapido, a dabile e preciso le vibrazioni di macchine o strutture, dovute al loro stesso funzionamento o a causa di forze esterne. Nella realizzazione dei sistemi di controllo delle vibrazioni assumono oggi primaria rilevanza sul piano tecnico ed economico l'hardware impiegato. Attuatori elettrici e oleodinamici, dispositivi passivi,sensori, convertitori elettronici e unit a di controllo rappresentano una parte fondamentale di tali sistemi e ne influenzano largamente le prestazioni. Il contributo del singolo componente alle prestazioni complessive del controllo è tuttavia valutato compiutamente solo se ci si pone in un'ottica di sistema, nella quale le mutue interazioni tra componenti elettronici, parti meccaniche e algoritmi di controllo trovano la loro corretta sintesi. Nei sistemi di controllo delle vibrazioni, è decisiva la scelta del `controller'. Scopo del presente lavoro e stato appunto quello di sviluppare un sistema di controllo delle vibrazioni che coniughi le diverse esigenze di precisione, determinismo e elevata velocità di servo-aggiornamento, tipiche di un circuito stampato, alle esigenze di flessibilità ed economicità, tipiche delle soluzioni basate su DSP, e alle elevate capacità di calcolo tipiche di un pc. Per far ciò il ruolo di controller e a dato ad un dispositivo PAC (Programmable Automation Controller) basato su tecnologia FPGA (Field Programmable GateArray) che consente di codifcare, in modo rapido, le funzionalit a richieste al controllo su un dispositivo programmabile di tipo hardware e per questo dalle prestazioni paragonabili a quelle di un circuito stampato. With the expression `Vibration Control' refers to the set of techniques and devices that let you mitigate quickly, reliably and accurately the vibrations of machines or structures, due to themselves operation or due to external forces. In the implementation of vibration control systems today assume pri- mary importance, in the technical and economic terms, the hardware used. Electrical and hydraulic actuators, passive devices, sensors, electronic con- verters and control units are a fundamental part of these systems and they greatly a ects on the performance. In systems of vibration control, is decisive the choice of the controller. The purpose of this work was to develop a system of vibration control which combines the various requirements of precision, determinism and high-speed servo-update, typical of a printed circuit board, the exibility and economy typical of solutions based on DSP, and high computing power of a typical PC. To do this, the role of controller is assigned to a device (PAC programma- ble automation controller) based on technology FPGA (Field Programmable Gate Array) which allows to encode, quickly, the required functionalities to the control, on a programmable hardware device and for this with perfor- mance comparable to that of a printed circuit board. [a cura dell'autore]
X n.s.
APA, Harvard, Vancouver, ISO, and other styles
2

Gennari, Elisa. "Sistemi semi-attivi per la riduzione delle vibrazioni indotte dal sisma: implementazione di un algoritmo di controllo ed applicazione ad un caso studio." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20147/.

Full text
Abstract:
Il presente elaborato studia i dispositivi semi-attivi per il controllo strutturale, i quali combinano i vantaggi dei dissipatori passivi e della controparte attiva, vantando facilità nel controllo e fabbisogno energetico limitato. L'obiettivo della tesi è investigare l'efficacia degli smorzatori semi-attivi nel controllo e nella mitigazione della risposta sismica delle strutture, mostrando che la loro applicazione comporta un'efficace riduzione degli spostamenti interpiano rispetto alla struttura priva di sistemi di dissipazione. Attraverso l'analisi di un edificio in calcestruzzo armato di cinque piani dotato di smorzatori passivi e, successivamente, di dispositivi semi-attivi progettati per ottenere le stesse prestazioni, si dimostra che il sistema passivo deve esercitare forze maggiori rispetto a quelle impresse dalla controparte semi-attiva. Perciò, oltre a vantare un beneficio economico dato dalle minori dimensioni dei dissipatori semi-attivi, si riscontra anche un minor aggravio di sollecitazione negli elementi strutturali. In secondo luogo, per determinare le matrici di ponderazione che definiscono la forza attiva dei dispositivi, si effettua una procedura di model updating sulla base del segnale registrato dagli smorzatori semi-attivi a seguito della loro installazione, dimostrando che eventuali incertezze insite nella modellazione comportano una modifica dei loro valori ottimali. Ciò viene provato confrontando gli spostamenti interpiano ottenuti tramite l'implementazione di un sistema semi-attivo ottimizzato per la struttura in esame, ed uno i cui parametri sono quelli stimati precedentemente alla procedura di model updating, dunque non ottimali. Si verifica che, nonostante la differenza tra i valori ideali e non sia molto sottile, l'adozione dei parametri non ottimizzati genera comunque un degrado delle prestazioni del sistema semi-attivo.
APA, Harvard, Vancouver, ISO, and other styles
3

Bignucolo, Fabio. "Il controllo delle reti attive di distribuzione." Doctoral thesis, Università degli studi di Padova, 2009. http://hdl.handle.net/11577/3426853.

Full text
Abstract:
Within the energy landscape, both in the national and international context, a drastic revolution in the electrical power system management strategy is in progress. The ongoing trend leads to a gradual decentralization of energy production, which tends to be allocated close to the load in medium or small scale plants connected to Medium Voltage (MV) and Low Voltage (LV) distribution networks. In this perspective, the Distributed Generation (DG) is one of the emerging technologies, presenting significant benefits in particular related to the ability to exploit locally available energy resources like renewables or cogeneration. However, an increased penetration of DG plants in present distribution networks introduces some unavoidable implications in the way the networks are nowadays operated. The current connection and management methods, in fact, may induce heavy restrictions on the generable power or significant investments finalized to a complete modernization of the network. Increasing the DG penetration level, distributors necessary need to adopt new techniques for an appropriate control and regulation of the distribution systems, in order to maximize the DG penetration and simultaneously ensure adequate standards in terms of reliability, safety and quality of supply. The distribution networks, initially thought and now performed for a purely passive use, will be gradually translated into intelligent (smart), reliable, sustainable and economic systems. New operational strategies based on an active management of distribution networks are called to face and solve some structural problems induced by local generators, for example the voltage monitoring and regulation at each node both through set point references and price signals, the network and users controllability in normal, emergency and fault conditions and the protection effectiveness in presence of bidirectional power flow. In this context, new procedures and algorithms able to achieve these objectives, maximizing the system benefits introduced by DG plant connection and minimizing the problems resulting from the randomness of the active and passive users behavior, have been developed. Since the achievement of a proper monitoring of the network operational state will probably be a distributor cost, innovative tools to ensure a greater level of accuracy in the estimation of parameters associated with different plants on the system are required. Two solutions are developed to be used in alternative or integrated way, basing on load modeling, discrete communications from remote generation units and on-line voltage measurements optimally allocated into the field. At the same time, two strategies for the management of active distribution networks have been developed. The first, applicable in a short-term prospect, is based on a set point remote regulation activated on DGs in order to maximize their active power injections and at the same time to optimize the voltage regulation and the local compensation of reactive exchanges, aiming to achieve a global reduction of distribution losses. The latter, focused on a medium-long perspective, is based on a transparent computation of a price signal in a local active and reactive energy market, aimed to obtain a technical and economic optimization of the behaviors of active and passive price sensitive users. Island operation and economic evaluations of network reinforcement and regulation costs are obtainable implementing the developed tools.
All’interno del panorama energetico nazionale e internazionale è in corso un graduale mutamento della strategia di gestione del sistema elettrico. La tendenza avviata conduce ad una progressiva decentralizzazione della produzione, che tende ad essere allocata in impianti di taglia medio-piccola posti in prossimità dei carichi e allacciati alle reti di distribuzione in Media Tensione (MT) e Bassa Tensione (BT). In questo contesto, la Generazione Distribuita (GD) è una delle realtà impiantistiche emergenti, in quanto prospetta notevoli vantaggi e possibilità, legati in particolare alla capacità di sfruttamento di risorse sparse sul territorio, sia di tipo rinnovabile che a fonte tradizionale (a limitato impatto ambientale), per lo più realizzate in assetto cogenerativo. Tuttavia, l’aumento della penetrazione di GD nelle attuali reti di distribuzione introduce alcune inevitabili implicazioni nelle modalità di esercizio delle reti stesse. L’attuale criterio di allacciamento e gestione, infatti, comporterebbe necessariamente pesanti limitazioni alla potenza iniettabile oppure ingenti investimenti per un completo ammodernamento della rete. Si rende dunque necessaria l’adozione di nuove tecniche di controllo e gestione della rete di distribuzione finalizzate a massimizzare la penetrazione di GD garantendo contestualmente standard adeguati in termini di affidabilità, sicurezza e qualità del servizio di connessione e di fornitura dell’energia elettrica. La rete di distribuzione, inizialmente pensata e attualmente esercita per un esercizio puramente passivo, dovrà quindi trasformarsi gradualmente in un sistema intelligente (smart), affidabile, sostenibile ed economico. Le principali problematiche che si riscontrano nella realizzazione di una gestione attiva della rete di distribuzione in presenza di GD sono rappresentate dalla necessità di controllare la tensione ad ogni nodo, di verificare il funzionamento degli impianti di rete e di utenza, di adottare nuove modalità di protezione operanti anche in presenza di bidirezionalità nei flussi di potenza e nei contributi alle correnti di guasto e infine di monitorare gli impianti connessi al sistema di distribuzione, in particolar modo le unità GD. Per raggiungere tali obiettivi sono necessarie strategie di monitoraggio e gestione delle risorse distribuite, al fine di massimizzare i benefici al sistema introdotti dall’allacciamento di impianti GD e allo stesso tempo minimizzare le problematiche conseguenti alla aleatorietà del comportamento delle utenza attive e passive connesse. Poiché il corretto monitoraggio delle condizioni operative della rete sarà probabilmente onere del distributore, tale soggetto dovrà adottare strumenti in grado di garantire un maggiore livello di accuratezza nella stima dei parametri fondamentali associati ai diversi impianti del sistema. Sono proposte due soluzioni, sviluppabili in modo alternativo o integrato, basate sull’utilizzo di tecniche di modellazione del carico, di comunicazioni discrete da parte delle unità di produzione e di misurazioni on-line ottimamente allocate provenienti dal campo. Al contempo, sono state sviluppate due strategie per la supervisione e la gestione delle reti: la prima, applicabile sul medio-breve periodo, si basa sull’invio di set-point agli impianti al fine di massimizzare la produzione iniettabile in rete e ottimizzare al contempo la regolazione della tensione e la compensazione locale degli scambi reattivi; la seconda, incentrata in un’ottica di medio-lungo periodo, basata sull’ottimizzazione del comportamento delle utenze attive e passive che vengono rese sensibili ad un segnale di prezzo nodale a mezzo di meccanismi di mercato locale, con la possibilità di esercire e auto sostenere in isola porzioni del sistema di distribuzione.
APA, Harvard, Vancouver, ISO, and other styles
4

De, Faveri Tobia <1992&gt. "Sistemi di supporto al controllo di gestione: il caso ETC GROUP." Master's Degree Thesis, Università Ca' Foscari Venezia, 2018. http://hdl.handle.net/10579/13817.

Full text
Abstract:
L'elaborato si pone l'obiettivo di analizzare e confrontare i diversi strumenti di controllo di gestione sviluppati dalla dottrina a supporto delle organizzazioni aziendali. In particolare, si sviluppa la teoria della contingenza in rapporto alla definizione di sistemi di controllo intesi come insieme o "package". Questa analisi vede come caso pratico l'attività svolta durante l'esperienza di stage presso l'azienda ETC GROUP, attiva nel settore del trading internazionale
APA, Harvard, Vancouver, ISO, and other styles
5

Melone, Raffaele. "Analisi bibliografica delle tecniche di input shaping nel controllo del moto di sistemi servo-controllati." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24238/.

Full text
Abstract:
Il controllo del moto nei sistemi servo-controllati beneficia della modellazione degli input in ingresso, cioè il cosiddetto input shaping. Questa tecnica, indipendente dal segnale di uscita, filtra le frequenze del comando di origine che tendono a far vibrare il sistema, permettendo di minimizzare la vibrazione residua. Affinché il treno di impulsi, imposto dall’input shaper, sia sufficientemente performante, devono essere rispettate diverse equazioni di vincolo, tra le quali spiccano i parametri fondamentali associati alla robustezza nei confronti degli errori di modellazione. L’obiettivo di questo studio è, dapprima, quello di fare luce sull’origine di questa tecnica, per poterne comprendere l’evoluzione nell’arco degli ultimi cinquanta anni. A ciò segue una formulazione teorica delle diverse tecniche di applicazione di tale metodo, riassumendone le principali complessità. Dopo aver analizzato un esempio sperimentale incentrato sul contenimento degli errori di stampa in una stampante 3D, si prosegue descrivendo due dei macro-settori di maggiore diffusione, focalizzando l’attenzione sulle potenziali problematiche, successivamente analizzate in dettaglio, che l’utilizzo dell’input shaping introduce in alcuni processi operativi, sia in campo industriale che nell’interazione uomo-robot. Dal seguente lavoro di tesi si evince che l’input shaping è una tecnica di controllo di tipo feedforward che, opportunamente implementata, porta significativi miglioramenti in moltissime applicazioni; pur risultando talvolta di difficile implementazione, essa è versatile, e mostra risultati soddisfacenti in termini di sicurezza e precisione della specifica operazione che si sta effettuando. Dai paragoni con le tradizionali tecniche di controllo delle vibrazioni per tali sistemi, si dimostra quanto ampio sia il margine di miglioramento agendo sui relativi punti deboli.
APA, Harvard, Vancouver, ISO, and other styles
6

Galligioni, Viola <1981&gt. "Messa a punto di sistemi per il controllo e la terapia delle malattie virali." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amsdottorato.unibo.it/2832/1/Galligioni_Viola_tesi.pdf.

Full text
Abstract:
A livello globale una delle problematiche più urgenti della sanità pubblica umana e veterinaria è rappresentata dal controllo delle infezioni virali. L’emergenza di nuove malattie, la veloce diffusione di patologie finora confinate ad alcune aree geografiche, lo sviluppo di resistenza dei patogeni alle terapie utilizzate e la mancanza di nuove molecole attive, sono gli aspetti che influiscono più negativamente livello socio-economico in tutto il mondo. Misure per limitare la diffusione delle infezioni virali prevedono strategie per prevenire e controllare le infezioni in soggetti a rischio . Lo scopo di questa tesi è stato quello di indagare il possibile utilizzo di prototipi virali utilizzati come modello di virus umani per valutare l’efficacia di due diversi metodi di controllo delle malattie virali: la rimozione mediante filtrazione di substrati liquidi e gli antivirali di sintesi e di origine naturale. Per quanto riguarda la rimozione di agenti virali da substrati liquidi, questa è considerata come requisito essenziale per garantire la sicurezza microbiologica non solo di acqua ad uso alimentare , ma anche dei prodotti utilizzati a scopo farmaceutico e medico. Le Autorità competenti quali WHO ed EMEA hanno redatto delle linee guida molto restrittive su qualità e sicurezza microbiologica dei prodotti biologici per garantire la rimozione di agenti virali che possono essere trasmessi con prodotti utilizzati a scopo terapeutico. Nell'industria biomedicale e farmaceutica c'è l'esigenza di una tecnologia che permetta la rimozione dei virus velocemente, in grande quantità, a costi contenuti, senza alterare le caratteristiche del prodotto finale . La collaborazione con l’azienda GVS (Zola Predosa, Italia) ha avuto come obiettivo lo studio di una tecnologia di filtrazione che permette la rimozione dei virus tramite membrane innovative e/o tessuti-non-tessuti funzionalizzati che sfruttano l’attrazione elettrostatica per ritenere ed asportare i virus contenuti in matrici liquide. Anche gli antivirali possono essere considerati validi mezzi per il controllo delle malattie infettive degli animali e nell’uomo quando la vaccinazione non è realizzabile come ad esempio in caso di scoppio improvviso di un focolaio o di un attacco bioterroristico. La scoperta degli antivirali è relativamente recente ed il loro utilizzo è attualmente limitato alla patologia umana, ma è in costante aumento l’interesse per questo gruppo di farmaci. Negli ultimi decenni si è evidenziata una crescente necessità di mettere a punto farmaci ad azione antivirale in grado di curare malattie ad alta letalità con elevato impatto socio-economico, per le quali non esiste ancora un’efficace profilassi vaccinale. Un interesse sempre maggiore viene rivolto agli animali e alle loro patologie spontanee, come modello di studio di analoghe malattie dell’uomo. L’utilizzo di farmaci ad azione antivirale in medicina veterinaria potrebbe contribuire a ridurre l’impatto economico delle malattie limitando, nel contempo, la disseminazione dei patogeni nell’ambiente e, di conseguenza, il rischio sanitario per altri animali e per l’uomo in caso di zoonosi. Le piante sono sempre state utilizzate dall’industria farmaceutica per l’isolamento dei composti attivi e circa il 40% dei farmaci moderni contengono principi d’origine naturale. Alla luce delle recenti emergenze sanitarie, i fitofarmaci sono stati considerati come una valida per migliorare la salute degli animali e la qualità dei prodotti da essi derivati. L’obiettivo del nostro studio è stato indagare l’attività antivirale in vitro di estratti naturali e di molecole di sintesi nei confronti di virus a RNA usando come prototipo il Canine Distemper Virus, modello di studio per virus a RNA a polarità negativa, filogeneticamente correlato al virus del morbillo umano. La scelta di questo virus è dipesa dal fatto che rispetto ai virus a DNA e ai retrovirus attualmente l’offerta di farmaci capaci di contrastare le infezioni da virus a RNA è molto limitata e legata a molecole datate con alti livelli di tossicità. Tra le infezioni emergenti causate da virus a RNA sono sicuramente da menzionare quelle provocate da arbovirus. Le encefaliti virali da arbovirus rappresentano una emergenza a livello globale ed attualmente non esiste una terapia specifica. Una delle molecole più promettenti in vitro per la terapia delle infezioni da arbovirus è la ribavirina (RBV) che, con il suo meccanismo d’azione pleiotropico, si presta ad essere ulteriormente studiata in vivo per la sua attività antivirale nei confronti delle infezioni da arbovirus. Uno dei fattori limitanti l’utilizzo in vivo di questa molecola è l’incapacità della molecola di oltrepassare la barriera emato-encefalica. Nel nostro studio abbiamo messo a punto una formulazione per la somministrazione endonasale di RBV e ne abbiamo indagato la diffusione dalla cavità nasale all’encefalo attraverso l’identificazione e quantificazione della molecola antivirale nei diversi comparti cerebrali . Infine è stato condotto un esperimento in vivo per valutare l’efficacia di un composto a base di semi di Neem, di cui sono già note le proprietà antimicrobiche, nei confronti dell’infezione da orf virus, una zoonosi a diffusione mondiale, che ha un elevato impatto economico in aree ad alta densità ovi-caprina e può provocare lesioni invalidanti anche nell’uomo.
APA, Harvard, Vancouver, ISO, and other styles
7

Galligioni, Viola <1981&gt. "Messa a punto di sistemi per il controllo e la terapia delle malattie virali." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amsdottorato.unibo.it/2832/.

Full text
Abstract:
A livello globale una delle problematiche più urgenti della sanità pubblica umana e veterinaria è rappresentata dal controllo delle infezioni virali. L’emergenza di nuove malattie, la veloce diffusione di patologie finora confinate ad alcune aree geografiche, lo sviluppo di resistenza dei patogeni alle terapie utilizzate e la mancanza di nuove molecole attive, sono gli aspetti che influiscono più negativamente livello socio-economico in tutto il mondo. Misure per limitare la diffusione delle infezioni virali prevedono strategie per prevenire e controllare le infezioni in soggetti a rischio . Lo scopo di questa tesi è stato quello di indagare il possibile utilizzo di prototipi virali utilizzati come modello di virus umani per valutare l’efficacia di due diversi metodi di controllo delle malattie virali: la rimozione mediante filtrazione di substrati liquidi e gli antivirali di sintesi e di origine naturale. Per quanto riguarda la rimozione di agenti virali da substrati liquidi, questa è considerata come requisito essenziale per garantire la sicurezza microbiologica non solo di acqua ad uso alimentare , ma anche dei prodotti utilizzati a scopo farmaceutico e medico. Le Autorità competenti quali WHO ed EMEA hanno redatto delle linee guida molto restrittive su qualità e sicurezza microbiologica dei prodotti biologici per garantire la rimozione di agenti virali che possono essere trasmessi con prodotti utilizzati a scopo terapeutico. Nell'industria biomedicale e farmaceutica c'è l'esigenza di una tecnologia che permetta la rimozione dei virus velocemente, in grande quantità, a costi contenuti, senza alterare le caratteristiche del prodotto finale . La collaborazione con l’azienda GVS (Zola Predosa, Italia) ha avuto come obiettivo lo studio di una tecnologia di filtrazione che permette la rimozione dei virus tramite membrane innovative e/o tessuti-non-tessuti funzionalizzati che sfruttano l’attrazione elettrostatica per ritenere ed asportare i virus contenuti in matrici liquide. Anche gli antivirali possono essere considerati validi mezzi per il controllo delle malattie infettive degli animali e nell’uomo quando la vaccinazione non è realizzabile come ad esempio in caso di scoppio improvviso di un focolaio o di un attacco bioterroristico. La scoperta degli antivirali è relativamente recente ed il loro utilizzo è attualmente limitato alla patologia umana, ma è in costante aumento l’interesse per questo gruppo di farmaci. Negli ultimi decenni si è evidenziata una crescente necessità di mettere a punto farmaci ad azione antivirale in grado di curare malattie ad alta letalità con elevato impatto socio-economico, per le quali non esiste ancora un’efficace profilassi vaccinale. Un interesse sempre maggiore viene rivolto agli animali e alle loro patologie spontanee, come modello di studio di analoghe malattie dell’uomo. L’utilizzo di farmaci ad azione antivirale in medicina veterinaria potrebbe contribuire a ridurre l’impatto economico delle malattie limitando, nel contempo, la disseminazione dei patogeni nell’ambiente e, di conseguenza, il rischio sanitario per altri animali e per l’uomo in caso di zoonosi. Le piante sono sempre state utilizzate dall’industria farmaceutica per l’isolamento dei composti attivi e circa il 40% dei farmaci moderni contengono principi d’origine naturale. Alla luce delle recenti emergenze sanitarie, i fitofarmaci sono stati considerati come una valida per migliorare la salute degli animali e la qualità dei prodotti da essi derivati. L’obiettivo del nostro studio è stato indagare l’attività antivirale in vitro di estratti naturali e di molecole di sintesi nei confronti di virus a RNA usando come prototipo il Canine Distemper Virus, modello di studio per virus a RNA a polarità negativa, filogeneticamente correlato al virus del morbillo umano. La scelta di questo virus è dipesa dal fatto che rispetto ai virus a DNA e ai retrovirus attualmente l’offerta di farmaci capaci di contrastare le infezioni da virus a RNA è molto limitata e legata a molecole datate con alti livelli di tossicità. Tra le infezioni emergenti causate da virus a RNA sono sicuramente da menzionare quelle provocate da arbovirus. Le encefaliti virali da arbovirus rappresentano una emergenza a livello globale ed attualmente non esiste una terapia specifica. Una delle molecole più promettenti in vitro per la terapia delle infezioni da arbovirus è la ribavirina (RBV) che, con il suo meccanismo d’azione pleiotropico, si presta ad essere ulteriormente studiata in vivo per la sua attività antivirale nei confronti delle infezioni da arbovirus. Uno dei fattori limitanti l’utilizzo in vivo di questa molecola è l’incapacità della molecola di oltrepassare la barriera emato-encefalica. Nel nostro studio abbiamo messo a punto una formulazione per la somministrazione endonasale di RBV e ne abbiamo indagato la diffusione dalla cavità nasale all’encefalo attraverso l’identificazione e quantificazione della molecola antivirale nei diversi comparti cerebrali . Infine è stato condotto un esperimento in vivo per valutare l’efficacia di un composto a base di semi di Neem, di cui sono già note le proprietà antimicrobiche, nei confronti dell’infezione da orf virus, una zoonosi a diffusione mondiale, che ha un elevato impatto economico in aree ad alta densità ovi-caprina e può provocare lesioni invalidanti anche nell’uomo.
APA, Harvard, Vancouver, ISO, and other styles
8

MORELLI, MARCO. "Sistemi di cost management e cambiamento aziendale: un'analisi delle condizoni di efficacia." Doctoral thesis, Università Cattolica del Sacro Cuore, 2012. http://hdl.handle.net/10280/1416.

Full text
Abstract:
Per molte aziende, ristrutturazione e riduzione dei costi sono al centro dell’agenda strategica. Come sottolinea anche la recente letteratura, la crisi economica scoppiata nel 2008, e tuttora in atto, sta esercitando una forte pressione sulle modalità di funzionamento dei sistemi di controllo in generale e di cost management più in particolare. Il presente lavoro di tesi si pone l’obiettivo di comprendere come si originano e si sviluppano i processi di innovazione nei sistemi di cost management in contesti aziendali caratterizzati da fenomeni di cambiamento e quali sono le condizioni di efficacia nell’implementazione di tali interventi. Per perseguire tale obiettivo, vengono analizzati tre casi, riletti alla luce di un modello neoistituzionalista di cambiamento aziendale. Contrariamente alla tradizionale predilezione della letteratura scientifica per un approccio meramente tecnico al tema dei sistemi di cost management, la tesi dimostra come un’efficace gestione degli stessi richieda la comprensione dell’esito dell’interrelazione di variabili ambientali e istituzionali esterne e dinamiche organizzative e istituzionali interne.
For many organizations, restructuring and cost management are key issues in their strategic agenda. As highlighted by the recent literature on management accounting, the current economic crisis is putting enormous pressure on the functioning of cost management systems in most organizations in the world. The main objective of this research is to analyze the relationship between management accounting change (i.e., cost management initiatives) and organizational change. The thesis relies on qualitative data collected through three longitudinal case studies. The analysis draws on a neo-institutional framework which integrates the insights of recent neo-institutional works in accounting. Our findings show that cost management systems cannot be considered only as technical mechanisms. In fact, an effective implementation of cost management initiatives requires the comprehension of the complex interrelationships between competitive and institutional variables and intraorganizational dynamics.
APA, Harvard, Vancouver, ISO, and other styles
9

MORELLI, MARCO. "Sistemi di cost management e cambiamento aziendale: un'analisi delle condizoni di efficacia." Doctoral thesis, Università Cattolica del Sacro Cuore, 2012. http://hdl.handle.net/10280/1416.

Full text
Abstract:
Per molte aziende, ristrutturazione e riduzione dei costi sono al centro dell’agenda strategica. Come sottolinea anche la recente letteratura, la crisi economica scoppiata nel 2008, e tuttora in atto, sta esercitando una forte pressione sulle modalità di funzionamento dei sistemi di controllo in generale e di cost management più in particolare. Il presente lavoro di tesi si pone l’obiettivo di comprendere come si originano e si sviluppano i processi di innovazione nei sistemi di cost management in contesti aziendali caratterizzati da fenomeni di cambiamento e quali sono le condizioni di efficacia nell’implementazione di tali interventi. Per perseguire tale obiettivo, vengono analizzati tre casi, riletti alla luce di un modello neoistituzionalista di cambiamento aziendale. Contrariamente alla tradizionale predilezione della letteratura scientifica per un approccio meramente tecnico al tema dei sistemi di cost management, la tesi dimostra come un’efficace gestione degli stessi richieda la comprensione dell’esito dell’interrelazione di variabili ambientali e istituzionali esterne e dinamiche organizzative e istituzionali interne.
For many organizations, restructuring and cost management are key issues in their strategic agenda. As highlighted by the recent literature on management accounting, the current economic crisis is putting enormous pressure on the functioning of cost management systems in most organizations in the world. The main objective of this research is to analyze the relationship between management accounting change (i.e., cost management initiatives) and organizational change. The thesis relies on qualitative data collected through three longitudinal case studies. The analysis draws on a neo-institutional framework which integrates the insights of recent neo-institutional works in accounting. Our findings show that cost management systems cannot be considered only as technical mechanisms. In fact, an effective implementation of cost management initiatives requires the comprehension of the complex interrelationships between competitive and institutional variables and intraorganizational dynamics.
APA, Harvard, Vancouver, ISO, and other styles
10

COPPOLA, Mariarosaria. "SULLA GESTIONE PATRIMONIALE DELLE FONDAZIONI BANCARIE E SUI SISTEMI DI CONTROLLO. NUOVE PROSPETTIVE DI TUTELA DEGLI STACKEHOLDERS." Doctoral thesis, Università degli studi di Cassino, 2021. http://hdl.handle.net/11580/84123.

Full text
Abstract:
This paper aims to provide a comprehensive re-reading of the banking foundation phenomenon in the light of the most important reforms in recent years concerning ETS and public companies. In this perspective, the analysis of governance and its impact on the management of (public) assets entrusted to banking foundations allows us to build new paths of control.
Il presente lavoro intende fornire una rilettura complessiva del fenomeno delle fondazioni bancarie alla luce delle più importanti riforme intervenute negli ultimi anni in materia di ETS e società pubbliche. In questa prospettiva, l'analisi della governance e del suo impatto sulla gestione dei patrimoni (pubblici) affidati alle fondazioni bancarie consente di costruire percorsi inediti in tema di controllo.
APA, Harvard, Vancouver, ISO, and other styles
11

Kovacevic, Sinisa. "Derivazione di un meccanismo con amplificazione inerziale per lo smorzamento delle vibrazioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Questa Tesi si occupa di una derivazione di un meccanismo con amplificazione inerziale per lo smorzamento delle vibrazioni, il quale è stato usato come un meccanismo costituente di un oscillatore semplice, ovvero di un modello matematico fondamentale su cui è basata la dinamica strutturale, aumentandogli notevolmente la sua complessità geometrica. Viene studiata la risposta dinamica ottenuta dall’analisi armonica, in quanto lo stesso è soggetto alla forzante passiva. Lo studio del comportamento dinamico ingloba un percorso, il quale parte dalla descrizione matematica dell’equilibrio dinamico, nonché delle condizioni al contorno, tramite l’uso di analisi matriciale delle strutture e del calcolo complesso, e si conclude, derivando le grandezze cinematiche e dinamiche, necessarie affinché si possa determinare, in un modo chiaro e privo di ambiguità, lo stato del sistema dinamico. Il passo successivo risiede nell’analisi analitica e numerica dei risultati ottenuti e anche della visualizzazione grafica ed interpretazione degli stessi. Affinché i risultati possano essere considerati validi, occorre che gli stessi passino la procedura di validazione tramite l’uso degli esempi numerici. Successivamente, i risultati validati vengono confrontati con la stessa tipologia dei risultati derivati per gli oscillatori classici o gli oscillatori di riferimento, il quale comportamento è già noto nell’ambito della dinamica strutturale. La Tesi procede con l’applicazione pratica degli oscillatori per lo smorzamento delle vibrazioni. In particolare si studia la loro capacità di alterare la risposta dinamica complessiva del sistema di cui fanno parte, rispetto al caso in cui la stessa struttura è priva di essi. In fine la Tesi si conclude, mettendo in evidenza i vantaggi e gli svantaggi dell’oscillatore dotato di un meccanismo con amplificazione inerziale rispetto agli altri oscillatori classici.
APA, Harvard, Vancouver, ISO, and other styles
12

Mattioli, Francesco. "Analisi tecnica della componentistica di un sistema di controllo in un impianto per la produzione di ammoniaca e urea." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Find full text
Abstract:
Il seguente lavoro di tesi di laurea è volto ad analizzare la progettazione e la fornitura della strumentazione necessaria a realizzare un sistema di analisi – dei processi e delle emissioni a valle degli stessi – completo, relativo sia a un impianto di produzione di ammoniaca che di urea. Lo scopo è quello di realizzare il progetto in accordo alle specifiche e alle tempistiche richieste dal cliente finale, sfruttando la strumentazione fornita da una società leader mondiale nel campo dell’automazione industriale e della produzione di apparecchi tecnologi per l’analisi continuata di gas. L’elaborato è strutturato in cinque capitoli principali: il primo capitolo, come si può intuire dal titolo, si concentra sulle esecuzioni delle zone dell’impianto di produzione dell’ammoniaca e dell’urea. Il secondo capitolo, invece, si focalizza su una panoramica della strumentazione prevista per le varie analisi; in questa sezione sono descritti tutti gli analizzatori installati e dunque presentate le loro caratteristiche principali, le condizioni operative e le descrizioni abbastanza dettagliate sulla tecnologia adottata da ognuno di essi. Il terzo capitolo presenta i vari layout: dallo shelter alle cabine più piccole, passando per i racks e i box. Mentre il quarto, gli schemi pneumatici dei sistemi di analisi dei campioni, con particolare riguardo verso i sistemi di riduzione di pressione e quelli di condizionamento degli stream. Infine, il quinto capitolo, nel quale sono descritti tutti i calcoli che hanno portato all’ingegnerizzazione dei prodotti e che quindi rappresenta una buona parte delta vera e propria progettazione del sistema di analisi dell’impianto di produzione di ammoniaca e urea. In particolare: valutazione del punto di rugiada, dimensionamento sonde sulla base della resistenza vibrazionale, tempi di trasporto e perdite di carico.
APA, Harvard, Vancouver, ISO, and other styles
13

Corsetti, Mauro. "Mediabuilding2. L'evoluzione degli edifici multimediali conseguente all'avanzamento delle modalità di informazione, gestione e controllo attraverso i sistemi tecnologici avanzati." Doctoral thesis, La Sapienza, 2006. http://hdl.handle.net/11573/917208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Carrano, Giovanna. "L’impatto dei sistemi di pianificazione e controllo sui percorsi di risanamento delle società partecipate pubbliche. Potenzialità e limiti alla luce della “riforma Madia”." Doctoral thesis, Universita degli studi di Salerno, 2017. http://hdl.handle.net/10556/2681.

Full text
Abstract:
2015 - 2016
Il presente lavoro di ricerca ha come oggetto il processo di cambiamento che ha caratterizzato le società partecipate pubbliche negli ultimi anni, focalizzando precisamente la propria attenzione su quanto previsto dal decreto legislativo 175/2016 Testo Unico in materia di società a partecipazione pubblica emanato in attuazione della riforma Madia, che ha richiamato l’attenzione degli studiosi di discipline economiche ed, in particolare, di economia aziendale. L’introduzione dei modelli di gestione manageriale, il cambiamento dei valori guida dell’agire amministrativo, il continuo mutamento dei rapporti di forza tra componente politica e componente gestionale riaffermati a tutto tondo dal d.lgs. 175/2016, richiedono agli Enti locali, ai fini di gestire il rapporto con le aziende partecipate, una nuova capacità di pianificazione e controllo strategico. Gli strumenti previsti a supporto di questo nuovo agire, sebbene innovativi e di indubbia utilità, riusciranno a supportare l’Ente in una corretta azione di pianificazione e controllo strategico? Con la presente ricerca si è inteso comprendere la possibilità di supportare tale processo mediante l’utilizzo degli strumenti di programmazione e controllo nel risanamento delle società partecipate pubbliche, prima di raggiungere l’area della liquidazione giudiziale. Appare, a questo punto necessario definire l’obiettivo della ricerca: individuare, cioè, gli strumenti che possano integrare quelli esistenti e supportare l’organo di governo e il management delle società partecipate come richiesto loro, dall’attuale Testo Unico in materia di società a partecipazione pubblica, nell’individuazione degli obiettivi strategici, nella loro definizione ed articolazione e nella verifica del grado di raggiungimento degli stessi ai fini del risanamento delle medesime. Tali strumenti devono consentire di modellizzare una realtà complessa come quella delle società partecipate, tenendo conto delle influenze reciproche tra le variabili e restituire, al tempo stesso, indicazioni facilmente leggibili e interpretabili, che favoriscano la condivisione delle strategie all’interno delle società partecipate. Per indagare un tema così complesso, secondo un approccio economico aziendale, è stata adottata una metodologia deduttiva, che ha visto lo svolgimento di due fasi fondamentali. Nella prima fase deduttiva è stata posta in essere un’analisi della copiosa produzione normativa che ha riguardato il settore dei servizi pubblici locali, partendo dalle riforme poste in essere all’inizio del XX secolo. Grazie a questo studio è stato possibile comprendere i profondi cambiamenti che la materia ha subito nel corso degli anni, al mutare dei contesti di riferimento. Il ricorso al mercato e l’affermarsi di nuove aziende di gestione dei servizi, hanno 3 fatto sorgere nuove problematiche di governance per gli enti locali. Si è quindi provveduto a verificare, innanzitutto, se amministrazioni territoriali e soggetti gestori possedessero requisiti aziendali. Considerati come aziende, l’ente locale e i soggetti gestori nel loro insieme formano un gruppo, all’interno del quale il primo assume il ruolo di holding. In tal senso, è stata analizzata la dottrina economico aziendale in tema di governance delle amministrazioni territoriali sulle proprie consociate, definendo i poteri di indirizzo e coordinamento dell’ente locale e l’attuale normativa sul tema del controllo sugli organismi partecipati introdotta dalla riforma dovuta al decreto legge 174/2012. Sempre nella stessa fase deduttiva, ampio spazio è stato dato all’analisi della letteratura in tema di crisi di impresa, allo studio della normativa nel contesto italiano di riferimento e all’ inerente letteratura economico-aziendale. La seconda fase deduttiva ha visto l’analisi, tramite il pensiero degli studiosi di Economia Aziendale e alla luce della letteratura citata, delle caratteristiche, delle funzioni, dei contenuti, delle potenzialità e dei limiti degli strumenti di pianificazione e controllo a supporto della governance delle partecipate pubbliche, ai fini delle decisioni indirizzate alle strategie del risanamento. L’analisi condotta ai fini del raggiungimento dell’obiettivo di ricerca, individuare gli strumenti che possano integrare quelli esistenti e supportare l’organo di governo e il management delle società partecipate nell’individuazione degli obiettivi strategici, nella loro definizione ed articolazione e nella verifica del grado di raggiungimento degli stessi ai fini del risanamento delle medesime, si pone in prospettiva futura, su propositi di auspicio nella promozione di strumenti di gestione della crisi e di rendere la loro implementazione ancor più rispondente ai criteri di efficienza di tempestività ed equità. D'altronde il lavoro di ricerca condotto è riuscito a costruire un quadro chiaro e dettagliato sulla situazione futura, che si prospetta alle società partecipate pubbliche, definita dal nuovo Testo Unico entrato in vigore. Una nuova situazione che concerne, in modo particolare, le società in house che saranno sottoposte a procedure concorsuali e che non potranno fare più affidamento sull’obbligo dell’ente socio di ripianare le loro perdite, tanto più se fortemente indebitate, con la conseguenza che, in definitiva, dovranno provvedere loro stesse a fronteggiare la situazione nel miglior dei modi possibili in caso di crisi, pertanto sarà necessario cambiare, in modo radicale, il modus operandi di gestione che finora hanno adottato, mediante anche la predisposizione di specifici programmi di valutazione del rischio di crisi aziendale, in grado di prevenire la degenerazione in situazione patologiche gravi. 4 In questa prospettiva, il lavoro si propone di fornire un utile strumento per le società di partecipazione pubblica, con l’intento seppur minimo di apportare contestualmente uno sviluppo agli studi sulla materia, ma al contempo, sottolineare che nel momento in cui viene predisposto e presentato un piano di risanamento, si delinea ad ogni modo un progetto di impresa, che è ex se mutevole, cangiante, in quanto la realtà operativa non è e né mai sarà esattamente inquadrata all’interno di schemi preconfezionati, per quanto formulati con diligenza professionale, pur sempre sulla carta come business plan, piani di budget. La predisposizione, in contenuti minimi e in via generale, di un piano di risanamento, per le società partecipate pubbliche che versano in situazione di crisi, non ha altro scopo che esortare le stesse a cambiare il proprio modus operandi. I fenomeni patologici che si sono verificati, con frequenza crescente, in questi ultimi anni, non dovrebbero prodursi a fronte dell’osservanza delle norme del nuovo Testo Unico prese a riferimento nel lavoro di ricerca. Gli strumenti appena descritti possono fornire un rilevante contributo alla governance delle società partecipate pubbliche. Occorre osservare, tuttavia, che la realtà, ad oggi, appare arretrata e non ancora in grado di adottare efficacemente documenti complessi quali i piani d’impresa, appare quindi opportuno delineare un cammino che porti alla redazione di tali strumenti in modo graduale e senza fratture traumatiche con l’attuale operatività delle partecipate pubbliche. Prendendo, in considerazione, il fatto che il Testo Unico è entrato in vigore a Settembre 2016, la ricerca pone in evidenza una serie di fattori frenanti che possono essere riassunti come segue: - non perfetta compatibilità degli obiettivi e dei tempi di natura gestionale; - inadeguata preparazione sia del livello gestionale sui temi della pianificazione e controllo strategico; - normali resistenze al cambiamento; - inadeguatezza dei sistemi informativi Il seguente lavoro di tesi non analizza il fenomeno delle partecipate pubbliche mediante l’indagine dell’analisi empirica e di conseguenza non prevede nessuna fase induttiva. Non si fa ricorso a dati primari appositamente raccolti per gli specifici fini della ricerca che si sta conducendo, visto che il Testo Unico in materia di società a partecipazione pubblica è in vigore da Settembre 2016. Gli unici dati presenti nell’elaborato fanno riferimento a dati secondari utili per inquadrare il fenomeno delle partecipate pubbliche, in senso generale. In merito, si evidenzia 5 che diverse sono le banche dati a cui si può fare riferimento sul tema delle partecipate pubbliche in Italia, infatti, al momento in Italia, diversi dipartimenti e organi, per legge, sono tenuti a raccogliere le informazioni sul fenomeno in oggetto, come la Consob, la Corte dei Conti, il Dipartimento del Tesoro (MEF), ed altri. Nel lavoro di tesi è stata presa in considerazione, al fine del recupero di informazioni aggiornate sul fenomeno in oggetto, la banca dati Istat e precisamente il Comunicato del 23 dicembre 2016. Il presente lavoro, mettendo in luce alcune criticità proprie dei gruppi pubblici locali e proponendo alcune possibili soluzioni strumentali, lascia aperti spazi per ricerche future. In particolare, potrebbe essere utile implementare ricerche quantitative sui temi trattati con l’ausilio di questionari e interviste per meglio comprendere le peculiarità e le problematiche che caratterizzano le società partecipate pubbliche, nella percezione degli operatori, in modo tale da mettere in luce i gap informativi maggiormente sentiti. Potrebbe essere interessante indagare in maniera approfondita, sempre con l’ausilio degli operatori, le esperienze degli enti più avanzati in tema di sistemi di programmazione e controllo a supporto della governance. In particolare, sarebbe possibile verificare le condizioni che hanno consentito l’adozione di tali sistemi, per poi focalizzarsi sulle metodologie utilizzate per introdurre i diversi processi e strumenti. Infine sarebbe di sicura utilità il confronto con studiosi ed operatori di altri Paesi, in modo tale da dar vita ad una comparazione a livello internazionale sulle tematiche indagate, verificando le soluzioni adottate in altre realtà e valutandone l’applicabilità al contesto italiano. [a cura dell'autore]
XV n.s. (XXIX)
APA, Harvard, Vancouver, ISO, and other styles
15

Minto, Rossella. "Ottimizzazione di un appareto per il controllo delle condizioni climatiche nella cella per la misura della rigidità dinamica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Lo scopo di tale progetto è creare, dal sistema hardware fino alla programmazione software, un sistema che permetta da una parte il controllo autonomo delle condizioni climatiche di un ambiente, il monitoraggio e dall’altra di essere versatile, portatile e di facile utilizzo. Come esempio applicativo per il controllo delle condizioni climatiche in una teca per la misura della rigidità dinamica si andranno ad evidenziare inizialmente in cosa consistono le prove della rigidità dinamica e a cosa servono, per poi passare alla spiegazione dei fenomeni che regolano il comportamento delle miscele di aria e vapor d’acqua che permetteranno di capire le connessioni tra i fattori principali che regolano i cambiamenti climatici quali temperatura e umidità. Successivamente si andranno poi a descrivere con quali meccanismi si regola la climatizzazione degli ambienti, fino ad arrivare alla creazione di un sistema autonomo che gestisca autonomamente temperatura e umidità all’interno di una cella.
APA, Harvard, Vancouver, ISO, and other styles
16

VANUCCI, Cristina. "Tecnologia e morfologia. Sistemi esigenziali-prestazionali e processo edilizio: l’ottimizzazione delle informazioni geometriche, descrittive, morfologiche come strumento di analisi, verifica e controllo." Doctoral thesis, Università degli studi di Ferrara, 2012. http://hdl.handle.net/11392/2389260.

Full text
Abstract:
How is the relationship between the requirements, the building process and geometric, descriptive, morphological information? From this question, the thesis analyzes the process of data mining and transmission of information in the process. The information, measurement, geometry, morphology, may be subject to change due to banal reasons, for example an unordered data storage, or an incorrect data mining or an inaccurate data base. So first goal of the thesis is developing a methodology of data storage and data mining. The information must be consistent with the levels of precision required, versatile compared to other segments of the process and focused exclusively on information that you need to know to carry out the project development. Enucleated the problem, the thesis is developed in a series of case studies that deal with separate commissions. The case studies are located in different segments of the building process with relative accuracy constraints to be respected. The variety of case studies is to show the transversality of this scientific problem in the building process and how the information derived from the techniques of representation will constitute an essential support occurs at different steps of the process. Show the process applicability need a check with the variables of the process itself: the segment of the building process respect to which the case study is located, the requirements defined by the client and the delta of accuracy defined for the validation of information extracted. From case studies some opportunities for innovation in extracting information are identified, they are then coagulated together according to the objectives identified at the start of research to form the future scenarios: these scenarios take over part of the know-how of case studies and industry profiles are addressed to the final clotting knowledge and skills and can develop the industrial scenario sketched.
APA, Harvard, Vancouver, ISO, and other styles
17

Ambretti, Antinea. "La complessità dei sistemi di valutazione didattico-motoria con particolare riferimento alla qualità del controllo motorio nella fascia d'età 3-8 anni." Doctoral thesis, Universita degli studi di Salerno, 2013. http://hdl.handle.net/10556/862.

Full text
Abstract:
2011 - 2012
Numerosi studi hanno posto in evidenza la profonda relazione che lega la coordinazione motoria ed alcune abilità determinanti per il rendimento scolastico quali: , scrittura, aritmetica, musica etc. Autorevoli esponenti della psicopedagogia quali Piaget (1952) e Montessori (1950), hanno infatti sostenuto una dimensione specifica della coordinazione che si riferisce alla relazione occhio-mano, ovvero alla capacità di integrazione delle caratteristiche anatomo - funzionali dell’occhio e con le azioni specifiche e sincroniche della mano,prefigurando le funzioni delle competenze coordinative oculo - manuali per accedere ai processi formativi. In questo senso uno studio della coordinazione motoria nel periodo dell’infanzia dovrebbe quindi tener conto dei diversi stadi di sviluppo e della diversa funzionalità di sistemi qualitativi e quantitativi collegati al controllo del movimento visuo motorio. L’importanza della relazione tra l’integrazione di input sensoriali e azioni motorie ha dato largo adito a numerose ricerche contemporanee che hanno permesso di dimostrare come essa sia una funzione necessaria, una conditio sine qua non, non solo per un buon rendimento scolastico, ma anche per un corretto sviluppo del pensiero organizzativo. Alla capacità d’integrazione senso-motoria è oggi riconosciuto un ruolo centrale nella formazione integrale del soggetto (Stucchi –Viviani 1992). Nei programmi e nelle Indicazioni del Ministero della Pubblica Istruzione Italiana rivolti alla scuola dell’infanzia e primaria del 2007. La coordinazione visuo motoria appare come uno degli obbiettivi principali da raggiungere al termine della scuola primaria. Tra i diversi strumenti disponibili sul piano internazionale i seguenti test di valutazione visuo motoria: VMI Developmental Test of Visual - Motor Integration (Beery & Buktenica, 2000), Bender Gestalt Test, Tpv test, Abc movement si prestano ad un possibile uso integrato nella scuola dell’infanzia e primaria. Lo scopo della presente tesi è stato cercare di sottolineare l’importanza dell’uso dei test nella scuola dell’infanzia e primaria per valutare limiti e potenzialità relativi alla coordinazione motoria degli studenti aiutando in tal senso gli insegnanti a pianificare la programmazione delle attività curriculari. [a cura dell'autore]
XI n.s.
APA, Harvard, Vancouver, ISO, and other styles
18

NARDINI, ALESSIO. "Modello per la simulazione del sotto-sistema pneumatico di caldaie a domestiche a gas, indirizzato all'ottimizzazione dei componenti e alla definizione delle logiche di controllo." Doctoral thesis, Università Politecnica delle Marche, 2017. http://hdl.handle.net/11566/245307.

Full text
Abstract:
Negli ultimi anni consumo energetico ed emissioni inquinanti sono divenuti aspetti sempre più rilevanti per lo sviluppo dei nuovi sistemi energetici. Aumentando l'efficienza nel consumo energetico del settore industriale, l'importanza relativa del settore domestico e terziario, in termini di consumo ed emissioni, è aumentata considerevolmente, tanto che le caldaie domestiche sono responsabili di circa il 30% del consumo energetico dell'Unione Europea. Tali caldaie sono costituite da una serie di componenti e sotto-sistemi che ne condizionano le prestazioni, fra questi il sotto-sistema pneumatico, deputato alla formazione della miscela aria/gas, gioca un ruolo molto importante in termini di emissioni. Pertanto, un modello dinamico di tale sotto-sistema può essere utile alla valutazione dell'impatto ambientale e, soprattutto, può essere un valido aiuto per i produttori, nello sviluppo di nuove soluzioni tecniche nel pieno rispetto dei requisiti normativi. L'analisi dell'andamento temporale del rapporto aria/gas consente di valutare le prestazioni del sistema durante le fasi di esercizio transitorio, di avvio e regolazione, durante le quali, le prestazioni dell'intera caldaia si allontanano dal comportamento stazionario. Sono stati, perciò, sviluppati due modelli, implementati in MATLAB e Simulink e validati sperimentalmente, per la stima delle prestazioni dinamiche del sistema pneumatico e comprensivi di un modello di combustione. Ciò ha permesso di valutare l'impatto di due diverse logiche di controllo, in termini di emissioni inquinanti, su un ciclo di prova rappresentativo del carico giornaliero reale. Si è quindi osservato che un regolatore PI basato sull'idea del gain scheduled, può ridurre, rispetto un regolatore tradizionale, le emissioni di NOx e CO rispettivamente del 9% e 4:5%, durante i transitori. Inne un'analisi parametrica ha mostrato che la riduzione relativa, sull'intero ciclo giornaliero, può giungere no a 5% e 2% per NOx e CO rispettivamente.
During the last years, energetic consumption and pollutants emissions have become mainly relevant in the developing of new energetic systems. With the industrial sector becoming more efficient in energy usage, the signicance of total nal consumption and pollutants emissions level in domestic and ter- tiary sectors has been growing consequently. Domestic boilers are made up by a number of components and subsystems inuencing their performances. The pneumatic subsystem, plays a leading role in determining the emissions level, since it provides for air/fuel mixture formation and ue gases dischar- ge. Therefore the developing of a dynamic model for the study of such a subsystem has been here considered as a useful tool to be used in evaluating the domestic boilers environmental impact. Moreover, in accordance to re- gulatory requests, pneumatic system manufacturers could relates to such a model to develop new technological solution. The analysis of air/fuel ratio time evolution enables boiler performances estimate during transient opera- ting conditions, i.e. start-up phase and load-following. In order to simulate dynamic response of the pneumatic system, two numerical models have been developed and implemented using MATLAB and Simulink, also accounting for combustion chemistry. After models experimental validation, it's been possible to compare the consequences of two dierent control strategies in terms of pollutants emissions. A realistic test load cycle has been adopted in order to evaluate load conditions eects on system performances. Simu- lations show that a variable parameters controller, based on gain scheduled concept, can reduce NOx and CO emissions up to 9% and 4.5% during start- up transient conditions, with respect to traditional controller. Lastly, a pa- rametric analysis conducted on a daily test load cycle demonstrated that the gain scheduled controller can produce up to 5% NOx and 2% CO emissions reductions, compared to the traditional controller outcomes.
APA, Harvard, Vancouver, ISO, and other styles
19

FACCHINETTI, Dario (ORCID:0000-0001-7534-6055). "Tecnologie per la raccolta, la sanitizzazione, l'elaborazione e il rilascio sicuro di dati." Doctoral thesis, Università degli studi di Bergamo, 2022. http://hdl.handle.net/10446/212691.

Full text
Abstract:
Nell'ultima decade si è verificato un grande aumento nell'offerta dei servizi cloud. Il trend è facilitato dai bassi costi, l'alta affidabilità, e dalla riduzione dei rischi associati alla perdita dati. Sebbene caricare dati in cloud comporti dei vantaggi, ci sono anche molte sfide legate alla sicurezza e alla privacy. L'esperienza della comunità di ricerca testimonia che non è sufficiente cambiare la visibilità del dato per ottenere un livello di protezione adeguato. Piuttosto, è necessario organizzare meticolosamente l'intero ciclo di vita del dato, dalla raccolta e sanitizzazione, alla memorizzazione ed elaborazione, e infine il rilascio. Questa tesi analizza ciascuno di questi stadi, proponendo soluzioni Open Source innovative. La prima parte di tesi studia la raccolta dati, in particolare in ambiente mobile. Si tratta di un ambiente importante, in quanto è caratterizzato da dispositivi con limitata memoria, connessi alla rete, e con la possibilità di rilevare informazioni sensibili. Per accedere a queste informazioni, un'app deve ottenere i permessi opportuni. Malgrado ciò, tutti i componenti al suo interno condividono lo stesso ambiente d'esecuzione, quindi hanno la stessa visibilità e restrizioni d'accesso. Si tratta di una limitazione degli attuali OS. Focalizzandoci su Android, che è Open Source, proponiamo una serie di modifiche per compartimentalizzare internamente l'app sfruttando il livello MAC. Con questo approccio, lo sviluppatore può caricare un policy module in app per confinare ogni suo componente, limitando l'accesso alla memoria interna e ai servizi. In seguito alla raccolta, un utente può sanitizzare i dati prima di caricarli in cloud. La sanitizzazione è un processo che altera irreversibilmente i dati, in modo tale che ciascun soggetto referenziato dai essi non possa essere identificato, entro certi parametri di sicurezza, evitando che i dati siano resi inutilizzabili. Nella seconda parte della tesi viene presentato un approccio basato su k-anonimity e l-diversity per sanitizzare grandi collezioni di dati. L'approccio descritto è parallelizzabile ed è caratterizzato da una limitata perdita d'informazione. La terza parte di tesi investiga gli stadi di memorizzazione ed elaborazione. In questo scenario, il cloud provider viene considerato honest-but-curious, si assume cioè che esso eseguirà sempre le richieste dell'utente, ma potrebbe abusare dell'accesso alle informazioni. L'obiettivo è consentire l'esecuzione di interrogazioni su dati caricati in cloud, senza che il gestore ne abbia accesso in chiaro. Sfortunatamente, l'uso di cifratura deterministica non offre una protezione adeguata, dato che le informazioni cifrate mantengono la stessa distribuzione di quelle in chiaro. La soluzione proposta si applica a dati relazionali, e consente l'esecuzione di interrogazioni con predicati di uguaglianza e intervallo. Le tuple vengono salvate su server in blocchi di uguali dimensioni. I blocchi vengono gestiti dal server come unità atomiche inintelliggibili, e sono acceduti per mezzo di un indice cifrato multidimensionale, anch'esso caricato sul server. Mappe locali vengono invece salvate dal client per eseguire ricerche nell'indice in modo efficiente. L'approccio proposto garantisce perfetta indistinguibilità ad un attaccante con accesso alla memoria. Ciò si ottiene applicando crittografia non deterministica e distruggendo le frequenze dell'indice. L'indice è costruito con un'evoluzione della tecnica presentata nella seconda parte della tesi. L'ultima parte della tesi si occupa della fase di rilascio dei dati. L'assunzione di onestà è confutata, in quanto in un ambiente decentralizzato le parti non si fidano reciprocamente. Le parti sono invece modellate come razionali. Sotto questa assunzione, viene proposta una soluzione utilizzabile per schedulare il rilascio dati senza la necessità di una parte fidata.
The last decade has seen a significant increase in usage of cloud services. This trend is facilitated by the low cost, the high reliability, and the reduced risks linked to data loss. Albeit there are advantages in uploading data to the cloud, there are also several security and privacy challenges. The experience gained by the Research community attest that it is not enough to just change data visibility to ensure an adequate level of protection. Rather, it is required to pay attention to the whole data lifecycle, from data collection and sanitization, to storage and processing, and finally the release. This thesis analyzes each of these stages, proposing Open Source solutions pushing forward the current state of the art. The first part of the thesis deals with the collection of data, in particular in the mobile scenario. The mobile environment is especially relevant as smartphones are devices with limited storage, that are connected to the network, and with the ability to log confidential data. To access this information, an app must be granted the proper permission. Yet, all the components running inside it share the same execution environment, thus have the same visibility and access constraints. This is a limitation of the current OS. Focusing on the Android, which is Open Source, we propose a set of modifications to achieve internal app compartmentalization leveraging the MAC layer. With this approach, the developer can add a policy module to the app to confine each component, effectively restricting access to the internal storage and to services. After the data are collected, a user may apply to it sanitization before being uploaded to the cloud. Sanitization is a process by which data are irreversibly altered so that a subject (referenced within the data) cannot be identified, given a certain security parameter, while the data remain practically useful. The second part of the thesis presents an approach based on k-anonymity and l-diversity to apply sanitization over large collections of data. The approach described can be applied in a distributed environment and is characterized by a limited information loss. The third part of the thesis investigates the storage and processing stages. In this scenario, the cloud provider is considered honest-but-curious, which assumes that it complies with the requests issued by the user, but may abuse the access to the information provided. Hence, the goal is to support the execution of queries over outsourced data with a guarantee that the cloud provider does not have access to the data content. Unfortunately, the use of deterministic encryption does not offer protection, as the encrypted data maintain the same distribution of the original data. The approach we present is applicable to relational data, and enables the execution of queries involving equality and range conditions. Data is saved encrypted to the server into equally large blocks of tuples. The blocks are managed by the server as atomic units, and accessed through an encrypted multidimensional index also stored by the server. The cloud provider is then unable to identify the single items stored within each block. Local maps are saved by the client to search the index efficiently. The approach provides perfect indistinguishability to an attacker with access to the stored data. This is achieved applying non-deterministic encryption, and by destroying the frequencies of the index. The index is built as an evolution of the technique presented in part two of the thesis. The last part of the thesis addresses the data release stage. As we move to a decentralized environment in which the parties are mutually distrusting, the honesty assumption is refuted. The parties are instead modeled as rational. In this setting, we propose a solution that can be used to schedule the release of data without the need for a Trusted Party. The approach is based on economic incentives and penalties, enforced by a smart contract.
APA, Harvard, Vancouver, ISO, and other styles
20

Pedretti, Davide. "Design and Development of a Multi-Purpose Input Output Controller Board for the SPES Control System." Doctoral thesis, Università degli studi di Padova, 2018. http://hdl.handle.net/11577/3425405.

Full text
Abstract:
This PhD work has been carried out at the Legnaro National Laboratories (LNL), one of the four national labs of the National Institute for Nuclear Physics (INFN). The mission of LNL is to perform research in the field of nuclear physics and nuclear astrophysics together with emerging technologies. Technological research and innovation are the key to promote excellence in science, to excite competitive industries and to establish a better society. The research activities concerning electronics and computer science are an essential base to develop the control system of the Selective Production of Exotic Species (SPES) project. Nowadays, SPES is the most important project commissioned at LNL and represents the future of the Lab. It is a second generation Isotope Separation On-Line (ISOL) radioactive ion beam facility intended for fundamental nuclear physics research as well as experimental applications in different fields of science, such as nuclear medicine; radio-pharmaceutical production for therapy and diagnostic. The design of the SPES control system demands innovative technologies to embed the control of several appliances with different requirements and performing different tasks spanning from data sharing and visualization, data acquisition and storage, networking, security and surveillance operations, beam transport and diagnostic. The real time applications and fast peripherals control commonly found in the distributed control network of particle accelerators are accompanied by the challenge of developing custom embedded systems. In this context, the proposed PhD work describes the design and development of a multi-purpose Input Output Controller (IOC) board capable of embedding the control of typical accelerator instrumentation involved in the automatic beam transport system foreseen for the SPES project. The idea behind this work is to extend the control reach to the single device level without losing in modularity and standardization. The outcome of the research work is a general purpose embedded computer that will be the base for standardizing the hardware layer of the frontend computers in the SPES distributed control system. The IOC board is a Computer-on-Module (COM) carrier board designed to host any COM Express type 6 module and is equipped with a Field Programmable Gate Array (FPGA) and user application specific I/O connection solutions not found in a desktop pc. All the generic pc functionalities are readily available in off-the-shelf modules and the result is a custom motherboard that bridges the gap between custom developments and commercial personal computers. The end user can deal with a general-purpose pc with a high level of hardware abstraction besides being able to exploit the on-board FPGA potentialities in terms of fast peripherals control and real time digital data processing. This document opens with an introductory chapter about the SPES project and its control system architecture and technology before to describe the IOC board design, prototyping, and characterization. The thesis ends describing the installation in the field of the IOC board which is the core of the new diagnostics data readout and signal processing system. The results of the tests performed under real beam conditions prove that the new hardware extends the current sensitivity to the pA range, addressing the SPES requirements, and prove that the IOC board is a reliable solution to standardize the control of several appliances in the SPES accelerators complex where it will be embedded into physical equipment, or in their proximity, and will control and monitor their operation replacing the legacy VME technology. The installation in the field of the IOC board represents a great personal reward and crowns these years of busy time during which I turned what was just an idea in 2014, into a working embedded computer today.
Questo lavoro di dottorato è stato svolto presso ai Laboratori Nazionali di Legnaro (LNL), uno dei quattro laboratori nazionali dell’Istituto Nazionale di Fisica Nucleare. La missione principale dei LNL è la ricerca di base nella fisica e astrofisica nucleare, sostenuta da un’importante ricerca relativa alle tecnologie emergenti. Le attività di ricerca nell’ambito dell’elettronica e dell’informatica sono essenziali per lo sviluppo del sistema di controllo del progetto SPES (produzione selettiva di specie esotiche). SPES è il progetto piú importante e rappresenta il futuro dei laboratori di Legnaro. Si tratta di una infrastruttura di tipo ISOL (separazione di isotopi in linea), di seconda generazione, il cui obiettivo è quello di generare e accelerare un fascio di ioni radioattivi dedicato alla ricerca nel campo della fisica nucleare, astrofisica nucleare, e ad applicazioni sperimentali in diversi campi della scienza come la produzione di particolari radionuclidi per la medicina nucleare che saranno utili per la diagnosi e la cura di patologie oncologiche. Il progetto del sistema di controllo di SPES sarà basato su tecnologie innovative che consentiranno di monitorare e controllare dispositivi tra loro molto diversi e che eseguono funzioni differenti che vanno dall’acquisizione e visualizzazione dei dati, condivisione dei dati in rete, memorizzazione delle informazioni, operazioni di sorveglianza, diagnostiche e trasporto del fascio. In questo contesto, il dottorato di ricerca proposto descrive il progetto e la realizzazione di una scheda elettronica di controllo (IOC) multifunzione capace di controllare quasi tutte le apparecchiature coinvolte nel trasporto del fascio di ioni radioattivi. L’idea di base di questo lavoro è quella di estendere il controllo a livello di singola apparecchiatura o piccoli gruppi di dispositivi senza rinunciare alla modularità e alla standardizzazione dell’elettronica. Il risultato del lavoro di dottorato è un computer embedded multifunzione progettato con tecnologie all’avanguardia che diventerà lo standard, a livello hardware, su cui si baserà il sistema di controllo distribuito di SPES. Questo controllore multifunzione integra tutte le funzionalità di un computer commerciale e in aggiunta è equipaggiato con un dispositivo programmabile sul campo (FPGA) e alcune periferiche non standard dedicate ad applicazioni di controllo specifiche. L’utente finale potrà sfruttare questa scheda elettronica come un qualunque pc commerciale, oppure, potrà sfruttare le potenzialità della FPGA per le elaborazioni digitali dei dati in tempo reale, per il trasferimento dei dati ad alta velocità su fibra ottica, per chiudere anelli di controllo a larga banda e per avere tempi di risposta agli stimoli in ingresso dal campo deterministici e molto brevi. Il documento apre con una introduzione sul progetto SPES prima di descrivere la progettazione, prototipizzazione e validazione della scheda IOC dando particolare risalto alle attività in cui il mio contributo è stato fondamentale. La tesi si chiude descrivendo l’integrazione della scheda IOC nel sistema di diagnostiche di fascio di SPES. Le misure del profilo di fascio eseguite sul campo e l’estensione della sensibilità di corrente a pochi pA confermano che la scheda elettronica progettata è una soluzione affidabile per standardizzare, a livello hardware, il controllo di diverse apparecchiature nel complesso degli acceleratori del progetto SPES. Questa scheda sostituirà la tecnologia VME in diverse applicazioni e sarà la base su cui implementare un sistema di trasporto di fascio automatico e di qualità, fondamentale per il successo delle attività di ricerca ai LNL. L’installazione in campo della scheda elettronica rappresenta una soddisfazione personale enorme e corona questi anni di duro lavoro durante ai quali ho trasformato quella che nel 2014 era solo un’idea, in un computer embedded pienamente funzionante.
APA, Harvard, Vancouver, ISO, and other styles
21

ACCETTA, Angelo. "Applicazione e Controllo delle Celle a Combustibile di Tipo PEM ai Sistemi di Generazione Distribuita." Doctoral thesis, 2012. http://hdl.handle.net/10447/94678.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

QUATTROCCHI, ANTONINO. "Sviluppo di metodologie sperimentali per il controllo attivo delle vibrazioni e la riduzione del rumore vibro-acustico." Doctoral thesis, 2017. http://hdl.handle.net/11570/3105010.

Full text
Abstract:
Il presente lavoro di tesi è incentrato sullo studio e sullo sviluppo di un metodo di controllo attivo del rumore e delle vibrazioni attraverso sensori e attuatori a film piezoelettrico (patch PZT) e algoritmi in ambiente Labview basati su regolatori PID. A tal proposito sono state analizzate diverse problematiche sui vari aspetti del controllo attivo delle vibrazioni e del rumore, proponendo una metodologia originale, basata sul metodo dei coefficienti di convergenza, per il rilievo di difetti mediante onde ultrasoniche di superficie generate e misurate con patch piezoelettriche. Gli attuatori piezoelettrici sono spesso adoperati all’interno di sistemi complessi per controllare le condizioni di funzionamento. Tali trasduttori sono soggetti a riscaldamento, a causa delle correnti che si muovono al loro interno. Il principale problema può presentarsi in strutture dove l’effetto termico può alterare le corrette operazioni, specialmente quando l’attività dell’attuatore è continua. In questa tesi è stato implementato un modello conduttivo di tipo termo-elettro-meccanico, capace di descrivere il riscaldamento di attuatori piezoelettrici annegati. In particolare esso permette di valutare la temperatura della patch PZT, misurando quelle delle superfici esterne del sistema. Per questo scopo, la distribuzione termica delle facce dell’attuatore è stata acquisita mediante termografia IR e punti rappresentativi sono stati investigati con termocoppie superficiali. Il modello è stato validato analizzando il provino costituito da una struttura polimerica con una patch PZT inglobata. Un modello di misura dell’incertezza è stato calcolato per mettere in evidenza le variabili più rilevanti ed è stato presentato il caso studio di una patch PZT, annegata all’interno di un pannello in composito. I sensori piezoelettrici sono dispositivi in grado di percepire lo stato vibrazionale di strutture più o meno complesse. Le loro caratteristiche intrinseche devono mostrare adeguatezza nell’acquisire correttamente i segnali da misurare, per cui risultano fondamentali la loro posizione, le loro dimensioni, il loro peso ed in generale le caratteristiche meccaniche ed elettriche utili alla loro funzione. Nella maggior parte dei casi tutto è finalizzato alla rilevazione della risonanza della struttura in esame. Questa rappresenta certamente l’effetto principale da eliminare per ottenere un corretto controllo di vibrazione e rumore, tuttavia può essere fruttata per giungere a risultati vantaggiosi. Molti dispositivi piezoelettrici sono in grado di adoperare la vibrazione per produrre energia elettrica. Tale tecnica è chiamata Energy Harvesting (EH) e si basa sulla generazione di piccole potenze elettriche, mediante l’utilizzo di fenomeni dovuti ad interazioni indirette sistema-harvester. In tal maniera è possibile posizionare un elemento piezoelettrico su un sistema vibrante e sfruttare la vibrazione prodotta per innescare la risonanza ed in modo passivo sviluppare corrente e tensione. In questo lavoro di tesi sono stati caratterizzati un generatore piezoelettrico risonante a sbalzo (RPG), in grado di operare in configurazione d31 ed un circuito di raddrizzamento e di regolazione (RRC) ad esso collegabile. I comportamenti elettrici e vibrazioni sono stati indagati attraverso prove di laboratorio per evidenziare la potenza massima generabile, i parametri dinamici, il campo di deformazione associata, l'efficienza dell’RPG ed i tempi di carica e scarica dell’RRC. I risultati mostrano che esiste una potenza ottimale per un carico specifico ed essa si massimizza in corrispondenza della frequenza di risonanza. Infatti in queste condizioni meccaniche, la potenza si accresce di diversi ordini di grandezza e vantaggi simili sono ottenuti nell’efficienza. Gli stessi sono stati raggiunti impiegando l’RCC, incrementando i tempi di funzionamento. L'obiettivo principale di questo studio è quello di migliorare le prestazioni di un tradizionale risuonatore piezoelettrico a sbalzo e verificarne la fattibilità per casi reali. Il controllo attivo del rumore e delle vibrazioni è stato messo a punto avvalendosi dei sensori e degli attuatori piezoelettrici precedentemente studiati, al fine di creare un sistema automatizzato in grado di sopperire all’obiettivo attraverso implementazione software. L’architettura hardware è stata facilmente impiantata su una semplice struttura, incollando i trasduttori sulle sue superfici. In seguito questi sono stati collegati ad un sistema di acquisizione/ controllo/generazione dei segnali di vibrazione. In ambito software sono stati sviluppai applicativi, utilizzando LabVIEW™, in grado di attuare opportune strategie di condizionamento dei segnali, avvalendosi del principio di sovrapposizione degli effetti. L’obiettivo del lavoro è quello di ridurre le vibrazioni alla risonanza, acquisendo i segnali e generando onde uguali e contrare, quindi con stesso modulo e opposta fase, permettendo di approntare la cosiddetta sovrapposizione distruttiva, prodotta attraverso controllo ad anello chiuso. L’ultima parte di questa tesi è incentrata sul proporre l’uso delle patch piezoelettriche come sensori ed attuatori attraverso la tecnica del Match Coefficient Approach (MCA) per l’identificazione di difetti prossimi alla superficie di strutture metalliche. Il setup utilizzato per l’applicazione di questa innovativa metodologia coincide con quello adoperato per il controllo attivo delle vibrazioni e del rumore; di conseguenza esso permette ambivalentemente di svolgere monitoraggio strutturale e controllo attivo. In questo caso è stato fatto uno studio preliminare con il quale è stato proposto un algoritmo in ambiente Matlab™ per applicare lo schema di ricostruzione delle immagini attraverso Synthetic Aperture Focus (SAF), opportunamente modificato mediante la tecnica del Matched Field Processing (MFP), utilizzata per la localizzazione delle sorgenti acustiche per emissioni subacquee e dei terremoti. Per verificare l’efficienza della proposta è stato studiato il caso di una piastra sottile metallica con fori, spallature e difetti su cui sono stati incollati trasduttori piezoelettrici allo scopo di identificare tali disuniformità della superficie.
APA, Harvard, Vancouver, ISO, and other styles
23

Cimillo, Marco. "I sistemi di controllo passivo nella valutazione dell'efficienza energetica degli edifici in area mediterranea. Applicazioni delle simulazioni dinamiche nella progettazione e nella certificazione energetica degli edifici." Doctoral thesis, 2011. http://hdl.handle.net/11573/916935.

Full text
Abstract:
La tesi contiene un quadro dei problemi legati alla valutazione del contributo dei sistemi passivi nella valutazione dell’efficienza energetica degli edifici e propone due contributi. Entrambi sono basati sull’uso delle simulazioni dinamiche, ma prevedono diversi approcci: un modello dinamico è validato secondo lo standard europeo EN 15265 e un metodo di calcolo semplificato è elaborato per il sistema dei condotti interrati. Le soluzioni sono immediatamente utilizzabili per la certificazione energetica e più in generale per la valutazione dei sistemi passivi. Inoltre vengono fornite indicazioni sulla validità dei due metodi sperimentati. Si tratta tuttavia di soluzioni parziali che certamente non esauriscono il problema e che si prestano ad ulteriori sviluppi, sia riguardo alla propria accuratezza ed affidabilità, sia in relazione alle norme tecniche alle quali si rapportano. The research maps out a description of the problems linked to the assessment of the energy performance of buildings in relation to the use of passive systems and proposes two contributions. Both are founded on dynamic simulation, but based on different approaches: a dynamic model is validated according to EN 15265 European standard and a simplified calculation procedure is generated for buried earth pipes systems. The solutions are immediately usable for energy certification and for passive systems assessment in general. Furthermore, indications on the validity of two experimented methods are provided. The solutions do not exhaust the problem and remain open to further developments, concerning both the accuracy/reliability of methods and the relations with the standards they are linked to.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography