Dissertations / Theses on the topic 'ING-IND/12 MISURE MECCANICHE E TERMICHE'

To see the other types of publications on this topic, follow the link: ING-IND/12 MISURE MECCANICHE E TERMICHE.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'ING-IND/12 MISURE MECCANICHE E TERMICHE.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

PIERONI, NICOLA, and NICOLA PIERONI. "Caratterizzazione sperimentale del pneumatico tramite misure di forma: sviluppo di nuovi strumenti e tecniche d'analisi." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

DE, ALTERIIS Giorgio. "Sistemi di misurazione avanzati basati su sensori inerziali per soluzioni IoT innovative e navigazione autonoma." Doctoral thesis, Università degli studi di Bergamo, 2022. http://hdl.handle.net/10446/207089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

ANGELATS, LOBO DAVID. "DEVELOPMENT OF ALTERNATIVE BIOENGINEERING STRATEGIES." Doctoral thesis, Università degli studi di Brescia, 2022. http://hdl.handle.net/11379/560219.

Full text
Abstract:
Concettualmente, la produzione additiva permette la rapida e precisa produzione delle parti complesse. La produzione additiva richiede di un disegno previo della parte da fabbricare per un software di progettazione assistita da computer (CAD, in inglese). A causa delle limitazioni del CAD software, particolarmente nelle curve, alcune delle parti stampate esige trattamenti aggiuntivi o di post lavorazione per ottenere la morfologia e la struttura desiderate. La produzione additiva e la stampa tridimensionale (3D) erano solo stabiliti nella area di ingegneria. Nell 21⁰ secolo, la idea di usare le tecnologie di stampa tridimensionale per sviluppare delle strutture tridimensionale per il sostegno della coltura cellulare e de imitare il microambiente nativo, avanza una nuova area chiamata Biostampa. Nella biostampa, diverse technologie possono essere usate, essendo la stampa per estrusione la più versatile e consolidata. Le stampanti 3D come la 3D-Bioplotter™ usano un nuovo metodo, la biostampa diretta, che permette la stampa di una struttura integrata con le cellule che assomiglia le condizioni in vivo. Allo stesso modo, diverse aree di recerca possono trarne beneficio della biostampa 3D, come lo studio di disturbi o malattie ad esempio il cancro. Per definizione, il cancro è una malattia eterogenea che provoca 10 milioni di morti nel mondo all’anno, essendo il carcinoma mammario la seconda causa di morte tra le donne negli Stati Uniti e Europa. Il carcinoma mammario triplo negativo (TNBC, in inglese) è stato descrito come un sottotipo molto aggressivo, però la mancanza di conoscenza di come inicia il processo tumorale rende il suo studio molto interesante. La combinazione di fibre elettrofilate e una linea cellulare del carcinoma mammario triplo negativo (MDA-MB-231), dimostra la formazione di aggregati cellulari simil-tumorali. Potrrebe esse usati nella medicina personalizata del cancro, selezionando il migliore trattamento per ogni paziente nel futuro.
Conceptually, additive manufacturing allows rapid and precise manufacturing of complex parts. Additive manufacturing requires a previous design of the piece to be fabricated by computer-aided design (CAD) software. Due to the limitations of CAD software, especially on curves, some of the printed pieces require additional or post-processing treatments to achieve the desired morphology and structure. Additive manufacturing and three-dimensional (3D) printed were both previously established only in the engineering field. In the 21st century, the idea of using 3D printing technologies to develop 3D structures to support cell culture and mimic native cellular microenvironment, push forward a new field in research called Bioprinting. In bioprinting, several technologies can be used, being extrusion printing the more versatile and well established. 3D printers like the 3D-Bioplotter™ use a new method, direct bioprinting, which permits the printing of a structure integrated with cells that resembles more to the in vivo conditions. Likewise, different research areas can benefit from 3D Bioprinting, like the study of disorders or diseases such as cancer. By definition, cancer is a heterogenic disorder that causes 10 million deaths worldwide, being breast cancer the second cause of death among women in the USA and Europe. Triple-negative breast cancer (TNBC) has been described as the most aggressive subtype, but the lack of knowledge on how the tumoral process begins makes its study more interesting. Combining electrospun fibers and a triple-negative breast cancer cell line (MDA-MB-231) demonstrates the formation of tumor-like cell aggregates. It might be used in personalized medicine of cancer by selecting the best treatment for each patient in the future.
APA, Harvard, Vancouver, ISO, and other styles
4

ANGELATS, LOBO DAVID. "DEVELOPMENT OF ALTERNATIVE BIOENGINEERING STRATEGIES." Doctoral thesis, Università degli studi di Brescia, 2022. http://hdl.handle.net/11379/560196.

Full text
Abstract:
Concettualmente, la produzione additiva permette la rapida e precisa produzione delle parti complesse. La produzione additiva richiede di un disegno previo della parte da fabbricare per un software di progettazione assistita da computer (CAD, in inglese). A causa delle limitazioni del CAD software, particolarmente nelle curve, alcune delle parti stampate esige trattamenti aggiuntivi o di post lavorazione per ottenere la morfologia e la struttura desiderate. La produzione additiva e la stampa tridimensionale (3D) erano solo stabiliti nella area di ingegneria. Nell 21⁰ secolo, la idea di usare le tecnologie di stampa tridimensionale per sviluppare delle strutture tridimensionale per il sostegno della coltura cellulare e de imitare il microambiente nativo, avanza una nuova area chiamata Biostampa. Nella biostampa, diverse technologie possono essere usate, essendo la stampa per estrusione la più versatile e consolidata. Le stampanti 3D come la 3D-Bioplotter™ usano un nuovo metodo, la biostampa diretta, che permette la stampa di una struttura integrata con le cellule che assomiglia le condizioni in vivo. Allo stesso modo, diverse aree di recerca possono trarne beneficio della biostampa 3D, come lo studio di disturbi o malattie ad esempio il cancro. Per definizione, il cancro è una malattia eterogenea che provoca 10 milioni di morti nel mondo all’anno, essendo il carcinoma mammario la seconda causa di morte tra le donne negli Stati Uniti e Europa. Il carcinoma mammario triplo negativo (TNBC, in inglese) è stato descrito come un sottotipo molto aggressivo, però la mancanza di conoscenza di come inicia il processo tumorale rende il suo studio molto interesante. La combinazione di fibre elettrofilate e una linea cellulare del carcinoma mammario triplo negativo (MDA-MB-231), dimostra la formazione di aggregati cellulari simil-tumorali. Potrrebe esse usati nella medicina personalizata del cancro, selezionando il migliore trattamento per ogni paziente nel futuro.
Conceptually, additive manufacturing allows rapid and precise manufacturing of complex parts. Additive manufacturing requires a previous design of the piece to be fabricated by computer-aided design (CAD) software. Due to the limitations of CAD software, especially on curves, some of the printed pieces require additional or post-processing treatments to achieve the desired morphology and structure. Additive manufacturing and three-dimensional (3D) printed were both previously established only in the engineering field. In the 21st century, the idea of using 3D printing technologies to develop 3D structures to support cell culture and mimic native cellular microenvironment, push forward a new field in research called Bioprinting. In bioprinting, several technologies can be used, being extrusion printing the more versatile and well established. 3D printers like the 3D-Bioplotter™ use a new method, direct bioprinting, which permits the printing of a structure integrated with cells that resembles more to the in vivo conditions. Likewise, different research areas can benefit from 3D Bioprinting, like the study of disorders or diseases such as cancer. By definition, cancer is a heterogenic disorder that causes 10 million deaths worldwide, being breast cancer the second cause of death among women in the USA and Europe. Triple-negative breast cancer (TNBC) has been described as the most aggressive subtype, but the lack of knowledge on how the tumoral process begins makes its study more interesting. Combining electrospun fibers and a triple-negative breast cancer cell line (MDA-MB-231) demonstrates the formation of tumor-like cell aggregates. It might be used in personalized medicine of cancer by selecting the best treatment for each patient in the future.
APA, Harvard, Vancouver, ISO, and other styles
5

PROVEZZA, LUCA. "Predictive diagnostics through machine learning on the injection group of a diecasting machine." Doctoral thesis, Università degli studi di Brescia, 2022. http://hdl.handle.net/11379/559976.

Full text
Abstract:
L'analisi dei big data ha sempre più preso un ruolo rilevante nello scenario industriale degli ultimi decenni. Il "Data Lake" rappresenta una nuova frontiera in data science. Non si vuole solo immagazzinare dati, ma analizzarli con il fine di applicare procedure correttive in tempo per poter evitare stop di produzione e far crescere la produttività di un'azienda. Ogni campo della catena produttiva è importante per poter crescere la produttività. In particolare, la manutenzione è uno dei tasks più importanti di cui tenere in considerazione per queste analisi. Infatti, i costi dovuti alla manutenzione sono la maggior parte dei costi totali di un impianto di produzione. Questi costi devono essere ridotti mediante diverse strategie. La nuova frontiera nella strategia di manutenzione è rappresentata dalla Manutenzione Predittiva (PM) o anche definita, Predictive Health Management (PHM). La PHM è una strategia di manutenzione dove vengono applicati algoritmi statistici o algoritmi di machine learning per ottenere la "Remaining Useful Life" (RUL) di un componente. Questo progetto è focalizzato nell'applicazione della PHM nel gruppo iniezione di una macchina di pressocolata. Per sua definizione, il processo di pressocolata ad alta pressione (HPDC) presenta aspetti differenti che possono andare ad inficiare sull'analisi dei dati. Per esempio, il malfunzionamento di un componente è un evento raro e l'analisi non può essere eseguita andando ad investigare ampi dataset, oppure investigando i dati di fault basandoci sui registri di manutenzione di un'azienda. Questo rende difficoltoso indentificare condizioni di fault dei componenti utilizzando i tradizionali algoritmi di machine learning. Un ulteriore problema legato con il processo di HPDC sta nel frequente cambio di produzione, che porta a cambiamenti radicali nei parametri di processo. Inoltre, può capitare che le aziende di piccole dimensioni non facciano il corretto update dei dati di produzione (cambio di stampo, cambio ricetta nell'iniezione). Per risolvere queste problematiche, viene proposto un nuovo metodo per determinare le condizioni di fault di componenti in una macchina di pressocolata. Il metodo proposto è in grado di determinare automaticamente un cambio di produzione e resettare il dataset utilizzato per il training. Il metodo si basa sulla peculiarità del processo di pressocolata di avere differenti fasi che risultano essere eguali per ogni tipo di macchina e produzione. Queste fasi sono, l'avanzamento lento del pistone per l'iniezione in modo da evitare bolle d'aria nella camera di iniezione, l'avanzamento veloce del pistone con il completo riempimento dello stampo, e la fase di moltiplica dando una maggiore pressione al processo di pressofusione. Questo aumento di pressione serve per compensare il ritiro del materiale dovuto al raffreddamento dopo l'iniezione. Ogni fase viene interpolata in modo da estrarre parametri significativi per la futura predizione del fault. Per ogni parametro, viene calcolato uno stimatore dell'incertezza, che viene combinato con l'incertezza della strumentazione per ottenere un'incertezza estesa che tenga in considerazione dei due contributi. Il core di questo metodo si concretizza proprio nel calcolo della metrica finale per poter monitorare lo stato di salute di un componente. Infatti, il metodo si basa sulla combinazione della classica analisi statistica con delle matrici peso date dagli esperti del settore della manutenzione di questa tipologia di macchina. Il risultato finale è l'Health Index (HI) che rappresenta la probabilità di avere una condizione di fault per la macchina di pressocolata. Ogni matrice peso che viene combinata con i parametri estratti si traduce in un HI per quel componente. In questo modo, è possibile creare tanti Heath Index possibili utilizzando una specifica matrice peso, che è possibile costruire mediante le interviste degli esperti.
In the last decades, data analysis becomes relevant in the industrial scenario. The data lake represents the new frontier in the data science. The new concept is not only the data storage anymore, but the possibility to analyse the historical data in order to optimize the production by finding bottle necks in the production chain and solving the problem by applying corrective procedures to increase the productivity of a company. Every field in the production chain is important to increase the productivity. Maintenance is one of the most important tasks to take into in account. Indeed, maintenance costs are a major part of the total operating costs of all manufacturing or production plants. These costs must be reduced by applying different strategies. The new frontier in the maintenance strategy is represented by the Predictive Maintenance (PM) or Predictive Health Management (PHM). PHM is a maintenance strategy in which different statistical algorithms or machine learning algorithms can be applied to obtain the Remaining Useful Life (RUL) of a component. This project is focused on the application of the PHM on an injection group of a die casting machine. By this own definition, the High Pressure Die Casting (HPDC) process presents different aspects that can affect the analysis. For instance, the fault of components is a rare event, and the analysis cannot be performed by investigating large datasets or fault data based on maintenance records. This makes very difficult to detect the fault of components with traditional machine learning algorithms. A further problem, however, linked with HPDC process is in the frequent change in production, which leads to changes in the process parameters. Moreover, sometimes small companies do not correctly update the production identifiers. To solve these problems, a new method is proposed to detect the fault of components in a diecasting machine. The proposed method automatically detects a production change and resets each time the dataset used for training. The method is based on the peculiarity of the die casting process that presents different phases equal to each machine and production considered. These phases are the slow motion of the piston to avoid air bubbles inside the injection chamber, the stroke with the filling of the die, and the multiplication phase to compensate the shrinkage of the material due to the cooling by giving more pressure in the process. Each phase is interpolated to extract sensitive parameters to perform the prediction of fault. For each parameter, an uncertainty estimator is recorded and combined with the uncertainty of the instrumentation to obtain an uncertainty that considers the two contributions. The core of this method is in the combination of the classical prediction analysis with a weighing matrix given by the experts. The weights are determined in a series of formal interviews for each phase and quantity recorded. The result is the Health Index (HI) representing the probability of different types of faults in the diecasting machine. Each weighing matrix combined with the parameters extracted is a HI for that component and it is possible to create how many HIs as possible by using a proper weighing matrix that can be constructed through the interview of the experts.
APA, Harvard, Vancouver, ISO, and other styles
6

GASPARONI, ANDREA. "Tracking and continuous-tracking scanning laser doppler vibrometer: innovative techniques for the operational characterization of rotating blades." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242169.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sassaroli, Andrea. "The image of the sound: a novel 3D Beamforming system for aeronautics." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242172.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

ROSSETTI, FRANCESCO. "Progetto, sviluppo e validazione di un sistema di misura della posizione basato su sistemi inerziali e GPS in modalità "sensor fusion" per la navigazione assistita di persone non vedenti." Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242415.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Pandarese, Giuseppe. "Sviluppo di nuove tecniche di caratterizzazione per sonde ad ultrasuoni in aria tramite la generazione di onde d'urto controllate." Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242399.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

LAPI, ALBERTO. "Studio e sviluppo di metodi e strumenti per la misura senza contatto delle prestazioni dinamiche di altoparlanti e delle caratteristiche dei materiali componenti." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242170.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

CLARI, DANIELE. "Modellazione e validazione dinamica di una lavabiancheria per la previsione acustica." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Agostinelli, Gianluca, and GIANLUCA AGOSTINELLI. "Vibrometria laser per la diagnostica industriale: strategie di misura e analisi di ripetibilità e riproducibilità della diagnosi." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242174.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Marchionni, Paolo, and Paolo Marchionni. "Non-contact techniques for the measurement of physiological parameters in neonatal intensive care units." Doctoral thesis, Università Politecnica delle Marche, 2011. http://hdl.handle.net/11566/242484.

Full text
Abstract:
Lo scopo di questa tesi consiste nello sviluppo e nella costruzione di nuovi metodi di misura senza contatto per la valutazione di parametri fisiologici (saturazione del sangue, frequenza cardiaca, frequenza respiratoria, e temperatura) molto importanti all’interno di un reparto di terapia intensiva neonatale (NICU). In questo ultimi anni, come dimostrato in letteratura, è aumentato l’ interesse sui dispositivi senza contatto. La principale motivazione è quella di eliminare i rischi biologici, chimici ed elettrici, che sono sempre presenti quando un dispositivo medicale viene applicato su un paziente. Ciò è particolarmente evidente in pazienti ricoverati in un’unità di terapia intensiva; specialmente se nati pre-termine e perciò con l’apparato cardiaco/respiratorio non ancora del tutto formato e con le difese immunologiche basse. Le tesi è stata organizzata per esplorare e proporre soluzioni fattibili per misure senza contatto di parametri fisiologici nei pazienti pre-termine, quali: • Saturazione del sangue (SaO2) • Frequenza Cardiaca (HR) • Frequenza Respiratoria (RR) • Temperatura superficiale del paziente (T) SaO2 è generalmente affetta da numerosi falsi positivi dovuti all’errato posizionamento del pulso ossimetro oppure agli artefatti da movimento. Nel capitolo 4 è descritto ed implementato un metodo consolidato per l’eliminazione di dati saturimetrici erronei, l’algoritmo è stato applicato a 24 pazienti con un’acquisizione di 483 giorni, di cui più del 12% (equivalente a 58 giorni) sono risultati falsi e quindi da scartare. L’HR e la RR sono state misurate senza contatto su 8 pazienti, senza che questi fossero spostati dalle isole neonatali o dalle incubatrici. I dati raccolti sono stati rielaborati e validati con ECG e ventilatori, mostrando un’accuratezza della misura di ± 43 ms e ± 150 ms. Infine è stato progettato un nuovo metodo senza contatto per la misura della temperatura superficiale di pazienti NICU. Lo strumento usato è una termo camera IR che ha permesso di ottenere mappature termiche del soggetto in modo da avere un riscontro indiretto della termogenesi e dei parametri metabolici del paziente. Inoltre è stato costruito un modello per valutare e quantizzare i parametri vitali del paziente. I metodi descritti, permettono misure molto accurate e continue di parametri vitali, eliminando il contatto paziente-dispositivo biomedicale (fatta eccezione del pulso ossimetro), diminuendo significativamente il rischio biologico, chimico ed elettrico ritenuti molto gravi in pazienti presenti in NICU.
The main aim of this thesis is to design and develop novel measurement methods for the non-contact assessment of physiological quantities (oxygen saturation, heart rate, respiration rate and temperature) of importance in neonatal intensive care units (NICU). During the last decade, a growing interest on non-contact medical devices was testified by the literature; the reason is mainly due to the importance to eliminate the possible biological, chemical and electrical hazards always present when a medical device is used on a patient. This is particularly true on patients recovered in intensive care unit; especially if such patients are pre-born babies with low cardiac/respiration apparatus efficiency or reduced immunological defense systems. The work has been organized in order to explore and propose feasible solutions for the non-contact measurements of the following vital signs in pre-term patients: • Oxygen saturation (SaO2) • Heart rate (HR) • Respiration rate (RR) • Patient skin temperature (T) Oxygen saturation (SaO2) is typically affected by numerous fake values due to the non-optimal placement of the pulse oximeter or to movement artifacts. In chapter 4, a robust method for the rejection of the fake/erroneous values of SaO2 is described and implemented on 24 patient over 483 days period of time. More than 12% of erroneous data (equivalent to a 58 days period of time) have been individuated and rejected. Heart rate (HR) and respiration rate (RR) without any physical contact have been implemented on 8 patients maintained into thermal cribs or incubators. Data have been recorded, processed and compared with ECG and patient ventilator, showing an uncertainty of ± 43 ms and ± 150 ms. Finally a novel non-contact method for the measurement of the patient skin temperature (T) was designed and implemented for the use on NICU patients. An IR thermo-camera was used for determination of multi-point temperature determination with special attention on the indirect determination of thermogenesis and metabolic parameters of the patient. A specially devoted algorithm has been developed for the assessment and quantization of the patient parameters. The studied methods allow to perform the continuous and accurate measurement of important physiological parameters eliminating (a part from the pulse oxymeter) the contact between the patient and the medical devices and consequently reducing significantly the biological and electrical hazards risks which are particularly severe for NICU patients.
APA, Harvard, Vancouver, ISO, and other styles
14

Bernetti, Roberto. "Development of the unbalanced force mapping method for defect detection from surface velocity measurements in layered shell structure." Doctoral thesis, Università Politecnica delle Marche, 2006. http://hdl.handle.net/11566/242503.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

ANGELINI, FABIO. "Vibro-acoustic characterization of automotive hoses for CO2 air conditioning systems." Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

ACCARDO, Giampiero. "Interior sound field characterization of automotive cabins by means of Acoustic Modal Analysis and Automatic Microphone Localization." Doctoral thesis, Università Politecnica delle Marche, 2017. http://hdl.handle.net/11566/250447.

Full text
Abstract:
Al giorno d’oggi, si richiede all'industria automobilistica di soddisfare requisiti sempre più esigenti per la riduzione del rumore e il comfort dei passeggeri. I progettisti devono quindi affrontare la non banale sfida di ridurre il rumore in veicolo e migliorare l'esperienza acustica dei passeggeri mantenendo al minimo i costi d'intervento. È chiaro che l'adozione di un metodo numerico per la simulazione di vibrazioni e analisi acustiche sta attirando un'attenzione crescente dato il non trascurabile risparmio dei costi e tempo. Tuttavia, è ovvio che l'efficacia di questo approccio dipende dall'accuratezza delle previsioni fatte usando tali modelli numerici. Al fine di garantire simulazioni affidabili del campo acustico di una cabina di un veicolo, l'analisi modale acustica sperimentale può essere considerata oggi come necessaria per la validazione e l'aggiornamento di tali modelli numerici, e, più in generale, per il miglioramento del “know-how” globale. Nell’analisi modale, i metodi di stima dei parametri modali decompongono il comportamento del sistema in un insieme di fenomeni di risonanza, ognuno caratterizzato da una frequenza di risonanza, rapporto di smorzamento, fattore di partecipazione e forma modale. L’analisi modale acustica è già ben integrata nel processo di sviluppo del prodotto, ma ancora oggi è una delle analisi più impegnative, che richiede soluzioni innovative miranti ad accelerare il complete processo sperimentale e fornire risultati accurati. In questa tesi sono state affrontate le particolari sfide di questa analisi, che vanno dalla disposizione del “set-up”, al “post-processing”, e sono state sviluppate e proposte diverse soluzioni per affrontarle. Un test di analisi modal acutstica può consistere facilmente di centinaia di gradi di libertà, in particolare quando i risultati vengono utilizzati per la validazione e l'aggiornamento dei modelli di elementi finiti o, più in generale, per avere una buona descrizione delle forme mdoali. Determinare l'esatta posizione di tali sensori a mano sarebbe estremamente difficile. Tecniche automatiche sarebbero quindi essenziali per ridurre drasticamente il tempo di installazione e localizzazione dei microfoni. A tal fine, è stato sviluppato e implementato un metodo veloce, preciso e a basso costo per localizzare automaticamente i microfoni in una cabina di auto. Un’ulteriore sfida è rappresentata dai rapporti di smorzamento modali estremament elevati tipici delle vetture automobilistiche “fully-trimmed”, con conseguente sovrapposizione modale e forme modali molto complesse. È stato infatti osservato che, a causa dell'alto smorzamento, poche sorgenti non consentono una corretta identificazione delle forme modali in quanto distorsioni della forma del modo di eccitazione sono evidenti. È pertanto necessario utilizzare più sorgenti di riferimento per migliorare la stima del modello. Tuttavia, come osservato in letteratura, i metodi classici di stima dei parametri modali falliscono quando la matrice delle funzioni di risposta in frequenza consiste di tante colonne. Al fine di risolvere questo problema, sono stati impiegati nuovi stimatori che si sono dimostrato più adatti a questo tipo di dati. Inoltre, in questa tesi, si spiega in dettaglio la natura della distorsione della forma modale che si riscontra in sistemi altamente smorzati.
Nowadays, the automotive industry is asked to fulfil ever more demanding requirements for noise reduction and passenger comfort. Design engineers are asked to face the big challenge of reducing in-vehicle noise and improving passengers’ acoustic experience by keeping the intervention costs to a minimum. It is clear that the adoption of a numerical method to perform vibration and acoustic analyses is attracting increasing attention because of its merits in saving costs and time. Nevertheless, it is obvious that the effectiveness of this approach greatly depends on the accuracy of the predictions made using such models. So, in order to guarantee reliable simulations of the interior sound field of a vehicle cabin, experimental Acoustic Modal Analysis (AMA) can be considered a “must-be-performed” step, since it allows for validation and updating of these numerical models, and improvement of the overall modelling know-how. By means of this testing technique, modal parameter estimation methods decompose the system behaviour into a set of individual resonance phenomena, each characterized by a resonance frequency, damping ratio, participation factor and mode shape. AMA is already well integrated in the product development process, but still today is one of the most demanding and challenging analyses, calling for novel solutions which aim at expediting the full testing process and providing accurate results. In this thesis, the particular AMA challenges, which range from the arrangement of the experimental setup to the post-processing analysis, are addressed and different solutions to face them have been developed and proposed. An AMA test can indeed easily consist of hundreds of degrees of freedom, particularly when the results are used for validating and updating finite element (FE) models, or, more generally, for having a good description of the mode shapes. Determining the exact location of so many sensors by hand would be extremely cumbersome. Hence, automatic techniques would be essential for drastically reducing the setup time and localizing microphones in a smarter way. For this purpose, a fast, accurate and cost-effective method to automatically localize microphones in a car cabin has been developed and implemented. A further challenge is represented by the high modal damping ratios typical in fully-trimmed cars resulting in highly overlapping modes with complex mode shapes. It has been observed that, due to the high damping, too few sources do not allow for correct identification of the mode shapes as exciter- location-dependent mode shape distortions are clearly visible. Thus, multiple references need to be used to improve the estimation of the model. Nevertheless, as observed in the literature, it is quite challenging for classical modal parameter estimation methods, to curve-fit an FRF matrix with so many columns. Therefore, the maximum likelihood modal model-based estimator, which has been proven to be more suited for this kind of data, has been employed and compared with a more traditional modal parameters identification method. Furthermore, a deeper insight into the nature of the mode shape distortion, experienced when dealing with highly damped systems, is provided.
APA, Harvard, Vancouver, ISO, and other styles
17

NOBILE, MATTEO. "Analysis and modelling of Particulate Matter _ltration in Internal Combustion Engine Exhaust Aftertreatment Systems." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2015. http://hdl.handle.net/2108/202475.

Full text
Abstract:
The ltration of Particulate Matter (PM) in the Exhaust Systems of the Internal Combustion En- gines (ICE) is one of the main aftertreatment solutions that allowed to comply with progressively more restrictive regulations on engine emissions. While very ecient to this aim, Particulate Filters may be the cause of dierent drawbacks such as additional fuel penalties, increased costs and impact on the system durability. Therefore, a proper balance among these dierent issues is key for the design of such emission control components and systems. Although the experimental analysis is still required to guarantee the real performances of af- tertreatment systems, numerical simulation seems to be the most convenient strategy to cope with their development, optimization and control of one in this case. In fact, after a specic validation by comparing results with a limited set of experimental data, a virtually unlimited number of combina- tion of the design and operating parameters may be numerically tested with a remarkable reduction of time and costs. However this is advantage may be only apparent, as the technical challenges presented by advanced numerical modeling are more than a few: the Particulate Filter behavior is intrinsically character- ized by processes acting on a very wide set of characteristic space and time scales. The latter in fact ranges from the description of the exhaust gases ow occurring at a scale in the order of the length of the device, down to the nanoparticle deposition process occurring at the micro-pores scale of the porous media. Furthermore, the design of any Exhaust Aftertreatment component or system requires both the understanding of the eects of parameter design and control on long-term oper- ation as well as a detailed analysis of microscopic uid dynamic processes (e.g. Brownian motion eects on nanoparticle ltration). All the mentioned eects must be properly represented in the model. The main objective of this PhD dissertation consists thus of the development of two alternative numerical models which allow to cope with this multiscale problem: a simplied macroscale and a detailed multiscale one. While each of the model is able to describe problems on the reference time and space scale, their coupling may be eectively used for a complete design procedure of such components within Diesel or gasoline ICE exhaust systems. The simplied macroscale model will be rst introduced to study a simplied long-term operation of a Particulate Filter, or to implement real-time control strategies; then a detailed multiscale one, capable of analyzing basic ltration and uid dynamic processes in the component, will be described. The eects of key design parameters such as channel shape, porous media specications and fuel type will be commented for both the approaches, along with the description of the processes and of the main parameter trade-os in terms of eciency, fuel consumption, costs and durability.
APA, Harvard, Vancouver, ISO, and other styles
18

NUZZI, CRISTINA. "Towards true human-machine collaboration: The concept of Meta-Collaborative workstations and a first software prototype." Doctoral thesis, Università degli studi di Brescia, 2020. http://hdl.handle.net/11379/544100.

Full text
Abstract:
Towards true human-machine collaboration: The concept of Meta-Collaborative workstations and a first software prototype.
Towards true human-machine collaboration: The concept of Meta-Collaborative workstations and a first software prototype.
APA, Harvard, Vancouver, ISO, and other styles
19

PROVEZZA, LUCA. "Predictive diagnostics through machine learning on the injection group of a diecasting machine." Doctoral thesis, Università degli studi di Brescia, 2022. http://hdl.handle.net/11379/559959.

Full text
Abstract:
L'analisi dei big data ha sempre più preso un ruolo rilevante nello scenario industriale degli ultimi decenni. Il "Data Lake" rappresenta una nuova frontiera in data science. Non si vuole solo immagazzinare dati, ma analizzarli con il fine di applicare procedure correttive in tempo per poter evitare stop di produzione e far crescere la produttività di un'azienda. Ogni campo della catena produttiva è importante per poter crescere la produttività. In particolare, la manutenzione è uno dei tasks più importanti di cui tenere in considerazione per queste analisi. Infatti, i costi dovuti alla manutenzione sono la maggior parte dei costi totali di un impianto di produzione. Questi costi devono essere ridotti mediante diverse strategie. La nuova frontiera nella strategia di manutenzione è rappresentata dalla Manutenzione Predittiva (PM) o anche definita, Predictive Health Management (PHM). La PHM è una strategia di manutenzione dove vengono applicati algoritmi statistici o algoritmi di machine learning per ottenere la "Remaining Useful Life" (RUL) di un componente. Questo progetto è focalizzato nell'applicazione della PHM nel gruppo iniezione di una macchina di pressocolata. Per sua definizione, il processo di pressocolata ad alta pressione (HPDC) presenta aspetti differenti che possono andare ad inficiare sull'analisi dei dati. Per esempio, il malfunzionamento di un componente è un evento raro e l'analisi non può essere eseguita andando ad investigare ampi dataset, oppure investigando i dati di fault basandoci sui registri di manutenzione di un'azienda. Questo rende difficoltoso indentificare condizioni di fault dei componenti utilizzando i tradizionali algoritmi di machine learning. Un ulteriore problema legato con il processo di HPDC sta nel frequente cambio di produzione, che porta a cambiamenti radicali nei parametri di processo. Inoltre, può capitare che le aziende di piccole dimensioni non facciano il corretto update dei dati di produzione (cambio di stampo, cambio ricetta nell'iniezione). Per risolvere queste problematiche, viene proposto un nuovo metodo per determinare le condizioni di fault di componenti in una macchina di pressocolata. Il metodo proposto è in grado di determinare automaticamente un cambio di produzione e resettare il dataset utilizzato per il training. Il metodo si basa sulla peculiarità del processo di pressocolata di avere differenti fasi che risultano essere eguali per ogni tipo di macchina e produzione. Queste fasi sono, l'avanzamento lento del pistone per l'iniezione in modo da evitare bolle d'aria nella camera di iniezione, l'avanzamento veloce del pistone con il completo riempimento dello stampo, e la fase di moltiplica dando una maggiore pressione al processo di pressofusione. Questo aumento di pressione serve per compensare il ritiro del materiale dovuto al raffreddamento dopo l'iniezione. Ogni fase viene interpolata in modo da estrarre parametri significativi per la futura predizione del fault. Per ogni parametro, viene calcolato uno stimatore dell'incertezza, che viene combinato con l'incertezza della strumentazione per ottenere un'incertezza estesa che tenga in considerazione dei due contributi. Il core di questo metodo si concretizza proprio nel calcolo della metrica finale per poter monitorare lo stato di salute di un componente. Infatti, il metodo si basa sulla combinazione della classica analisi statistica con delle matrici peso date dagli esperti del settore della manutenzione di questa tipologia di macchina. Il risultato finale è l'Health Index (HI) che rappresenta la probabilità di avere una condizione di fault per la macchina di pressocolata. Ogni matrice peso che viene combinata con i parametri estratti si traduce in un HI per quel componente. In questo modo, è possibile creare tanti Heath Index possibili utilizzando una specifica matrice peso, che è possibile costruire mediante le interviste degli esperti.
In the last decades, data analysis becomes relevant in the industrial scenario. The data lake represents the new frontier in the data science. The new concept is not only the data storage anymore, but the possibility to analyse the historical data in order to optimize the production by finding bottle necks in the production chain and solving the problem by applying corrective procedures to increase the productivity of a company. Every field in the production chain is important to increase the productivity. Maintenance is one of the most important tasks to take into in account. Indeed, maintenance costs are a major part of the total operating costs of all manufacturing or production plants. These costs must be reduced by applying different strategies. The new frontier in the maintenance strategy is represented by the Predictive Maintenance (PM) or Predictive Health Management (PHM). PHM is a maintenance strategy in which different statistical algorithms or machine learning algorithms can be applied to obtain the Remaining Useful Life (RUL) of a component. This project is focused on the application of the PHM on an injection group of a die casting machine. By this own definition, the High Pressure Die Casting (HPDC) process presents different aspects that can affect the analysis. For instance, the fault of components is a rare event, and the analysis cannot be performed by investigating large datasets or fault data based on maintenance records. This makes very difficult to detect the fault of components with traditional machine learning algorithms. A further problem, however, linked with HPDC process is in the frequent change in production, which leads to changes in the process parameters. Moreover, sometimes small companies do not correctly update the production identifiers. To solve these problems, a new method is proposed to detect the fault of components in a diecasting machine. The proposed method automatically detects a production change and resets each time the dataset used for training. The method is based on the peculiarity of the die casting process that presents different phases equal to each machine and production considered. These phases are the slow motion of the piston to avoid air bubbles inside the injection chamber, the stroke with the filling of the die, and the multiplication phase to compensate the shrinkage of the material due to the cooling by giving more pressure in the process. Each phase is interpolated to extract sensitive parameters to perform the prediction of fault. For each parameter, an uncertainty estimator is recorded and combined with the uncertainty of the instrumentation to obtain an uncertainty that considers the two contributions. The core of this method is in the combination of the classical prediction analysis with a weighing matrix given by the experts. The weights are determined in a series of formal interviews for each phase and quantity recorded. The result is the Health Index (HI) representing the probability of different types of faults in the diecasting machine. Each weighing matrix combined with the parameters extracted is a HI for that component and it is possible to create how many HIs as possible by using a proper weighing matrix that can be constructed through the interview of the experts.
APA, Harvard, Vancouver, ISO, and other styles
20

PROVEZZA, LUCA. "Predictive diagnostics through machine learning on the injection group of a diecasting machine." Doctoral thesis, Università degli studi di Brescia, 2022. http://hdl.handle.net/11379/559956.

Full text
Abstract:
L'analisi dei big data ha sempre più preso un ruolo rilevante nello scenario industriale degli ultimi decenni. Il "Data Lake" rappresenta una nuova frontiera in data science. Non si vuole solo immagazzinare dati, ma analizzarli con il fine di applicare procedure correttive in tempo per poter evitare stop di produzione e far crescere la produttività di un'azienda. Ogni campo della catena produttiva è importante per poter crescere la produttività. In particolare, la manutenzione è uno dei tasks più importanti di cui tenere in considerazione per queste analisi. Infatti, i costi dovuti alla manutenzione sono la maggior parte dei costi totali di un impianto di produzione. Questi costi devono essere ridotti mediante diverse strategie. La nuova frontiera nella strategia di manutenzione è rappresentata dalla Manutenzione Predittiva (PM) o anche definita, Predictive Health Management (PHM). La PHM è una strategia di manutenzione dove vengono applicati algoritmi statistici o algoritmi di machine learning per ottenere la "Remaining Useful Life" (RUL) di un componente. Questo progetto è focalizzato nell'applicazione della PHM nel gruppo iniezione di una macchina di pressocolata. Per sua definizione, il processo di pressocolata ad alta pressione (HPDC) presenta aspetti differenti che possono andare ad inficiare sull'analisi dei dati. Per esempio, il malfunzionamento di un componente è un evento raro e l'analisi non può essere eseguita andando ad investigare ampi dataset, oppure investigando i dati di fault basandoci sui registri di manutenzione di un'azienda. Questo rende difficoltoso indentificare condizioni di fault dei componenti utilizzando i tradizionali algoritmi di machine learning. Un ulteriore problema legato con il processo di HPDC sta nel frequente cambio di produzione, che porta a cambiamenti radicali nei parametri di processo. Inoltre, può capitare che le aziende di piccole dimensioni non facciano il corretto update dei dati di produzione (cambio di stampo, cambio ricetta nell'iniezione). Per risolvere queste problematiche, viene proposto un nuovo metodo per determinare le condizioni di fault di componenti in una macchina di pressocolata. Il metodo proposto è in grado di determinare automaticamente un cambio di produzione e resettare il dataset utilizzato per il training. Il metodo si basa sulla peculiarità del processo di pressocolata di avere differenti fasi che risultano essere eguali per ogni tipo di macchina e produzione. Queste fasi sono, l'avanzamento lento del pistone per l'iniezione in modo da evitare bolle d'aria nella camera di iniezione, l'avanzamento veloce del pistone con il completo riempimento dello stampo, e la fase di moltiplica dando una maggiore pressione al processo di pressofusione. Questo aumento di pressione serve per compensare il ritiro del materiale dovuto al raffreddamento dopo l'iniezione. Ogni fase viene interpolata in modo da estrarre parametri significativi per la futura predizione del fault. Per ogni parametro, viene calcolato uno stimatore dell'incertezza, che viene combinato con l'incertezza della strumentazione per ottenere un'incertezza estesa che tenga in considerazione dei due contributi. Il core di questo metodo si concretizza proprio nel calcolo della metrica finale per poter monitorare lo stato di salute di un componente. Infatti, il metodo si basa sulla combinazione della classica analisi statistica con delle matrici peso date dagli esperti del settore della manutenzione di questa tipologia di macchina. Il risultato finale è l'Health Index (HI) che rappresenta la probabilità di avere una condizione di fault per la macchina di pressocolata. Ogni matrice peso che viene combinata con i parametri estratti si traduce in un HI per quel componente. In questo modo, è possibile creare tanti Heath Index possibili utilizzando una specifica matrice peso, che è possibile costruire mediante le interviste degli esperti.
In the last decades, data analysis becomes relevant in the industrial scenario. The data lake represents the new frontier in the data science. The new concept is not only the data storage anymore, but the possibility to analyse the historical data in order to optimize the production by finding bottle necks in the production chain and solving the problem by applying corrective procedures to increase the productivity of a company. Every field in the production chain is important to increase the productivity. Maintenance is one of the most important tasks to take into in account. Indeed, maintenance costs are a major part of the total operating costs of all manufacturing or production plants. These costs must be reduced by applying different strategies. The new frontier in the maintenance strategy is represented by the Predictive Maintenance (PM) or Predictive Health Management (PHM). PHM is a maintenance strategy in which different statistical algorithms or machine learning algorithms can be applied to obtain the Remaining Useful Life (RUL) of a component. This project is focused on the application of the PHM on an injection group of a die casting machine. By this own definition, the High Pressure Die Casting (HPDC) process presents different aspects that can affect the analysis. For instance, the fault of components is a rare event, and the analysis cannot be performed by investigating large datasets or fault data based on maintenance records. This makes very difficult to detect the fault of components with traditional machine learning algorithms. A further problem, however, linked with HPDC process is in the frequent change in production, which leads to changes in the process parameters. Moreover, sometimes small companies do not correctly update the production identifiers. To solve these problems, a new method is proposed to detect the fault of components in a diecasting machine. The proposed method automatically detects a production change and resets each time the dataset used for training. The method is based on the peculiarity of the die casting process that presents different phases equal to each machine and production considered. These phases are the slow motion of the piston to avoid air bubbles inside the injection chamber, the stroke with the filling of the die, and the multiplication phase to compensate the shrinkage of the material due to the cooling by giving more pressure in the process. Each phase is interpolated to extract sensitive parameters to perform the prediction of fault. For each parameter, an uncertainty estimator is recorded and combined with the uncertainty of the instrumentation to obtain an uncertainty that considers the two contributions. The core of this method is in the combination of the classical prediction analysis with a weighing matrix given by the experts. The weights are determined in a series of formal interviews for each phase and quantity recorded. The result is the Health Index (HI) representing the probability of different types of faults in the diecasting machine. Each weighing matrix combined with the parameters extracted is a HI for that component and it is possible to create how many HIs as possible by using a proper weighing matrix that can be constructed through the interview of the experts.
APA, Harvard, Vancouver, ISO, and other styles
21

ANGELATS, LOBO DAVID. "DEVELOPMENT OF ALTERNATIVE BIOENGINEERING STRATEGIES." Doctoral thesis, Università degli studi di Brescia, 2022. http://hdl.handle.net/11379/560216.

Full text
Abstract:
Concettualmente, la produzione additiva permette la rapida e precisa produzione delle parti complesse. La produzione additiva richiede di un disegno previo della parte da fabbricare per un software di progettazione assistita da computer (CAD, in inglese). A causa delle limitazioni del CAD software, particolarmente nelle curve, alcune delle parti stampate esige trattamenti aggiuntivi o di post lavorazione per ottenere la morfologia e la struttura desiderate. La produzione additiva e la stampa tridimensionale (3D) erano solo stabiliti nella area di ingegneria. Nell 21⁰ secolo, la idea di usare le tecnologie di stampa tridimensionale per sviluppare delle strutture tridimensionale per il sostegno della coltura cellulare e de imitare il microambiente nativo, avanza una nuova area chiamata Biostampa. Nella biostampa, diverse technologie possono essere usate, essendo la stampa per estrusione la più versatile e consolidata. Le stampanti 3D come la 3D-Bioplotter™ usano un nuovo metodo, la biostampa diretta, che permette la stampa di una struttura integrata con le cellule che assomiglia le condizioni in vivo. Allo stesso modo, diverse aree di recerca possono trarne beneficio della biostampa 3D, come lo studio di disturbi o malattie ad esempio il cancro. Per definizione, il cancro è una malattia eterogenea che provoca 10 milioni di morti nel mondo all’anno, essendo il carcinoma mammario la seconda causa di morte tra le donne negli Stati Uniti e Europa. Il carcinoma mammario triplo negativo (TNBC, in inglese) è stato descrito come un sottotipo molto aggressivo, però la mancanza di conoscenza di come inicia il processo tumorale rende il suo studio molto interesante. La combinazione di fibre elettrofilate e una linea cellulare del carcinoma mammario triplo negativo (MDA-MB-231), dimostra la formazione di aggregati cellulari simil-tumorali. Potrrebe esse usati nella medicina personalizata del cancro, selezionando il migliore trattamento per ogni paziente nel futuro.
Conceptually, additive manufacturing allows rapid and precise manufacturing of complex parts. Additive manufacturing requires a previous design of the piece to be fabricated by computer-aided design (CAD) software. Due to the limitations of CAD software, especially on curves, some of the printed pieces require additional or post-processing treatments to achieve the desired morphology and structure. Additive manufacturing and three-dimensional (3D) printed were both previously established only in the engineering field. In the 21st century, the idea of using 3D printing technologies to develop 3D structures to support cell culture and mimic native cellular microenvironment, push forward a new field in research called Bioprinting. In bioprinting, several technologies can be used, being extrusion printing the more versatile and well established. 3D printers like the 3D-Bioplotter™ use a new method, direct bioprinting, which permits the printing of a structure integrated with cells that resembles more to the in vivo conditions. Likewise, different research areas can benefit from 3D Bioprinting, like the study of disorders or diseases such as cancer. By definition, cancer is a heterogenic disorder that causes 10 million deaths worldwide, being breast cancer the second cause of death among women in the USA and Europe. Triple-negative breast cancer (TNBC) has been described as the most aggressive subtype, but the lack of knowledge on how the tumoral process begins makes its study more interesting. Combining electrospun fibers and a triple-negative breast cancer cell line (MDA-MB-231) demonstrates the formation of tumor-like cell aggregates. It might be used in personalized medicine of cancer by selecting the best treatment for each patient in the future.
APA, Harvard, Vancouver, ISO, and other styles
22

PALAZZO, ALICE. "From standing posture to vertical jump - Experimental and model analysis of human movement." Doctoral thesis, Università degli studi di Genova, 2019. http://hdl.handle.net/11567/942312.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

BORIN, NICOLÒ. "METODI DI ANALISI PER OSSERVAZIONI STEREO DI SUPERFICI PLANETARIE E LIBRAZIONI." Doctoral thesis, Università degli studi di Padova, 2022. https://hdl.handle.net/11577/3460778.

Full text
Abstract:
BepiColombo mission will provide Digital Terrain Models of the surface of Mercury by means of the stereo channel of the SIMBIO-SYS (Spectrometer and Imaging for MPO BepiColombo Integrated Observatory SYStem) imaging package onboard. The work presented in the thesis can be divided in two main topics: optimizing the acquisition planning of SIMBIO-SYS and creating Digital Terrain Models of the surface of the planet from stereo pairs. The thesis presents a novel approach for the creation of higher resolution stereo products using the high-resolution channel of SIMBIO-SYS. Being the camera rigidly integrated with the spacecraft, this latter must be tilted to acquire stereo pairs necessary for the 3D reconstruction. A novel approach for the creation of stereo products with SIMBIO-SYS is evaluated, considering images of the High spatial Resolution Imaging Channel (HRIC) and Stereo imaging Channel (STC) together: this approach proves to be more accurate in the reconstruction of Digital Terrain Models in comparison to the normal method with only STC images, and results particularly suited for the exploration of the polar regions of the planet. A new method for image simulation and stereo reconstruction is presented, where the input data are calculated by means of SPICE kernels and chosen as closely as possible to the real mission parameters. Different simulations are executed changing the illumination conditions and the stereo angles. The Digital Terrain Models obtained are evaluated and an analysis of the best acquisition conditions is performed, helping to improve the image acquisition strategy of BepiColombo mission. In addition, a strategy for the creation of a mosaic from different images acquired with the high resolution channel of SIMBIO-SYS is explained, giving the possibility to obtain tridimensional products of extended targets. Finally, some insights about the use of high resolution Digital Terrain Models for the study of planetary surfaces are given, focusing in particular on the libration experiment.
BepiColombo mission will provide Digital Terrain Models of the surface of Mercury by means of the stereo channel of the SIMBIO-SYS (Spectrometer and Imaging for MPO BepiColombo Integrated Observatory SYStem) imaging package onboard. The work presented in the thesis can be divided in two main topics: optimizing the acquisition planning of SIMBIO-SYS and creating Digital Terrain Models of the surface of the planet from stereo pairs. The thesis presents a novel approach for the creation of higher resolution stereo products using the high-resolution channel of SIMBIO-SYS. Being the camera rigidly integrated with the spacecraft, this latter must be tilted to acquire stereo pairs necessary for the 3D reconstruction. A novel approach for the creation of stereo products with SIMBIO-SYS is evaluated, considering images of the High spatial Resolution Imaging Channel (HRIC) and Stereo imaging Channel (STC) together: this approach proves to be more accurate in the reconstruction of Digital Terrain Models in comparison to the normal method with only STC images, and results particularly suited for the exploration of the polar regions of the planet. A new method for image simulation and stereo reconstruction is presented, where the input data are calculated by means of SPICE kernels and chosen as closely as possible to the real mission parameters. Different simulations are executed changing the illumination conditions and the stereo angles. The Digital Terrain Models obtained are evaluated and an analysis of the best acquisition conditions is performed, helping to improve the image acquisition strategy of BepiColombo mission. In addition, a strategy for the creation of a mosaic from different images acquired with the high resolution channel of SIMBIO-SYS is explained, giving the possibility to obtain tridimensional products of extended targets. Finally, some insights about the use of high resolution Digital Terrain Models for the study of planetary surfaces are given, focusing in particular on the libration experiment.
APA, Harvard, Vancouver, ISO, and other styles
24

FASSIO, FEDERICO. "Characterization of precipitation events on different space-time scales." Doctoral thesis, Politecnico di Torino, 2012. http://hdl.handle.net/11583/2496444.

Full text
Abstract:
We have highligthed the importance of meteorological measurements,using a unseen instrument:Pludix, that is a Present Weather Sensor working in the modern forecast way called 'now casting', that is a very short-term forecasting based on remote sensing.Being a unseen instrument, to value the good estimate of datum,it's fundamental the metrological valuation:we have made it weighting datum uncertainties.Comparing to the traditional instruments,Pludix has presented lower relative errors.Moreover,it's effective because it measures on the ground. So it's irreplaceable;in fact, satellites can't distinguish,for instance, two different areas in an interface. Instead,measuring on the ground,Pludix can indicate the real meteorological event.
APA, Harvard, Vancouver, ISO, and other styles
25

ROSSI, LAURA. "Principles of Soft Metrology and measurement procedures in humans." Doctoral thesis, Politecnico di Torino, 2013. http://hdl.handle.net/11583/2511876.

Full text
Abstract:
The current work represent both a compendium of ideas around Soft Metrology – the set of techniques and models for measuring quantities related to human perception - and a collection of personal abstracted articles on specific experiments conducted during the Ph.D. course. This thesis is not going to represent a review of all theories of perception, a key topic of the history of philosophy. Since Plato and Boethius, passing through all the history of Greek and Indian ancient philosophy, getting to the modern era with Descartes and Hume until reaching contemporary philosophy of mind, human perception has been always a central topic of thought as a key epistemological problem, i.e. deeply related to formation of knowledge. Therefore, we will not describe all these theories here. On the contrary, some specific theoretical interpretation of the relation human-physical world will be presented, exclusively depending on how much they are useful to the foundations of a specific line of reasoning pertinent to the metrological scope. The thesis is subdivided in three parts. The first one is dedicated to the background of Soft Metrology coming from the representational theory of metrology, and particularly the work of the MINET (Measuring the Impossible Network) the European cross disciplinary network for the measurement of perceptual qualities. Here, an overview of field of application and economical relevance of soft metrology is given. The second part is the core of the work and is dedicated to original hypothesis, interpretation proposals and methodological tools. Here are presented the salient findings of the research and suggestions for future advancements. The third part is dedicated to a description of the main experimental research activity done during these three years.
APA, Harvard, Vancouver, ISO, and other styles
26

CUCCARO, RUGIADA. "Hygrometric applications of microwave quasi-spherical resonators." Doctoral thesis, Politecnico di Torino, 2012. http://hdl.handle.net/11583/2502548.

Full text
Abstract:
In this work, triggered by the initial suggestion and the preliminary results obtained at the National Institute for Standards and Technology (NIST), we have explored the possible application of a microwave resonant cavity to realise a reference standard hygrometer. Particularly, we have measured the microwave resonance frequencies of a small volume (69 cm^3) triaxial elipsoidal cavity to determine the water vapor mole fraction x_w of H2O/N2 and H2O/air mixtures. The mixtures were prepared using the INRiM standard humidity generator for frost-point temperatures T_fp in the range between 241 K and 270 K and a commercial two-pressure humidity generator operated at dew-point temperature T_dp between 272 K and 291 K. Following these tests, we demonstrated the performance of the QSR operated as a condensation hygrometer. For this demonstration, a suitable experiment was prepared in cooperation with the National Physical Laboratory (NPL), which allowed to compare the performance of the QSR with that of a calibrated chilled-mirror hygrometer. Finally, with the aim of reducing the uncertainty currently associated to the literature values of the constants in the Debye equation, we have measured the dielectric constant of pure water vapour in the temperature range from 320 K to 470 K at pressures up to 1.7 MPa. As a whole, the results obtained in these experiments demonstrated the validity and satisfactory performance of the microwave technique for hygrometry.
APA, Harvard, Vancouver, ISO, and other styles
27

DIVIETO, CARLA. "DEVELOPMENT OF MEASUREMENT METHODOLOGIES IN METROLOGY FOR CELL BIOLOGY AND REGENERATIVE MEDICINE." Doctoral thesis, Politecnico di Torino, 2013. http://hdl.handle.net/11583/2511090.

Full text
Abstract:
Aim of this thesis is the development of measurement methodologies in metrology for cell biology and regenerative medicine. Regenerative medicine is a novel branch of medicine based on the use of autologous stem cells and biocompatible medical devices to regenerate and repair damaged tissues of patients, i.e. by using three-dimensional scaffolds to implant stem cells into the tissue to be regenerated. Stakeholders of metrology for regenerative medicine are: health care providers who require safe, reliable and cost effective treatments, supported by evidence and approved by regulators; regulators who require standard materials and traceable data demonstrating the safety and efficacy of new products and treatments; medical products companies who require advanced and traceable techniques to develop new products and need methods to measure processes, such as cell growth on scaffolds, to ensure quality and efficiency of the medical products implanted into the patients. Consequently, regenerative medicine has the important requisite of a real time monitoring and not invasiveness neither destructiveness processes to measure the cell-scaffold interactions, in order to preserve the samples from any contamination or modification. Thus non-invasive measurement methodologies need to be developed for analysing the 3D cell culture on scaffolds and, in order to evaluate the uncertainty, highly reproducible measurement procedures are strongly required to minimize the type A uncertainties and to define the type B uncertainties. The non-invasive and non-destructive measurement of cell-scaffold interactions (i.e. stem cell proliferation and differentiation on scaffolds) is one of the most effective methodology to answer the need of testing the efficacy of the design, production/manufacturing, development and performances of stem cell-scaffold products. To satisfy the requirements and the needs for metrology in regenerative medicine, for this thesis it has been chosen to develop a measurement methodology for cellular activity (proliferation and differentiation) on 3D Biocoral® scaffolds and to conduce a metrological study to evaluate the uncertainty of the methodology. This thesis has been developed in the Bioscience group of the Italian National Metrological Institute (Istituto Nazionale di Ricerca Metrologica - INRIM). The main important contributes of this thesis to the metrology in biosciences have been: • to lay the foundations for a metrological approach to cell biology and particularly to regenerative medicine research and applications; • to address the filling of the lack of traceability in the metrology for cell biology metabolic methodologies used to evaluate cellular activities in living sample with non-invasive procedures. The main results and originalities achieved during this PhD work are: • a metabolic assay, the resazurin/resorufin assay, for the first time, has been metrologically characterized and the uncertainty of the measurement has been evaluated; • the resazurin/resorufin assay has been for the first time tailored for a 3D cell culture on Biocoral® scaffolds and the uncertainty of the measurement has been evaluated; • it was demonstrated that Biocoral® induces osteodifferentiation of stem cells and for the first time it was demonstrated on human mesenchymal stem cells; • it was demonstrated, for the first time, that the resazurin/resorufin metabolic assay can be a methodology to detect not only the proliferation but also the differentiation of stem cells on Biocoral® scaffolds; A description of the METREGEN regional project, which this thesis is part of, will follow in the introduction. The chapter 1 will give an overview on regenerative medicine field and its application with scaffolds, particularly referring to the Biocoral® scaffold. The resazurin/resorufin methodology will be deeply described in chapter 2 with a uncertainty budget evaluation and discussion. Chapter 3 will present in details a series of experiments made to establish and characterize a hMSCs in vitro 2D culture, establish a hMSCs in vitro 3D culture on Biocoral, tailor the resazurin/resorufin assay for 3D cell culture on Biocoral and evaluate the hMSCs osteodifferentiation induced by Biocoral scaffolds. All the results have been analysed with a metrological approach to evaluate the uncertainty. Finally, the conclusion will give a recapitulation and some interesting perspective of employment for the resazurin/resorufin methodology to final users, such as the cell factories.
APA, Harvard, Vancouver, ISO, and other styles
28

YU, LILI. "Thermometry based on Whispering Gallery Mode resonators." Doctoral thesis, Politecnico di Torino, 2012. http://hdl.handle.net/11583/2497124.

Full text
Abstract:
Whispering gallery (WG) mode resonators were studied since 1980s for precision clock oscillators and for cavity quantum electrodynamics studies. They are a kind of stable, high Q, microwave resonators where a symmetric dielectric medium, such as a cylinder or a disk, is suspended in the centre of a metal cavity. A coaxial cable or a waveguide are used to couple the EM field in the microwave region and thus to excite the system resonant frequencies. WG modes are resonant modes of higher-order azimuthal number (m) having most of the EM energy concentrated on the dielectric surface. Within the temperature range of -196 °C to 500 °C the most commonly used industrial thermometer is platinum resistance thermometer (PRT) with the uncertainties of 10 mK. The PRT offers high accuracy, low drift, a wide operating range; however, it is very sensitive to mechanical shock in handing and shipping. Besides, an AC resistance bridge which is typically required as a readout device for PRT is very expensive. Accordingly, there is a great need for a stability-improved, resistant to mechanical shock, potential lower uncertainty and cost-effective industrial thermometer. WGMR thermometer (WGMRT) is a new kind of thermometer which offers greater vibration immunity, improved stability, smaller uncertainty in temperature measurement and potential lower cost than platinum resistance thermometry. An innovative sapphire whispering gallery thermometer (SWGT) was first explored at the National Institute of Standards and Technology (NIST) in 2007 by Strouse [1] with the uncertainty less than 10 mK. Five WGMs with nominal resonant frequencies ranging from 14.4 GHz to 19.1 GHz and with Q-factors, respectively, ranging from 20,000 to 90,000 were measured within the temperature range of 0 °C to 100 °C. The accuracies of his WGMTs were in the range of ± 0.02 °C and ice point repeatability was better than 2 mK. The thesis reports the tests performed on several WGMR thermometers which have different shapes of crystals to evaluate their stability, resolution and repeatability in the temperature range of -40 °C to 85°C. Thermal cycle experimental results IV showed a Q in excess of 100000 for the mode with the highest azimuthal number, making it possible to achieve a potential temperature resolution of 0.1 mK. Besides, different specimens of crystals with the same nominal specification and reassemble for the same specimen were both tested to check the reproducibility of the thermometer. The birefringence of the sapphire was also studied to make an innovative thermometer. The ratios of two doublet frequencies are sensitive to the temperature-dependent birefringence of the crystal and relatively insensitive to surface contamination and changes in the shape of the cavity. Besides, it can have an external shape that closely approximates the shape of conventional platinum resistance thermometers.
APA, Harvard, Vancouver, ISO, and other styles
29

Fornaser, Alberto. "Data fusion of images and 3D range data." Doctoral thesis, Università degli studi di Trento, 2014. https://hdl.handle.net/11572/368517.

Full text
Abstract:
A robot is a machine that embodies decades of research and development. Born as a simple mechanical devices, these machines evolved together with our technology and knowledge, reaching levels of automation never imagined before. The modern dream is represented by the cooperative robotics, where the robots do not just work for the people, but together with the people. Such result can be achieved only if these machines are able to acquire knowledge through perception, in other words they need to collect sensor measurements from which they extract meaningful information of the environment in order to adapt their behavior. This thesis speaks about the topic of the autonomous object recognition and picking for Automated Guided Vehicles, AGVs, robots employed nowadays in the automatic logistic plants. The development of a technology capable of achieving such task would be a significant technological improvement compared to the structure currently used in this field: rigid, strongly constrained and with a very limited human machine interaction. Automating the process of picking by making such vehicles more smart would open to many possibilities, both in terms of organization of the plants, both for the remarkable economic implications deriving from the abatement of many of the associated fixed costs. The logistics field is indeed a niche, in which the costs of the technology represent the true limit to its spread, costs due mainly to the limitations of the current technology. The work is therefore aimed at creating a stand-alone technology, usable directly on board of the modern AGVs, with minimal modifications in terms of hardware and software. The elements that made possible such development are the multi-sensor approach and data-fusion. The thesis starts with the analysis of the state of the art related of the field of the automated logistic, focusing mostly on the most innovative applications and researches on the automatization of the load/unload of the goods in the modern logistic plants. What emerges form the analysis it is that there is a technological gap between the world of the research and the industrial reality: the results and solutions proposed by the first seem not match the requirements and specification of the second. The second part of the thesis is dedicated to the sensors used: industrial cameras, planar 2D safety laser scanners and 3D time of flight cameras (TOF). For every device a specific (and independent) process is developed in order to recognize and localize Euro pallets: the information that AGVs require in order to perform the picking of an object are the three coordinates that define its pose in the 2D space, $[x,y,\theta]$, position and attitude. The focus is addressed both on the maximization of the reliability of the algorithms and both on the capability in providing a correct estimation of uncertainty of the results. The information content that comes from the uncertainty represents a key aspect for this work, in which the probabilistic characterization of the results and the adoption of the guidelines of the measurement field are the basis for a new approach to the problem. That allowed both the modification of state of the art algorithms both the development of new ones, developing a system that in the final implementation and tests has shown a reliability in the identification process sufficiently high to fulfill the industrial standards, 99\% of positive identifications. The third part is devoted to the calibration of system. In order to ensure a reliable process of identification and picking it is indeed fundamental to evaluate the relations between the sensing devices, sensor-sensor calibration, but also to relate the results obtained with the machine, sensor-robot calibration. These calibrations are critical steps that characterize the measurement chain between the target object and the robot controller. From that chain depends the overall accuracy in performing the forking procedure and, more important, the safety of such operation. The fourth part represents the core element of the thesis, the fusion of the identifications obtained from the different sensors. The multi-sensor approach is a strategy that allows the overcome of possible operational limits due to the measurement capabilities of the individual sensors, taking the best from the different devices and thus improving the performance of the entire system. This is particularly true in the case in which there are independent information sources, these, once fused, provide results way more reliable than the simple comparison of the data. Because of the different typology of the sensors involved, Cartesian ones like the laser and the TOF, and perspective ones like the camera, a specific fusion strategy is developed. The main benefit that the fusion provides is a reliable rejection of the possible false positives, which could cause very dangerous situations like the impact with objects or worst. A further contribution of this thesis is the risk prediction for the maneuver of picking. Knowing the uncertainty in the identification process, in calibration and in the motion of the vehicle it is possible to evaluate the confidence interval associated to a safe forking, the one that occurs without impact between the tines and the pallet. That is critical for the decision making logic of the AGV in order to ensure a safe functionality of the machine during all daily operations. Last part of the thesis presents the experimental results. The aforementioned topics have been implemented on a real robot, testing the behavior of the developed algorithms in various operative conditions.
APA, Harvard, Vancouver, ISO, and other styles
30

URBANO, SARA. "Sviluppo e validazione di algoritmi per la valutazione di Brevetti." Doctoral thesis, Università Politecnica delle Marche, 2015. http://hdl.handle.net/11566/243039.

Full text
Abstract:
This thesis investigates the process of patent validation by the application of the Analytic Hierarchy Process (AHP) method, widely known in Marketing sector. The AHP method, developed in 1971 by Saaty, is generally used to define the cost/benefits realtion of a project when is not easy to determinate the economic value of the project, considering all aspects of the surrounding environment, that can influence the economic evaluation. According to this methodology, each problem, usually hard to be solved as a complex system, is hierarchically decomposed defining Factors and Criteria. Each of them (Factors and Criteria) has a weight that is used to valuate priorities and/or relevant aspects among different alternatives (Multi-alternative Project). Following the same logic, a Patent hierarchically examined, considering the principle aspects, can be completely valuated through a “quali-quantitative” approach that can drastically reduce the risks of errors when a Patent is written down, specially in a contest high indecision. The first part of this starts with a wide review of the current methods used to assess the value of a Patent. This introduction focuses also on strategic and managerial issues about the Industrial Property. The second part presents the application of this “quali-quantitative” (ATP) approach to some studies, one of them developed in collaboration with Taiwan University. This work contributes to describe the potential value in the application of the ATP methodology to the evaluation of a Patent thus it can support a “consistent” process of elaboration of Claims that is used as basis of the legal content of the release.
APA, Harvard, Vancouver, ISO, and other styles
31

PRATO, ANDREA. "Laboratory measurements of building acoustics at low frequencies: a modal approach." Doctoral thesis, Politecnico di Torino, 2015. http://hdl.handle.net/11583/2609365.

Full text
Abstract:
The current international request to extend standard laboratory measurements of building acoustics (airborne and impact sound insulation and reverberation time) to frequencies below 100 Hz requires a deep study on the involved physical phenomenon and a proper procedure in order to get repeatable and reproducible results. In typical laboratory volumes (50-80 m$^3$) and at low frequencies (50-100 Hz), the acoustic field is non-diffuse due to the presence of standing waves or resonant modes in the small laboratory rooms. In space and frequency domains, the sound field is characterized by large fluctuations of sound pressure levels, different from diffuse field condition, characterized by uniform sound field in both domains and is assumed from 100 Hz on in laboratory standard procedures. Under such conditions, standard sound insulation measurements and reverberation time descriptors are not adequate to correctly characterize the insulating property of partitions or flooring systems or the reverberation times of laboratory (or ordinary dwelling) rooms. For this reason, a new measurement approach based on resonant frequencies, or room modes, the so-called modal approach, is introduced. Resonant modes provide deterministic quantities in non-diffuse field and are responsible of most annoyance. For airborne sound insulation, the standard sound reduction index is not representative of sound insulation as it is based on sound power measurements, which is still undefined for non-diffuse acoustic field. In the coupled system room-partition-room, in addition to natural resonant modes of each system component, the transmission of modes from the source to the receiving room is observed. The modal approach allows to evaluate the sound insulation by the determination of the sound transmission loss of a single source room mode passing into the receiving room through the partition. Such characteristic is the base of the new descriptor: the modal sound insulation. It is defined as the difference between the maximum sound pressure levels (evaluated in the corners of rectangular rooms) of source room modes that occur in both source and receiving rooms. Starting from the classical modal theory, a proper normalization term, corresponding to receiving room volume, is also introduced and presented together with a new method, based on the envelope of room frequency responses, to extend the results to the whole low frequency range, due to the discrete nature of modal sound insulation. Furthermore, the uncertainty budget is analysed. From scale model measurements, normalization term results to be negligible and problems due to source and receiving room modal match, cause of sound insulation underestimation, has to be solved in the future with a proper weighting procedure, based on the increase of modal sound insulation as function of modal overlap degree (Kohlrausch-Williams-Watts function), experimentally evaluated in the scale model. The modal approach is also applied to impact sound insulation and impact noise reduction measurement: new procedure and descriptors are introduced and first experimental tests on three different mass-spring systems are shown. Results agree with theoretical basis and validate such approach. In the end, the modal approach is used for the measurement of reverberation time in small rooms, in terms of modal reverberation time. Two different methods are evaluated on the base of their mathematical relation: the direct and indirect methods. The first is based on the measurement of the direct modal sound decay, whereas the second evaluates the modal decay starting from the measurement of the half bandwidth of the resonant peak. For both methods, different sound signals are compared and suitable procedures are applied. First experimental tests show a good agreement between the two methods and their mathematical relation is confirmed.
APA, Harvard, Vancouver, ISO, and other styles
32

Bodini, Ileana. "Metodologie non distruttive per la diagnostica di continui mediante misure accelerometriche e/o acustiche." Doctoral thesis, Università degli studi di Padova, 2010. http://hdl.handle.net/11577/3427016.

Full text
Abstract:
This study considers the possibility to assess quality and structural health of the block by vibration measurements. The aim is to make the method and the acquisition system suitable to be used in a weakly controlled environment, such as a quarry. The adopted methodology is based on operational modal analysis techniques, in particular on the frequency response function of an impulse excitation, which is achieved by hitting the blocks with a mallet or with an impact hammer and then measuring the vibrations in specific points on the block faces. The frequency response function is needed to define a physical model, then also a virtual FEM model has been performed and compared to the physical one, in order to choose which one was better for the proposed methodology. The physical model has been chose and its frequency response function has been compared to the one of a damaged block in order to find the differences between the two examined blocks and to identify the fracture. Then a new comparison between physical model and damaged block has been performed in order to identify the position of the fracture.
Lo scopo di questo lavoro consiste nel verificare la possibilità di utilizzare le vibrazioni meccaniche come strumento utile per effettuare test non distruttivi su solidi continui, al fine di individuare cricche e discontinuità, adottando una strumentazione adatta ad ambienti debolmente controllati come cave e cantieri, partendo dal principio intuitivamente semplice che un qualsiasi oggetto ha delle frequenze proprie alle quali vibra se sollecitato e che tali frequenze cambiano se, nello stesso oggetto, intervengono delle discontinuità. La finalità è quella di indagare la possibilità di rendere oggettivo e standardizzato questo metodo intuitivo. Per far ciò si è deciso di operare per confronto, passando attraverso la definizione, validazione e scelta di un modello, reale o virtuale (FEM - Finite Element Method), per ottenere una funzione di risposta in frequenza campione, da utilizzare come riferimento e termine di paragone. Il passo successivo consiste nel confronto fra modello fisico, preferito al FEM, e dei blocchi con fratture evidenti, per identificare le differenze fra i diversi tipi di provini e riconoscere la presenza della frattura. Infine, si sono confrontati modello fisico e blocchi con discontinuità evidenti, per localizzare la posizione della frattura.
APA, Harvard, Vancouver, ISO, and other styles
33

Fornaser, Alberto. "Data fusion of images and 3D range data." Doctoral thesis, University of Trento, 2014. http://eprints-phd.biblio.unitn.it/1194/1/Thesis_Fornaser_a4.pdf.

Full text
Abstract:
A robot is a machine that embodies decades of research and development. Born as a simple mechanical devices, these machines evolved together with our technology and knowledge, reaching levels of automation never imagined before. The modern dream is represented by the cooperative robotics, where the robots do not just work for the people, but together with the people. Such result can be achieved only if these machines are able to acquire knowledge through perception, in other words they need to collect sensor measurements from which they extract meaningful information of the environment in order to adapt their behavior. This thesis speaks about the topic of the autonomous object recognition and picking for Automated Guided Vehicles, AGVs, robots employed nowadays in the automatic logistic plants. The development of a technology capable of achieving such task would be a significant technological improvement compared to the structure currently used in this field: rigid, strongly constrained and with a very limited human machine interaction. Automating the process of picking by making such vehicles more smart would open to many possibilities, both in terms of organization of the plants, both for the remarkable economic implications deriving from the abatement of many of the associated fixed costs. The logistics field is indeed a niche, in which the costs of the technology represent the true limit to its spread, costs due mainly to the limitations of the current technology. The work is therefore aimed at creating a stand-alone technology, usable directly on board of the modern AGVs, with minimal modifications in terms of hardware and software. The elements that made possible such development are the multi-sensor approach and data-fusion. The thesis starts with the analysis of the state of the art related of the field of the automated logistic, focusing mostly on the most innovative applications and researches on the automatization of the load/unload of the goods in the modern logistic plants. What emerges form the analysis it is that there is a technological gap between the world of the research and the industrial reality: the results and solutions proposed by the first seem not match the requirements and specification of the second. The second part of the thesis is dedicated to the sensors used: industrial cameras, planar 2D safety laser scanners and 3D time of flight cameras (TOF). For every device a specific (and independent) process is developed in order to recognize and localize Euro pallets: the information that AGVs require in order to perform the picking of an object are the three coordinates that define its pose in the 2D space, $[x,y,\theta]$, position and attitude. The focus is addressed both on the maximization of the reliability of the algorithms and both on the capability in providing a correct estimation of uncertainty of the results. The information content that comes from the uncertainty represents a key aspect for this work, in which the probabilistic characterization of the results and the adoption of the guidelines of the measurement field are the basis for a new approach to the problem. That allowed both the modification of state of the art algorithms both the development of new ones, developing a system that in the final implementation and tests has shown a reliability in the identification process sufficiently high to fulfill the industrial standards, 99\% of positive identifications. The third part is devoted to the calibration of system. In order to ensure a reliable process of identification and picking it is indeed fundamental to evaluate the relations between the sensing devices, sensor-sensor calibration, but also to relate the results obtained with the machine, sensor-robot calibration. These calibrations are critical steps that characterize the measurement chain between the target object and the robot controller. From that chain depends the overall accuracy in performing the forking procedure and, more important, the safety of such operation. The fourth part represents the core element of the thesis, the fusion of the identifications obtained from the different sensors. The multi-sensor approach is a strategy that allows the overcome of possible operational limits due to the measurement capabilities of the individual sensors, taking the best from the different devices and thus improving the performance of the entire system. This is particularly true in the case in which there are independent information sources, these, once fused, provide results way more reliable than the simple comparison of the data. Because of the different typology of the sensors involved, Cartesian ones like the laser and the TOF, and perspective ones like the camera, a specific fusion strategy is developed. The main benefit that the fusion provides is a reliable rejection of the possible false positives, which could cause very dangerous situations like the impact with objects or worst. A further contribution of this thesis is the risk prediction for the maneuver of picking. Knowing the uncertainty in the identification process, in calibration and in the motion of the vehicle it is possible to evaluate the confidence interval associated to a safe forking, the one that occurs without impact between the tines and the pallet. That is critical for the decision making logic of the AGV in order to ensure a safe functionality of the machine during all daily operations. Last part of the thesis presents the experimental results. The aforementioned topics have been implemented on a real robot, testing the behavior of the developed algorithms in various operative conditions.
APA, Harvard, Vancouver, ISO, and other styles
34

Cavuto, Alfonso. "Sviluppo e sperimentazione di un sistema di misura ad ultrasuoni per il controllo non distruttivo di materiali compositi di forma complessa." Doctoral thesis, Università Politecnica delle Marche, 2012. http://hdl.handle.net/11566/242301.

Full text
Abstract:
In questo lavoro è stato analizzato il problema dei controlli non distruttivi su materiali compositi con forme complesse impiegati in costruzioni civili e in infrastrutture per i trasporti. In tali applicazioni allo stato dell’arte la sfida principale è quella di ispezionare componenti sandwich spessi e con core a bassa densità (inferiore a 80 kg/m3) e pannelli curvi. Dopo una revisione delle tecniche NDT adatte, è stato proposto un originale set-up di misura per ispezioni con ultrasuoni a bassa frequenza (100 kHz), che combina diverse soluzioni attraverso modalità in trasmissione. Il set-up di misura si basa su una configurazione ibrida ottenuta accoppiando una sonda a contatto in emissione con una a non-contatto in ricezione. L'utilizzo di una sonda a contatto in emissione è necessario per avere energia sufficiente al fine di analizzare i componenti spessi e con core a bassa densità. Il contatto tra la sonda e la superficie è stato reso puntuale mediante un'opportuna interfaccia costituita da una calotta sferica, che viene inserita sul trasduttore a contatto per aumentare la risoluzione laterale e per consentire la scansione su superfici irregolari . La sonda senza contatto in ricezione permette una migliore flessibilità di controllo su elementi curvi e spessi, in cui la modalità Pulse-Echo non è sempre possibile. Il sistema è stato sviluppato principalmente per l'ispezione a fine linea di produzione in un processo industriale, dove si possono effettuare test con configurazione in trasmissione. Tuttavia l’ispezione deve essere garantita attraverso un test flessibile, con risoluzione laterale di pochi millimetri e possibilmente senza uso di acqua squirter. L'analisi dei risultati su due campioni diversi (un grosso sandwich con bassa densità 40 kg/m3, 50 mm di spessore PUR core e un pannello in laminato curvo) mostrano che i metodi proposti possono ispezionare in maniera efficiente compositi di forme complesse con soddisfacente segnale- rumore (SNR > 15 dB) e risoluzione laterale (2-3 mm). Il presente lavoro propone anche la valutazione di un’alternativa a questa particolare configurazione utilizzando un modello numerico agli elementi finiti. Il modello numerico è stato usato per simulare il dispositivo sferico posto davanti al trasduttore, al fine di valutare i possibili miglioramenti da apportare al set-up di misura per aumentare l’energia trasmessa. E’ stato utilizzato un dispositivo con sfera mobile sia per avere un unico punto di contatto facilmente spostabile su superfici irregolari e curve sia per focalizzare il fascio ultrasonoro. E’ stato ricostruito sperimentalmente il campo di pressione generato dal trasduttore, attraverso tecnica basata su interferometria laser tomografica, per validare il modello del trasduttore ad ultrasuoni. La simulazione numerica e i risultati sperimentali preliminari mostrano l'efficacia dell'approccio proposto. La ricerca è in parte finanziata nell'ambito del progetto europeo FP7 TRANS il cui obiettivo è di sviluppare un nuovo processo industrializzato per la realizzazione di infrastrutture per i trasporti, mediante l’impiego di materiali compositi.
In this work the problem of Non-Destructive Testing (NDT) on composite components with complex shapes for civil constructions and transport infrastructures was analyzed. In such applications at the state of the art main challenges are related to the inspection of thick sandwiches with low density cores (below 80 kg/m3) and curved panels. After a review of suitable NDT techniques, an original set-up for low frequency (100 kHz) ultrasonic inspection is proposed, which combines different solutions in through transmission mode. The set-up is based on a hybrid configuration coupling a contact emitting probe with a non-contact air-coupled receiver. The use of a contact probe in emission is necessary to have enough energy to analyze thick components with low density core. The contact between probe and surface is made punctual and smooth using an appropriate spherical cap interface which is inserted over the contact transducer to increase lateral resolution at low frequency and to allow scan on irregular surfaces. The non-contact probe in reception allows a better inspection flexibility on curved and thick components, where pulse echo is not feasible at all. The system is mainly developed for inspection after production in an industrialized production process, where through transmission testing is possible. However inspection must be guaranteed in a flexible test, with lateral resolution of few millimeters and possibly without use of squirter water. The analysis of results on two different samples (one thick sandwich with low density 40 kg/m3, 50 mm thick PUR core and one curved laminate panel) shows that the proposed methods can efficiently inspect construction composites of complex shape with satisfactory Signal-to-Noise Ratio (usually SNR>15 dB) and lateral resolution (2-3 mm). This paper proposes also an evaluation of an alternative set-up for this particular inspection configuration using a finite element numerical model. The numerical model is used to simulate a rolling ball contact adapter of the emitting transducers in such a way as to evaluate potential improvement of the set-up to generate higher energy transmission. The experimental reconstruction of the pressure field generated from the transducer, achieved by a 3D imaging interferometric measurements, has been used to validate the model of the ultrasonic transducer. The numerical simulation and the preliminary experimental results show the effectiveness of the proposed approach. The research is partly funded within the FP7 European Project TRANS-IND (New Industrialised Construction Process for Transport Infrastructures based on Polymer Composite Components).
APA, Harvard, Vancouver, ISO, and other styles
35

Pallotto, Lucia. "Studio di tecniche di misura per applicazioni innovative in campo odontoiatrico." Doctoral thesis, Università degli studi di Padova, 2009. http://hdl.handle.net/11577/3426598.

Full text
Abstract:
The aim of this work is to propose and to validate measurement methods specifically suited for the analysis of teeth’s mechanical proprieties and dentist applications. The innovation introduced in this work is so in the main part methodological. I worked in order to obtain results interesting for the dentists, but also correct under the metrological point of view.
Lo scopo di questo lavoro di tesi, realizzato in stretta collaborazione con la Clinica Odontostomatologica dell’Università Politecnica delle Marche e con diverse aziende del settore, è quello di applicare tecniche di misura ad ambiti di specifico interesse odontoiatrico. L’innovazione presente in questa tesi risiede sia nelle specifiche tecniche di misura utilizzate che, e soprattutto, nell’approccio metodologico seguito. Si è voluto infatti garantire che fossero di interesse sia i risultati delle misure effettuate sia i metodi di misura scelti.
APA, Harvard, Vancouver, ISO, and other styles
36

COLANGELI, CLAUDIO. "Clustering Inverse Beamforming and multi-domain acoustic imaging approaches for vehicles NVH." Doctoral thesis, Università Politecnica delle Marche, 2017. http://hdl.handle.net/11566/245537.

Full text
Abstract:
Il rumore percepito all’interno della cabina di un veicolo è un aspetto molto rilevante nella valutazione della sua qualità complessiva. Metodi sperimentali di acoustic imaging, quali beamforming e olografia acustica, sono usati per identificare le principali sorgenti che contribuiscono alla rumorosità percepita all’interno del veicolo. L’obiettivo della tesi proposta è di fornire strumenti per effettuare dettagliate analisi quantitative tramite tali tecniche, ad oggi relegate alle fasi di studio preliminare, proponendo un approccio modulare che si avvale di analisi dei fenomeni vibro-acustici nel dominio della frequenza, del tempo e dell’angolo di rotazione degli elementi rotanti tipicamente presenti in un veicolo. Ciò permette di ridurre tempi e costi della progettazione, garantendo, al contempo, una maggiore qualità del pacchetto vibro-acustico. L’innovativo paradigma proposto prevede l’uso combinato di algoritmi di pre- e post- processing con tecniche inverse di acoustic imaging per lo studio di rilevanti problematiche quali l’identificazione di sorgenti sonore esterne o interne all’abitacolo e del rumore prodotto da dispositivi rotanti. Principale elemento innovativo della tesi è la tecnica denominata Clustering Inverse Beamforming. Essa si basa su un approccio statistico che permette di incrementare l’accuratezza (range dinamico, localizzazione e quantificazione) di una immagine acustica tramite la combinazione di soluzioni, del medesimo problema inverso, ottenute considerando diversi sotto-campioni dell’informazione sperimentale disponibile, variando, in questo modo, in maniera casuale la sua formulazione matematica. Tale procedimento garantisce la ricostruzione nel dominio della frequenza e del tempo delle sorgenti sonore identificate. Un metodo innovativo è stato inoltre proposto per la ricostruzione, ove necessario, di sorgenti sonore nel dominio dell’angolo. I metodi proposti sono stati supportati da argomentazioni teoriche e validazioni sperimentali su scala accademica e industriale.
The interior sound perceived in vehicle cabins is a very important attribute for the user. Experimental acoustic imaging methods such as beamforming and Near-field Acoustic Holography are used in vehicles noise and vibration studies because they are capable of identifying the noise sources contributing to the overall noise perceived inside the cabin. However these techniques are often relegated to the troubleshooting phase, thus requiring additional experiments for more detailed NVH analyses. It is therefore desirable that such methods evolve towards more refined solutions capable of providing a larger and more detailed information. This thesis proposes a modular and multi-domain approach involving direct and inverse acoustic imaging techniques for providing quantitative and accurate results in frequency, time and angle domain, thus targeting three relevant types of problems in vehicles NVH: identification of exterior sources affecting interior noise, interior noise source identification, analysis of noise sources produced by rotating machines. The core finding of this thesis is represented by a novel inverse acoustic imaging method named Clustering Inverse Beamforming (CIB). The method grounds on a statistical processing based on an Equivalent Source Method formulation. In this way, an accurate localization, a reliable ranking of the identified sources in frequency domain and their separation into uncorrelated phenomena is obtained. CIB is also exploited in this work for allowing the reconstruction of the time evolution of the sources sought. Finally a methodology for decomposing the acoustic image of the sound field generated by a rotating machine as a function of the angular evolution of the machine shaft is proposed. This set of findings aims at contributing to the advent of a new paradigm of acoustic imaging applications in vehicles NVH, supporting all the stages of the vehicle design with time-saving and cost-efficient experimental techniques. The proposed innovative approaches are validated on several simulated and real experiments.
APA, Harvard, Vancouver, ISO, and other styles
37

Serafini, Stefano. "Quality control agent: self-adaptive laser vibrometry for on line diagnostics." Doctoral thesis, Università Politecnica delle Marche, 2013. http://hdl.handle.net/11566/242695.

Full text
Abstract:
In questa tesi verrà descritto come sia possibile aumentare la performance di sistemi di misura basati sulla vibrometria laser, realizzando dei comportamenti auto-adattativi con lo scopo di ridurre l’incertezza di misura. I test sulle vibrazioni sono delle procedure ben note e largamente utilizzate per verificare la conformità a specifiche di qualità dei prodotti che contengono parti in movimento. Questi test posti alla fine di una linea di produzione forniscono delle informazioni utili per descrivere la qualità di un prodotto prima del suo stoccaggio e vendita. Nell’industria moderna la flessibilità e l’adattabilità sono dei fattori chiave per migliorare l’efficienza del processo produttivo. Sia il controllo del processo industriale che il controllo qualità dipendono dalla disponibilità di informazioni affidabili ottenute attraverso i test effettuati sui prodotti finiti. Grazie alle elevate prestazioni di misura alle sue caratteristiche, la vibrometria laser Doppler può giocare un ruolo fondamentale permettendo di realizzare sistemi di misura flessibili che posso contenere algoritmi modulari e che possono attuare (i sistemi soggetto) procedure auto-adattative. Questo sistema è stato ottenuto aggiungendo al vibrometro laser a scansione una telecamera. In questo modo il dispositivo è in grado di vedere e spostare il punto di misura in posizioni differenti. In questo sistema sono stati implementati diversi comportamenti auto-adattativi; spostando il fascio laser è possibile effettuare il riposizionamento del punto di misura sulla lavatrice, in modo da compensare gli eventuali posizionamenti errati che si hanno sulla linea di produzione quando la lavatrice in esame viene posizionata sotto il sistema di misura durante i controlli qualità. Dopo la compensazione di eventuali macro spostamenti della lavatrice, viene eseguito una fase di ricerca automatica del massimo segnale doppler. Questa ricerca viene condotta attraverso dei microspostamenti del fascio laser del vibrometro sulla superficie della vasca della lavatrice attorno al punto di misura prestabilito. L’obiettivo di questa fase è quello di minimizzare l’incertezza di misura andando a cercare la regione della superficie che massimizza il segnale Doppler. Un altro comportamento auto-adattativo consiste nella riconfigurabilità del sistema, cioè la possibilità di utilizzare differenti algoritmi diagnostici in base alla necessità di effettuare o meno un’analisi approfondita dell’elettrodomestico. Gli algoritmi scelti si riferiscono ai diversi scenari produttivi che possono presentarsi all’interno dello stabilimento durante il funzionamento della linea di produzione. Questo approccio modulare permette di considerare la realtà della linea produttiva in tutte la sua complessità, permettendo di svolgere un’analisi diagnostica che tiene in considerazione anche la qualità con cui si sono svolte le operazioni di assemblaggio della lavatrice che affronta il controllo qualità. Per poter utilizzare al meglio i comportamenti auto-adattativi, in questa tesi è stata effettuata una ricerca delle cause di incertezza nella diagnostica industriale, viene mostrato infatti come il valore RMS del segnale Doppler (signal quality-SQ) è fortemente correlato all’incertezza di misura. Infatti, maggiore è il decadimento del SQ e tanto più la velocità di vibrazione risulta essere affetta da incertezza. Gli esperimenti effettuati ci permettono di dire che durante la vibrazione il valore del SQ è legato alla morfologia della superficie di misura, e per intervalli di tempo sufficientemente brevi (10-15 secondi), il valore del SQ dipende solo dalla posizione X-Y del raggio laser sulla superficie di misura. Questi fatti permettono di utilizzare il valore del SQ(X.Y) come una funzione costo, e la diminuzione iii dell’incertezza di misura è un problema correlato all’ottimizzazione del valore del SQ durante la misura di vibrazione. Per la strategia di ottimizzazione è stato utilizzato l’algoritmo di down-hill (Nelder-Mead) e nella tesi vengono discussi i risultati ottenuti sul SQ dall’applicazione dell’algoritmo. Con le caratteristiche introdotte, il sistema di misura si trasforma in un Quality Control Agent (QCA) che diventa parte di un sistema multi-agente (MAS) che ha il compito di supervisionare l’operato della linea di produzione. In questa tesi vengono mostrati lo scambio dei dati tra il sistema di misura e gli agenti dando vita ad un sistema produttivo decentralizzato con caratteristiche di flessibilità e di auto-adattamento. In modo da poter fornire delle informazioni affidabili agli altri agenti dell’infrastruttura, il QCA associato al sistema di misura deve avere lapossibilità di capire il grado di confidenza con cui i risultati della diagnosi vengono calcolati. Per questo motivo è stato concepito e implementato un modello che permette di stimare il livello di confidenza delle informazioni diagnostiche estratte dalle caratteristiche del segnale acquisito durante i test. In questo modo, il QCA può fornire sia il valore globale della diagnosi che stimare il livello di confidenza con cui la diagnosi è stata effettuata. Le informazioni provenienti dal QCA vengo elaborate ed utilizzate dall’IMA (indipendent meta agent) per effettuare un controllo di processo in modo da migliorare l’esecuzione della produzione.
Vibration testing is a well established procedure for assessing the conformity to specifications of a variety of products, which contain moving parts. Typically at the end of an assembly line, a vibration test provides useful information for 100% quality control of products before packaging. In the appliance manufacturing sector vibration testing for online quality control is increasingly important. Laser Doppler Vibrometry (LDV) has been already used to perform such tests on-line and it has become an established measurement technique. In modern manufacturing industry flexibility and adaptability are key factors for the improvement of efficiency of production processes; both process control and product quality control depend on the availability of reliable information, and therefore on the quality of the data measured. For its non-contact nature and for its metrologic performance, laser vibrometry plays a more and more important and crucial role. This technique allows to realize flexible measurement systems that can implement adaptive and modular algorithms, comprising a large number of ready to use tools. In this thesis we will describe how it is possible to improve the performance of such systems by implementing self-adaptation and reconfigurability behaviors of the laser vibrometer aimed to reduce measurement uncertainty. Such behaviors are achieved by adding scanning mirrors and a dedicated camera, thus realizing a scanning LDV, which can displace the measurement beam at different locations. Self-adaptation (local adaptation) consists in the following behaviors: the system aims at the desired target point over the washing machine (WM) by displacing the laser beam so to compensate effects of WM mis-positioning due to production line inaccuracies. After this preliminary phase, the automatic search for sufficiently large Doppler signal starts. The system searches for an optimal optical signal by slightly displacing the laser beam in the surrounding of the desired target point thus optimizing measurement uncertainty. The system can support also reconfigurability (global adaptation), which consists in the possibility to plug-in/plug-out different post-processing algorithms for a deeper analysis of vibrations. For different production scenarios different diagnostic algorithms are chosen. This modular approach allows to consider the scenario of the production line and the quality of the operations carried out on the production line before the end product is made. In order to successfully use the self adaptation behavior to increase measurement accuracy, for this thesis a deep research of the causes correlated to uncertainty in industrial diagnostic has been made. It this work it is shown how the RMS amplitude of the Doppler signal (signal quality - SQ) is strictly correlated to measurement uncertainty, when SQ decreases then uncertainty affects the vibration velocity signal. Experimental data allow to say that SQ value is correlated to the morphology of the target surface and for a short period of time (10-15 s), so during the vibration the SQ value depends only on X-Y position of the laser beam on the target surface. These facts allow to use the SQ function as a cost function and the decrease the measurement uncertainty is a problem correlated to the optimization of the SQ value during the vibration measurements. The optimization strategy for the measurement enhancement achieved by the down-hill algorithm (Nelder-Mead algorithm) and its effect on signal quality (SQ) improvement are discussed. ii With these features, this system is designed as a Quality Control Agent (QCA) and it is part of a Multi Agent System (MAS) that supervises all the production line. This thesis also shows the data exchange between the measurement system and other agents in order to realize a decentralized manufacturing system. In fact, in a distributed system, the estimation of the confidence level of the information provided by other agents plays an important role. The QCA associated to the measurement system has to be able to understand the confidence level of the diagnostic results provided. To understand the confidence level of the diagnostic information extracted from a feature, an uncertainty estimate model applied to a vibration signal acquired from a washing machine has been conceived and implemented. In this way, the QCA can provide the overall diagnosis for the WM and estimate the uncertainty level with which the diagnosis has been performed. These information are used by the independent meta agent (IMA) to perform a trend analysis and elaborate suggestions and warnings to improve the process and product execution.
APA, Harvard, Vancouver, ISO, and other styles
38

Rossi, Stefano. "Sviluppo ed utilizzo in ambito biomedico di un casco strumentato per il rilievo della cinematica della testa." Doctoral thesis, Università degli studi di Padova, 2007. http://hdl.handle.net/11577/3425077.

Full text
Abstract:
The aim of the thesis is the development of a device to assess the kinematic of the head. The measurement of three-dimensional (3-D) kinematics of the head during different locomotor tasks represents a relevant research field in Biomechanics, because it allows the assessment of the dynamic inputs to the vestibula. Briefly, the vestibular system is a biological sensor capable of detecting the angular acceleration and the translational (a0-g) component where a0 is the linear acceleration of the origin of the global reference frame and g is the gravity vector. More specifically, is measured by vestibular canals, while (a0-g) component by otolith organs. The developed device consists in a cyclist helmet equipped with inertial sensors to measure the angular velocity, the linear and angular acceleration and the attitude of the head. The thesis is subdivided in three parts: 1. development of three different prototypes of the instrumented helmet; 2. realization and use of different systems to calibrate the devices; 3. preliminary use of the developed device in the study of dynamic posturography in health subject. The movement of the head can be used as an indicator of the individual's postural stability during perturbed movements of the body. Head stability, in fact, can provide useful information on the capability of the subject to maintain a stable platform for the visual and vestibular apparatus and for the organization of the segmental stabilization. Moreover, the developed device would be used in biomechanical researches based on the study of equilibrium control capability in health and pathological subjects.
APA, Harvard, Vancouver, ISO, and other styles
39

Zanelli, Giulia. "Utilizzo di una piattaforma motorizzata e di un casco strumentato per il rilievo della cinematica della testa in condizioni di perturbazione dell'equilibrio." Doctoral thesis, Università degli studi di Padova, 2008. http://hdl.handle.net/11577/3426605.

Full text
Abstract:
Maintenir l’équilibre et la posture verticale, en condition soit statique soit dynamique, est une tâche délicate pour le Système Nerveux Central, parce qu’une correcte intégration et interprétation des signaux par les différents systèmes sensoriels est nécessaire, comme le somato-sensoriel, le visuel et le vestibulaire.Des lésions d’un de ces systèmes, ou du Système Nerveux Central même, provoquent de sérieux problèmes à l’aptitude à maintenir la stabilité, attaquent l’aptitude du sujet à contrôler et à accorder correctement les mouvements des segments corporaux et, en plus, de régler le tonus musculaire pour préserver la position verticale. En particulier, la Paralysie Cérébrale est une pathologie qui affecte 0.1 - 0.2% des enfants nés vivants et 1 - 2% des prématurés, elle se manifeste comme une désorganisation motrice et une rigidité musculaire qui rendent difficile aux enfants de vivre les expériences nécessaires pour obtenir les aptitudes normales pour être capable de maintenir l’équilibre ; cette pathologie est une altération des capacités, permanentes mais traitable grâce à la rééducation motrice. C’est pour ces motifs que les cliniciens du Département de Neuro-Rééducation de l’Hôpital Pédiatrique « Bambino Gesù » ont exprimé la nécessité d’avoir à disposition une plateforme robotique qui leur a permis, d’une part à évaluer de manière objective le niveau de la pathologie et les éventuelles améliorations obtenues par les patients (phase d’évaluation) ; d’autre part, de créer des exercices de réhabilitation qui permettent au malades de récupérer, au moins partiellement, les aptitudes nécessaires pour contrôler la posture (phase de rééducation). Pour donner une réponse à cette problématique, on a abordé l’approfondissement de l’Anatomie et de la Physiologie, avec le but de bien comprendre le thème de recherche. Au début, on a pris en examen le neurone, coeur fonctionnel du Système Nerveux Central, ses caractéristiques principales et le réseau des cellules sensorielles par lesquelles le Système Nerveux Central acquiert ses informations ; ensuite, on a analysé le système vestibulaire et le système locomoteur. L’analyse du système vestibulaire a permis de reconnaître le rôle des différentes structures qui le composent : les canaux semi-circulaires, pour détecter les accélérations angulaires, et les organes otolites (saccule et utricule), assimilables à un accéléromètre et comme celui-ci capables de relever les accélérations linéaires ; l’étude de ces structures a permis de trouver que le même type de cellules réceptrices est utilisé mais celles-ci ont une organisation structurelle singulière, pour permettre à chaque ensemble de se spécialiser dan son activité particulière et dans sa direction détective. En étudiant le système locomoteur, on a individué les différents éléments basilaires (os, articulation,tissu musculaire), leur fonction en relation à la tâche de maintenir la posture et la modélisation de ce système ; en particulier, la représentation la plus élémentaire du corps humain est le modèle du pendule inverse single-link, les successives « complications » sont introduites de façon que le modèle soit plus adhérent à la réalité et qu’il soit possible d’étudier de manière plus précise la cinématique du corps humain en conséquence d’une perturbation imposée. Donc, il est possible de parler d’un modèle : double-link, qui permet d’expliquer les stratégies du contrôle du Centre de Mass ; à trois articulations actives, analysé en termes d’auto-mouvements ; 5-link bilatéraux symétriques. Cette étude a permis d’avoir à disposition toutes les informations - clé pour comprendre le fonctionnement du corps humain, il est donc possible de passer à l’analyse de la bibliographie sur les plateformes de réhabilitation. L’intérêt des chercheurs sur l’équilibre a débuté avant la naissance des modernes et complexes systèmes robotiques : en fait, la stabilométrie commence comme observation qualitative de l’aptitude à se maintenir en équilibre pendant l’exécution d’exercices très faciles (test de Romberg, 1846) et elle est devenue un examen quantitatif après l’introduction de la plateforme de force, qui a permis de localiser dans le temps la projection au sol du barycentre. Grâce à l’évolution technique, la tabilométrie a été supportée,mais non remplacée, par la posturographie dynamique, qui introduit l’élément du mouvement de la base de la plateforme. Des recherches ont reconnu que l’équilibre dynamique est plus facile à établir et à maintenir pour les sujets pathologiques plutôt que le statique : le mouvement ultérieur de la plateforme leur permet de prendre plus d’informations et d’intégrer les fausses ou pauvres à cause de la pathologie. L’Equitest® System (brevet par la NeuroCom International, Clackamas, OR) est une plateforme de rééducation motrice, déjà commercialisée et utilisée soit pour la recherche soit pour la clinique ; ce système permet d’analyser l’aptitude à maintenir l’équilibre en conditions de perturbation du stimulus visuel et/ou des signaux somato-sensoriels, mais il est seulement possible sur le plan sagittal : cela est dû surtout au choix initial d’utiliser le pendule inverse comme modèle du corps humain. Toutefois, il est clair que d’avoir des perturbations sur un plan unique est une limitation, en fait : • difficilement les perturbations réelles agissent sur un seul axe, • les systèmes proprioceptifs, visuels et vestibulaires sont sensibles à des stimulations sur des plans différentes du sagittal et, enfin, • la réponse posturale dépend de la direction des perturbations, elle change si cette direction change et il n’est pas possible de reconstruire la réponse à une perturbation générique comme composition ou reconstruction basée sur la connaissance d’un comportement simple. Dépasser ce problème signifie utiliser d’une manière alternative la plateforme déjà à disposition (le sujet est positionné sur l’Equitest tourné de 90°, pour lui faire subir des perturbations sur le plan sagittal), d’adapter les plateforme à usage sportif (comme le Balance Master) ou projeter de nouvelles plateformes qui tenant compte des problématiques observées (par exemple le Balance Quest, ainsi dit MultiTest Equilibre, Framiral, Cannes, France) ; presque tous les projets partent de la plateforme de Stewart, dispositif complet à six degrés de liberté, mais caractérisée par un champ d’action limité, un encombrement significatif et un coût élevé. Les différentes plateformes retrouvées en littérature permettent d’analyser la posture humaine dans une série de conditions très nombreuses ; cependant, la recherche ne doit pas être finalisée à elle même mais doit permettre une progression clinique, donc les protocoles proposés par les groupes de chercheurs doivent donner des résultats comparables soit intra- soit inter- laboratoire(s). L’article de M. Woollacott et Al. (2001) est témoin du fait qu’une description complète de la forme d’onde du signal input est fondamentale à donner, c’est-à-dire qu’il ne suffit pas de décrire les déplacements et les vitesses maximales mais aussi les accélérations. Les caractéristiques innovatrices des plateformes et des protocoles présentés dans cette recherche sont dérivées d’une recherche bibliographique attentive ; toutes les idées retrouvées sont présentées sur la base des systèmes robotiques et leur degrés de liberté, en spécifiant après les conditions de test, l’input envoyé et les données collectionnées, ainsi que les caractéristiques des sujets. Le mouvement le plus facile qu’une plateforme peut faire est la translation postérieure. Le protocole de Runge et Al. (1999) proposait de comprendre si la distinction entre les stratégies posturales hip ou ankle strategy pouvait être basé sur les torques ; donc, un groupe d’adultes est soumis à des déplacements maximaux de 200 mm et un profil de vitesse trapézoïdal, l’accélération maximale arrive après 11 s et elle est fonction de la vitesse choisie. L. Sundermier et Al. (2001) et M. Roncesvalles et Al. (2002) ont proposé, au contraire, une protocole semblable pour étudier les capacités motrices des enfantes sains et de ceux affectés de Paralysie Cérébrale ; ces protocoles soumettaient les enfants à des déplacements maximaux entre 40 et 150 mm et la vitesse entre 10 et 80 cm/s, combinés selon l’âge des enfants de façon à leur présenter un test facile, un moyen et le dernier difficile. Le premier groupe de chercheurs a tenté de comprendre si, en étudiant la marche, les enfants devaient être séparés sur la base de l’âge ou plutôt sur la base du réel développement moteur, comme la recherche a démontré ; le deuxième travail est parti de ces résultats et a essayé de comprendre l’erreur de la réponse musculaire des enfants affectés par la diplégie spastique, en particulier le problème était lié à la génération de la contraction de la fibre, aux temps ou à une désorganisation des phases du travail des groupes musculaires. Le premier passage logique concernant les inputs de perturbation est passé d’une translation postérieure à une antérieure - postérieure. Ce type de mouvement a permis, en particulier, d’analyser les stratégies principales utilisées pour maintenir l’équilibre: le pattern head-fixed-to-surface ou ankle strategy, la tête se déplace ensemble à la plateforme, et le pattern head-fixed-in-space ou hip strategy, la tête est bloquée dans l’espace. La choix entre les deux possibles stratégies dépend de la fréquence du mouvement de perturbation, en fait les sujets choisissent plus facilement la première si la fréquence est moindre que 0.25 Hz et la deuxième si elle est plus grande que 0.5 Hz, et il dépend de la possibilité d’utiliser la vue, si l’exercice est fait yeux fermés les personnes répètent le pattern « tête immobile dans l’espace ». Les rôles des différents systèmes sensoriels sont ainsi reconnus : la coordination motrice est spécifique du système somato-sensoriel, la stabilisation de la tête dans l’espace de celui vestibulaire et de la vue. Les différents protocoles basés sur ce type de perturbation sont proposés, par exemple, dans le but d’analyser la modalité de transition d’un pattern à l’autre ; ce protocole utilise une fréquence de l’input variable entre 0.2 Hz et 1.0 Hz, croissant et décroissant, et le sujet doit avoir les yeux une fois ouvert et une fois fermés (J. Buchanan et F. Horak, 2001). Un autre protocole a permis d’étudier la possibilité d’une transition volontaire d’un pattern à l’autre, en utilisant toujours une fréquence variable et les deux conditions visuelles (J. Buchanan et F. Horak, 2003) ; enfin, M. De Nunzio et Al. (2005) ont introduit un trouble proprioceptive, c’est-à-dire la stimulation électrique des différents groupes musculaires des membres inférieurs, pour vérifier si le contrôle de l’équilibre est fondé sur la base d’un feedback proprioceptive ou sur la base de l’anticipation. En plus, il est possible de retrouver dans la bibliographie des protocoles qui imposent des rotations de la base sur un single plan : le frontal (angle de roll), le sagittal (angle de pitch) et le transversal (angle de yaw). A. Blumle et Al. (2006) ont essayé de comprendre si l’input visuel a un rôle cognitif pour la posture :sujets sains et patients vestibulaires sont soumis à des rotations physiques sur le plan frontal (signal sinusoïdal de fréquence égal à 0.25 Hz et amplitude de ±0.2°) et à des rotations du champ visuel sur le plan sagittal (signal sinusoïdal de fréquence et amplitude variables) ; on a observé que la vue était utilisé pour se maintenir en équilibre si la scène était fixe, et les oscillations du corps étaient inversement proportionnelles aux oscillations du stimulus visuel : plus ces oscillations étaient petites et lentes plus grandes étaient celles du corps. Par contre, si l’arrière-plan était perçu en mouvement, alors la vue est substituée par l’input vestibulaire. C. Maurer et Al. (2000) ont utilisé une plateforme capable de tourner sur le plan sagittal et commandé par input sinusoïdal de fréquence et amplitude variables. Ce système robotique leur a permis d’analyser la réponse cinématique s’il y a une modification des informations visuelles (la scène sur l’écran pouvait être un paysage virtuel ou simplement tout bleu, sans aucun point de référence) ou une modification des signaux somato-sensoriels (à cause du mouvement même de la plateforme). Donc, les deux groupes de sujets ont le même comportement en cas de paysage, mais très différent en présence de la scène bleue, en fait les sujets sains peuvent encore maintenir l’équilibre alors que les pathologiques ont la tendance à tomber ou à faire un pas en avant. Les sujets sont debout sur toutes les précédentes lateformes, qui permettent des perturbations sur le plan sagittal ou frontal, par contre quand les sujets sont perturbés sur le plan horizontal, l’étude de la réponse du système vestibulaire est conduit normalement avec le sujet même assis. En particulier, dans l’étude de T. Metcalfe et M. Gresty (1992) les sujets sont assis sur la chaise de Barany et cette chaise tourne autour l’axe vertical, à la fin du mouvement passif ils doivent reproduire la même rotation mais en direction opposée, le but est retourner dans la position initiale ; les sujets sains sont capables de faire cette tache de manière plutôt soigneuse (± 10%) et, au contraire, les patients vestibulaires ont plus de difficultés, surtout, ils sont insensibles aux rotations vers le côté malade. Les équipes de I. Ivanenko et Al. (1997) et de I. Siegler et Al. (1999, 2000) ont utilisé le système robotique, le Robouter, c’est-à-dire une chaise motorisée qui peut être commandée ou par l’opérateur via ordinateur ou par le sujet même grâce à un joystick. Dans ces études, les sujets sont toujours tournés passivement d’un angle connu, autour l’axe vertical ou comme angle à l’intérieur d’un trajectoire complexe ; le but est de reproduire grâce à un pointer horizontal l’angle après la perturbation (reproducing task) ou pendant le mouvement même (tracking task), il est possible d’établir que les sujets sont capables de reproduire les angles subit, avec une surestimation, et que le signal de vitesse angulaire est intégré on-line par le Système Nerveux Central, en fait ils pe uvent faire l’éprouve du tracking. Apres les perturbations mono-axes, les multi-axes sont présentées, mais cette méthodologie de présentation de la bibliographie ne doit pas porter à penser que l’avancement de la technologie a permis le passage d’un type d’input à un autre ; en fait normalement le parcours à été contraire : le premières plateformes étaient multi-axes et juste après on est passé à analyser le mouvement sur un seul axe, pour spécialiser la réponse posturale et lier celle-ci à la direction de la perturbation. S. Henry et Al., déjà en 1998, ont étudié la cinématique du corps humain quand les sujets sont debout sur une plateforme capable de déplacer dans les quatre directions – avant, arrière, droit et gauche – de 90 mm en 200 ms. Ceci a permis d’analyser comment la réponse posturale, en termes d’angles entre segments corporels, n’est pas liée fortement à la direction de perturbation, tandis que les trajectoires du centre de mass et de pression permettent de retrouver les changements liés à la direction ; en fait, après les déplacements latéraux le centre de mass retourne au point initiale plus vite qu’après une translation antérieure – postérieure, bien que les valeurs de déplacement sont les mêmes, contrairement au centre de pression. Ses éplacements sont plutôt différents dans le deux cas. Ainsi si le forces de réactions sont prises en analyse, le contrôle sur le plan sagittal et celui sur le plan frontal ne pouvant pas être bien séparés : soit l’articulation de cheville soit celle de hanche sont utilisées en réponse à des perturbations dans chaque direction et, de plus, le système optoélectronique a permis d’enregistrer une remodulation totale de la configuration corporelle dans tous les plans et pas juste dans celui de perturbation. De même, M. Carpenter et Al. (1999 et 2001) ont analysé la réponse cinématique et musculaire à des perturbations sur différents plans, c’est-à-dire que la plateforme pouvait s’incliner de 7.5° à la vitesse de 50°/s en seize ou huit directions, de sort que le sujet soit soumis à des rotations d’un seul pitch, d’un seul roll et de leur combinaison. N. Nawayseh et M. Griffin (2006) ont essayé de retrouver une relation qui lié les caractéristiques de l’input et la réponse posturale, pour prédire sur la base des réactions connues à un input simple le comportement à n’importe quelle perturbation. La plateforme utilisée est capable de déplacements d’un côté à l’autre de 100 mm et d’oscillations de 40° à fréquence variable ; cependant, les résultats obtenus ont démontré que la réponse cinématique est variable en conséquence de la fréquence du stimulus, mais pas uniformément : il n’est pas de possible bien déduire un comportement des autres connus, surtout si les translations et les oscillations ne sont pas analysées séparément.L’étude de l’équilibre est toujours conduite sur un sujet totalement concentré sur le test même. Il est démontré que l’équilibre n’est pas un devoir automatique, mais normalement le Système Nerveux Central le doit maintenir en background, ensemble à d’autres. Exercices dual task sont organisés pour reconnaître la quantité d’attention nécessaire à la posture, c’est-à-dire que les sujets doivent exécuter deux devoirs en simultanéité, le premier postural et le deuxième de mémoire visuelle, de manière à se concentrer également sur le deux fonctions ou de considérer de plus grande importance une fois l’une et une fois l’autre (S. Ka- Chun et M. Woollacott, 2006). Le but cognitif à un amélioration d’exécution, comme attendue, si le sujet doit prêter sur lui la plus grande attention, mais une diminution de l’aptitude à conserver l’équilibre n’est jamais observée, comme démonstration qu’un niveau de attention suffisant est toujours et automatiquement direct à maintenir l’équilibre. En plus, il est observé que la prestation sur la posture pendant l’exécution dual task était meilleure qu’en single task: l’explication de cela est facile si on considère qu’une stabilisation de la tête est nécessaire pour réussir dans la tache de mémoire visuelle et cette stabilisation est positive aussi pour la posture. Donc, il est possible de penser que l’exercice dual task permettra d’obtenir des résultats plus importants sur la posture, bien que l’application initiale doive être plus grand (M. Wollacott et A. Shumway-Cook, 2002). Tous les protocoles analysés jusqu’ici avaient une déformation des signaux visuels et somato-sensoriels, mais ils ne prenaient jamais en considération le signal vestibulaire, très important aussi. L’explication de cette choix est, surtout, la difficulté d’agir sur ce système. En fait, agir sur le signal vestibulaire signifie stimuler électriquement l’oreille ou effectuer pendant l’exercice un test calorimétrique, tous deux, méthodologies plutôt invasives et fastidieuses ; une solution différente est demandée au sujet même d’osciller volontairement sa tête à une fréquence établie une fois sur le plan sagittal une fois sur le plan frontal, pendant l’exécution de l’exercice postural principal. Ainsi, il est possible d’observer une déstabilisation de la posture, sans rien de dramatique cependant. Sur la base de la littérature et pour étudier soit les perturbations sur le plan horizontal soit la stimulation du système vestibulaire, une plateforme rotant motorisée est réalisée (fig. 0.4), soit la mécanique soit le contrôle. Les caractéristiques métrologiques sont aussi vérifies.Le set-up expérimental peut être organisé. En particulier, il sera constitué par : • une plateforme motorisée, en rotation autour de l’axe vertical pour perturber l’équilibre sur le plan horizontal; • un système optoélectronique, pour reconstruire la cinématique du sujet grâce à des caméras (led entre l’infrarouge et le rouge), qui prennent la position dans l’espace des markers réflectifs positionnés sur les points anatomiques importants ; • une plateforme de force, pour connaître la trajectoire du centre de pression pour utiliser le signal soit en Real Time soit en post processing ; • un casque équipé avec un cluster d’accéléromètres et gyroscopes, pour connaître la cinématique de la tête et utiliser ces mouvements comme input de la plateforme même. Différents protocoles sont proposés, soit pour l’évaluation des aptitudes posturales et de l’orientation spatiale des sujets soit pour la rééducation des patients pédiatriques affectes par l’hémiplégie. Dans le premier protocole, les adultes sains doivent marcher sur une trajectoire triangulaire avec les yeux fermés, soit en direction horaire soit antihoraire, avec ou non un poids sur l’épaule droite, pour évaluer l’influence d’une charge asymétrique sur les informations proprioceptives et les changements posturaux indus (fig. 0.5). On observe comment les informations sensorielles sont strictement liées l’une à l’autre, même si acquis par des sources différentes : par exemple, le poids change directement l’apport proprioceptive et indirectement celui vestibulaire, ainsi la perception de la verticale subjective est modifiée et les angles sont perçus et reproduis avec les erreurs. Dans les deux protocoles suivants, les taches posturales sont proposées pour étudier les stratégies de maintenance de l’équilibre en réponse à une perturbation sur le plan horizontal par un input non-périodique et périodique à fréquence variable. La stratégie motrice pendant un mouvement actif est top-down : la tête est la première qui bouge en direction de la trajectoire, ensuite tous les autres systèmes corporels (tronc et bassin) arrivent. Par contre, pendant une perturbation de la plateforme, le bassin est le premier qui répond et l’altération cinématiques est réduite de bas en haut, pour stabiliser la tête et conséquemment soit le champ visuel soit le signal vestibulaire, stratégie down-top.Sur la base de ces résultats, un protocole rééducatif est préparé et testé sur des enfants hémiplégiques, pour leur permettre d’utiliser la ceinture scapulaire et pelvienne et pour leur enseigner, au moyen du déséquilibre, une nouvelle stratégie posturale. Le cliniciens ont individué en fait la rééducation des rotations sur le plan horizontal comme très importante pour la marche : ce sont ces oscillations qui rendent la marche humaine naturelle et, par contre, la marche du robot maladroite.Le dernier protocole est d’évaluation : analyse de l’aptitude des sujets yeux bandés de s’orienter dans l’espace après une perturbation horizontale. Aussi bien des individus jeunes et sains que des enfants hémiplégiques participent aux tests; la comparaison des résultats permet l’évaluation de l’intégrité du système moteur-sensoriel des patients et le contrôle de l’existence d’une relation entre la pathologie et l’aptitude à « updating » spatial.Les protocoles sont acceptés par le Service Ethique de l’Hôpital Pédiatrique « Bambino Gesù » (Rome, IT) et les tests réalisés sous le contrôle des cliniciens du Département de Neuro-Rééducation de l’Hôpital.
Il mantenimento della postura eretta, in condizioni sia statiche che dinamiche, è un compito delicato per il Sistema Nervoso Centrale, poiché richiede la corretta integrazione ed interpretazione dei segnali provenienti dai differenti sistemi sensoriali, quali quello somato-sensoriale, visivo e vestibolare. La lesioni di uno qualunque di questi sistemi sensoriali o del Sistema Nervoso Centrale stesso provoca seri problemi nella capacità di mantenere la stabilità ed incide sulla abilità dei soggetti di controllare e coordinare correttamente i segmenti corporei, nonché di regolare opportunamente il tono muscolare. In particolare, la Paralisi Cerebrale Infantile è una patologia che si manifesta con una disorganizzazione motoria ed una rigidezza muscolare tali da rendere difficile acquisire le normali abilità necessarie per il mantenimento dell’equilibrio. Per questo il personale medico del Dipartimento di Neuro-Riabilitazione dell’Ospedale pediatrico “Bambino Gesù” ha espresso la necessità di avere a disposizione una piattaforma robotica che permettesse loro, da una parte, di valutare in maniera oggettiva lo stadio della patologia (fase di evaluation); dall’altra, di sottoporre i pazienti ad un esercizio continuo tale da ottenere il recupero, almeno parziale, delle abilità (fase di rehabilitation). Per rispondere a questa esigenza, si è iniziato con l’affrontare lo studio dell’Anatomia e della Fisiologia, per comprendere in maniera più completa il problema con cui bisognava confrontarsi. È stato,dapprima, preso in esame il neurone, cuore funzionale del Sistema Nervoso Centrale, con le sue caratteristiche principali e con la rete di cellule sensoriali da cui il Sistema Nerovso Centrale trae le proprie informazioni; si passa, quindi, al sistema vestibolare ed a quello locomotorio. L’analisi del sistema vestibolare si è basato sul riconoscimento del ruolo delle differenti strutture che lo compongo: i canali semicircolari, per le accelerazioni angolari, e gli organi otolici, assimilabili ad un accelerometro ed in grado di rilevare le accelerazioni lineari. Per l’apparato locomotore sono stati presentati i differenti elementi base e la loro funzione in relazione al compito di mantenimento della postura; è stata, quindi, spiegata la scelta di modellare il corpo umano come un pendolo inverso single-link e sono state valutate le successive complicazioni, introdotte perché il modello risultasse maggiormente aderente alla realtà e permettesse di studiare in modo più puntuale la cinematica del corpo umano in seguito ad una perturbazione imposta. Avendo a disposizione gli strumenti base per comprendere il funzionamento del corpo umano, si è passati ad analizzare lo stato dell’arte delle piattaforme riabilitative. Lo studio dell’equilibrio è iniziato ben prima di avere a disposizione i sistemi robotici odierni: la stabilometria è nata come osservazione qualitativa della capacità di mantenere l’equilibrio ed è diventata esame quantitativo con l’introduzione della piattaforma di forza, per localizzare la posizione della proiezione a terra del baricentro. Grazie all’evoluzione tecnologica, la stabilometria è stata affiancata, a non sostituita, dallo studio della posturografia dinamica, nella quale è stato introdotto l’elemento di moto della pedana. Si è notato, infatti, come l’equilibrio dinamico risultasse più semplice da mantenere per i soggetti patologici, poiché il moto aggiunto della pedana fornisce loro maggiori informazioni, tali da integrare quelle falsate o rese carenti dalla patologia. La piattaforma riabilitativa, già commercializzata ed entrata nell’usuale utilizzo, è l’EquiTest® System, costituita da una cabina chiusa la cui base può subire traslazioni antero-posteriori o inclinazioni sul piano sagittale, secondo input di tipo sinusoidale di ampiezza predeterminata o proporzionale al micromoto naturale del centro di pressione. L’Equitest permette, inoltre, la stimolazione del segnale visivo, poiché lo schermo di fronte al soggetto proietta un’immagine oscillante con un segnale simile a quello inviato alla base. Con questa strumentazione è possibile analizzare la capacità di mantenere l’equilibrio in condizioni di perturbazione dello stimolo visivo e/o dei segnali somato-sensoriali provenienti dai piedi, ma esclusivamente con perturbazioni sul piano sagittale: questa scelta deriva dall’aver assunto come modello del corpo umano il pendolo inverso. Tuttavia l’avere perturbazioni su un unico piano risulta chiaramente un limite, infatti le perturbazioni reali difficilmente agiscono secondo un singolo asse, i sistemi propriocettivi e vestibolari sono sensibili a stimolazioni su piani differenti da quello sagittale e, infine, la risposta posturale è sensibile alla direzione. Per superare ciò si sono utilizzate in maniera alternativa le pedane già a disposizione, sono adattate agli studi clinici piattaforme inizialmente ad uso sportivo (es. treadmill) oppure sono progettate piattaforme ad-hoc che tengano conto delle problematiche sollevate; la quasi totalità dei progetti sono basati sulla piattaforma di Stewart, un dispositivo completo con i suoi sei gradi di libertà, ma con un campo di lavoro ristretto, un ingombro significativo ed un costo elevato. Le differenti pedane rintracciate in letteratura permettono di analizzare la postura umana in una serie di condizioni molto vasta; tuttavia, perché la ricerca non sia fine a sé stessa, è necessario che i protocolliproposti dai diversi gruppi di ricercatori forniscano risultati confrontabili sia intra- che inter-laboratorio; a testimonianza di ciò, è comprovato l’utilità di riportare non solo i valori massimi di spostamento e velocità, ma anche le accelerazioni e, in altri termini, una descrizione completa dell’input. Le idee raccolte dalla ricerca bibliografica sono presentate in base ai gradi di libertà mantenuti liberi dai differenti sistemi robotici, alle condizioni in cui i test venivano svolti, al segnale di input inviato e a quelli di output raccolti, nonché le caratteristiche dei soggetti. Il movimento più semplice eseguito da una piattaforma è quello della traslazione posteriore ed ha permesso di individuare se le strategie posturali di hip o ankle strategy fossero distinguibili sulla base dei momenti torcenti. La stessa perturbazione è stata, inoltre, utilizzata per studiare le capacità motorie dei bambini sani e di quelle affetti da Paralisi Cerebrale; in particolare per comprendere se, nello studio del cammino, fosse più corretto suddividere i bambini in base all’età e non piuttosto rispetto al loro sviluppo motorio effettivo. Partendo dai risultati precedenti, si è anche cercato di individuare se il problema nella risposta muscolare dei bambini affetti da diplegia spastica fosse nella generazione della contrazione della fibra, nella tempistica o in una disorganizzazione delle fasi di lavoro dei gruppi muscolari. Il primo passaggio logico è estendere il movimento di perturbazione da semplice traslazione indietro a movimento antero-posteriore; con questo tipo di perturbazione in particolare sono state analizzati il pattern head-fixed-to-surface o ankle strategy, in cui la testa si muove con la piattaforma, ed il pattern head-fixed-in-space o hip strategy, in cui la testa viene bloccata nello spazio. La scelta fra queste due possibili strategie è legata principalmente alla frequenza del movimento ed alla possibilità per i soggetti di utilizzare o meno la vista, infatti nel caso di esercizio ripetuto ad occhi chiusi il pattern con la testa ferma nello spazio non viene mai realizzato. È stato possibile, in questo modo, riconoscere i ruoli dei differenti sistemi sensoriali: il somato-sensoriale è specifico per la coordinazione motoria, mentre la vista ed il sistema vestibolare sono funzionali alla stabilizzazione della testa nello spazio. I vari protocolli si sono proposti, ad esempio, di analizzare la modalità di transizione naturale fra i due pattern posturali o la possibilità di passare volontariamente da un pattern all’altro. È stato introdotto nel protocollo, infine, un disturbo propriocettivo, cioè l’elettro-stimolazione di alcuni gruppi muscolari degli arti inferiori, per comprendere se il controllo dell’equilibrio si basasse su un feedback propriocettivo o su un’anticipazione di quanto accadrà. Gli studi con perturbazioni di traslazione sono affiancati da quelli che impongono rotazioni della base di appoggio su un singolo piano principale: sul piano frontale (angolo di rollio o di roll), sul sagittale (angolo di beccheggio o di pitch) e sul traverso (angolo di imbardata o di yaw). A. Blumle et Al. (2006) hanno cercato di individuare il ruolo cognitivo dell’input visivo in soggetti sani e pazienti vestibolari sottoponendoli a rotazioni fisiche sul piano frontale ed a rotazioni del campo visivo sul piano sagittale; è stato così possibile osservare che la vista veniva utilizzata per mantenersi fermi solo quando la scena era individuata come fissa, facendo registrare ondeggiamenti maggiori del corpo quanto più lo stimolo visivo aveva oscillazioni piccole e lente, mentre veniva sostituita dall’input vestibolare quando lo sfondo era riconosciuto in movimento. È possibile, inoltre, analizzare cosa accade in seguito alla rimozione delle informazioni visive (paesaggio virtuale fermo o di uno schermo blu privo di qualsiasi punto di riferimento) ed al mascheramento dei segnali somato-sensoriali (attraverso le oscillazioni della pedana); sono stati rintracciati, così, comportamenti simili dei soggetti sani e dei pazienti vestibolari quando era utilizzata la scena visiva e forti differenze nel caso di schermo blu, infatti i soggetti sani riescono ancora a mantenersi in equilibrio mentre i patologici tendono a cadere o fare un passo in avanti.Tutte le precedenti piattaforme con perturbazioni sul piano sagittale o frontale prevedevano il soggetto in piedi, al contrario lo studio della risposta del sistema vestibolare a rotazioni sul piano trasverso sono state portate avanti con il soggetto seduto. In particolare, i soggetti vengono fatti sedere sulla sedia di Barany e sottoposti a rotazioni intorno all’asse verticale; il compito di ripetere, alla fine, lo stesso angolo in direzione opposta era eseguito in maniera piuttosto accurata dai soggetti sani e con maggiore imprecisione dai pazienti vestibolari, che in particolare risultavano insensibili alle rotazioni verso la parte lesionata. Altra possibilità è l’utilizzo di un sistema robotico, il Robuter, costituito da una sedia motorizzata in grado di essere controllata via computer per ruotare passivamente il soggetto di un angolo determinato. I soggetti, quindi, devono riprodurre, attraverso un puntatore orizzontale, l’angolo subito o alla fine della perturbazione (reproducing task) o durante il movimento stesso (tracking task), con l’obiettivo di verificare la capacità del Sistema Nervoso Centrale di comprendere correttamente gli angoli subiti e di integrare la velocità angolare on-line, per rendere possibile il compito di tracking. Analizzate le differenti possibilità di perturbazione su un singolo asse vengono presentate ora i movimenti multi-assiali, ma ciò non deve lasciar pensare che il passaggio da input lungo un singolo asse ad input composti sia frutto di un progredire della tecnologia; infatti, in realtà, normalmente il percorso è stato quello opposto e si è passati al movimento lungo un solo asse solo in un secondo tempo, per specializzare la risposta posturale e legare questa alla direzione di perturbazione. L’utilizzo di una pedana in grado di traslare nelle quattro direzioni ha permesso di studiare come la risposta posturale, in temine di angoli fra segmenti, non fosse fortemente legata alla direzione della perturbazione, mentre nell’analisi degli spostamenti del centro di massa e di pressione si riscontravano dei cambiamenti legati alla direzione delle perturbazioni. Studiando anche le forze di reazione, non è stato possibile separare nettamente il controllo utilizzato sul piano sagittale da quello sul piano frontale; infatti sia l’articolazione della caviglia che quella dell’anca vengono utilizzate qualunque sia la direzione della perturbazione e, inoltre, la risposta posturale allo stimolo risulta essere una rimodulazione totale della configurazione corporea in tutti i suoi piani e non solo in quello in cui la perturbazione agisce. N. Nawayseh e M. Griffin (2006) hanno cercato di individuare una relazione fra le caratteristiche dell’input inviato alla piattaforma e la risposta posturale dei soggetti, così da poter predire la reazione ad una qualsiasi perturbazione; la pedana di cui si sono serviti, quindi, era in grado di compiere sia traslazioni che oscillazioni. I risultati, tuttavia, hanno dimostrato che la risposta cinematica variava sì con la frequenza dello stimolo, ma non in maniera uniforme, rendendo così non accurata la deduzione del comportamento posturale ad una perturbazione composta, tranne che analizzando separatamente i casi di traslazione ed oscillazione. Fino a questo punto lo studio dell’equilibrio si è basato su analisi di soggetti totalmente concentrati sul mantenimento dell’equilibrio stesso. Tuttavia, sebbene sia stato dimostrato come l’equilibrio non sia un compito automatico, tuttavia spesso la postura è solo un’attività che il Sistema Nervoso Centrale deve eseguire “in background”, contemporaneamente ad altri esercizi. Quindi, per individuare esattamente l’impegno richiesto dalla postura sono stati proposti esercizi dual task, vale a dire ai soggetti erano assegnati due compiti da svolgere contemporaneamente, uno posturale ed uno di memoria visiva, con la richiesta di concentrarsi sulle due funzioni nello stesso modo o di considerare primaria una volta una ed una volta l’altra. In questo modo è stato notato, come atteso, un miglioramento nell’esecuzione del compito cognitivo quando si chiedeva di prestarvi la massima attenzione, mentre non si è mai osservato una diminuzione della capacità di rimanere in piedi anzi, è stato interessante rilevare che nell’esecuzione del dual task le prestazioni sulla postura erano migliori che nel caso di single task: ciò è facilmente spiegabile se si considera che, per compiere il task di memoria spaziale, è richiesta una stabilizzazione della testa che va ad incidere positivamente anche sulla postura. È quindi auspicabile pensare che, nonostante uno sforzo iniziale maggiore, l’esercizio dual task porti in un secondo momento a risultati migliori. Lo studio della postura non si può svincolare totalmente dallo studio del cammino; in particolare, osservare bambini a differenti età ha permesso di comprendere come veniva raggiunta la maturità nel cammino. Per il cammino, come per la postura, la testa assume un ruolo di primaria importanza; se la testa viene assunta come sistema di riferimento, questo implica che, da una parte, deve essere stabilizzata nello spazio e, dall’altra, il suo movimento deve essere coordinato con quello del corpo. Questa coordinazione si esprime come un anticipo dello sguardo e del movimento totale della testa verso l’obiettivo, in maniera tale che la programmazione del cammino sia sempre un passo avanti all’esecuzione. Gli input su cui ci si è principalmente focalizzati sono stati quello visivo e somato-sensoriale,dimenticando apparentemente del segnale vestibolare: tale scelta è dovuta, principalmente, alla difficoltà a cui si va incontro quando si sceglie di agire su questo sistema. Per incidere direttamente sul segnale vestibolare è necessario, infatti, stimolare elettricamente l’orecchio, eseguire l’esercizio con un test calorimetrico o chiedere direttamemente al soggetto di eseguire il compito principale di equilibrio oscillando volontariamente la testa ad una frequenza stabilita; è possibile così osservare una destabilizzazione, sebbene non drammatica, della postura.Sulla base di quanto raccolto in letteratura e per lavorare in maniera più precisa sulle perturbazioni nel piano orizzontale e sulla stimolazione del sistema vestibolare, si sceglie di ideare una pedana riabilitativa motorizzata, ad un grado di libertà, in grado di far ruotare i soggetti in piedi intorno all’asse verticale. Il progetto della base rotante è presentato sia dal punto di vista della meccanica che del controllo, verificandone poi le caratteristiche metrologiche di riproducibilità ed ripetitività dei movimenti imposti. Il set-up sperimentale utilizzato nei protocolli è costituito da: • una pedana rotante motorizzante; • un sistema opto-elettronico, per la ricostruzione della cinematica del soggetto; • una piattaforma di forza, per acquisire la traiettoria del centro di pressione; • un casco strumentato con cluster di accelerometri e giroscopi, per conoscere la cinematica della testa ed utilizzare i movimenti della stessa come input per la pedana. Sono stati, quindi, esposti una serie di protocolli sia per la valutazione delle abilità posturali e di orientamento dei soggetti sia per la riabilitazione dei pazienti in età pediatrica affetti da emiplegia. Nel primo protocollo presentato si chiede ad adulti sani di percorrere una traiettoria triangolare ad occhi chiusi, sia in direzione oraria che antioraria, in presenza o meno di una peso sulla spalla destra, in modo da valutare l’influenza del carico asimmetrico sulle informazioni di tipo propriocettivo e le modifiche posturali introdotte. Nei successivi due protocolli vengono presentate prove posturali per individuare le strategie di recupero dell’equilibrio e di mantenimento della postura eretta che i soggetti mettono in atto quando sono perturbati su piano orizzontale da un input di tipo non periodico e periodico a frequenza variabile. Sulla base di questi risultati, viene approntato un protocollo riabilitativo per pazienti pediatrici affetti da emiplegia, sia congenita che acquisita, al fine di sbloccare i cingoli pelvico e scapolare e di insegnare loro, attraverso il disequilibrio, una nuova strategia posturale. L’ultimo protocollo è di tipo valutativo, per analizzare le capacità dei soggetti bendati di orientarsi nello spazio in seguito ad una perturbazione sul piano orizzontale. Sono coinvolti in questo design sperimentale sia giovani sani che bambini con emiplegia congenita, per valutare l’integrità del sistema motorio-sensoriale dei pazienti e verificare l’esistenza di un legame fra patologia ed abilità nel riconoscimento spaziale tramite il confronto dei risultati.
APA, Harvard, Vancouver, ISO, and other styles
40

Flori, Roberta. "Sviluppo di un sistema di taratura per casco strumentato." Doctoral thesis, Università degli studi di Padova, 2010. http://hdl.handle.net/11577/3426552.

Full text
Abstract:
In this work, a new methodology for the dynamic calibration of a sensorized helmet is proposed. The helmet is a medical device for head motion detection, based on gyroscopes and linear accelerometers. It has been designed for monitoring head motion in patients undergoing neuro rehabilitation. While a few solutions are available in the literature for the calibration of this particular type of helmet, no solution currently exists that allows for a complete dynamic calibration by taking into account actual head movements. With the aim of obtaining such a dynamic calibration solution, in this work an instrumented test bench has been designed that replicates typical head movements. Ranges and frequencies for each specific head movement type in the frontal, sagittal and median plane have been retrieved from the literature; data is related to both patients and healthy subjects. Two dynamic calibration prototypes have been produced as the result of subsequent design iterations: the first is capable of reproducing only a few types of principal motions, while the second and final one allows for a complete reproduction of all the principal head movement types. The prototypes have been subjected to experimental testing; the results are analyzed and discussed in the thesis.
Il presente lavoro di tesi ha avuto per oggetto lo sviluppo di una nuova metodologia di taratura dinamica di caschi strumentati, utilizzati in campo neuro riabilitativo per rilevare i moti del capo dei pazienti. È stato realizzato un sistema in grado di riprodurre i movimenti tipici della testa. Il lavoro è iniziato con una ricerca bibliografica per definire i campi di variabilità dei parametri di taratura, ovvero le rotazioni tipiche del capo sul piano frontale, sagittale e trasversale, nonché i loro campi di frequenza. In letteratura si trovano diverse configurazioni per la sensorizzazione del caschetto, con accelerometri e giroscopi, e diversi sistemi ad oggi utilizzati per la loro taratura. Ma non esistono sistemi sviluppati ad hoc, come questo, per poter fare una taratura dinamica, riproducendo proprio le condizioni operative del casco strumentato. Sono stati realizzati e testati due prototipi, il secondo dei quali, il più complesso, realizza tutte le rotazioni del capo definite dall’analisi bibliografica.
APA, Harvard, Vancouver, ISO, and other styles
41

Piras, Daniele. "caratterizzazione multiparametrica di tessuti biologici agli ultrasuoni con metodi spettrali e probabilistici." Doctoral thesis, Università degli studi di Padova, 2008. http://hdl.handle.net/11577/3426156.

Full text
Abstract:
Microcalcifications are of great importance in breast cancer early diagnosis and sometimes they do represent the unique evidence of cancer desease. Breast carcinomas are divided into five main groups: nodular opaquenesses (26 percent), parenchimal disruptions (7.5 percent), disruptions with microcalcifications (2.5 percent), opaquensesses with microcalcifications (17 percent) and microcalcifications as unique evidence (47 percent). Thus, about the 60 percent of mammographic examinations microcalcifications are detected when a breast neoplastic process is in act. Microcalcifications can derive from active cell secretions, necrotic cell debris, inflammations, traumas and radiations. Their exact compositions is actually unknown but the main constituents are: apatite, calcite, calcium oxalate, oxalic acid. Morphological feature analysis is also of great importance to assess whether they stand for benign changes or unpalpable malignant process. The aim of microcalcification analysis is to find all of the possible parameters which might suggest the malignancy of the actual change in tissue properties: shape and size variability, non uniform spatial distribution, density, edge irregularities, number greater than 15-20, number/cm2 greater than 10, average distance less than 1mm, cluster shape and number. Actually, the best technique to reveal microcalcifications is mammographic radiology which, with a 10 micrometer resolution, can achieve the correct visualization of microcalcifications, even the benign ones and the tiny ones. Its main disadvantage, on the other hand, is that xray wavelength is comparable with the DNA’s double helix gap, thus it is a potentially neoplastic agent. Any other mean other than xray would thus be of great clinical interest, but it should give informations comparable with those by xray themselves. Standard ultrasound techniques do not reliably detect microcalcifications. Their visualization, in fact, is limited by a number of factors: speckle (the ultrasound background noise), phase aberration, system limited spatial resolution, attenuation, human perception of the image and more. In general, microcalcifications can’t be revealed when they are located in fibroglandular echogenic regions. compounding is considered, i.e., the superposition a set of Bmode images of the same object. Each single image represents the convolution between the region of interest reflectivity function and the transducer point spread function (PSF) along a scan direction performed at a certain angle ? with respect to a reference position ?=0. It is to be noted that the result of this procedure is obtaining a set of statistically independent echoes from multiple observations of the object at different spatial positions that the transducer assumes while scanning: the improvement in the image contrast (i.e. the reduction of the speckle weight with respect to the target) is known to be proportional to N1/2, N being the number of independent echoes which compound is taken from. On the other hand, the great disadvantage is the loss in spatial resolution (both lateral and axial) which is proportional to N. So far, the last result of spatial compounding is an increase in SNR and a decrease in the system resolution. The essential feature of a system for angular scan, acquisition and data compounding is that the centre of rotation (CR) of the mechanical system might be determined with an accuracy better than the desired resolution for the final image. In reflection tomography, in particular, the knowledge of the CR is essential for the correct rotation and superposition of the single images performed at different transducer’s scan angles. The transducer’s resolution can be considered to be one half of the length of the ultrasonic pulse, thus the CR must be known with a better accuracy: considering a 10 MHz linear array transducer, for example, whose axial resolution is 154 ?m, an accuracy of about 80 ?m can be considered reasonable. Considering a Bmode image of an ideal point reflector in (x,y) obtained with the transducer in position ‘A’. x1 is the distance from the point target to the surface of the transducer and y1 is its lateral position; when the transducer is rotated of 180° in position ‘B’, x2 and y2 are the coordinates of the point reflector in the new position. the coordinates of CR can be estimated from the average of (x1,y1) and (x2,y2). The accuracy of this estimate depends on (i) how much the target can be considered an ideal point target, (ii) how much accurately is the 180° rotation performed and (iii) how much accurately can the distances x1, x2, y1 and y2 be measured. As for point (i), the ideal target can be approximated by an extremely thin wire, i.e. the diameter is less than the spatial resolution of the transducer; as for point (ii) the scan is performed by a precision rotation stage (PI M-037.DG) with 30 ?rad unidirectional repeatability, which cannot be reasonably the main source of error in the estimate of CR; as for point (iii) the accuracy in the measurement of the coordinates is the axial resolution for x1 and x2 and the lateral resolution for y1 and y2. So far we expect that the accuracy in determining CR is dominated by the lateral resolution which is worse than the axial one. The actual setup cannot perform automatic tomographic reconstruction because the mechanical structure is evidently not rotating around a fixed point so no CR determination is possible. In this first part of the work it has been possible to disregard the CR determination: being the microgranule of hydroxyapatite the uniqueinclusion within the phantom, it is always recognizable because its echo is never covered by any hyperecogenic structure. At any scan angle one frame was acquired by the echo scanner. The demodulated signals were computed with Hilbert transform . After having selected a region of interest with the microgranule inside, the gated matrixes were resampled in lateral direction to operate over square pixel (30ns x 30ns) corresponding to 22 micrometers x 22 micrometers in agar. The study of the last setup involves a new structure which has been thought to be stiffer with respect to the previous setup and the very first simulations show a transducer maximum deflection in static condition of about 10 micrometers by gravitational field.
Il carcinoma mammario si presenta sotto molteplici evidenze mammografiche. Nel 47 percento dei casi l’unico segno della presenza di un tumore alla mammella è la presenza di microcalcificazioni (MC). In generale in ecografia mammaria, le microcalcificazioni sono di difficile individuazione perché si tratta di inclusioni iperecogene ma dell’ordine di qualche centinaio di micrometri e dunque facilmente nascoste da un mezzo circostante molto ecogeno per la presenza di tessuto adiposo e fibroso. Per simulare la presenza di microcalcificazioni sono stati utilizzati microgranuli di idrossiapatite (HA) in fantocci di varie tipologie. Fantocci rettangolari per scansioni lineari, fantocci cilindrici per scansioni angolari, e materiali per il background, variabile da una miscela di Agar e acqua (alto contrasto) ad Agar e Latte (basso contrasto). La Tomografia tradizionale con RX, PET, ecc si basa sulla trasmissione di un pacchetto di energia (origine raggi x, positroni, ecc.) attraverso un materiale e ne registra un assorbimento da parte del tessuto. Un approccio simile si realizza quando si utilizza un sistema US con trasmettitore e ricevitore fisicamente separati, in cui viene registrata, attraverso i tempi di volo, la mappatura dell’attenuazione e della velocità sonica nel mezzo. In questo studio viene invece utilizzato un ecografo commerciale, cioè un sistema in cui trasmettitore e ricevitore coincidono:, si ottiene quindi, per ogni angolo di vista, una mappa bidimensionale degli echi di ritorno. Questo significa che tutte le tecniche standard di ricostruzione utilizzate per la tomografia tradizionale non sono applicabili, almeno direttamente, per la ricostruzione ecografica a partire da immagini bidimensionali. Scopo di questo lavoro risulta quindi anche lo studio di un protocollo di elaborazione dati che consenta di matchare un set di N immagini bidimensionali prese ad angoli ?N in una singola immagine che rappresenti l’oggetto a 360°, elaborando i dati acquisiti in termini spettrali (Faran) e probabilistici (Riciano) e disponendo di N realizzazioni tutte indipendenti tra loro.
APA, Harvard, Vancouver, ISO, and other styles
42

ERRIU, MATTEO. "Direct measurement of ultrasonic activity on microbial metabolism and analysis of related uncertainty." Doctoral thesis, Politecnico di Torino, 2013. http://hdl.handle.net/11583/2507350.

Full text
Abstract:
The scope of this work is to identify the relation that exists between the alterations of the bacterial metabolism and the exposition to an ultrasonic field (O'Leary et al. 1997, Piyasena et al. 2003, Brujan2004). To made this relation quantifiable they will be used repeatable and reproducible metrological methods. To obtain this result the research will be centred on 3 specific goal: 1. To realise a measurement of the ultrasonic field, generated by an ultrasonic bath, using an hydrophone calibrated specifically with the wavelengths applied (Canney et al. 2008). 2. To choose a method, through uncertainty evaluation, to expose microbes to the ultrasonic field without an excessive alteration of the generated acoustic pressure. 3. To find a method to measure bacterial viability, represented by the planktonic growth and the biofilm development, after exposure to the ultrasounds. Studying the relationship between the bacteria metabolism and ultrasonic exposure it will be possible to identify novels and more precise methods to treat bacterial colonizations. This result will be in fact useful in various fields where the bacterial presence, and in particular biofilm development, is today an unresolved problem. At the same time this research will put the basis for many further studies that will be realized applying the same methods with different bacterial species, ultrasounds exposition conditions or ultrasonic devices.
APA, Harvard, Vancouver, ISO, and other styles
43

Chiariotti, Paolo. "Noise source identification: an innovative approach of the selective intensity method." Doctoral thesis, Università Politecnica delle Marche, 2011. http://hdl.handle.net/11566/242007.

Full text
Abstract:
Negli ultimi trent’anni il settore del controllo dell’emissione acustica dei sistemi meccanici ha acquisito un’importanza sempre maggiore e ciò ha contribuito allo sviluppo di molte tecniche di misura per la localizzazione delle sorgenti di rumore. Sfortunatamente, pur offrendo delle ottime prestazioni quando applicate in condizioni di campo libero, le tecniche fino ad oggi utilizzate manifestano un’accuratezza inferiore se applicate in ambienti fortemente riverberanti e/o caratterizzati da un elevato rumore di fondo. In questa tesi viene sviluppato un nuovo approccio della tecnica di individuazione di sorgenti di rumore chiamata Selective Intensity (SI). Nel presente lavoro si è cercato di rendere tale metodo adatto ad applicazioni in ambienti altamente riverberanti come le cabine degli aerei. La Selective Intensity è una tecnica di correlazione vibro-acustica che permette di localizzare quelle sorgenti strutturali che maggiormente influenzano il campo acustico totale emesso da un corpo vibrante. La correlazione avviene per mezzo del calcolo di funzioni di trasferimento vibro-acustiche ottenute rappresentando il sistema fisico come un modello matematico Multiple Input Multiple Output (MIMO) di cui la vibrazione costituisce l’ingresso e la pressione acustica l’uscita; si riesce così a definire una relazione lineare tra ogni sorgente strutturale (causa) e la corrispondente pressione acustica misurata (effetto), riducendo il peso del contributo acustico di quelle sorgenti esterne che non sono correlate alla vibrazione della struttura in esame. L’Intensità Selettiva che se ne ricava, output della tecnica, rappresenta quindi il contributo che ogni monopolo acustico sulla superficie del sistema in analisi fornirebbe qualora fossero idealmente spenti gli altri che, a loro volta, contribuiscono a determinare il campo acustico totale emesso: osservando la distribuzione dei vari monopoli si possono localizzare le aree a maggiore emissione. L’innovatività del lavoro proposto è costituita innanzitutto dall’utilizzo combinato di un Vibrometro Laser Doppler a Scansione e di una sonda intensimetrica. Uno strumento ottico non a contatto come il Vibrometro permette di ricavare informazioni con una notevole risoluzione spaziale e senza influenzare il comportamento dinamico della struttura osservata. Ciò porta ad un duplice beneficio, offrendo da un lato la possibilità di caratterizzare meglio le cause strutturali che contribuiscono a determinare un certo campo acustico e dall’ altro il vantaggio di poter localizzare le sorgenti di rumore con una migliore risoluzione spaziale. Per la prima volta la SI viene analizzata dal punto di vista numerico. La tecnica, infatti, implica la soluzione di un problema inverso per la determinazione delle funzioni vibro-acustiche di cui sopra e ciò può portare a notevoli instabilità numeriche. Tali instabilità, inoltre, sono tanto più marcate quanto maggiori sono le dimensioni del problema in esame; ne segue che il vantaggio fisico di avere più riferimenti di vibrazione si traduce in uno svantaggio dal punto di vista del calcolo. Una possibile soluzione, indagata in questo lavoro, consiste nel ricorrere a metodi di regolarizzazione. A tal proposito, nella tesi viene discusso l’effetto legato all’utilizzo di tali procedure; vengono inoltre presentati degli algoritmi per la scelta automatica del parametro di regolarizzazione, nonché discusse le motivazioni che portano alla selezione dell’uno rispetto ad un altro, in funzione delle condizioni in cui viene effettuata la misura. Oltre a ciò, è presente anche un’analisi relativa a quelli che sono i principali parametri a cui la tecnica risulta essere sensibile, come ad esempio il grado di coerenza tra le sorgenti in esame. Per la prima volta, infine, vengono presentati risultati ottenuti non solo da test di laboratorio, ma soprattutto da applicazioni reali della tecnica. In particolare si discutono i risultati ottenuti da una campagna di misure effettuata su un mock-up di un ATR42 dell’Alenia Aeronautica. Ulteriore obbiettivo di questo lavoro di tesi è quello di sviluppare uno strumento che sia da supporto nella prima fase di indagine in un problema di controllo del rumore. In quest’ottica, la possibilità di separare i contributi strutturali e acustici delle principali sorgenti di rumore, una volta localizzate,costituisce pertanto una forte attrattiva. Si è quindi effettuato uno studio atto a comprendere la possibilità di applicare una tecnica computazionale come l’Independent Component Analysis (ICA) alle informazioni vibrazionali e acustiche misurate dalla Selective Intensity. La sezione riguardante la tecnica ICA, tecnica nata per l’individuazione di fattori nascosti da un insieme di dati, ha principalmente scopo esplorativo, l’obiettivo è infatti descriverne pregi e difetti quando la tecnica viene applicata in questo tipo di problemi ingegneristici. Nel presente lavoro vengono pertanto discusse le principali difficoltà legate all’applicazione della ICA in campo vibro-acustico; in più vengono valutate le prestazioni di tale metodo sia su dati simulati che su dati reali, questi ultimi misurati presso la sede danese della Brüel & Kjær Sound & Vibration, dove l’autore ha trascorso un periodo di studio della durata di otto mesi. I risultati ottenuti dimostrano che la tecnica merita attenzione, ma necessita di ulteriori approfondimenti, essendo ancora affetta da forti limiti. Tali limiti sono legati soprattutto agli algoritmi a tutt’oggi disponibili e all’assenza di metriche oggettive per la valutazione della sua accuratezza. Il lavoro di tesi è stato sviluppato nell’ambito del progetto Europeo CREDO (Cabin noise Reduction by Experimental and numerical Design Optimization, 2006-2009) focalizzato sullo sviluppo di nuove tecniche numeriche e di misura per il miglioramento dell’efficienza della progettazione vibro-acustica delle cabine di aerei e di elicotteri così da aumentare il confort acustico a bordo.
Noise control research field has grown widely in the last thirty years. That has led to the development of several noise source identification techniques. Unfortunately, even though they perform very well when applied in free field conditions, they still lack of accuracy when applied in reverberant/really noisy environments. This thesis deals with a new approach of the noise source identification method named Selective Intensity (SI), appositely developed to operate in highly reverberant environments like aircraft cabins. The Selective Intensity is a vibro-acoustic correlation technique capable of locating the strongest structural sources that mostly radiate to the acoustic field. Correlation is obtained calculating vibroacoustic transfer functions got representing the physical system as a Multiple Input Multiple Output model: structural vibrations are the inputs while acoustic pressures are the outputs of that model. The evaluated FRFs let to establish a linear relation between each structural source (cause) and the corresponding acoustic pressure (effect), and that reduces the influence of extraneous noise sources that are not coherent to vibration. The Selective Intensity component is therefore the one that the microphones (outputs) would “hear” if only the corresponding source (input) would act and radiate the acoustic field, not considering the complexity of the whole sound field produced by all the sources emitting simultaneously. By mapping those contributions the main noise sources can be identified. The innovation behind the proposed approach consists in involving, for the very first time, the usage of a Scanning Laser Doppler Vibrometer (LDV) and a Sound Intensity p-p probe. The optical non-contact nature of the LDV lets to collect information with a very fine spatial resolution and not modifying the dynamic behaviour of the analyzed structure. That has two main consequences: accurately characterizing the structural sources that radiate to the sound field and locating noise sources with fine spatial resolution. For the first time a comprehensive analysis of the numerical aspects lying behind the SI is performed. The calculation of the above mentioned transfer functions requires the solution of an inverse problem. That often leads to numerical instabilities, the worse the bigger the size of the problem; the increasing of the number of structural references therefore results in calculation issues. One way of limiting these side effects is represented by numerical regularization and the usage of that approach is discussed throughout the thesis. Algorithms for the automatic selection of the regularization parameter are described, also linking the method choice to the measurement conditions. Moreover a deep sensitivity analysis is undertaken, focusing on those parameters that mostly influence the SI outcomes (e.g. sources coherence). Results from real applications of the technique are widely presented, but particular attention is given to those obtained on an Alenia Aeronautica ATR42 ground test facility. The development of a smart tool able to face the early approach of a noise control problem is an interesting task to fulfill. The possibility of further separate structural and acoustic sources contributions from data measured for the Selective Intensity calculation would therefore represent a useful goal to achieve. Based on these considerations, the exploitation of the Independent Component Analysis (ICA)technique for vibro-acoustic purposes is also handled throughout the thesis. A debate about ICA merits and limits is presented; moreover, performances of that approach in achieving source contributions reconstruction are described regarding both simulated and real test cases, those last referring to a measuring campaign at the Brüel & Kjær Sound & Vibration (DK base). Results obtained so far demonstrate the technique is worth of attention and it deserves further studies, even though it suffers of some drawbacks. The most relevant issues are nowadays linked to the available algorithms and to the lack of objective metrics to assess accuracy in source contribution reconstruction. The research activity has been carried out within the European project CREDO (Cabin noise Reduction by Experimental and numerical Design Optimization, 2006-2009) focused on the development of innovative numerical and experimental techniques, able to improve the efficiency of aircrafts and helicopters cabins vibro-acoustic design, in order to increase the on-board comfort.
APA, Harvard, Vancouver, ISO, and other styles
44

Sopranzetti, Francesca. "Acoustic beamforming: innovative methods to overcome current limitations." Doctoral thesis, Università Politecnica delle Marche, 2013. http://hdl.handle.net/11566/242694.

Full text
Abstract:
Sin dalla sua introduzione, una trentina di anni fa, il beamforming si è imposto come tecnica leader per la caratterizzazione del campo acustico lontano: permettendo di ottenere una vera e propria immagine del campo sonoro, la localizzazione delle sorgenti è più facile e intuitiva. Nonostante sia una tecnica ormai nota e diffusa allo stato dell’arte, alcuni dei suoi principali limiti non sono ancora stati del tutto superati. In particolare tre sono i principali problemi che la caratterizzano. In primo luogo la risoluzione, che dipende principalmente dalla forma e dall’estensione dell’array di microfoni utilizzato per la misura. In secondo luogo, c’è il problema della fase relativa tra le sorgenti identificate: allo stato dell’arte nessuna metodologia di beamforming permette di valutare questa informazione. Infine, il problema dell’identificazione delle sorgenti relative ad un particolare fenomeno, quando il rapporto segnale rumore è sfavorevole. Lo scopo di questa tesi è quello di presentare delle nuove tecniche che permettano il superamento di tali limiti, almeno in alcuni dei più frequenti casi di applicazione di beamforming. In principio viene descritta una tecnica, chiamata VAMOS (virtualizzazione dell’array in caso di sorgenti in moto) , applicabile nei casi in cui l’oggetto in studio è in movimento. Sfruttando il moto dell’oggetto, l’array usato per la misura viene virtualmente esteso lungo la direzione di moto stessa, incrementando, così, la risoluzione ottenibile. La tecnica viene presentata completa di validazioni numeriche e di analisi di incertezza. A seguire, sono presentate due tecniche per ottenere l’informazione di fase delle sorgenti acustiche, così da ottenere una completa caratterizzazione del campo sonoro in esame. La tecnica chiamata PMMS (valutazione della fase relativa mediante sostituzione di monopoli) è una tecnica da applicare come secondo passo di processamento, dopo aver ottenuto una prima mappa di beamforming, così da ottenere la supplementare mappa di distribuzione di fase che completa la descrizione del campo. La tecnica chiamata PMGIB, invece, è corollario diretto della tecnica inversa introdotta da Suzuki. Il campo acustico, completo delle informazioni di potenza sonora e fase delle sorgenti, viene ricostruito mediante la soluzione di un problema inverso che modella il dominio con una base ortonormale di monopoli. Infine sono presentate delle tecniche basate sull’integrazione di dati di eterogenea natura: i diversi fenomeni fisici che contribuiscono alla generazione del campo acustico sono simultaneamente monitorati e i segnali acquisiti sono correlati così da evidenziare il particolare fenomeno di interesse. La tecnica del beamforming coerente viene sfruttata per evidenziare le sorgenti aeroacustiche agenti su una mini turbina eolica. Per concludere, le due tecniche di beamforming e causality correlation sono usate congiuntamente per analizzare il campo acustico prodotto da una bolla di separazione laminare ed identificare i fenomeni fluidodinamici responsabili dell’emissione stessa.
Since its introduction acoustic beamforming has imposed itself as the principal technique for the mapping of acoustic sources in the far field. Even if some decades have passed since it was firstly used, important limitations still remain at the state of the art. In particular, the main shortcomings are relative to three aspects. The first one is the beamformer resolution capability, that strictly depends on the structure of the array, i.e. on the hardware available for the measurement. The second is the relative phase assessment amongst sources, that can not be achievable by the known state of the art techniques. The third is that the measurement background noise can be high and cover the phenomenon of interest, in particular in some applications as the aeroacoustic ones. The aim of the present research is to introduce new methods to overcome the limits above. At first the technique called VAMOS (Virtualized Array for MOving Sources) is introduced and treated. It can be used in all those cases when the object under investigation is moving, such as pass–by or fly–over measurements. Once the measurement is performed, VAMOS exploits the object motion to virtually extend the array used for the acquisition: in this way the array aperture, i.e. its resolution, is increased in the direction of motion. Numerical validations, performances and uncertainty analysis are treated in the dissertation. Secondly, the problem of relative phase assessment is treated. Two new techniques are described. The first one is the Phase Mapping by Monopole Substitution (PMMS). It constitutes a post–processing step to be performed after beamforming calculations to complete the obtained sound power beamforming map with that of phase. The technique is presented with a complete uncertainty analysis and both numerical and experimental results. The second technique introduced is an inverse technique directly proceeding by Suzuki’s L1 Generalized Inverse Beamforming. The map of sources relative phase is obtained by modeling the sound field with a orthonormal base of monopoles. Finally, multi–sensor data integration is exploited to highlight and understand aeroacoustic noise generation mechanisms. In particular, the acoustic ix field due to a wind turbine will be analyzed by means of Coherent Beamforming: aeroacoustic contributions are separated by means of a reference signal sensitive to the other disturbing sources, such as mechanical ones. At the end, the acoustic field of a laminar separation bubble will be studied by means of beamforming and causality correlation approach.
APA, Harvard, Vancouver, ISO, and other styles
45

Pacilli, Alessandra. "Riabilitazione robotica della postura in Pediatria; progettazione, sviluppo, implementazione del sistema di controllo e sensorizzazione di un robot riabilitativo e sua utilizzazione nella routine clinica." Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3423856.

Full text
Abstract:
The ability to maintain postural control is a complex task and, although it is natural for healthy subjects, it is often disrupted in stroke patients. The control of posture, in fact, results from the integration of several sensory inputs, both from the body and the external environment; these inputs are real-time processed to implement a dynamic equilibrium configuration for the entire musculoskeletal system. Postural rehabilitation has grown remarkably in the neuro-rehabilitation field and has met new challenges in the so-called cortical plasticity¬, which is also the rationale for rehabilitation robotics. This principle, in fact, states the ability of the CNS to reorganize itself, even after a cerebrovascular accident. This reason led to the introduction, during the last years, of a huge number of robotic platforms to improve the postural rehabilitation process, both in the fields of Research and clinical routine. The lack, in the literature, of a motorized, 2 DOFs platform, able to interact with the subjects standing upon it, led to the design of a device with these requirements, intended for use by the pediatric patients of the MARlab (Movement Analysis and Robotics laboratory, Ospedale Pediatrico “Bambino Gesù”, Palidoro, RM). After the dimensioning of the selected components, the platform has been designed in a CAD environment. The final layout is a Cartesian robot with a 15x15 cm2 workspace and a low profile (170 mm), and it is ideal to be installed, in the future, below the floor. Two linear induction motors are used to power the two motion axis and, in order to make the platform compliant with the patient, each motor slider was sensorized with a 1DOF load cell. A study was then conducted to evaluate the influence of the inertial forces over the load cell output. The goal of this project was to design and realize a robot prototype, called SlideBiT2D, with an open, evolvable architecture. For this reason we chose to install the network of sensors and actuators over a CAN fieldbus; we also selected, as the network master node, a PCI card CANopen-compliant, which could be programmed in LabVIEW environment. As regards the software, it has been designed on a three-level structure, two of which has already been developed. In this way it is not mandatory to have a good knowledge of the CANopen protocol in order to develop the user interface. To make the platform a real haptic interface, ie able to respond to the external forces imposed by the patient, we used, for both motors, the speed control mode; in addition, a superior control loop was imposed to simulate a 2DOFs spring, placed in parallel with a damper of coefficient C. The control thus produced was tested first with a test bench, along a single dimension, and was then successfully implemented in 2D, over the platform. Since the platform is a medical device, some special attentions were used throughout the design activities. As regards the requirements for electrical safety, the development of the electrical panel was demanded to a certified company (MPD Ltd – Induno Olona, VA). The use of the platform before its installation under the floor will be conducted in combination with the use of the overhead crane installed in the MARlab of Santa Marinella. Finally, the platform commissioning/start-up will require further calibration phase for motors and load cells, in order to assure quality measurements and safe interaction of the robot with the patient.
Il mantenimento della postura è un compito complesso, pur nella sua apparente naturalezza, ed è spesso compromesso in pazienti con patologie a carico del Sistema Nervoso Centrale (SNC). Questo compito è, infatti, frutto dell’integrazione di numerosi input sensoriali, propriocettivi ed esterocettivi, da parte del SNC; tali input vengono elaborati per attuare, in ogni istante, durante tutte le attività quotidiane, una configurazione di equilibrio per l’intero apparato muscoloscheletrico. La riabilitazione del mantenimento della postura ha acquistato importanza sempre crescente nel campo della neuro-riabilitazione ed ha conosciuto nuovi stimoli nel razionale della terapia mediata da robot, la quale si fonda sul concetto della plasticità corticale, ossia sulla capacità del SNC di riorganizzarsi anche a seguito di accidenti cerebrovascolari. Per questo motivo, gli ultimi decenni hanno visto l’introduzione di numerose piattaforme robotiche sia in Ricerca che in Clinica, allo scopo di migliorare il processo di recupero dell’equilibrio e la sua oggettivazione. L’assenza, in letteratura, di una piattaforma motorizzata a 2 gdl (gradi di libertà), e in grado di interagire con i soggetti posti al di sopra di essa, hanno portato alla progettazione di un dispositivo con queste caratteristiche, destinato all’utilizzo da parte dei pazienti pediatrici del MARlab (Movement Analysis and Robotics laboratory) dell’OPBG (Ospedale Pediatrico “Bambino Gesù”) di Palidoro (RM). Dopo l’individuazione delle specifiche di progetto, la scelta e il dimensionamento dei componenti, la piattaforma è stata disegnata in ambiente CAD, risultando un robot cartesiano con un workspace di 15x15 cm2 ed un basso profilo (170 mm), ideale per essere in futuro installata al di sotto del pavimento. Il cuore del dispositivo è costituito dai due motori lineari a induzione elettromagnetica LinMot, che consentono di attivare ciascuno una direzione del moto. Al fine di rendere la piattaforma interattiva, è stato necessario sensorizzare ciascun motore con una cella di carico, così da rilevare la volontà esterna di muovere il robot. Inoltre, trattandosi di un dispositivo destinato a pazienti pediatrici, aventi cioè massa corporea confrontabile con quella della piattaforma, è stato condotto uno studio per valutare la possibilità di compensare in accelerazione le uscite delle celle di carico, depurandole dalla forza di inerzia associata proprio al moto della piattaforma. La filosofia di approccio alla costruzione di questo prototipo, denominato SlideBiT2D, è quella di un sistema aperto ed evolvibile, sia dal punto di vista dell’hardware che del software, pronto ad accogliere nuove necessità espresse da parte del personale medico. Per questo, si è scelto di installare la rete di sensori e attuatori su bus di campo CAN, scegliendo come master della rete un nodo CANopen-compliant, programmabile però in ambiente LabVIEW. Il software è stato concepito come articolato su tre livelli e ne sono stati sviluppati i due più bassi, in modo da svincolare la creazione di una interfaccia utente da qualsiasi conoscenza del CANopen, protocollo molto efficiente ma anche complesso da apprendere. Per rendere la piattaforma una vera e propria interfaccia aptica, in grado cioè di rispondere alle sollecitazioni imposte dall’esterno, i motori sono stati controllati in velocità e, in più, è stato sviluppato un controllore di livello superiore per simulare una molla a 2 gdl, di rigidezza variabile K, posta in parallelo ad uno smorzatore con coefficiente C. Il controllo così realizzato è stato testato dapprima con un banco di prova, lungo una sola dimensione, ed è stato poi implementato con successo in 2D sulla piattaforma. Avere a che fare con un prototipo di un dispositivo medico ha richiesto alcune attenzioni particolari durante tutta la attività di progettazione. Anzitutto, per ciò che riguarda la sicurezza elettrica, il quadro elettrico è stato sviluppato da una ditta certificata (MPD srl – Induno Olona, VA). L’utilizzo stesso della piattaforma, in attesa che essa sia interrata, sarà auspicabilmente condotto in combinazione con l’utilizzo di un carroponte in dotazione al MARlab dell’OPBG di Santa Marinella. Infine, come si conviene ad ogni dispositivo di misura, la messa in opera del robot richiederà una ulteriore fase di taratura dei motori e delle catene di misura presenti, al fine di garantire la qualità delle misure e la sicurezza nella interazione per il paziente.. Infine, come si conviene a un qualsiasi dispositivo di misura, la messa in opera del robot richiederà una ulteriore fase di taratura dei motori e delle catene di misura presenti, al fine di garantire la qualità delle misure e la sicurezza nella interazione per il paziente.
APA, Harvard, Vancouver, ISO, and other styles
46

Giacometti, Massimiliano. "Riproducibilità delle condizioni operative di meccanismi articolati e loro collaudo." Doctoral thesis, Università degli studi di Padova, 2008. http://hdl.handle.net/11577/3425066.

Full text
Abstract:
The work carried out is about two main projects: a technological demonstrator of an autonomous driller called "Guided Mole Demonstrator" for scientific exploration of Mars subsoil, and a robotic platform with 3 degrees of freedom based on the relative motion of links with inclines for motion simulations or pointing purposes.
APA, Harvard, Vancouver, ISO, and other styles
47

Faina, Nicola. "Metodologie innovative per il monitoraggio dell'interazione fluido-struttura mediante misure senza contatto." Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3424055.

Full text
Abstract:
This thesis deals with a particular line of research in the context of a larger research project which aims to develop innovative measurement methodologies for the analysis of fluid-structure interaction, with special reference to monitoring and diagnostic components of the power equipment (turbines, wind turbine blades, etc..). In particular, the objective was focused on the measurement by Thermoelastic Stress Analysis (TSA) of stress on wind turbines fully assembled and in real operating conditions, even moving at high speeds. In a first experimental step, we designed case studies and reproduced in laboratory (wind tunnel) the loading conditions considered to be significant and representative of the real operating conditions of the components. Instrumental acquisitions were performed simultaneously with traditional contact measures and thermographic non-contact measures. Then we developed two innovative solutions for post-processing. First, we developed an algorithm for motion compensation of the thermographic image, by pattern recognition for tracking thermal markers appropriately positioned on the surface of the mechanical component in question, which allows the passage of the acquired thermographic measure from an absolute reference system fixed with respect to the camera to a relative reference system integral with the mechanical component. In this way we got a new sequence of thermographic images "rotated" to be subjected to a second algorithm for the validation and the scaling of the thermographic tensional map of the entire body, through the comparison with the conventional measures simultaneously acquired, which finally allows to get a tensional map quantitatively significant over the entire surface of the body under examination. In this way, using the obtained results, it is possible to apply the thermoelastic analysis (TSA) for the measurement of continuous stress maps on the entire surface of the components in question. So we can overcome the limitations of traditional contact measurements, which are difficult to apply in some operating conditions (components in random motion) and in some geometric areas of components, and that always provide only point measurements.
La presente tesi tratta una particolare linea di ricerca nell'ambito di un più ampio progetto di ricerca avente l'obiettivo di sviluppare metodologie di misura innovative per l'analisi dell'interazione fluido-struttura, con particolare riferimento al monitoraggio ed alla diagnostica di componenti di impianti energetici (turbine, pale di turbine eoliche, ecc.). In particolare, l'obiettivo è stato focalizzato sulla misura delle stato tensionale mediante Thermoelastic Stress Analysis (TSA) di turbine eoliche completamente assemblate ed in condizioni reali di esercizio, anche in movimento a velocità elevate. In una prima fase puramente sperimentale, sono stati progettati i casi di studio, sono state riprodotte in laboratorio (galleria del vento) le condizioni di sollecitazione ritenute significative e rappresentative delle reali condizioni di esercizio dei componenti, e sono state eseguite le acquisizioni strumentali contemporaneamente con misure tradizionali a contatto e misure termografiche senza contatto. Successivamente sono state sviluppate due soluzioni innovative di post-processing, fondamentali per il raggiungimento del risultato. Dapprima la messa a punto di un algoritmo di compensazione del movimento dell'immagine termografica, per l'inseguimento mediante pattern recognition di marcatori termici opportunamente posizionati sulla superficie del componente meccanico in esame, che consente il passaggio della misura termografica acquisita da un sistema di riferimento assoluto fisso rispetto alla termocamera ad un sistema di riferimento relativo solidale al componente stesso. In tal modo si ottiene una nuova sequenza di immagini termografiche "derotate" da sottoporre al successivo algoritmo per la validazione e la scalatura della mappa tensionale termografica dell'intero corpo in esame mediante il confronto con le misure convenzionali puntuali acquisite contemporaneamente, che consente infine di ottenere una mappa tensionale quantitativamente significativa su tutta la superficie del corpo in esame. In tal modo, utilizzando i risultati conseguiti, risulta possibile applicare l'analisi termoelastica (TSA) per la misura di mappe continue dello stato tensionale sull'intera superficie dei componenti in esame. Si possono così superare gli evidenti limiti dei sistemi di misura tradizionali a contatto, che risultano difficilmente applicabili in certe condizioni di funzionamento (componenti in moto casuale) ed in certe aree geometriche degli stessi componenti, e che in ogni caso riescono a fornire solo misure puntuali.
APA, Harvard, Vancouver, ISO, and other styles
48

Arnesano, Marco. "Design of a comfort based smart metering system for sport and recreational buildings." Doctoral thesis, Università Politecnica delle Marche, 2013. http://hdl.handle.net/11566/242712.

Full text
Abstract:
Il presente lavoro descrive il progetto e lo sviluppo di un sistema di Smart metering basato sul comfort per edifici di tipo sportivo. I sistemi di smart metering sono generalmente pro-gettati per il monitoraggio energetico, mentre il comfort è solitamente trascurato. Tuttavia questo è molto importante a causa del livello di attività e del desiderio di benessere tipico di tali ambienti. Le funzionalità sviluppate per implementare tale approccio riguardano il mo-nitoraggio energetico, la valutazione del comfort, l’ottimizzazione di reti di sensori, l’analisi e la visualizzazione dei dati. L’applicazione degli indici di comfort (PMV, predicted mean vote, e PPD, predicted percentage of dissatisfied) necessita di una procedura di calibrazione e una analisi globale di sensibilità per questo tipo di ambienti. La procedura di calibrazione è basata sul confronto tra il comfort soggettivo determinato con questionari e misure og-gettive con centralina microclimatica. Tale analisi, applicata a due casi reali (piscina e pale-stra), rivela una traslazione del punto di neutralità termica che viene usato come fattore cor-rettivo dell’indice PMV. Mentre l’analisi globale di sensibilità permette la riduzione del numero di variabili misurate identificando i parametri a bassa sensibilità e l’identificazione dei fattori critici in questa applicazione. Il sistema di misura deve essere sviluppato in gran-di ambienti con una rete di sensori efficace e con il giusto livello di accuratezza per il siste-ma di controllo. Per ridurre l’impatto dell’incertezza legata alla distribuzione orizzontale dell’aria è stato sviluppato un software di ottimizzazione in grado di ricavare il numero e la posizione ottimale di sensori di temperatura con un potenziale risparmio energetico che è stato valutato con l’ausilio di un modello simulativo. La soluzione presentata è parte dello sviluppo di un BMS (Building Management System) specifico per edifici sportivi nell’ambito del Progetto Europeo FP7 SportE2.
This work summarizes the design and development of a comfort-based smart metering-system dedicated to sport facilities. Smart metering systems are usually designed only to monitor energy, while comfort is often neglected. This is on the contrary particularly im-portant in these facilities because of the intense activities carried out and the desire to maintain a sense of well-being. The different functionalities are developed in agreement with this approach, involving energy monitoring, comfort evaluation, sensors network op-timization, data analysis and display for the end user. Comfort indices (PMV, predicted mean vote, and PPD, predicted percentage of dissatisfied) are used instead of the only air temperature, accompanied by a calibration procedure and global sensitivity analysis. The calibration procedure is based on the comparison between subjective comfort through sur-veys and objective measurement with a microclimate station. This analysis, applied at two real cases (swimming pool and gym), reveals a drift of the thermal neutrality which is used as correction factor. The global sensitivity analysis is useful on one hand to apply some simplification hypothesis to avoid the measurement of the low-sensitive variables and, on the other hand, to identify which variables are more important in this field of application. The measurement system has to be deployed in very large spaces with a sufficiently cost-effective sensor network and with an accuracy suitable for feedback to the control systems. In order to reduce the impact of the uncertainty, due to the horizontal distribution and air stratification, a dedicated tool has been developed which provides the optimal number and position of temperature sensors in the space with a potential energy saving that has been assessed with a simulation model. The designed solution is part of the development of a dedicated BMS (Building Management System) for sport and recreational buildings in the framework of the European Project FP7 SportE2.
APA, Harvard, Vancouver, ISO, and other styles
49

Lonzi, Barbara. "Development and application of experimental methodologies for the mechanical characterization of non-linear materials exploited in the production of loudspeakers." Doctoral thesis, Università Politecnica delle Marche, 2015. http://hdl.handle.net/11566/243121.

Full text
Abstract:
La caratterizzazione di materiali utilizzati nella produzione di altoparlanti necessita dello sviluppo di tecniche investigative che si adattano alle specificità di ciascuna tipologia di materiale in esame. In questa tesi vengono quindi proposti approcci diversi in base al materiale e al tipo di caratterizzazione impiegata, ovvero statica/transitoria e dinamica. Viene presentata una nuova caratterizzazione dinamica della carta basata su un metodo ibrido. Infatti, grazie all’utilizzo combinato del metodo agli elementi finiti e dell’analisi modale sperimentale, è stato possibile valutare le proprietà dinamiche meccaniche del materiale in termini di modulo conservativo e dissipativo all’interno di un ampio range di frequenze, In particolare, nel range di frequenze acustiche è stata individuata una relazione lineari tra le caratteristiche meccaniche della carta e la frequenza d’eccitazione. Per quanto riguarda la gomma, è stato possibile analizzare la deformazione tridimensionale dei campioni sottoposti a carico uniassiale tramite lo sviluppo di un opportuno setup sperimentale. Ciò ha permesso di descrivere il comportamento viscoelastico del materiale medianti le leggi costitutive dei modelli generalizzati di Maxwell e di Kelvin-Voigt. Inoltre, la misura della deformazione tridimensionale ha permesso di identificare i limiti in termini di deformazione entro i quali le ipotesi di incomprimibilità e isotropia del materiale sono verificate. La caratterizzazione dinamica ha sfruttato i dati ottenuti mediante prove di analisi dinamica termica al fine di sviluppare un nuovo approccio per la costruzione delle mastercurve del modulo conservativo e di quello dissipativo. I risultati sperimentali sono stati descritti mediante il modello di Havriliak-Negami, il quale è risultato essere un potente strumento per la determinazione dei fattori di shift necessari all’ottenimento della mastercurve in un ampio range di frequenze. Le varie metodologie sviluppate hanno permesso di descrivere le proprietà meccaniche dei materiali in esame tramite modelli parametrici. I parametri così individuati possono essere facilmente impiegabili nelle simulazioni numeriche degli altoparlanti.
The mechanical characterization of materials exploited in the production of loudspeakers requires the development of investigative techniques that adapt to the specificities of each type of test material. The proposed approaches were diversified depending on the concerned material and the nature of the characterization, i.e. static or transient versus dynamic. A new hybrid dynamic characterization of paper was presented. Thanks to the combined employment of a Finite Element Method together with the Experimental Modal Analysis, the dynamic mechanical properties of the material, i.e. the storage and the loss moduli, can be evaluated in a wide range of frequency. A linear relationship between mechanical properties of paper and frequency was found within the acoustic range. The proposed experimental setup for the transient test on rubbery materials aimed to the investigation of the three-dimensional strain state of the sample subjected to uniaxial load. The viscoelastic behavior of the material was then described through the constitutive laws provided by the generalized Maxwell model and the generalized Kelvin-Voigt model. The three-dimensional strain measurement allowed the identification of the limits in terms of applied strain within which the hypothesis of isotropic and incompressible material is verified. The dynamical characterization was performed by means of a new approach for the construction of the mastercurves of both storage and loss modulus starting from Dynamic Mechanical Thermal Analysis data. The experimental results were described by the Havriliak-Negami model, which represents a powerful tool for determining the shift factors needed to achieved a reliable mastercurve within a wide range of frequency. The developed methodologies allowed to describe the mechanical properties of the investigated materials by means of parametric models. The complete set of identified parameters are readily employable for the purpose of numerical simulation of the loudspeaker.
APA, Harvard, Vancouver, ISO, and other styles
50

Grott, Matteo. "Design of Suspension Systems and Control Algorithms for Heavy Duty Vehicles." Doctoral thesis, Università degli studi di Trento, 2010. https://hdl.handle.net/11572/368043.

Full text
Abstract:
This work is focused on the development of controllable suspension systems for heavy-duty vehicles, in particular for agricultural tractors. In this field the research activity is not complete, as confirmed by the lack of scientific literature and for the few examples of commercial application for this kind of vehicles present in the market. For off-highway vehicles the load conditions can vary considerably and have an effect on the dynamic behaviour of the vehicle. Moreover, in many cases (such as tractors in agriculture), only the front axle is provided with a suspension. Typical applications of suspensions in off-highway industry include the cabin suspension (known as secondary suspension system) and the front axle suspension (known as primary suspension system). Up to now, the performance improvements have been reached through new solutions developed for the secondary systems, while the primary systems are generally implemented with passive systems, due to economical motivations and their limited energy demand. Obviously, such technical solutions partially satisfy the system requirements. Moreover, during the past few years there has been an increasing demand in power capabilities, loads and driving speeds of heavy duty vehicles. Therefore, off-highway vehicle manufacturers have shown their interest in employing controllable suspension, assumed as a potential way to reach the desired dynamic performances. The main targets of this activity is the study of the dynamical behaviour of agricultural tractors and the design of a cost-effective controllable suspension, capable to adapt the tractor dynamical behaviour, under different operating conditions. This work is part of a collaboration between Dana Corp. and the University of Trento. The main objective consists in the acquisition of competence in relation to the dynamic control of the vehicle. In particular the development of mechatronic systems according to the Model Based Design approach and the rapid prototyping of control algorithms. On this purpose, a simulation and experimental system was developed, for the testing of suspension systems and control algorithms for primary suspension systems. The first part of the thesis investigates the state of the art of the scientific literature of suspension systems for heavy duty vehicles, referring to different technologies and control solutions. In particular, attention was focused on the analysis and experimental characterization of commercial applications for this kind of vehicles present in the market. In the second part of the thesis the design development of a hydro-pneumatic suspension system is presented. The design of the control algorithms is based on the development of different multibody models of the actual tractor, including the pitch motion of the sprung mass, the load transfer effects during braking and forward-reverse maneuvers and the non-linear dynamics of the system. For an advanced analysis, a novel thermo-hydraulic model of the hydraulic system has been implemented. Several damping controls are analyzed for the specific case study. Therefore, the most promising damping strategy is integrated with other control functions, namely a self-leveling control, an original control algorithm for the reduction of the pitch motion, an anti-impact system for the hydraulic actuator and an on-line adaptation scheme, which preserves an optimal damping ratio of the suspension, even against large variations in operating conditions. According to the system requirements, the control is firstly integrated with other functionalities, such as the calibration of the suspension set-points and the procedures for the lock of the suspension. Finally, in accordance to the industrial product development, the control scheme is redefined in a Finite State Machine, useful for the subsequent generation of the ECU (Electronic Control Unit) Embedded Code. The final section of this work presents the development of an industrial prototype of suspension system, composed of a hydraulic suspension unit and a controller (hardware and software units). The prototype is tested by using a suspension bench test and Rapid Prototyping Tools for testing real-time control systems. Conclusions and final remarks and are reported in the last section.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography