Dissertations / Theses on the topic 'SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE'

To see the other types of publications on this topic, follow the link: SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dardi, Francesca. "Progetto ed applicazioni di metodi per l'analisi della qualità delle immagini." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7418.

Full text
Abstract:
2010/2011
L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale, al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di algoritmi per la determinazione di criteri di valutazione. Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva, argomento ancora più circostanziato nel campo di studio individuato. Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche, comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi. La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche diverse ed imputabili a cause di natura differente. Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da codifica in modo abbastanza tipico. Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta. All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto percepito a livello della scena in termini di regioni estratte. Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle che soddisfano i criteri scelti di rilevanza percettiva. A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta dall’operatore, e quella da codifica. In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini. Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore, ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o meno. L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo dedicato. Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi riguardante la multimedialità. In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un operatore esperto o ad un algoritmo di riconoscimento automatico. Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.
XXIV Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
2

Cervelli, Federico. "Methods and applications for forensic sciences." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7443.

Full text
Abstract:
2009/2010
La scienza forense è quella branca della scienza che si occupa dell’analisi del ma- teriale probatorio. Lo scopo di questa analisi è quello di comprendere le dinamiche del delitto, al fine di trovare il colpevole. In questo lavoro sono stati studiati tre nuovi metodi per affrontare alcuni dei problemi che devono affrontare gli esperti di scienze forensi. Il primo è un sistema per l’identificazione automatica delle calzature, al fine di trovare la marca e il modello della scarpa che ha lasciato l’impronta sulla scena del crimine. Un algoritmo basato sulla distanza di Mahalanobis è stato impiegato per lo scopo ed è stato confrontato con altri sistemi disponibili in letteratura sia su tracce di scarpa sintetiche che su tracce di scarpa reali, ovvero sia tracce prodotte aggiungende sinteticamente rumore che tracce provenienti dalla scena del crimine, rispettivamente. In un secondo sistema studio è stato analizzato lo spettro di terzo ordine, cioè il bispettro. Il bispettro può essere utilizzato per restaurare segnali corrotti, ma molti degli algoritmi disponibili soffrono per la comparsa di una traslazione sconosciuta nel segnale ricostruito. L’algoritmo proposto esegue la ricostruzione utilizzando direzioni parallele del dominio del bispettro e offre una soluzione semplice per risolvere e dimostrare la soppressione del problema nel caso di segnali 1D. Nell’ultimo sistema studiato, viene svolta l’analisi di impronte digitali utiliz- zando tecniche non standard. Un microspettrometro a trasformata di Fourier nel- l’infrarosso (FT-IRMS) viene utilizzato per analizzare il contenuto delle impronte digitali. L’FT-IRMS produce un’immagine iperspettrale, ed il sistema proposto elabora ognuno degli spettri prima stimando il numero di gruppi funzionali che lo compongono e poi individuando i loro parametri. A completamento del qua- dro, sono state impiegate diverse metodiche basate sui raggi x per lo studio degli eventuali contaminanti presenti nell’impronta.
Forensic science is the branch of science dealing with the analysis of evidence material. Its aim is to understand the dynamics of the crime, in order to find the culprit. In this work three new methods have been studied as an aid for the forensic experts. The first one is a system for the automatic retrieval of footwear to find the make and model of the shoe that left its mark on the crime scene. A Mahalanobis distance based algorithm is employed for the purpose and is compared with other systems available in literature on both synthetic and real shoe marks, i.e. on both computer generated shoe marks and on marks coming from crime scene. In a second study the third order spectrum, i.e. the bispectrum, is analyzed. The bispectrum can be used to restore corrupted signals but many available al- gorithms suffer for the emergence of an unknown translation in the reconstructed signal. Here the procedure is performed using two parallel paths in the domain of the bispectrum and a simple solution to the unwanted translation is found and demonstrated in the case of a 1D signal. Finally, fingerprint analysis is performed using non standard techniques. A Fourier transform infrared microspectroscope (FT-IRMS) is used to analyze the content of fingerprints. The FT-IRMS produces a hyperspectral like image and the proposed system processes each spectrum to estimate the number of func- tional groups and to give their parameters. Finally contained contaminants have been studied with several x-ray based techniques to give a comprehensive picture of the fingerprint evidence.
XXIII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
3

Rotunno, Giuliana. "Integrated techniques for the internal logistics analysis and management of complex systems." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8531.

Full text
Abstract:
2011/2012
In the context of manufacturing systems management, a decisive role is played by logistics, which may be defined as a planning and organization process aimed at optimizing the flow of material and information within and outside the company. In detail, the internal logistic systems are an important part of the modern industry and their design is challenging due to high complexity and heterogeneity of the manufacturing plants. Moreover, the analysis and management of the logistics in complex manufacturing systems is a widely discussed research topic in the related scientific literature. In this thesis the study of the internal logistic, and specifically application to manufacturing system, is taken into account in relation to the complexity features that characterize such systems. Despite the numerous contributions in the related literature proposing manufacturing logistic management approaches, few attempts were made to propose systematic techniques that, while improving the manufacturing system internal logistics and the related performances, are able to assess the manufacturing dynamics and the corresponding improvement. Therefore, the research results presented in this thesis are focused on the development of twoinnovative strategies and integrated techniques to analyze and manage the internal logistics of complex manufacturing systems. First, we present a novel hierarchical and iterative technique for the analysis and lean management of the internal logistics of discrete manufacturing systems. The technique efficiently integrates the Value Stream Mapping (VSM) tool, the Analytic Hierarchy Process (AHP) methodology and discrete event simulation in order to systematically improve the manufacturing system behaviour by rigorously assessing the system dynamics and corresponding performance indicators. Second, we deal with the scheduling of operations in Steelmaking and Continuous Casting (SM-CC) plants. Despite the numerous contributions, all the published papers in the field two limitations in real applications: (i) they do not consider the detailed description of the complete system from the structural and dynamic viewpoints; (ii) the authors focus on the process of the SM-CC plant and do not consider some peculiar characteristic of the main machines involved on the process, such as the continuous casting machines. In order to face the problem of the management and optimization of the production in the steel making continuous casting we propose an integrated a methodology to describe, assess and improve the logistics of the SM-CC processes: the Unified Modeling Language (UML), the discrete event simulation and the Mixed Integer Linear Programming (MILP) formulation. The application of the techniques to some real cases studies shows the effectiveness of the proposed management and optimization strategies.
XXV Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
4

Aizza, Marco. "Modelli per la simulazione di azionamenti elettrici di propulsione e sistemi di generazione navali." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8532.

Full text
Abstract:
2011/2012
La propulsione elettrica navale è una soluzione che riscuote notevole interesse per le navi di nuova generazione. La sua versatilità permette di ottimizzare gli spazi ed i pesi del sistema elettrico di propulsione. Questo sistema garantisce una riduzione dei consumi specifici del motore primo che, al variare della velocità di rotazione dell’elica connessa alla macchina elettrica, lavora costantemente alla velocità nominale, dove i consumi sono ottimizzati. Il presente elaborato si pone come obiettivo lo studio di un sistema di propulsione ibrida, composto da una turbina a gas e due azionamenti elettrici, installato su navi militari di nuova concezione. Il sistema è in grado di funzionare anche come generatore asse. Lo studio si focalizzerà principalmente sugli azionamenti elettrici del sistema di propulsione e sulla loro interazione con il sistema elettrico integrato di bordo. L’obiettivo principale è quello di realizzare un simulatore dettagliato dell’azionamento elettrico di propulsione, permettendo di studiare il funzionamento dello stesso in regime stazionario e in regime dinamico. Viene quindi eseguita una modellizzazione matematica dettagliata dell’azionamento di propulsione oggetto di studio, dalla macchina elettrica ai convertitori di propulsione. Lo studio è condotto allo scopo di ottenere informazioni riguardanti il comportamento dell’azionamento, in determinate condizioni di funzionamento, e gli effetti da esso causati sulla rete elettrica di bordo. Viene poi descritto il modello del sistema funzionante in modalità di “generatore asse”, dalla trattazione fatta sul sistema di propulsione, effettuando una validazione del relativo simulatore implementato, attraverso la comparazione tra i risultati ottenuti e le prove di collaudo fornite dai produttori del sistema oggetto di studio. Viene infine trattato uno degli argomenti più promettenti nell’ambito della propulsione elettrica navale, il sistema di distribuzione in media tensione continua (MVDC). Il sistema MVDC è una soluzione che riscuote notevole interesse nell’ambito delle “all-electric ship” di nuova generazione, grazie ai vantaggi offerti in termini di riduzione di pesi e dimensioni del sistema di generazione e di consumo di energia.
XXV Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
5

Riscica, Fabio. "Online characterization of high - frequency percussive ventilator." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4654.

Full text
Abstract:
2009/2010
The thesis describes the study on the characterization of the percussive ventilator; the activities have been carried out in cooperation with the “D.A.I. di Medicina Perioperatoria, Terapia Intensiva ed Emergenza - UCO di Anestesia, Rianimazione e Terapia Antalgica dell'Azienda Mista Universitaria - Ospedaliera di Trieste”. The first chapter describes the physiology of the respiratory system and the classical models presented in literature, the second chapter illustrates the main modes of mechanical ventilation, particularly in the percussive ventilation. The third chapter describes the classical laboratory equipment for the measurement of breathing. The fourth chapter examines the state of the art of methods and instruments for the analysis of respiratory parameters. The fifth chapter discusses the instruments for measuring respiratory parameters, developed in the biomedical laboratory of the DEEI of University of Trieste. The sixth chapter contains a detailed study on the characterization of the percussive ventilator: the model, the method for estimating parameters, the system tests and the results. Particularly, the ability to monitor respiratory parameters by using the instrument developed avoids the volutrauma (alveolar-capillary permeability increase owing to excessive distension of the lung) during controlled ventilation. The instrument also allows to accurately estimate the lung elastance, determining factor of the volume distribution in the used model. At the conclusion of the work, the seventh chapter summarizes the results from the study of the volumes distribution in the two-compartment model of the lung conditioned to percussive ventilation.
XXIII Ciclo
1965
APA, Harvard, Vancouver, ISO, and other styles
6

Petronio, Marco. "Research and applications of radio - frequency deflecting cavities." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4569.

Full text
Abstract:
2009/2010
This thesis has the aim of describing the design and the applications of the radio-frequency deflecting cavities. These devices are used to analyze the properties of the ultra-relativistic electron bunches in the FERMI@Elettra project, which is a fourth generation light source under development at the Elettra laboratory. In particular, two travelling wave deflectors will be placed just before the undulators chains, where the free electron laser occurs, while another standing wave deflector has been already installed in the first part of the machine, after the first bunch compressor. In this work the radio-frequency design of the low energy deflector is presented with the electron bunch measurements. The measurements have been performed to investigate the bunch length, the reconstruction of the longitudinal profile and the slice emittance. Furthermore the radio-frequency design of the high energy deflectors is discussed, and a new simple theory which allows the explanation of the energy exchange degradation between the electromagnetic field and the particles is given. The theory is useful to describe the mechanical errors in the deflector basic cell realization. In the last part of this thesis a new algorithm to determine the transversal bunch motion in presence of wakefields in a radio-frequency deflector is presented. The algorithm is used to evaluate the wakefield effect in the high energy deflectors and gives the possibility of taking easily in account of every charge distribution, and of every initial condition of the bunch at the input section of the cavity. In particular, the errors produced by the transversal wakefields in a bunch length measurement is analyzed with significant examples.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
7

Genna, Mariangela. "Sviluppo di strumenti per l'analisi della scrittura e applicazioni." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8529.

Full text
Abstract:
2011/2012
Le funzioni fine-motorie sono la base per il rapido conseguimento della piena autonomia strumentale, in particolare il disegno e la scrittura a mano, sono fondamentali per le prestazioni scolastiche e lo sviluppo umano generale. Una varietà di condizioni neurologiche e psichiatriche dell'infanzia e dell'adolescenza potrebbe compromettere il normale sviluppo delle abilità motorie. La ricerca nel settore, soprattutto nel nostro Paese, manca di un sistema di riferimento per la determinazione precoce dei disturbi dell’apprendimento, necessario, inoltre, per una valutazione opportuna del trattamento riabilitativo. A tale scopo, le attività di ricerca svolte dall’Autore nel corso del dottorato hanno inizialmente riguardato lo studio dell’apprendimento in un campione di soggetti a sviluppo tipico, madrelingua italiana e destrimani. Per raggiungere quest’obiettivo sono stati sviluppati algoritmi di elaborazione che permettessero l’analisi delle caratteristiche dinamiche del movimento, da acquisizioni di prove di scrittura eseguite su tavoletta grafica digitale. Una volta definiti i test e i parametri cinematici più informativi per l’analisi dello sviluppo, quali velocità, grado di automazione, arrangiamento spaziale e tempi di pianificazione motoria, sono stati determinati i relativi valori di riferimento per ogni fascia d’età. A questo punto, creato tale sistema di riferimento, è stato possibile fare ulteriori studi su campioni con caratteristiche diverse. Si è avuta l’occasione di analizzare le prestazioni di un gruppo di studenti in cui è stato sperimentato, durante gli anni delle scuole primarie, un metodo di insegnamento ideato nella prima metà del Novecento da Ida Terzi, insegnante elementare all’istituto per ciechi di Reggio Emilia. Il metodo è utilizzato per migliorare la percezione e l’integrazione dello schema corporeo, per organizzare l’orientamento e la rappresentazione mentale dello spazio, facilitando la coerenza percettiva e il passaggio da un utilizzo inconscio a un uso consapevole del corpo in movimento. Confrontando le performance cinematiche di tale campione con un gruppo di controllo, sono state osservate diverse strategie nell’esecuzione delle prove di scrittura proposte, inoltre, grazie allo sviluppo di strumenti per l'analisi della qualità del prodotto scritto, è stato possibile distinguere una migliore accuratezza nel gruppo in cui è stato adottato il Metodo Terzi.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
8

Davanzo, Giorgio. "Machine learning in engineering applications." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4520.

Full text
Abstract:
2009/2010
Nowadays the available computing and information-storage resources grew up to a level that allows to easily collect and preserve huge amount of data. However, several organizations are still lacking the knowledge or the tools to process these data into useful informations. In this thesis work we will investigate several issues that can be solved effectively by means of machine learning techniques, ranging from web defacement detection to electricity prices forecasting, from Support Vector Machines to Genetic Programming. We will investigate a framework for web defacement detection meant to allow any organization to join the service by simply providing the URLs of the resources to be monitored along with the contact point of an administrator. Our approach is based on anomaly detection and allows monitoring the integrity of many remote web resources automatically while remaining fully decoupled from them, in particular, without requiring any prior knowledge about those resources—thus being an unsupervised system. Furthermore, we will test several machine learning algorithms normally used for anomaly detection on the web defacement detection problem. We will present a scrolling system to be used on mobile devices to provide a more natural and effective user experience on small screens. We detect device motion by analyzing the video stream generated by the camera and then we transform the motion in a scrolling of the content rendered on the screen. This way, the user experiences the device screen like a small movable window on a larger virtual view, without requiring any dedicated motion-detection hardware. As regards information retrieval, we will present an approach for information extraction for multi-page printed document; the approach is designed for scenarios in which the set of possible document classes, i.e., document sharing similar content and layout, is large and may evolve over time. Our approach is based on probability: we derived a general form for the probability that a sequence of blocks contains the searched information. A key step in the understanding of printed documents is their classification based on the nature of information they contain and their layout; we will consider both a static and a dynamic scenario, in which document classes are/are not known a priori and new classes can/can not appear at any time. Finally, we will move to the edge of machine learning: Genetic Programming. The electric power market is increasingly relying on competitive mechanisms taking the form of day-ahead auctions, in which buyers and sellers submit their bids in terms of prices and quantities for each hour of the next day. We propose a novel forecasting method based on Genetic Programming; key feature of our proposal is the handling of outliers, i.e., regions of the input space rarely seen during the learning.
Oggigiorno le risorse disponibili in termini computazionali e di archiviazione sono cresciute ad un livello tale da permettere facilmente di raccogliere e conservare enormi quantità di dati. Comunque, molte organizzazioni mancano ancora della conoscenza o degli strumenti necessari a processare tali dati in informazioni utili. In questo lavoro di tesi si investigheranno svariati problemi che possono essere efficacemente risolti attraverso strumenti di machine learning, spaziando dalla rilevazione di web defacement alla previsione dei prezzi della corrente elettrica, dalle Support Vector Machine al Genetic Programming. Si investigherà una infrastruttura per la rilevazione dei defacement studiata per permettere ad una organizzazione di sottoscrivere il servizio in modo semplice, fornendo l'URL da monitorare ed un contatto dell'amministratore. L'approccio presentato si basa sull'anomaly detection e permette di monitorare l'integrità di molte risorse web remote in modo automatico e sconnesso da esse, senza richiedere alcuna conoscenza a priori di tali risorse---ovvero, realizzando un sistema non supervisionato. A questo scopo verranno anche testati vari algoritmi di machine learning solitamente usati per la rilevazione di anomalie. Si presenterà poi un sistema di scorrimento da usare su dispositivi mobili capace di fornire una interfaccia naturale ed efficace anche su piccoli schermi. Il sistema rileva il movimento del dispositivo analizzando il flusso video generato dalla macchina fotografica integrata, trasformando lo spostamento rilevato in uno scorrimento del contenuto visualizzato sullo schermo. In questo modo, all'utente sembrerà che il proprio dispositivo sia una piccola finestra spostabile su una vista virtuale più ampia, senza che sia richiesto alcun dispositivo dedicato esclusivamente alla rilevazione dello spostamento. Verrà anche proposto un sistema per l'estrazione di informazioni da documenti stampati multi pagina; l'approccio è studiato per scenari in cui l'insieme di possibili classi di documenti (simili per contenuto ed organizzazione del testo) è ampio e può evolvere nel tempo. L'approccio si basa sulla probabilità: è stata studiata la probabilità che una sequenza di blocchi contenga l'informazione cercata. Un elemento chiave nel comprendere i documenti stampati è la loro classificazione in base alla natura delle informazioni che contengono e la loro posizione nel documento; verranno considerati sia uno scenario statico che uno dinamico, in cui il numero di classi di documenti è/non è noto a priori e nuove classi possono/non possono apparire nel tempo. Infine, ci si muoverà verso i confini del machine learning: il Genetic Programming. Il mercato della corrente elettrica si basa sempre più su aste in cui ogni giorno venditori ed acquirenti fanno delle offerte per l'acquisto di lotti di energia per il giorno successivo, con una granularità oraria della fornitura. Verrà proposto un nuovo metodo di previsione basato sul Genetic Programming; l'elemento chiave della soluzione qui presentata è la capacità di gestire i valori anomali, ovvero valori raramente osservati durante il processo di apprendimento.
XXIII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
9

Bava, Michele Salvatore Valerio. "Innovative ICT solutions in telemedicine to support clinical practice and research in hospitals." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7437.

Full text
Abstract:
2010/2011
The scope of this study was to examine ICT telemedicine innovations and potentialities in web-portals, intranet services and tele-radiology topics respectively, in order to design, develop and, possibly, realize apposite telemedicine systems and solutions for healthcare and in particular for the hospitals. ICT techniques and technologies are nowadays applied in every area of our common living from work places to our homes, our free-time, schools, universities and so on. The healthcare services offered by hospitals are heavily supported by technologies and, behind them, by a wide research both in ICT and biomedical sciences. Thanks to these advances telemedicine is now becoming a fundamental part of services offered by hospitals and healthcare structures. The healthcare management, the doctors and the common people are now experimenting how telemedicine is an added value to all the services offered in terms of the quality of care, the patient follow up, the early diagnose and treatment of pathologies and diseases. In this research is presented an all-inclusive approach to telemedicine problems and challenges in particular studying, developing and proposing ICT methods and technologies in the above mentioned three areas of interest: •innovative healthcare and telemedicine-ready hospital website or portal design and development; •analysis and study of models for the realization of intranet healthcare services to enhance both quality of care and the management of healthcare personnel evaluation; •tele-radiology and some of its actual new perspectives as the study and the evaluation of the “mobile” tele-radiology approach using commercial tablets (and what it could mean).For the first topic the results may be summarized in the development of a more interactive and “social” hospital web-portal offering original solutions and services to all the categories of users (audience, professionals, researchers), allowing them – through the use of advanced tools - to configure and select their own pages and interests. The originality of this approach consists in a good cost/effective result in the respect of the last and worldwide accepted Internet regulations and policies too. A similar approach regarded the intranet services and the design of web interfaces for the clinical practice and the executive evaluation. These kind of innovative systems regard a limited and selected number of more skilled users, typically belonging to a corporation or to specific offices. As above the approach is important: interactive services, innovative tools and affordable instruments are the keywords of the systems designed or proposed to solve specific problems or needs. The last research topic concerned the proposal of a protocol for the assessment of medical images on commercial displays, interesting the stakeholders and the groups involved in medical images treatment, visualization and communication. The potentialities of the mobile tablet devices improve day after day and new devices are marketed every week and the innovation is round the corner. These potentialities must encounter the medical diagnostics world and meet the standards and the regulations the international community established. It will be difficult for a commercial tablet to obtain the medical device CE mark not only for commercial reasons, but the technical limits may be reached and even surpassed adopting objective measures and evaluations. This study demonstrates that commercial tablets may be used in clinical practice for the correct visualization and diagnose of medical images. The measures of some display characteristics may be considered acceptable for mobile interpretation (even report?) of medical images, but if and only if the ambient lighting conditions are under objective control and integrated automated systems in tablets warns physicians about bad or borderline technical and ambient restrictions or bonds.
XXIII Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
10

Antonelli, Matias. "Photon Beam-Position Monitor basati su diamante e quantum well per sorgenti di luce di terza e quarta generazione." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8540.

Full text
Abstract:
2011/2012
L’attività di ricerca qui presentata ha avuto come oggetto lo sviluppo di tecnologie innovative per la produzione di photon beam-position monitor (pBPM) veloci per sincrotroni di terza generazione e laser a elettroni liberi. Tali rivelatori di fotoni sono uno strumento diagnostico utile non solo per le linee che usano la luce di sincrotrone, ma anche per il sistema di controllo dell’acceleratore che la produce. A causa di diverse limitazioni delle tecnologie comunemente usate per la fabbricazione di pBPM, la diagnostica dei fasci di luce non è diffusa né consolidata quanto quella del fascio di particelle, utilizzata per controllare la macchina. Alla luce dei recenti progressi di materiali e strumentazione, si è indirizzata l’attività di ricerca sui rivelatori veloci verso tecnologie allo stato solido quali quelle del diamante monocristallino e dei dispositivi a quantum well, realizzando pBPM innovativi basati su tali tecnologie. In questo documento, dopo un’introduzione al contesto delle sorgenti di luce in cui si è operato, sono riportati e discussi gli aspetti più importanti dello sviluppo di dette tecnologie, corredati dai risultati più significativi delle numerose prove sperimentali cui sono stati sottoposti i rivelatori realizzati.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
11

Cusenza, Monica. "Fractal analysis of the EEG and clinical applications." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7394.

Full text
Abstract:
2010/2011
Most of the knowledge about physiological systems has been learned using linear system theory. The randomness of many biomedical signals has been traditionally ascribed to a noise-like behavior. An alternative explanation for the irregular behavior observed in systems which do not seem to be inherently stochastic is provided by one of the most striking mathematical developments of the past few decades, i.e., chaos theory. Chaos theory suggests that random-like behavior can arise in some deterministic nonlinear systems with just a few degrees of freedom. One of the most evocative aspects of deterministic chaos is the concept of fractal geometry. Fractal structure, characterized by self-similarity and noninteger dimension, is displayed in chaotic systems by a subset of the phase space known as strange attractor. However, fractal properties are observed also in the unpredictable time evolution and in the 1/f^β power-law of many biomedical signals. The research activities carried out by the Author during the PhD program are concerned with the analysis of the fractal-like behavior of the EEG. The focus was set on those methods which evaluate the fractal geometry of the EEG in the time domain, in the hope of providing physicians and researchers with new valuable tools of low computational cost for the EEG analysis. The performances of three widely used techniques for the direct estimation of the fractal dimension of the EEG were compared and the accuracy of the fBm scaling relationship, often used to obtain indirect estimates from the slope of the spectral density, was assessed. Direct estimation with Higuchi's algorithm turned out to be the most suitable methodology, producing correct estimates of the fractal dimension of the electroencephalogram also on short traces, provided that minimum sampling rate required to avoid aliasing is used. Based on this result, Higuchi's fractal dimension was used to address three clinical issues which could involve abnormal complexity of neuronal brain activity: 1) the monitoring of carotid endarterectomy for the prevention of intraoperative stroke, 2) the assessment of the depth of anesthesia to monitor unconsciousness during surgery and 3) the analysis of the macro-structural organization of the EEG in autism with respect to mental retardation. The results of the clinical studies suggest that, although linear spectral analysis still represents a valuable tool for the investigation of the EEG, time domain fractal analysis provides additional information on brain functioning which traditional analysis cannot achieve, making use of techniques of low computational cost.
La maggior parte delle conoscenze acquisite sui sistemi fisiologici si deve alla teoria dei sistemi lineari. Il comportamento pseudo stocastico di molti segnali biomedici è stato tradizionalmente attribuito al concetto di rumore. Un'interpretazione alternativa del comportamento irregolare rilevato in sistemi che non sembrano essere intrinsecamente stocastici è fornita da uno dei più sorprendenti sviluppi matematici degli ultimi decenni: la teoria del caos. Tale teoria suggerisce che una certa componente casuale può sorgere in alcuni sistemi deterministici non lineari con pochi gradi di libertà. Uno degli aspetti più suggestivi del caos deterministico è il concetto di geometria frattale. Strutture frattali, caratterizzate da auto-somiglianza e dimensione non intera, sono rilevate nei sistemi caotici in un sottoinsieme dello spazio delle fasi noto con il nome di attrattore strano. Tuttavia, caratteristiche frattali possono manifestarsi anche nella non prevedibile evoluzione temporale e nella legge di potenza 1/f^β tipiche di molti segnali biomedici. Le attività di ricerca svolte dall'Autore nel corso del dottorato hanno riguardato l'analisi del comportamento frattale dell'EEG. L'attenzione è stata rivolta a quei metodi che affrontano lo studio della geometria frattale dell'EEG nel dominio del tempo, nella speranza di fornire a medici e ricercatori nuovi strumenti utili all'analisi del segnale EEG e caratterizzati da bassa complessità computazionale. Sono state messe a confronto le prestazioni di tre tecniche largamente utilizzate per la stima diretta della dimensione frattale dell'EEG e si è valutata l'accuratezza della relazione di scaling del modello fBm, spesso utilizzata per ottenere stime indirette a partire dalla pendenza della densità spettrale di potenza. Il metodo più adatto alla stima della dimensione frattale dell'elettroencefalogramma è risultato essere l'algoritmo di Higuchi, che produce stime accurate anche su segmenti di breve durata a patto che il segnale sia campionato alla minima frequenza di campionamento necessaria ad evitare il fenomeno dell'aliasing. Sulla base di questo risultato, la dimensione frattale di Higuchi è stata utilizzata per esaminare tre questioni cliniche che potrebbero coinvolgere una variazione della complessità dell'attività neuronale: 1) il monitoraggio dell'endoarterectomia carotidea per la prevenzione dell'ictus intraoperatorio, 2) la valutazione della profondità dell'anestesia per monitorare il livello di incoscienza durante l'intervento chirurgico e 3) l'analisi dell'organizzazione macro-strutturale del EEG nell'autismo rispetto alla condizione di ritardo mentale. I risultati degli studi clinici suggeriscono che, sebbene l'analisi spettrale rappresenti ancora uno strumento prezioso per l'indagine dell'EEG, l'analisi frattale nel dominio del tempo fornisce informazioni aggiuntive sul funzionamento del cervello che l'analisi tradizionale non è in grado di rilevare, con il vantaggio di impiegare tecniche a basso costo computazionale.
XXIV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
12

Abate, Leonardo. "Detection and measurement of artefacts in digital video frames." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7414.

Full text
Abstract:
2010/2011
This work presents original algorithms for the measurement of artefacts impairing the quality of digital video sequences. The intended use of these algorithms is the control of the restoration processes performed on the video in advanced monitors for costumer applications. The problem of the artefact measurement at this stage of the processing chain di ffer from the assessment of quality performed in other applications. Quality assessment aimed to the improvement of the encoding operation, for example, can be done using the original sequence for comparison, and based on the pixel-by-pixel di erences with it. Quality measurements in intermediate stages of the transmission chain of the video, where the sequence is available in compressed form, can employ useful information contained in the bitstream, such as the frequency distribution of the frame content, the bitrate, the quantisation step and the error rate, all factors related to the global quality. In the proposed application, i. e. at the monitor, the measurements of the frame degradation must instead take place on the decoded numerical values of the pixels of the sole altered sequence. In addition, these measurement should require a low computational cost, so that they can be used in real time. In the rst part of this work some of the existing methods for Quality Assessment are briefly overviewed and classi ed based on the chosen approach to the problems. In this overview three main classes of methods are identi ed, namely the methods based on the measurement of speci c frame and video artefacts, the methods measuring the discrepancies between some statistical properties of the pixel distribution or the sequence parameters and ideal models, and the methods processing highly generic measures with trained classi ers. The rst strategy is deemed the most promising in the intended application, due to the good achieved results with relatively little computation and the possibility to avoid a long and complex training phase. The proposed algorithms are therefore based on the measurement of speci c video artefacts. A second part of the work is devoted to the identi cation of the main potential degradation factors in one of the most recent encoding standard, namely H264. The main aspects of frame degradation, namely blockiness in smooth areas and texture, edge degradation, and blurriness, are identi ed, and their relationship to the encoding options is briefly examined. Based on this brief inspection, two of the most common artefacts of the transmitted video, namely blurriness and blockiness, are chosen for measurements estimating the picture quality degradation. The devised algorithms integrate measures of the inter-pixel relationships determined by the artefacts with models of human vision to quantify their subjective appearance. For the blurriness measurement two methods are proposed, the fi rst acting selectively on object edges, the second uniformly on the frame surface. In the measurement of the edge blurriness the hierarchical role of each edge is estimated, distinguishing between the marginal edges of the detail and the edges of the main objects of the frame. The former have reduced contrast and short length compared to the edges of the surrounding shapes, and have little e ect on the overall blurriness impression. Conversely, the state of the latter is the main responsible of the frame quality aspect. The edge blurriness measure is based on the edge width and steepness, corrected with the edge length and the activity of the surrounding scene. This measure of edge blurriness is further corrected with a measure of the local scene clutter, accounting for the fact that in cluttered scenes the perception of the artefact is reduced. The resulting method yields blurriness measurements in local frame parts. The correlation of this measurements with subjective impression is evaluated in experimental tests. The two metrics acting uniformly on the frame measure the decrement in perceived contrast and the lack of detail, respectively. Used together, they are e ective in identifying special types of blurriness resulting in the generation of large areas with few edges and little contrast. These forms of blurriness generally cause a milder degradation of the perceived quality compared to the blurriness caused by encoding. The ability to distinguish among blurriness types and corresponding quality ranges is veri ed in experimental tests. Also the artefacts resulting from block based compression are analysed with a method acting on the sole edges and another applied to the whole frame. The edge degradation, consisting in an unnatural geometric alteration of the main objects, was measured from the frequency and length of straight edge fractions and the incidence of square corners. A correction procedure is introduced in order to avoid false alarms caused by natural polygonal objects and by the intrinsic nature of digital pictures. The measure of the blocking artefact on the frame surface, which appears altered by an unnatural grid, is performed with an original solution especially devised for video frames, and aimed to detect the displacement of the synthetic block edges caused by the motion compensation performed in video encoding. On this purpose very sensitive local blockiness indicators are devised, and corrected with models of the human perception of discontinuities in luminance in order to avoid false alarms. Vision models are further integrated in the computation of a global frame blockiness measure consisting in a weighted sum of local measures on detection points. The metric is tested with respect to its constance on subsequent frames, robusteness to upscaling and correlation with the quality ratings produced in experiments by a group of human observers.
Questo lavoro presenta algoritmi originali per la misura di artefatti che causano un degrado della qualità di sequenze video digitali. L'uso previsto per questi algoritmi è il controllo dei processi di restauro compiuti sul video in monitor avanzati di uso domestico. Il problema della misura di artefatti a questo stadio della catena di elaborazione si differenzia dalla stima di qualità compiuta in altre applicazioni. La stima di qualità volta al miglioramento dell'operazione di codifica, per esempio, può fare uso della sequenza originale per confronto, ed essere basato sulle differenze rispetto ad essa, calcolate pixel per pixel. Misure di qualità compiute in stadi intermedi della catena di trasmissione del video, dove la sequenza è disponibile in forma compressa, possono sfruttare utili informazioni contenute nel flusso di bit compresso, come la distribuzione in frequenza del contenuto del fotogramma, il tasso di compressione, l'intervallo di quantizzazione ed il tasso di errore, tutti fattori legati alla qualità globale del video. Nell'applicazione prevista, cioè al monitor, la misura del degrado dei fotogrammi deve invece avvenire usando solo i valori decodificati dei pixel della sequenza corrotta. Inoltre questa misura dovrebbe richiedere un basso costo computazionale, per poter avvenire in tempo reale. Nella prima parte di questo lavoro alcuni dei metodi esistenti per la stima di qualità sono brevemente esaminati e classificati in base al modo in cui affrontano il problema. I metodi sono divisi in tre categorie principali, cioè i metodi fondati sulla misura di specifici artefatti del fotogramma video, i metodi che misurano l'allontanamento di alcune proprietà statistiche della distribuzione dei pixel o dei parametri della sequenza da particolari modelli ideali, ed i metodi che fanno un'elaborazione di misure molto generiche con classificatori addestrati. La prima strategia è ritenuta la più promettente nell'applicazione considerata, per i buoni risultati ottenuti con una complessità di calcolo relativamente ridotta e la possibilità di evitare una lunga e complessa fase di addestramento. Gli algoritmi proposti si fondano perciò sulla misura di specifici artefatti del video. Una seconda parte del lavoro è dedicata all'identificazione dei principali fattori di degrado insiti nella codifica secondo uno dei più recenti standard, H264. Sono identificati i principali aspetti del degrado del fotogramma, cioè la blocchettatura in aree piane e tessitura, degrado dei bordi, e sfocatura, ed è brevemente esaminato il loro rapporto con le impostazioni di codifica. Sulla base di questo breve esame, due degli artefatti più comuni nel video trasmesso, cioè la sfocatura e la blocchettatura, sono scelti come oggetto di misure per stimare il degrado della qualità dell'immagine. Gli algoritmi progettati integrano misure delle relazioni fra pixel causate dagli artefatti con modelli della percezione umana che determinano la visibilità di tali artefatti. Per la misura di sfocatura sono presentati due metodi, il primo applicato selettivamente ai bordi degli oggetti, il secondo uniformemente sulla superficie del fotogramma. Nella misura della sfocatura dei bordi è stimato il ruolo gerarchico di ciascun bordo, distinguendo tra bordi secondari del dettaglio e bordi degli oggetti principali dell'immagine. I primi hanno contrasto ridotto e sono corti rispetto ai bordi degli oggetti nei dintorni, e hanno poco effetto sull'impressione di sfocatura complessiva. I secondi invece sono determinanti per la qualità del fotogramma. La misura di qualità dei bordi si fonda sulla loro larghezza e ripidità, corretta con la lunghezza e con l'attività della scena circostante. Questa misura di sfocatura dei bordi è ulteriormente corretta con una misura della densità della scena, misura che tiene conto del fatto che in scene affollate la percezione del difetto è ridotta. Il metodo complessivo fornisce misure di sfocatura in aree locali dell'immagine. La correlazione di queste misure con l'impressione soggettiva è valutata in test sperimentali. Le due misure di sfocatura che agiscono uniformemente sull'immagine misurano rispettivamente la diminuzione del contrasto percepito e la mancanza di dettaglio. Il loro uso congiunto permette di identificare specifici tipi di sfocatura che generano grandi aree con pochi bordi e basso contrasto. Queste forme di sfocatura generalmente causano un degrado di qualità percepita più lieve rispetto alla sfocatura dovuta alla codifica. La capacità di distinguere fra i tipi di sfocatura e fra i corrispondenti intervalli di qualità è verificata in prove sperimentali. Anche gli artefatti dovuti alla compressione a blocchi sono analizzati con un metodo che agisce sui soli bordi ed un altro applicato sull'intera superficie del fotogramma. Il degrado dei bordi, che consiste in un'innaturale alterazione geometrica degli oggetti principali, è stimata in base alla frequenza e alla lunghezza delle parti di bordi diritte ed alla frequenza degli angoli retti. Una correzione è introdotta per evitare falsi allarmi causati da oggetti di forma naturalmente poligonale e dalla natura intrinseca delle immagini digitali. La misura dell'artefatto di blocchettatura sulla superficie del fotogramma, che appare alterato da una griglia artificiale, è compiuta con un metodo originale specificamente studiato per fotogrammi video, e volto a rilevare lo spostamento dei bordi artificiali dei blocchi causato dalla compensazione del movimento compiuta nella codifica video. A questo scopo sono adottati indicatori di blocchettatura locale molto sensibili, corretti con modelli della percezione delle discontinuità di luminanza per evitare falsi allarmi. Modelli della percezione umana sono anche integrati nel calcolo di una misura globale della blocchettatura del frame, calcolata come somma pesata di misure locali sull'insieme dei punti di rilevamento. L'indice di blocchettatura è valutato in base alla sua uniformità in fotogrammi consecutivi, alla resistenza al riscalaggio e alla correlazione con i giudizi di qualità espressi da un gruppo di osservatori umani nelle prove sperimentali.
XXIII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
13

Sorio, Enrico. "Machine Learning Techniques for Document Processing and Web Security." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8533.

Full text
Abstract:
2011/2012
The task of extracting structured information from documents that are unstructured or whose structure is unknown is of uttermost importance in many application domains, e.g., office automation, knowledge management, machine-to-machine interactions. In practice, this information extraction task can be automated only to a very limited extent or subject to strong assumptions and constraints on the execution environment. In this thesis work I will present several novel application of machine learning techniques aimed at extending the scope and opportunities for automation of information extraction from documents of different types, ranging from printed invoices to structured XML documents, to potentially malicious documents exposed on the web. The main results of this thesis consist in the design, development and experimental evaluation of a system for information extraction from printed documents. My approach is designed for scenarios in which the set of possible documents layouts is unknown and may evolve over time. The system uses the layout information to define layout-specific extraction rules that can be used to extract information from a document. As far as I know, this is the first information extraction system that is able to detect if the document under analysis has an unseen layout and hence needs new extraction rules. In such case, it uses a probability based machine learning algorithm in order to build those extraction rules using just the document under analysis. Another novel contribution of our system is that it continuously exploits the feedback from human operators in order to improve its extraction ability. I investigate a method for the automatic detection and correction of OCR errors. The algorithm uses domain-knowledge about possible misrecognition of characters and about the type of the extracted information to propose and validate corrections. I propose a system for the automatic generation of regular expression for text-extraction tasks. The system is based on genetic programming and uses a set of user-provided labelled examples to drive the evolutionary search for a regular expression suitable for the specified task. As regards information extraction from structured document, I present an approach, based on genetic programming, for schema synthesis starting from a set of XML sample documents. The tool takes as input one or more XML documents and automatically produces a schema, in DTD language, which describes the structure of the input documents. Finally I will move to the web security. I attempt to assess the ability of Italian public administrations to be in full control of the respective web sites. Moreover, I developed a technique for the detection of certain types of fraudulent intrusions that are becoming of practical interest on a large scale.
XXV Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
14

Dorni, Aljoša. "IEEE 802.11 Networks: MAC Protocols for Heterogeneous Multi-Antenna Scenarios and Software-Defined Radio PHY Layer Implementation." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8538.

Full text
Abstract:
2011/2012
The objective of this thesis is to discuss the performance achieved by IEEE 802.11 networks, considering in detail their simulation and experimental analysis, as well as the implementation aspects. The original contribution of this dissertation involves three main research fields within the context of distributed wireless networks: the experimental and theoretical analysis of IEEE 802.11e networks in presence of quality of service mechanisms, the development and the simulation of backward compatible medium access control protocols in presence of smart antenna systems, and, finally, the implementation of the IEEE 802.11ag physical layer on software-defined radio platforms.
L’obiettivo di questa tesi è discutere le prestazioni ottenibili nelle reti IEEE 802.11, prendendo in considerazione sia la loro simulazione ed analisi sperimentale, sia gli aspetti implementativi. Il contributo originale di questa tesi include tre argomenti principali che riguardano le reti wireless distribuite: l’analisi sperimentale e teorica delle reti 802.11e che adottano meccanismi di qualità del servizio, lo sviluppo e la simulazione di schemi di accesso multiplo retrocompatibili basati sull’utilizzo di sistemi di antenne intelligenti, e, infine, l’implementazione su piattaforme software-defined radio del livello fisico 802.11ag.
XXV Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
15

Crismani, Alessandro. "Cross-Layer design and analysis of cooperative wireless networks relying on efficient coding techniques." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8535.

Full text
Abstract:
2011/2012
This thesis work aims at analysing the performance of efficient cooperative techniques and of smart antenna aided solutions in the context of wireless networks. Particularly, original contributions include a performance analysis of distributed coding techniques for the physical layer of communication systems, the design of practical efficient coding schemes that approach the analytic limiting bound, the cross-layer design of cooperative medium access control systems that incorporate and benefit from advanced physical layer techniques, the study of the performance of such solutions under realistic network assumptions, and, finally the design of access protocols where nodes are equipped with smart antenna systems.
XXV Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
16

Boschian, Valentina. "Models and Methods for Multi-Actor Systems." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7431.

Full text
Abstract:
2010/2011
The study of the models and methods to apply to multi-actor systems is a widely discussed research topic in the related scientific literature. The multi-actor systems are defined as systems that are characterized by the presence of several autonomous elements, of different decision makers and of complex rules that allow the communication, the coordination and the connection of the components of such systems. Commonly, the study of Multi-Actor System, MAS, recalls the well-known issues concerning the multi-agent systems. The research topic related to the multi-agent system firstly started to appear in scientific literature in 1980s, mainly in relation to the computer science and artificial intelligence. In this dissertation, in particular, the study of the multi-agent systems, and specifically of the multi-actor systems, is taken into account merely in relation to the distinctive features of complexity that characterize such systems and not to the issues concerning the agent-oriented software engineering. Therefore, the research results presented in this thesis are focused on the development and on the realization of innovative models and methodologies to face the management and the decision making mechanisms applied to complex multi-actor systems. This dissertation especially focuses on two different examples of multi-actor systems in two very diverse perspectives. The former deals with the research problem related to intermodal transportation networks, while the latter with the so called consensus problem in distributed networks of agents. Concerning the research problem related to the intermodal logistic systems, the research activity addresses the management of their more and more increasing complexity by the applications of the modern Information and Communication Technologies (ICT) tools that are key solutions to achieve the efficiency and to enhance logistics competitiveness. The related scientific literature still seems lacking in addressing with adequate attention the impact of these new techniques on the management of these complex systems and, moreover, there is an apparent lack of a systematic and general methodology to describe in detail the multiplicity of elements that can influence the dynamics and the corresponding information and decision making structure of intermodal transportation systems. The innovative results presented in this dissertation are focused on the development of an Integrated System, IS, devoted to manage intermodal transportation networks at the tactical as well as operational decision level to be used by decision makers both in off-line planning and real time management. To specify the Integrated System, a reference model is developed relying on a top-down metamodeling procedure. These innovative research results are a contribution to bridge the gap and to propose not only a systematic modeling approach devoted to describe a generic multi-actor logistic system, but also a management technique based on a closed loop strategy. The second example of application is focused on a topic that is widely discussed in scientific literature related to the study of the multi-actor collective behaviors in a distributed network. The interaction protocols that allow the agents to reach the convergence to a common value is called consensus or agreement problem. This research problem is particularly studied in the context of cooperative control of multi-agent systems because the agents are autonomous, independent and have to interact in a distributed network. The presented research results address the investigation of new and fast alignment protocols that enhance the performances of the standard iteration protocols for particular topologies of digraphs on the basis of a triangular splitting of the standard iteration matrix. The examined examples, the models and the methodologies applied to analyze them, are very different in the two cases and this testifies the large extent of research problems related to the multi-actor systems.
L’analisi di modelli e metodi da sviluppare e da applicare nel contesto dei sistemi multi-attoriali costituisce un tema molto variegato e discusso nella letteratura scientifica internazionale. I sistemi multi-attoriali sono sistemi che si contraddistinguono per la presenza di molti elementi autonomi diversi tra loro, di molteplici decisori e di complesse regole che determinano la comunicazione, il coordinamento e la connessione all'interno di tali sistemi. Frequentemente, facendo riferimento a sistemi multi-attoriali, Multi-Actor Systems, si richiama il tema molto attuale dei sistemi multi agente, Multi-Agent Systems. Diffusisi a partire dal 1980, i sistemi multi agente sono spesso studiati in relazione alle metodologie di sviluppo dell'ingegneria del software. Nel presente lavoro di tesi, il tema dei sistemi multi-agente, ed in particolare di quelli multi-attoriali, non viene analizzato in questo contesto, ma in relazione alle tecniche decisionali da adottare per gestire sistemi caratterizzati da un alto livello di complessità. In tale ambito, i risultati presentati all'interno di questa dissertazione sono focalizzati sullo sviluppo e sulla realizzazione di nuovi metodi e di nuove metodologie, in grado di affrontare la gestione della complessità dei sistemi multi-attoriali. Vengono in particolare esaminate due diverse problematiche, in due contesti completamente diversi e con tecniche differenti, a testimoniare le vaste applicazioni che riguardano i sistemi multi-attoriali. I problemi analizzati sono incentrati, in primo luogo, su un'applicazione inerente la gestione di sistemi logistici intermodali ed, in secondo luogo, sullo studio delle regole o protocolli di interazione in una rete distribuita di agenti autonomi. Per quanto riguarda l'aspetto legato ai sistemi intermodali di trasporto, un tema molto discusso nella letteratura scientifica recente, l'analisi si focalizza sulla gestione della loro sempre crescente complessità, tramite l'utilizzo di sistemi dell'Information and Communication Technology, ICT. Questi strumenti richiedono metodi e modelli che sono innovativi rispetto a quanto è presente nella letteratura scientifica, all'interno della quale è stata riscontrata la mancanza di un approccio sistematico e sufficientemente ad alto livello per la realizzazione di una metodologia in grado di descrivere allo stesso tempo sia la molteplicità di elementi che influenzano le dinamiche e le informazioni, sia le strutture decisionali dei sistemi intermodali. L'innovazione dei risultati presentati in questa tesi si focalizza proprio sull'esigenza di proporre un sistema integrato, Integrated System (IS), basato su un metamodello delle reti intermodali di trasporto, che fornisca un valido supporto ai decisori sia a livello tattico che operativo. Il secondo aspetto affrontato in questa tesi riguarda un altro argomento di largo ed attuale interesse nella letteratura scientifica, che viene comunemente chiamato problema del consenso. Questo problema affronta lo studio di come diversi agenti autonomi collocati su una rete distribuita siano in grado di comunicare e di accordarsi su un valore comune, senza la presenza di un decisore centrale. A questo scopo ci sono degli algoritmi che specificano le regole o protocolli di interazione tra i diversi agenti. In tale contesto, i risultati proposti si focalizzano su alcune problematiche rappresentate dal protocollo classico del consenso e soprattutto sulla sua scarsa efficienza in particolari conformazioni delle reti di agenti. Il lavoro di tesi propone, quindi, un approccio di suddivisione, splitting, della matrice standard di iterazione, di tipo triangolare, che presenta notevoli vantaggi in termini di performance rispetto all'algoritmo classico. Lo studio di problemi multi-attoriali, pertanto, richiede lo sviluppo di innovative metodologie decisionali e di nuovi metodi di gestione delle comunicazioni, per rispondere al livello sempre crescente di complessità, offrendo in questo modo alcuni spunti molto interessanti per la ricerca.
XXIV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
17

Dal, Forno Massimo. "Theoretical and experimental analysis of interactions between electromagnetic fields and relativistic electrons in vacuum chamber." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8570.

Full text
Abstract:
2011/2012
Il laser ad elettroni liberi (FEL) è una sorgente luminosa di quarta generazione che ha specifiche più stringenti rispetto alle sorgenti luminose di terza generazione, tra le quali ricordiamo i sincrotroni. La cosiddetta emittanza e la traiettoria del fascio determinano la qualità del fascio, e devono soddisfare severi requisiti nei FEL. Per esempio, nella sala ondulatori, la posizione del fascio deve essere misurata con risoluzione micrometrica. Il controllo della posizione del fascio può essere effettuato utilizzando i “Cavity Beam Position Monitor” (Cavity BPM). Questa tesi descrive l’attività di ricerca eseguita sui Cavity BPM. Precisamente, la progettazione, la simulazione elettromagnetica e l'ottimizzazione di un Cavity BPM sono state effettuate. Successivamente, 25 Cavity BPM sono stati fabbricati e installati nella sala ondulatori del progetto FERMI@Elettra. I segnali sono stati acquisiti e processati con un nuovo tipo di elettronica, e una serie di misure sono state effettuate. Il secondo dispositivo studiato in questo dottorato è l'acceleratore lineare di particelle. Tradizionali strutture acceleranti, dotate di un accoppiatore a singolo ingresso causano la degradazione delle proprietà fascio elettronico, a causa dell’ asimmetria del campo elettromagnetico. Un nuovo tipo di accoppiatore, con cortocircuito mobile, viene proposto, nel quale il campo elettrico è stato simmetrizzato. La progettazione, simulazione elettromagnetica e ottimizzazione del dispositivo sono state effettuate, e un prototipo della struttura accelerante è stato prodotto e sintonizzato. Il campo elettrico è stato misurato con il metodo bead-pull. Infine, in questa tesi sono descritti i deflettori RF ad alta energia, che sono degli strumenti di diagnostica in grado di misurare le proprietà fascio elettronico, in particolare la lunghezza del banco di elettroni e lo spazio longitudinale di fase.
The Free Electron Laser (FEL) is a fourth generation light source that has more stringent specifications with respect to the third generation light sources, such as synchrotrons. The so-called emittance and the beam trajectory determine the beam quality, and must satisfy stringent requirements in FELs. For example, in the undulator hall, the beam position must be measured with the micrometer resolution. The control in the beam position can be achieved using a cavity beam position monitor (Cavity BPM). This thesis describes the research performed on the cavity BPM. Precisely, the electromagnetic design, the simulation and the optimization of a cavity BPM have been carried out. Subsequently, 25 cavity BPMs have been manufactured and installed in the undulator hall of the FERMI@Elettra project. A new RF front-end has been set up, and a series of measurements have been performed. The second device studied in this PhD is the travelling wave linear accelerator. Traditional accelerating structures endowed with a single feed coupler cause degradation of the electron beam properties, due to the electromagnetic field asymmetry. A new type of single feed structure with movable short circuit is proposed, where the electric field has been symmetryzed. The electromagnetic design, simulation and optimization of the device have been carried out, and a prototype of the accelerating structure has been produced and tuned. The electric field has been measured with the bead-pull method. Finally, in this thesis are described the High Energy RF Deflector (HERFD), which are a fundamental diagnostic tool to measure the electron beam properties, in particular the bunch length and the longitudinal phase space.
XXV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
18

Armani, Francesco. "FOOD PRESERVATION APPLIANCES, METHODS FOR ENERGY SAVING AND QUALITY ENHANCEMENT." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9989.

Full text
Abstract:
2011/2012
The food preservation is a complex subject that cover multiple disciplines of natural and technical sciences. This Ph.D. thesis treats this subject under different points of view. The preservation involves the perceived and objective quality of food, monitoring of the quality and methods to achieve this task. The economical and energetic effort to achieve this task will be treated as well. All these variations on the preservation main-theme find place in the field of the green appliances of the domotic house. This work proposes as results a series of practical techniques and applications that alone or as a whole could significantly improve the quality and efficiency of the preservation of food, both for chemical and energetic aspects. This Ph.D. activity is focused on energy saving and food preservation in the field of domestic and professional cold appliances. Refrigerators constitute a large energy demanding appliance; in particular household refrigerators cover the 15% of the domestic power needs. Their capillary spread and the 24 hours a day use justify this energetic demand and make important even the smallest energy efficiency improvement. From the other point of view in these appliances the cooling effect should be intended as their mean to achieve the preservation of food. A more coherent name should then be preservation appliances instead. From this consideration the cooling capacity shouldn't be the only purpose of these devices, they should also guarantee the best preservation performances. Temperature measurement and other means to monitor the quality of preserved goods should be integrated in the control loop.
La conservazione del cibo rappresenta un argomento complesso che coinvolge diverse discipline delle scienze naturali e tecniche. Questa tesi di dottorato tratta questi argomenti sotto diversi punti di vista, analizzando gli aspetti riguardanti la qualit\`{a} oggettiva e percepita del cibo, il suo monitoraggio ed i metodi per garantirla. Vengono inoltre considerati il consumo energetico ed il peso economico necessari al raggiungimento di questo obiettivo. In questo lavoro vengono proposte una serie di tecniche e applicazioni che, opportunamente utilizzate, permettono di migliorare significativamente sia la qualità che l'efficienza nella conservazione del cibo dal punto di vista sia chimico che energetico. L'argomento principale è pertanto incentrato sul risparmio energetico e sulla conservazione degli alimenti riguardante i refrigeratori domestici e professionali. I frigoriferi, infatti, sono dispositivi dal consumo energetico molto elevato e rappresentano addirittura il 15% del consumo domestico. Ciò è dovuto alla loro grande diffusione ed al loro funzionamento ininterrotto. Pertanto anche piccoli incrementi di efficienza possono rappresentare un obiettivo importante. Nell'affrontare questo argomento, si è voluto evidenziare l'obiettivo primario che deve essere la conservazione del cibo e non la refrigerazione in quanto tale. Sarebbe quindi più adeguato parlare di dispositivi per la conservazione del cibo e non di refrigeratori, ponendo in questo modo l'accento sugli aspetti direttamente legati agli alimenti. Ne consegue l'importanza di integrare nella logica di controllo anche la misura di parametri descrittivi dello stato di conservazione degli alimenti.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
19

Brun, Francesco. "Development of algorithms and methods for three-dimensional image analysis and biomedical applications." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7736.

Full text
Abstract:
2010/2011
Tomographic imaging is both the science and the tool to explore the internal structure of objects. The mission is to use images to characterize the static and/or dynamic properties of the imaged object in order to further integrate these properties into principles, laws or theories. Among the recent trends in tomographic imaging, three- dimensional (3D) methods are gaining preference and there is the quest for overcoming the bare qualitative observation towards the extraction of quantitative parameters directly from the acquired images. To this aim, Computed Tomography (CT) and Magnetic Resonance Imaging (MRI), as well as the related micro-scale techniques (μ-CT and μ-MRI), are promising tools for all the fields of science in which non-destructive tests are required. In order to support the interpretation of the images produced by these techniques, there is a growing demand of reliable image analysis methods for the specific 3D domain. The aim of this thesis is to present approaches for effective and efficient three-dimensional image analysis with special emphasis on porous media analysis. State-of-the art as well as innovative tools are included in a special software and hardware solution named Pore3D, developed in a collaboration with the Italian 3rd generation synchrotron laboratory Elettra (Basovizza - Trieste, Italy). Algorithms and methods for the characterization of different kinds of porous media are described. The key steps of image segmentation and skeletonization of the segmented pore space are also discussed in depth. Three different clinical and biomedical applications of quantitative analysis of tomographic images are presented. The reported applications have in common the characterization of the micro-architecture of trabecular bone. The trabecular (or cancellous) bone is a 3D mesh- work of bony trabeculae and void spaces containing the bone marrow. It can then be thought of as a porous medium with an interconnected porous space. To be more specific, the first application aims at characterizing a structure (a tissue engineering scaffold) that has to mimic the architecture of trabecular bone. The relevant features of porosity, pore- and throat-size distributions, connectivity and structural anisotropy indexes are automatically extracted from μ-CT images. The second application is based on ex vivo experiments carried out on femurs and lumbar spines of mice affected by microgravity conditions. Wild type and transgenic mice were hosted in the International Space Station (ISS) for 3 months and the observed bone loss due to the near-zero gravity was quantified by means of synchrotron radiation μ-CT image analysis. Finally, the results of an in vivo study on the risk of fracture in osteoporotic subjects is reported. The study is based on texture analysis of high resolution clinical magnetic resonance (MR) images.
XXIV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
20

Dal, Forno Massimo. "Theoretical and experimental analysis of interactions between electromagnetic fields and relativistic electrons in vacuum chamber." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8537.

Full text
Abstract:
2011/2012
Il laser ad elettroni liberi (FEL) è una sorgente luminosa di quarta generazione che ha specifiche più stringenti rispetto alle sorgenti luminose di terza generazione, tra le quali ricordiamo i sincrotroni. La cosiddetta emittanza e la traiettoria del fascio determinano la qualità del fascio, e devono soddisfare severi requisiti nei FEL. Per esempio, nella sala ondulatori, la posizione del fascio deve essere misurata con risoluzione micrometrica. Il controllo della posizione del fascio può essere effettuato utilizzando i “Cavity Beam Position Monitor” (Cavity BPM). Questa tesi descrive l’attività di ricerca eseguita sui Cavity BPM. Precisamente, la progettazione, la simulazione elettromagnetica e l'ottimizzazione di un Cavity BPM sono state effettuate. Successivamente, 25 Cavity BPM sono stati fabbricati e installati nella sala ondulatori del progetto FERMI@Elettra. I segnali sono stati acquisiti e processati con un nuovo tipo di elettronica, e una serie di misure sono state effettuate. Il secondo dispositivo studiato in questo dottorato è l'acceleratore lineare di particelle. Tradizionali strutture acceleranti, dotate di un accoppiatore a singolo ingresso causano la degradazione delle proprietà fascio elettronico, a causa dell’ asimmetria del campo elettromagnetico. Un nuovo tipo di accoppiatore, con cortocircuito mobile, viene proposto, nel quale il campo elettrico è stato simmetrizzato. La progettazione, simulazione elettromagnetica e ottimizzazione del dispositivo sono state effettuate, e un prototipo della struttura accelerante è stato prodotto e sintonizzato. Il campo elettrico è stato misurato con il metodo bead-pull. Infine, in questa tesi sono descritti i deflettori RF ad alta energia, che sono degli strumenti di diagnostica in grado di misurare le proprietà fascio elettronico, in particolare la lunghezza del banco di elettroni e lo spazio longitudinale di fase.
The Free Electron Laser (FEL) is a fourth generation light source that has more stringent specifications with respect to the third generation light sources, such as synchrotrons. The so-called emittance and the beam trajectory determine the beam quality, and must satisfy stringent requirements in FELs. For example, in the undulator hall, the beam position must be measured with the micrometer resolution. The control in the beam position can be achieved using a cavity beam position monitor (Cavity BPM). This thesis describes the research performed on the cavity BPM. Precisely, the electromagnetic design, the simulation and the optimization of a cavity BPM have been carried out. Subsequently, 25 cavity BPMs have been manufactured and installed in the undulator hall of the FERMI@Elettra project. A new RF front-end has been set up, and a series of measurements have been performed. The second device studied in this PhD is the travelling wave linear accelerator. Traditional accelerating structures endowed with a single feed coupler cause degradation of the electron beam properties, due to the electromagnetic field asymmetry. A new type of single feed structure with movable short circuit is proposed, where the electric field has been symmetryzed. The electromagnetic design, simulation and optimization of the device have been carried out, and a prototype of the accelerating structure has been produced and tuned. The electric field has been measured with the bead-pull method. Finally, in this thesis are described the High Energy RF Deflector (HERFD), which are a fundamental diagnostic tool to measure the electron beam properties, in particular the bunch length and the longitudinal phase space.
XXV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
21

Boem, Francesca. "Distributed Methods for Estimation and Fault Diagnosis: the case of Large-scale Networked Systems." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8534.

Full text
Abstract:
2011/2012
L’obiettivo di questa tesi è il monitoraggio di sistemi complessi a larga-scala. L’importanza di questo argomento è dovuto alla rinnovata enfasi data alle problematiche riguardanti la sicurezza e l’affidabilità dei sistemi, diventate requisiti fondamentali nella progettazione. Infatti, la crescente complessità dei moderni sistemi, dove le relazioni fra i diversi componenti, con il mondo esterno e con il fattore umano sono sempre più importanti, implica una crescente attenzione ai rischi e ai costi dovuti ai guasti e lo sviluppo di approcci nuovi per il controllo e il monitoraggio. Mentre nel contesto centralizzato i problemi di stima e di diagnostica di guasto sono stati ampiamente studiati, lo sviluppo di metodologie specifiche per sistemi distribuiti, larga scala o “networked”, come i Cyber-Physical Systems e i Systems-of-Systems, è cominciato negli ultimi anni. Il sistema fisico è rappresentato come l’interconnessione di sottosistemi ottenuti attraverso una decomposizione del sistema complesso dove le sovrapposizioni sono consentite. L’approccio si basa sul modello dinamico non-lineare dei sottosistemi e sull’approssimazione adattativa delle non note interconnessioni fra i sottosistemi. La novità è la proposta di un’architettura unica che tenga conto dei molteplici aspetti che costituiscono i sistemi moderni, integrando il sistema fisico, il livello sensoriale e il sistema di diagnostica e considerando le relazioni fra questi ambienti e le reti di comunicazione. In particolare, vengono proposte delle soluzioni ai problemi che emergono dall’utilizzo di reti di comunicazione e dal considerare sistemi distribuiti e networked. Il processo di misura è effettuato da un insieme di reti di sensori, disaccoppiando il livello fisico da quello diagnostico e aumentando in questo modo la scalabilità e l’affidabilità del sistema diagnostico complessivo. Un nuovo metodo di stima distribuita per reti di sensori è utilizzato per filtrare le misure minimizzando sia la media sia la varianza dell’errore di stima attraverso la soluzione di un problema di ottimizzazione di Pareto. Un metodo per la re-sincronizzazione delle misure è proposto per gestire sistemi multi-rate e misure asincrone e per compensare l’effetto dei ritardi nella rete di comunicazione fra sensori e diagnostici. Poiché uno dei problemi più importanti quando si considerano sistemi distribuiti e reti di comunicazione è per l’appunto il verificarsi di ritardi di trasmissione e perdite di pacchetti, si propone una strategia di compensazione dei ritardi , basata sull’uso di Time Stamps e buffer e sull’introduzione di una matrice di consenso tempo-variante, che permette di gestire il problema dei ritardi nella rete di comunicazione fra diagnostici. Gli schemi distribuiti per la detection e l’isolation dei guasti sono sviluppati, garantendo la convergenza degli stimatori e derivando le condizioni sufficienti per la detectability e l’isolability. La matrice tempo-variante proposta permette di migliorare queste proprietà definendo delle soglie meno conservative. Alcuni risultati sperimentali provano l’efficacia del metodo proposto. Infine, le architetture distribuite per la detection e l’isolation, sviluppate nel caso tempo-discreto, sono estese al caso tempo continuo e nello scenario in cui lo stato non è completamente misurabile, sia a tempo continuo che a tempo discreto.
This thesis deals with the problem of the monitoring of modern complex systems. The motivation is the renewed emphasis given to monitoring and fault-tolerant systems. In fact, nowadays reliability is a key requirement in the design of technical systems. While fault diagnosis architectures and estimation methods have been extensively studied for centralized systems, the interest towards distributed, networked, large-scale and complex systems, such as Cyber-Physical Systems and Systems-of-Systems, has grown in the recent years. The increased complexity in modern systems implies the need for novel tools, able to consider all the different aspects and levels constituting these systems. The system being monitored is modeled as the interconnection of several subsystems and a divide et impera approach allowing overlapping decomposition is used. The local diagnostic decision is made on the basis of the knowledge of the local subsystem dynamic model and of an adaptive approximation of the uncertain interconnection with neighboring subsystems. The goal is to integrate all the aspects of the monitoring process in a comprehensive architecture, taking into account the physical environment, the sensor layer, the diagnosers level and the communication networks. In particular, specifically designed methods are developed in order to take into account the issues emerging when dealing with communication networks and distributed systems. The introduction of the sensor layer, composed by a set of sensor networks, allows the decoupling of the physical and the sensing/computation topologies, bringing some advantages, such as scalability and reliability of the diagnosis architecture. We design the measurements acquisition task by proposing a distributed estimation method for sensor networks, able to filter measurements so that both the variance and the mean of the estimation error are minimized by means of a Pareto optimization problem. Moreover, we consider multi-rate systems and non synchronized measurements, having in mind realistic applications. A re-synchronization method is proposed in order to manage the case of multi-rate systems and to compensate delays in the communication network between sensors and diagnosers. Since one of the problems when dealing with distributed, large-scale or networked systems and therefore with a communication network, is inevitably the presence of stochastic delays and packet dropouts, we propose therefore a distributed delay compensation strategy in the communication network between diagnosers, based on the use of Time Stamps and buffers and the definition of a time-varying consensus matrix. The goal of the novel time-varying matrix is twofold: it allows to manage communication delays, packet dropouts and interrupted links and to optimize detectability and isolability skills by defining less conservative thresholds. The distributed fault detection and isolation schemes are studied and analytical results regarding fault detectability, isolability and estimator convergence are derived. Simulation results show the effectiveness of the proposed architecture. For the sake of completeness, the monitoring architecture is studied and adapted to different frameworks: the fault detection and isolation methodology is extended for continuous-time systems and the case where the state is only partially measurable is considered for discrete-time and continuous-time systems.
XXV Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
22

Buttazzoni, Giulia. "Study and development of power synthesis techniques of arbitrary reconfigurable antenna arrays for satellite applications." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8536.

Full text
Abstract:
2010/2011
The material presented in this thesis is the result of the Ph.D. activity carried on between January 2009 and December 2012 at the Ph.D. school in Information Engineering of the University of Trieste. After a brief introduction on the involved topics, the final objective of this thesis is that of presenting the original results, consisting in the development of power pattern synthesis algorithms for arbitrary antenna arrays including, in particular, arrays for satellite applications. Since the earlier satellite missions of last century, satellite communication systems have received growing attention due to the opportunities they offer and their greater flexibility with respect to alternative solutions adopting other media, such as, for example, fiber optic cables. The enormous spread of satellites, for both military and civilian applications, has been achieved thanks to the experienced technological progress, which has allowed an increase of satellite capacities. The need of constantly increasing the capacity of commercial communications satellites resulted in the continuing evolution of the antenna systems onboard the satellites. The business environment has driven the architecture of satellites' systems towards more efficiency and cost consciousness while at the same time, providing flexible access to a growing diversity of services and customers. Antennas that provide a multiplicity of frequency reuse coverage beams through either spatial or polarization isolation have been developed, resulting in the evolution of satellite antennas from a simple omnidirectional dipole to multiple-beam, dual-polarized configurations with frequency reuse between the beams for increased capacity. These requirements translate into high-gain, high-efficiency antennas with low side-lobe levels and excellent polarization purity. Moreover, since new requirements are often determined after the satellite is operational, antennas adjustable to produce a wide variety of radiation patterns have become popular. These are the so-called multiple-beam antennas, which can adjust their radiation coverage areas according to new demands. Multiple-beam antennas are currently being used for direct-broadcast satellites, personal communication satellites, military communication satellites, and high-speed Internet applications. High-gain multiple-beam antenna systems usually take one of three generic forms: lens, reflector or direct radiating array. Thus, arrays of antennas can be used in multiple-beam systems either to feed other types of antennas, or directly as radiating structures. The material of this thesis is mainly related to the synthesis algorithms for antenna arrays. In particular, many analytical and numerical techniques for the power pattern synthesis of antenna arrays have been carefully studied and analyzed. Some of them are suitable only for linear or rectangular arrays, the others for arrays of more complicated geometries. Furthermore, it is extremely important, for power synthesis techniques in satellite applications, to be able to consider additional constraints. These typically are the phase-only reconfigurability of the radiated beams, the control of the cross-polar patterns, which allows the polarization re-use and/or the control of the cross-polar interference, the dynamic range ratio reduction which comports simpler feeding networks and lower mutual coupling between array elements, and the near-field reduction, which allows to take into account the antennas operating environment. A numerical iterative algorithm has been developed during the Ph.D. school in Information Engineering, suitable for arrays of arbitrary geometry, thus including sparse and conformal arrays, which are often used in satellite applications. The algorithm allows to solve the power pattern synthesis problem, which is an inherently non linear problem. The solution is achieved using the alternating projections algorithm, which is a numerical iterative technique for finding a point of the intersection between two sets. It will be seen that the projections method has previously already been applied to problems of image processing and also in the antenna pattern synthesis. However, the results and the computational burden are strongly related to the projection operators, which in turn, strictly depend on the definition of the adopted distance, thus on the definition of the sets adopted in the formulation of the problem. Thus, the main originality of the developed algorithms consists in an extremely advantageous definition of the sets involved in the solving scheme, which, along with the adopted distance, allow an easy evaluation of the projection operators and thus a simple solving procedure. The thesis is organized as follows. Chapter 1 introduces the satellite antennas, analyzing some solutions adopted in the past. Particular attention is devoted to multiple-beam antennas (MBAs) and in particular to arrays of antennas, which can constitute the feeding system of reflector MBAs, or which can be used as direct radiating antennas themselves. Chapter 2 presents analytical and numerical methods of power pattern synthesis for antenna arrays proposed in the literature. First, the classical analytical methods, suitable for linear arrays of equally spaced elements are presented. Then, numerical iterative methods are analyzed. Attention is devoted to both deterministic and stochastic algorithms. A section is dedicated to the near-field constraint, due to its importance in practical real applications. In fact, taking into account the effect of the antenna operating environment is of fundamental importance: obstacles or mounting platforms, as well as other electronic devices located in proximity of the antenna, may strongly degrade the radiated far-field pattern. Then, Chapter 3 presents the developed algorithm. Precisely, the evolution is described from a synthesis algorithm suitable for arbitrary phase-only reconfigurable arrays to a powerful algorithm for phase-only antenna arrays, including several additional constraints, such as the dynamic range ratio reduction, the cross-polar pattern synthesis and the near-field reduction. Moreover, in its final form, the algorithm also allows to minimize the power radiated in the side-lobe regions of both the co- and cross-polar patterns and the electric energy stored in the near-field region of interest. Numerical results validating the effectiveness of the proposed algorithm are presented in Chapter 4 and the conclusions are summarized in Chapter 5. Finally, the appendix mathematically describes the classical alternating projections method and the genetic algorithms, which have been used as global optimization algorithms for comparison purposes.
Il materiale presentato in questa tesi è il risultato dell'attività svolta durante il dottorato tra gennaio 2009 e dicembre 2012 presso la scuola di dottorato in ingegneria dell'informazione dell'università di Trieste. Dopo una breve introduzione sugli argomenti trattati, l'obiettivo ultimo della tesi è quello di presentare i risultati originali che consistono nello sviluppo di algoritmi di sintesi di potenza per antenne a schiera di geometria arbitraria tra le quali, in particolare, schiere per applicazioni satellitari. Fin dalle prime missioni spaziali del secolo scorso, le comunicazioni satellitari hanno ricevuto attenzione crescente grazie alle opportunità che offrono e alla loro maggior flessibilità rispetto a soluzioni alternative che utilizzano altri sistemi, come ad esempio i cavi in fibra ottica. Grazie agli sviluppi tecnologici avvenuti, che hanno reso possibile un aumento delle capacità dei satelliti, si è sperimentata una vasta diffusione di satelliti per applicazioni militari e civili. La necessità di aumentare costantemente la capacità dei satelliti per comunicazioni commerciali ha comportato una continua evoluzione delle antenne da satellite. L'ambiente commerciale ha spinto l'architettura dei sistemi satellitari verso una miglior consapevolezza di efficienza e costi consentendo, allo stesso tempo, un accesso flessibile a un sempre maggior numero di servizi e di utenti. Sono state sviluppate antenne che consentono una molteplicità di fasci con riutilizzo della frequenza grazie ad isolamento spaziale o di polarizzazione. Questo ha generato un'evoluzione delle antenne da satellite dal semplice dipolo omnidirezionale ad antenne a fascio multiplo, con alto guadagno, alta efficienza, bassi lobi laterali ed elevata purezza di polarizzazione. Inoltre, poichè nuove necessità spesso emergono una volta che il satellite è già operativo, si sono diffuse antenne da satellite configurabili in modo da poter produrre diversi diagrammi di radiazione. Queste sono le così dette antenne riconfigurabili, che possono modificare le regioni coperte in base a nuove necessità. Antenne a fascio multiplo vengono usate correntemente in trasmissioni dirette via satellite, satelliti per comunicazioni personali, satelliti per comunicazioni militari e applicazioni Internet ad alta velocità. I sistemi di antenne a fascio multiplo ad elevato guadagno generalmente sono di uno dei seguenti tre tipi: lenti, riflettori o antenne a schiera. Dunque le antenne a schiera si possono trovare nelle applicazioni satellitari sia come strutture per alimentare altri tipi di antenne, sia come strutture radianti direttamente. Il materiale presentato in questa tesi è principalmente legato agli algoritmi di sintesi per antenne a schiera. In particolare, sono stati attentamente studiati e analizzati diversi metodi, analitici e numerici, per la sintesi di potenza di antenne a schiera. Alcuni di questi sono applicabili solo a schiere lineari o rettangolari, altri a schiere di geometria più complicata. Inoltre, è estremamente importante per gli algoritmi di sintesi di potenza di schiere per applicazioni satellitari essere in grado di considerare vincoli addizionali. Questi tipicamente sono la riconfigurabilità del fascio tramite controllo di sola fase, il controllo del diagramma cross-polare, che permette di ottenere il riutilizzo di polarizzazione e/o di controllare l'interferenza cross-polare, la riduzione della dinamica, che permette l'utilizzo di reti di alimentazione più semplici e un abbassamento del mutuo accoppiamento tra gli elementi della schiera, e la riduzione del campo vicino, che permette di tener conto dell'ambiente in cui opera l'antenna. Durante il dottorato è stato sviluppato un algoritmo numerico iterativo per schiere di geometria arbitraria, perciò comprese le schiere sparse e conformi, spesso impiegate in applicazioni satellitari. L'algoritmo permette di risolvere il problema (intrinsicamente non lineare) di sintesi di potenza. La soluzione è ottenuta mediante l'impiego del metodo delle proiezioni succesive, un metodo numerico iterativo per trovare un punto nell'intersezione tra due insiemi. Tale metodo è stato usato in passato in problemi di elaborazione delle immagini e anche in problemi di sintesi di antenne a schiera. Ciononostante, i risultati e il carico computazionale sono direttamente legati ai proiettori, che a loro volta sono strettamente dipendenti dalla definizione della distanza adottata, dunque degli insiemi coinvolti nel problema. Perciò, la principale originalità degli algoritmi sviluppati consiste in una definizione degli insiemi estremamente vantaggiosa in quanto, assieme alla scelta della distanza, permette di valutare facilmente i proiettori e perciò permette di ottenere una procedura di soluzione semplice. La tesi è organizzata come segue. Il primo capitolo introduce le antenne da satellite analizzando alcune soluzioni utilizzate in passato. Particolare attenzione è rivolta alle antenne a fascio multiplo e in particolare alle antenne a schiera, che possono costituire il sitema di alimentazione di antenne a riflettore multifascio o che possono esse stesse essere usate come elementi radianti. Il secondo capitolo presenta metodi analitici e numerici per la sintesi di potenza per antenne a schiera proposti in letteratura. Dapprima vengono presentati i metodi analitici classici, validi per schiere lineari di elementi equispaziati. Successivamente vengono analizzati i metodi numerici iterativi, sia stocastici, sia deterministici. Una sezione a parte è dedicata al vincolo sul campo vicino, vista la grande importanza che riveste nelle applicazioni pratiche. Infatti è di fondamentale importanza tener conto degli effetti dell'ambiente in cui l'antenna opera in quanto ostacoli o strutture di montaggio, così come altri apparati elettronici in prossimità dell'antenna, possono causare forti interferenze e degradare notevolmente il diagramma di campo lontano. Il capitolo 3 presenta gli algoritmi sviluppati. Precisamente, viene delineata l'evoluzione da un algoritmo di sintesi di potenza per schiere riconfigurabili di geometria arbitraria con controllo si sola fase, a un potente algoritmo di sintesi di sola fase con diversi vincoli addizionali, quali la riduzione della dinamica, la sintesi del fascio cross-polare e la riduzione del campo vicino. Inoltre, nella sua forma finale, l'algoritmo permette di minimizzare la potenza irradiata nelle regioni di lobi laterali di entrambi i diagrammi, co- e cross- polare, e l'energia immagazzinata nella regione di campo vicino presa in considerazione. I risultati numerici che provano l'efficacia del metodo sono presentati nel capitolo 4 e le conclusioni sono riassunte nel capitolo 5. Infine, l'appendice descrive matematicamente il classico metodo delle proiezioni successive e gli algoritmi genetici, che sono stati scelti come termine di paragone tra gli algoritmi di ottimizzazione globale.
XXIV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
23

Parel, Ilaria. "Validation and application of a shoulder ambulatory motion analysis protocol." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8530.

Full text
Abstract:
2011/2012
Le principali attività di ricerca svolte durante il dottorato hanno riguardano la validazione e caratterizzazione dell’applicabilità di un protocollo per l’analisi della cinematica di spalla in ambito clinico (ISEO - INAIL Shoulder and Elbow Outpatient protocol). Lo scopo principale era quello di creare uno strumento che fornisse al personale sanitario informazioni sulla performance motoria dei pazienti, supportando, con informazioni di tipo quantitativo, la valutazione ambulatoriale delle patologie della spalla. E’ possibile suddividere l’attività di ricerca in tre temi principali: caratterizzazione e validazione di ISEO; applicazione di ISEO per valutazioni di tipo clinico; applicazione di ISEO per valutazione di performance motoria in ambito sportivo. Grazie ai processi di validazione e caratterizzazione svolti e alle applicazioni di ISEO, ad oggi il protocollo può essere utilizzato in studi clinici e sportivi riguardanti la cinematica di spalla (coordinazione scapolo-omerale), per i quali la sensibilità dello strumento può essere considerata adatta alle esigenze valutative.
The main research activities carried out during the PhD were related to the validation and characterization of the applicability of a protocol for the analysis of the kinematics of the shoulder in a clinical setting (ISEO - Shoulder and Elbow INAIL Outpatient protocol). The main purpose was to create a tool that provides quantitative information about the motor performance of patients, supporting clinicians for the assessment of ambulatory shoulder disorders. The research activity can be split in three main themes: characterization and validation od ISEO; application of ISEO for clinical assessments; application of ISEO for sport performance assessments. Thanks to the validation and characterization of the protocol and its application in several contests, it can be concluded that ISEO can be used to evaluate the kinematics of the shoulder (in particular the scapulohumeral coordination) in clinical and sport performance studies, for which the sensitivity of the protocol can be considered appropriate.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
24

Filippo, Marco. "Stabilizing nonlinear model predictive control in presence of disturbances and off - line approximations of the control law." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4519.

Full text
Abstract:
2009/2010
One of the more recent and promising approaches to control is the Receding Horizon one. Due to its intrinsic characteristics, this methodology, also know as Model Predictive Control, allows to easily face disturbances and model uncertainties: indeed at each sampling instant the control action is recalculated on the basis of the reached state (closed loop). More in detail, the procedure consists in the minimization of an adequate cost function with respect to a control input sequence; then the first element of the optimal sequence is applied. The whole procedure is then continuously reiterated. In this thesis, we will focus in particular on robust control of constrained systems. This is motivated by the fact that, in practice, every real system is subjected to uncertainties, disturbances and constraints, in particular on state and input (for instance, plants can work without being damaged only in a limited set of configurations and, on the other side, control actions must be compatible with actuators' physical limits). With regard to the first aspect, maintaining the closed loop stability even in presence of disturbances or model mismatches can result in an essential strategy: moreover it can be exploited in order to design an approximate stabilizing controller, as it will be shown. The control input values are obtained recurring to a Nearest Neighbour technique or, in more favourable cases, to a Neural Network based approach to the exact RH law, which can be then calculated off line: this implies a strong improvement related to the applicability of MPC policy in particular in terms of on line computational burden. The proposed scheme is capable to guarantee stability even for systems that are not stabilizable by means of a continuous feedback control law. Another interesting framework in which the study of the influence of uncertainties on stability can lead to significant contributions is the networked MPC one. In this case, due to the absence of physical interconnections between the controller and the systems to be controlled, stability can be obtained only taking into account of the presence of disturbances, delays and data losses: indeed this kind of uncertainties are anything but infrequent in a communication network. The analysis carried out in this thesis regards interconnected systems and leads to two distinct procedures, respectively stabilizing the linear systems with TCP protocol and nonlinear systems with non-acknowledged protocol. The core of both the schemes resides in the online solution of an adequate reduced horizon optimal control problem.
Una delle strategie di controllo emerse più recentemente, più promettenti e di conseguenza più studiate negli ultimi anni è quella basata sull'approccio Receding Horizon. Grazie alle caratteristiche che contraddistinguono questa tecnica, cui si fa spesso riferimento anche col nome di Model Predictive Control, risulta piuttosto agevole trattare eventuali disturbi e incertezze di modellazione; tale metodo prevede infatti il calcolo di un nuovo ingresso di controllo per ciascun istante di campionamento, in seguito alla minimizzazione ad ogni passo di un'opportuna funzione di costo rispetto ad una sequenza di possibili futuri ingressi, inizializzata sulla base del valore dello stato del sistema all'istante considerato. Il controllo è dato dal primo elemento di tale sequenza ottima; tutto questo viene continuamente ripetuto, il che comporta un aggiornamento costante del segnale di controllo. Gli inconvenienti di questa tecnica risiedono nelle elevate risorse computazionali e nei tempi di calcolo richiesti, così da ridurne drasticamente l'applicabilità specie nel caso di sistemi con elevata dinamica. In questa tesi ci si concentrerà sulle caratteristiche di robustezza del controllore: l'importanza di quest'analisi risiede nel fatto che ogni sistema reale è soggetto a incertezze e disturbi di varia origine cui bisogna far fronte durante le normali condizioni di funzionamento. Inoltre, la capacità di gestire errori di modellazione, come si vedrà, può essere sfruttata per ottenere un notevole incremento delle prestazioni nella stima del valore da fornire in ingresso all'impianto: si tratta di ripartire l'errore complessivo in modo da garantirsi dei margini che consentano di lavorare con un'approssimazione della legge di controllo, come specificato più avanti. In tutto il lavoro si considereranno sistemi vincolati: l'interesse per questa caratteristica dipende dal fatto che nella pratica vanno sempre tenuti in considerazione eventuali vincoli su stato e ingressi: basti pensare al fatto che ogni impianto è progettato per lavorare solo all'interno un determinato insieme di configurazioni, determinato ad esempio da vincoli fisici su attuatori, sensori e così via: non riporre sufficiente attenzione in tali restrizioni può risultare nel danneggiamento del sistema di controllo o dell'impianto stesso. Le caratteristiche di stabilità di un sistema controllato mediante MPC dipendono in modo determinante dalla scelta dei parametri e degli attributi della funzione di costo da minimizzare; nel seguito, con riferimento al caso dei sistemi non lineari, saranno forniti suggerimenti e strumenti utili in tal senso, al fine di ottenere la stabilità anche in presenza di disturbi (che si assumeranno opportunamente limitati). Successivamente tale robustezza verrà sfruttata per la progettazione di controllori stabilizzanti approssimati: si dimostrerà infatti che, una volta progettato adeguatamente il sistema di controllo “esatto” basato su approccio RH e conseguentemente calcolati off-line i valori ottimi degli ingressi su una griglia opportunamente costruita sul dominio dello stato, il ricorso a una conveniente approssimazione di tali valori non compromette le proprietà di stabilità del sistema complessivo, che continua per di più a mantenere una certa robustezza. Da notare che ciò vale anche per sistemi non stabilizzabili mediante legge di controllo feedback continua: la funzione approssimante può essere ottenuta in questo caso con tecniche di tipo Nearest Neighbour; qualora invece la legge di controllo sia sufficientemente regolare si potrà far ricorso ad approssimatori smooth, quali ad esempio le reti neurali. Tutto ciò comporta un notevole miglioramento delle prestazioni del controllore RH sia dal punto di vista del tempo di calcolo richiesto che (nel secondo caso) della memoria necessaria ad immagazzinare i parametri del controllore, risultando nell'applicabilità dell'approccio basato su MPC anche al caso di sistemi con elevata dinamica. Un altro ambito in cui lo studio dell'influenza delle incertezze e dei disturbi sulla stabilità richiede una notevole attenzione è quello dei sistemi networked; anche in questo caso il ricorso all'MPC può portare a ottimi risultati di stabilità robusta, a patto di individuare un' opportuna struttura per il sistema complessivo ed effettuare scelte adeguate per il problema di ottimizzazione. In particolare, si considererà il caso di trasmissione di dati tra un controllore centralizzato e le varie parti dell'impianto in assenza di collegamento fisico diretto. Lo studio della stabilità dovrà allora tenere in considerazione la presenza di perdite di pacchetti o ritardi di trasmissione, condizioni tutt'altro che infrequenti per le reti. Saranno quindi proposte due distinte procedure, che si dimostreranno essere in grado di garantire robustezza a sistemi rispettivamente lineari comunicanti con protocolli di tipo TCP e non lineari in presenza di protocolli UDP. Questo secondo caso è senz'altro il più complesso ma allo stesso tempo il più concreto tra i due. Il nucleo del controllo è ancora basato su una tecnica MPC, ma stavolta il controllore è chiamato a risolvere il problema di ottimizzazione su un orizzonte “ridotto”, che consente la gestione dei ritardi e di eventuali perdite di pacchetto su determinati canali. La lunghezza dell'orizzonte dipenderà dalla presenza o meno dei segnali di ricezione del pacchetto (acknowledgement).
XXIII Ciclo
1977
APA, Harvard, Vancouver, ISO, and other styles
25

Violin, Alessia. "Mathematical programming approaches to pricing problems." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10863.

Full text
Abstract:
2012/2013
There are many real cases where a company needs to determine the price of its products so as to maximise its revenue or profit. To do so, the company must consider customers’ reactions to these prices, as they may refuse to buy a given product or service if its price is too high. This is commonly known in literature as a pricing problem. This class of problems, which is typically bilevel, was first studied in the 1990s and is NP-hard, although polynomial algorithms do exist for some particular cases. Many questions are still open on this subject. The aim of this thesis is to investigate mathematical properties of pricing problems, in order to find structural properties, formulations and solution methods that are as efficient as possible. In particular, we focus our attention on pricing problems over a network. In this framework, an authority owns a subset of arcs and imposes tolls on them, in an attempt to maximise his/her revenue, while users travel on the network, seeking for their minimum cost path. First, we provide a detailed review of the state of the art on bilevel pricing problems. Then, we consider a particular case where the authority is using an unit toll scheme on his/her subset of arcs, imposing either the same toll on all of them, or a toll proportional to a given parameter particular to each arc (for instance a per kilometre toll). We show that if tolls are all equal then the complexity of the problem is polynomial, whereas in case of proportional tolls it is pseudo-polynomial. We then address a robust approach taking into account uncertainty on parameters. We solve some polynomial cases of the pricing problem where uncertainty is considered using an interval representation. Finally, we focus on another particular case where toll arcs are connected such that they constitute a path, as occurs on highways. We develop a Dantzig-Wolfe reformulation and present a Branch-and-Cut-and-Price algorithm to solve it. Several improvements are proposed, both for the column generation algorithm used to solve the linear relaxation and for the branching part used to find integer solutions. Numerical results are also presented to highlight the efficiency of the proposed strategies. This problem is proved to be APX-hard and a theoretical comparison between our model and another one from the literature is carried out.
Un problème classique pour une compagnie est la tarification de ses produits à vendre sur le marché, de façon à maximiser les revenus. Dans ce contexte, il est important que la société prenne en compte le comportement de ses clients potentiels, puisque si le prix est trop élevé, ils peuvent décider de ne rien acheter. Ce problème est communément connu dans la littérature comme un problème de tarification ou "pricing". Une approche de programmation biniveau pour ce problème a été introduite dans les années 90, révélant sa difficulté. Cependant, certains cas particuliers peuvent être résolus par des algorithmes polynomiaux, et il y a encore de nombreuses questions ouvertes sur le sujet. Cette thèse de doctorat porte sur les propriétés mathématiques des problèmes de tarification, fixant l’objectif de déterminer différentes formulations et méthodes de résolution les plus efficaces possibles, en se concentrant sur les problèmes appliqués aux réseaux de différents types. Dans les problèmes de tarification sur réseau, nous avons deux entités : une autorité qui possède un certain sous-ensemble d’arcs, et impose des péages, avec l’intention de maximiser les revenus provenant de celle-ci, et des utilisateurs qui choisissent leur chemin de moindre coût sur l’ensemble du réseau. Dans la première partie de la thèse une analyse détaillée de l’état de l’art sur les problèmes de tarification biniveau est présentée, suivie, dans la deuxième partie, par une analyse de cas particuliers polynomiaux. En particulier, nous considérons le cas où l’autorité utilise un péage unitaire sur son sous-ensemble d’arcs, soit en choisissant le même péage sur chaque arc, soit en choisissant un péage proportionnel à un paramètre donné pour chaque arc (par exemple, un péage par kilomètre). Dans le premier cas de péages égaux, il est démontré que la complexité du problème est polynomiale, tandis que dans le second cas de péages proportionnels, elle est pseudo-polynomiale. Ensuite, nous présentons une première approche d’optimisation robuste pour les problèmes de tarification sur réseau, de manière à inclure de l’incertitude sur la valeur exacte des paramètres dans le modèle, qui est typique dans les problèmes réels. Cette incertitude est représentée en utilisant des intervalles pour les paramètres et nous proposons, pour certains cas, des algorithmes de résolution polynomiaux. La troisième et dernière partie de la thèse concerne un cas difficile, le problème de tarification sur réseau dans lequel les arcs sont connectés de manière à constituer un chemin, comme c’est le cas pour les autoroutes. Initialement, nous prouvons que ce problème est APX-dur, renforçant le résultat connu jusqu’à maintenant. Ensuite, nous présentons des nouvelles formulations plus fortes, et en particulier, nous développons une reformulation de type Danztig-Wolfe, résolue par un algorithme de Branch-and-Cut-and-Price. Enfin, nous proposons différentes stratégies pour améliorer les performances de l’algorithme, pour ce qui concerne l’algorithme de génération de colonnes utilisé pour résoudre la relaxation linéaire, et pour ce qui concerne la résolution du problème avec variables binaires. Les résultats numériques complètent les résultats théoriques, en mettant en évidence l’efficacité des stratégies proposées.
Un classico problema aziendale è la determinazione del prezzo dei prodotti da vendere sul mercato, in modo tale da massimizzare le entrate che ne deriveranno. In tale contesto è importante che l’azienda tenga in considerazione il comportamento dei propri potenziali clienti, in quanto questi ultimi potrebbero ritenere che il prezzo sia troppo alto e decidere dunque di non acquistare. Questo problema è comunemente noto in letteratura come problema di tariffazione o di “pricing”. Tale problema è stato studiato negli anni novanta mediante un approccio bilivello, rivelandone l’alta complessità computazionale. Tuttavia alcuni casi particolari possono essere risolti mediante algoritmi polinomiali, e ci sono sono ancora molte domande aperte sull’argomento. Questa tesi di dottorato si focalizza sulle proprietà matematiche dei problemi di tariffazione, ponendosi l’obiettivo di determinarne formulazioni e metodi risolutivi più efficienti possibili, concentrandosi sui problemi applicati a reti di vario tipo. Nei problemi di tariffazione su rete si hanno due entità: un’autorità che possiede un certo sottoinsieme di archi e vi impone dei pedaggi, con l’intento di massimizzare le entrate che ne derivano, e gli utenti che scelgono il proprio percorso a costo minimo sulla rete complessiva (a pedaggio e non). Nella prima parte della tesi viene affrontata una dettagliata analisi dello stato dell’arte sui problemi di tariffazione bilivello, seguita, nella seconda parte, dall’analisi di particolari casi polinomiali del problema. In particolare si considera il caso in cui l’autorità utilizza uno schema di pedaggio unitario sul suo sottoinsieme di archi, imponendo o lo stesso pedaggio su ogni arco, o un pedaggio proporzionale a un dato parametro relativo ad ogni arco (ad esempio un pedaggio al chilometro). Nel primo caso di pedaggi uguali, si dimostra che la complessità del problema è polinomiale, mentre nel secondo caso di pedaggi proporzionali è pseudo-polinomiale. In seguito viene affrontato un approccio di ottimizzazione robusta per alcuni problemi di tariffazione su rete, in modo da includere nei modelli un’incertezza sul valore esatto dei parametri,tipica dei problemi reali. Tale incertezza viene rappresentata vincolando i parametri in degli intervalli e si propongono, per alcuni casi, algoritmi risolutivi polinomiali. La terza e ultima parte della tesi riguarda un caso computazionalmente difficile, in cui gli archi tariffabili sono connessi in modo tale da costituire un cammino, come avviene per le autostrade. Inizialmente si dimostra che tale problema è APX-hard, rafforzando il risultato finora conosciuto. In seguito si considerano formulazioni piùforti, e in particolare si sviluppa una riformulazione di Danztig-Wolfe, risolta tramite un algoritmo di Branch-and-Cut-and-Price. Infine si propongono diverse strategie per migliorare le performance dell’algoritmo, sia per quanto riguarda l’algoritmo di generazione di colonne utilizzato per risolvere il rilassamento lineare, sia per quanto riguarda la risoluzione del problema con variabili binarie. Risultati numerici complementano quelli teorici ed evidenziano l’efficacia delle strategie proposte.
XXV Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
26

Gei, Gianandrea. "La valutazione di installazioni funiviarie: applicazione dei livelli di servizio (L.O.S.) agli impianti a fune." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4472.

Full text
Abstract:
2009/2010
L'obiettivo del percorso di studio è quello di valutare i sistemi di trasporto a fune.Si è voluto introdurre il concetto di transit funiviario analizzando i diversi sistemi di trasporto offrendo una classificazione delle installazioni funiviarie con l'obiettivo di redigere un capitolo per il TCQSM su tale tema. Si è voluto provare ad applicare i concetti dei livelli di servizio (L.O.S.) contenuti nel HCM alle installazioni funiviarie. E' stato condotto un primo approccio tramite due campagne di interviste sui tempi di attesa e di viaggio su due installazione cabinoviarie a Siusi (BZ) ed Alleghe (BL). In queste indagini sono state distribuiti all’utenza questionari composti da domande relative ai tempi di attesa ed ai tempi di percorrenza con metodo di valutazione numerica da 1 a 10. E’ risultato evidente che quanto proposto dal TCQSM per i transit tradizionali non è direttamente applicabile al campo funiviario. Si sono dunque presentati dei L.O.S. appositamente calibrati. Da un'analisi dei dati osservati e da successive ricerche bibliografiche (studi condotti sul comportamento degli utenti nel trasporto ascensoristico facilmente assimilabile al trasporto funiviario) a supporto di quanto desunto, si è concluso che nel trasporto funiviario ciò che incide maggiormente nella valutazione dell'utente è il tempo di attesa. Si è dunque deciso di non approfondire ulteriormente l'analisi della valutazione del tempo di percorrenza. Allo scopo di validare le succitate indagini è stato condotto uno studio sul campo in merito alla formazione di code con interviste incentrate sulla valutazione dei tempi d'attesa presso il comprensorio dello Zoncolan (UD). In questo caso sono stati osservati i plotoni di sciatori in avvicinamento ad un impianto seggioviario. Sono stati cronometrati i tempi di attesa di utenti campione i quali, in corrispondenza del cancelletto d'imbarco, sono stati intervistati sul loro tempo di attesa percepito e sulla loro valutazione a riguardo. Sono state offerte tre diverse soluzioni verbali e non numeriche. Nello specifico l'intervistato ha potuto scegliere tra: indifferente, accettabile o inaccettabile. Come ulteriore fase di analisi si sono confrontati i due metodi in modo da ottenere una relazione sia numerica che verbale per l'attributo qualitativo dei diversi L.O.S. proposti. Per offrire un'applicazione pratica allo studio condotto si è applicato quanto osservato ad un comprensorio sciistico inteso come rete di transit funiviari. Tramite l'osservazione continuativa via WEB-CAM e l'analisi dei dati sui passaggi e relativi titoli di viaggio elettronici per le due stagioni invernali 2008/2009 e 2009/2010 del comprensorio del Cimone (MO), siamo stati in grado di valutare i flussi sugli archi della rete e la formazione delle code. Si sono introdotti due indici di valutazione: l’indice di utilizzo (iu) in funzione delle portate orarie osservate e di progetto nonchè l’indice di sostituzione (is) in funzione della vita residua delle installazioni (DM 23/85) e dei L.O.S. assegnati. Gli indici is e iu producono una valutazione sullo stato di fatto della rete funiviaria in base ad una graduatoria di sostituzione degli impianti per meglio pianificare gli investimenti di una stazione valutando aspetti tecnici, normativi oltre che di percezione del servizio da parte dell'utenza centrando l’obiettivo che ci si era preposti nella fase iniziale del percorso di studio.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
27

Monti, Di Sopra Elisa. "Modelli di danno e plasticità per l'analisi di elementi strutturali in muratura." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3461.

Full text
Abstract:
2008/2009
L’obiettivo dello studio è stata la valutazione del comportamento di elementi strutturali in muratura sottoposti a sollecitazioni di taglio e compressione, sia attraverso prove sperimentali, che mediante analisi numerica: in particolare, nell’ambito della modellazione agli elementi finiti è stato valutato l’utilizzo di legami costitutivi di danno e plasticità per descrivere il comportamento non lineare della muratura. L’approccio utilizzato nelle analisi numeriche proposte è la macromodellazione, dove il materiale è rappresentato da un continuo omogeneo, le cui proprietà meccaniche globali sono dedotte dai risultati di prove su elementi rappresentativi della muratura. A partire dai risultati sperimentali su pannelli sollecitati a taglio e compressione ottenuti negli anni ’80 allo Swiss Federal Institute of Technology (Ganz e Thürlimann) e da quelli su fascia di piano nel biennio 2007-2008 presso l’Università degli Studi di Trieste, è stata inizialmente verificata la possibilità di impiego di un modello di danno e plasticità isotropo (Lubliner et. al 1989, Lee & Fenves 1998) per determinare la risposta di elementi strutturali sottoposti a carico monotono e ciclico. Quindi sono state valutate le ragioni della differenza tra i risultati delle prove sperimentali e quelli delle analisi numeriche, evidenziando sia le difficoltà costruttive, sia quelle derivanti dalla descrizione matematica del comportamento del materiale. E’ stato inoltre proposto lo sviluppo di alcune parti del modello isotropo verso una formulazione ortotropa, sulla base di un legame costitutivo anisotropo (Voyiadjis et al. 2007), prestando particolare attenzione ai parametri non lineari di modello, nello specifico l’angolo di dilatanza.
XXII Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
28

Sciuto, Giuliana. "APPLICAZIONE DI TECNICHE INNOVATIVE GNSS/INS PER LA DETERMINAZIONE DEL COMPORTAMENTO DINAMICO DI IMPIANTI FUNIVIARI." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11117.

Full text
Abstract:
2013/2014
Gli impianti funiviari sono soggetti alle normative italiane ed europee (PTS Prescrizioni Tecniche Speciali e Normativa Europea) che regolano il funzionamento dell’infrastruttura, sovrastruttura e delle componenti di sicurezza. Il rispetto dei limiti imposti sono determinanti per la sicurezza dell’impianto stesso e delle persone coinvolte. Non tutti questi parametri però, sono controllati durante le periodiche prove di collaudo, nonostante essi siano decisivi per la sicurezza. Si pensi ad esempio alla valutazione dell’entità delle oscillazioni trasversali e longitudinali al senso di marcia, fenomeno che ha causato l’incidente avvenuto su una seggiovia dell’Appennino toscano (gennaio 2015), dove, a causa di un’interruzione di corrente, l’arresto dell’impianto ha innescato un moto oscillatorio tale da far sobbalzare e precipitare alcuni sciatori. La strumentazione satellitare permetterebbe di conoscere la posizione assoluta dell’oggetto monitorato e se integrate da sensori inerziali, di conoscerne anche l’assetto. A partire da queste considerazioni, sono state analizzate delle metodologie innovative GNSS (Global Navigation Satellite System) e GPS/INS (INertial System), applicate in un settore particolare, quale quello dei trasporti speciali aerei, al fine di caratterizzare in maniera più completa il comportamento dinamico di un veicolo in condizioni critiche (ad esempio a seguito di brusche frenate) e farne un confronto con la normativa vigente. Le componenti hardware del dispositivo GNSS/INS sono state montate all’interno di un contenitore rigido, per facilitarne il trasporto, l’ancoraggio alla seggiola o cabina e per accelerare la fase di rilievo con la Stazione Totale per l’inserimento dei parametri di installazione nel software di elaborazione dati, Applanix POS PAC LV. E’stato quindi implementato un programma ad hoc in ambiente Matlab, per la gestione dei dati, in particolare: per la sincronizzazione fra i vari dispositivi, per la rotostraslazione dei sistemi di riferimento, per l’interpolazione dei dati, per il filtraggio e l’estrazione automatica alcuni particolari eventi. Dai risultati ottenuti è stata dimostrata l’adeguatezza di queste tecniche innovative, con le quali è stato possibile determinare il comportamento dinamico del veicolo, in termini di posizione assoluta (con precisione centimetrica), velocità ed accelerazione effettiva del veicolo (i valori di velocità ed accelerazione visibili sul pulpito di comando della stazione motrice sono riferiti all’argano di trazione e non corrispondono sempre con quelli del veicolo). Implementando le funzioni del programma sviluppato in ambiente Matlab ed ottimizzando alcune procedure,le tecniche GNSS in modalità cinematica interferenziale alle doppie differenze finite e GPS/INS, potrebbero completare le attuali prove di collaudo degli impianti funiviari.
XXVII Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
29

Falconetti, Nicola. "Sviluppo di un modello di previsione dell’incidentalità stradale nel contesto italiano." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8637.

Full text
Abstract:
2011/2012
L’argomento trattato nella ricerca verte sul tema della modellazione del legame fra incidentalità stradale e caratteristiche dell’infrastruttura. L’attività di ricerca ha puntato allo sviluppo, nel contesto italiano, di un modello analitico per la previsione del livello di incidentalità atteso su tronchi omogenei di strade extraurbane, legandolo a indicatori delle caratteristiche geometriche, ambientali e di traffico di tali tronchi. Inizialmente sono stati passati in rassegna i principali modelli di previsione proposti a livello internazionale, tra cui la prima versione dell’Highway Safety Manual (HSM). Parallelamente si è analizzato il software IHSDM, con particolare attenzione al modulo CPM (Crash Prediction Module). Si è quindi cercato di testare l’applicabilità al contesto italiano di tale modulo, studiando l’incidentalità di due tronchi stradali della rete regionale del Friuli Venezia Giulia. Il test ha messo in evidenza i limiti di trasferibilità del modello statunitense alla realtà italiana. L’analisi della letteratura esistente ha permesso di individuare i principali aspetti da considerare nell’elaborazione di un modello previsionale dell’incidentalità (tecniche di regressione, approcci metodologici, distribuzione di probabilità, forme funzionali, variabili esplicative, indicatori di bontà del modello). Una volta verificata la disponibilità di dati nella realtà italiana e accertata la possibilità di utilizzare gli stessi, sono state definite le procedure per la scelta del campione. In un primo tempo si è testata la metodologia individuata su un campione di dati di dimensioni limitate (circa 20 tronchi stradali in ambito extraurbano), ricercando eventuali relazioni fra il fenomeno accidentogeno, l’entità dei flussi veicolari e alcuni parametri geometrici caratteristici del singolo tronco stradale. Per questo studio preliminare il campione è stato suddiviso in tronchi omogenei sulla base del solo andamento planimetrico. Per l’implementazione del modello è stata utilizzata la tecnica delle regressioni lineari generalizzate, adottando come distribuzione statistica della variabile indipendente quella di Poisson. Il test è stata l’occasione per l’approfondimento degli strumenti software da utilizzare per la modellazione statistica. Dal momento che tale test ha fornito risultati confortanti, nel prosieguo dell’attività la ricerca è stata portata avanti secondo le stesse modalità, ponendosi come obbiettivo un sostanzioso ampliamento del campione di studio. A tale scopo l’analisi è stata estesa alla regione Veneto, andando a reperire dati utili presso le varie Amministrazioni. Oltre a questo si è provveduto ad effettuare due campagne di monitoraggio del traffico (estiva ed invernale) sulla rete regionale (ex statale) del Friuli Venezia Giulia. Grazie alla concessione accordata da Friuli Venezia Giulia Strade S.p.A. e da diverse Amministrazioni Comunali, durante tali campagne (durate complessivamente 5 mesi) sono stati rilevati i flussi veicolari su circa 30 sezioni stradali. In questo modo si è potuto disporre di un campione di estensione complessiva pari a quasi 300 km di rete extraurbana. Su tale campione, suddiviso in tronchi omogenei sulla base del medesimo criterio adottato nello studio preliminare, si è tentato di mettere a punto un modello considerando svariati indici legati alla geometria dell’asse stradale, mediante la stessa tecnica di regressione adottata in precedenza. I risultati forniti dall’analisi si sono rivelati poco significativi. È stata quindi rivista integralmente la metodologia di suddivisione in tronchi omogenei, effettuando la messa a punto dei modelli su due diverse basi di dati. La prima ha considerato soli tronchi stradali di lunghezza pari ad un chilometro, mentre il secondo ha preso in considerazione tratti di lunghezza variabile (mediamente pari a circa 3 km). In entrambi i casi sono stati introdotti dei criteri di suddivisione dei tronchi (criteri di omogeneità) più rigorosi rispetto alla prima analisi, andando a considerare l’altimetria della strada e fattori di carattere ambientale. Contestualmente alla definizione di tali criteri è stata proposta l’applicazione di una metodologia statistica per la verifica sistematica ed oggettiva dell’omogeneità planimetrica della linea d’asse. L’analisi di regressione è stata effettuata assumendo una distribuzione statistica della variabile indipendente di tipo Binomiale Negativa, che rispetto alla distribuzione di Poisson presenta dei vantaggi nella modellazione dell’overdispersion. Le analisi statistiche hanno prodotto risultati di particolare interesse in termini applicativi. I modelli risultanti mostrano una buona correlazione tra le variabili individuate e il fenomeno accidentogeno. Inoltre grazie all’utilizzo di variabili esplicative di facile determinazione, essi risultano applicabili con facilità alla realtà italiana, proponendosi come strumenti di supporto all’analisi di sicurezza, sia nel caso di nuove infrastrutture stradali che in quello di strade esistenti. Combinando i risultati del modello con lo storico di incidentalità registrato è possibile produrre valutazioni più attendibili dell’incidentalità attesa caratteristica del tronco stradale, da cui una stima più rigorosa del beneficio derivante da un possibile intervento di adeguamento.
XXIV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
30

Dal, Col Valentina. "In silico prediction of drug resistance: from cancer targeted therapy to cancer targeted prevention." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9976.

Full text
Abstract:
2012/2013
Le recenti scoperte sulla natura dei processi genetici, implicati nelle trasformazioni neoplastiche, ci hanno permesso di identificare le principali lesioni cellulari che portano alla formazione del tumore, individuando in questo modo target selettivi sulla base dei quali progettare nuovi agenti terapeutici efficaci. La terapia bersaglio ha rappresentato una rivoluzione permettendo di superare l’aspecificità del trattamento antitumorale e colpendo, nello specifico, la causa biomolecolare del processo patologico neoplastico. I recenti sviluppi della modellistica molecolare si sono resi indispensabili per la ricerca oncologica. Questi, infatti, aprono delle opportunità per la scoperta di nuovi farmaci attraverso la comprensione delle basi molecolari delle malattie; si tratta di un metodo conveniente per identificare dei composti che siano in grado di bloccare l’azione di molte proteine, suggerite come fattori fondamentali in diversi tipi di neoplasie. In questo lavoro di tesi verrà adoperata un’ampia gamma di tecniche di simulazione molecolare al fine di studiare differenti problemi che possono comparire durante il trattamento chemioterapico. La scoperta di nuovi dettagli nei meccanismi che conducono alla carcinogenesi ha permesso di identificare proteine target innovative e più precise per affrontare la terapia senza effetti collaterali per le cellule sane. In particolare, saranno riportati in dettaglio gli studi che coinvolgono tre nuovi differenti target: il recettore σ1, la proteina -catenina e lo sviluppo di dendrimeri per una terapia di silenziamento genico. Tuttavia, nonostante i successi clinici della terapia bersaglio, molti pazienti che inizialmente hanno risposto positivamente manifestano una recidiva, come risultato di una resistenza acquisita; questo tipo di risposta può manifestarsi dopo un periodo variabile di trattamento cronico. L’approccio delle tecniche in silico può essere utilizzato per predire l’avvento di mutazioni secondarie attivanti e al contempo resistenti alla terapia e quindi aiutare nello sviluppo di una strategia di prevenzione focalizzata su una terapia multi-farmaco. In questo lavoro, verranno discusse in particolare delle mutazioni che coinvolgono i recettori c-Kit e Smoothened, pre e post trattamento. L’ampia serie di esempi illustrati e discussi qui enfatizza il ruolo e le potenzialità del modeling molecolare nello sviluppo della terapia bersaglio anti tumorale. Una valutazione in silico permette di prendere in considerazione la specificità molecolare del problema e ridurre drasticamente i tempi e i costi richiesti per formulare nuovi farmaci e strategie di intervento.
XXVI Ciclo
1986
APA, Harvard, Vancouver, ISO, and other styles
31

Brancatelli, Giuseppe. "Analisi di dati acquisiti con OBS." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3458.

Full text
Abstract:
2008/2009
Gli OBS (Ocean Bottom Seismometer) sono ampiamente utilizzati negli studi sismici crostali attraverso l’utilizzo delle registrazioni di onde rifratte e riflesse a grande offset (Wide Angle Reflection/Refraction, WAR/R). L'analisi di questi dati comporta, solitamente, l'impiego di modellistica diretta e/o inversa al fine di giungere alle velocità dei singoli strati e alle profondità delle interfacce. In questa tesi, invece, si presenta un approccio diverso che prevede: 1) costruzione di modelli di velocità dall’analisi dei segnali rifratti; 2) elaborazione dei dati OBS al fine di ottenere immagini sismiche a riflessione. In particolare, gli OBS e gli scoppi sono stati riportati ad uno stesso datum (superficie del mare), utilizzando il Wave Equation Datuming (WED). Dopo il WED è stato possibile applicare l'elaborazione tipica della sismica a riflessione. I profili OBS analizzati sono stati acquisiti nell'area dell'Arco Ellenico e, i risultati ottenuti, hanno permesso di riconoscere le strutture geologiche principali e i meccanismi dell’evoluzione tettonica. L'utilizzo del WED ha migliorato la risoluzione delle sezioni finali rispetto a quanto ottenibile con le correzioni statiche classiche. Per confronto è stata applicata la metodologia WED anche a dati simici ad alta risoluzione a terra, risolvendo problemi di correzioni statiche e di strutturazioni tettoniche apparenti nell'area della Bassa Pianura Friulana.
XXII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
32

Bella, Maurizio. "Modellazione numerica di strutture sismoresistenti e analisi probabilistiche di tipo montecarlo." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3460.

Full text
Abstract:
2008/2009
Lo scopo della presente Tesi è lo sviluppo e la messa a punto di una serie di modelli numerici e codici di calcolo atti a modellare il comportamento di strutture sismoresistenti di tipo intelaiato sottoposte ad azione sismica al fine di poter effettuare una valutazione dell'affidabilità strutturale per mezzo di analisi probabilistiche di tipo Montecarlo. In particolare la modellazione dei giunti composti trave-colonna, è stata realizzata definendo un modello meccanico per componenti, atto a descrivere il comportamento del giunto modellato per mezzo di un insieme di elementi rigidi e deformabili, opportunamente connessi tra di loro e a cui sono stati assegnati opportuni modelli istertici. A tale scopo si è proceduto allo sviluppo ed implementazione all’interno del codice di calcolo ABAQUS e ADAPTIC di una serie di modelli isteretici reperiti in letteratura atti alla modellazione numerica delle principali componenti deformative individuabili nei giunti trave colonna e nei dispositivi viscoelastici utilizzati nella realizzazione di controventi dissipativi. Nello sviluppo del modello meccanico per la modellazione del comportamento dei giunti nodi trave colonna composti si è prestata particolare attenzione alla definizione degli elementi che descrivono l’interazione tra la soletta e la colonna. Per agevolare l’esecuzione dell’elevato numero di analisi numeriche richieste dalle analisi probabilistiche di tipo Montecarlo si è inoltre proceduto a sviluppare un pre-processore ed un post-processore in grado di interfacciarsi con i codici di calcolo utilizzati. Nel primo capitolo verrà introdotto il problema della valutazione dell'affidabilità delle strutture. Nel secondo capitolo verranno introdotti i metodi di analisi strutturale con particolare riferimento al metodo dell'analisi probabilistica di tipo montecarlo applicato alla valutazione dell'affidabilità delle strutture. Nel terzo capitolo si esaminerà la problematica della modellazione numerica delle strutture sismoresistenti. Nel quarto capitolo verranno illustrati i modelli numerici sviluppati e implementati nonchè i codici di calcolo sviluppati. Nel quinto capitolo verrà illustrato il processo di validazione dei modelli numerici sviluppati utilizzando i risultati forniti da una serie di indagini sperimentali condotte da vari autori e reperite in letteratura. Infine nel sesto capitolo si procederà alla valutazione dell'affidabilità strutturale di una struttura intelaiata campione. Più precisamente la struttura oggetto dell’indagine è il telaio testato nel European Laboratory for Structural Assessment (ELSA) del Joint Research Center (JRC) di Ispra (Varese). In particolare, per tale struttura verranno determinate le curve di fragilità con riferimento allo spostamento relativo di interpiano (IRDA) assunto come indice di danno strutturale.
XXII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
33

Santese, Francesca. "Molecular modeling of multi-functional nanostructured materials and coatings." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9974.

Full text
Abstract:
2012/2013
Materiali e rivestimenti nanostrutturati possono potenzialmente apportare significativi cambiante nel campo della nanoscienze, nonché offrire una nuova generazione di materiali con caratteristiche e performance migliori. A questo proposito le tecniche computazionali diventano uno strumento fondamentale, in grado di ridurre notevolmente i tempi che vanno dall’idea iniziale al prodotto finito. La simulazione molecolare permette infatti la previsione delle proprietà macroscopiche prima che i materiali vengano preparati e caratterizzati sperimentalmente; consente inoltre una migliore comprensione dei fenomeni fisici su scala nanometrica. In questo lavoro di tesi sono presentati alcuni casi studio in cui vengono proposte diverse procedure computazionali per affrontare importanti aspetti come la bagnabilità della superficie, l’effetto della dimensione e della forma delle nanoparticelle e i loro meccanismi di aggregazione/dispersione. In questo contesto, si è dimostrata la vasta applicabilità della modellazione molecolare evidenziando quindi come questa rappresenti un potente strumento per comprendere e controllare le proprietà finali di materiali nanostrutturati, aprendo così la strada ad una progettazione in silico di nuovi materiali.
Nanostructured materials and coatings have the potential to change materials science significantly, as well as to provide a new generation of materials with a quantum improvement in properties. In this regard computational materials science becomes a powerful tool. It is able to rapidly reduce the time from concept to end product. Molecular simulation enables the prediction of properties of these new materials before preparation, processing, and experimental characterization, as well as a better understanding of the physical phenomena at the nanoscale level. In this thesis we present several study cases in which we propose different computational recipes to deal with different important topics such as surface wettability, effect of nanoparticles size and shape and nanoparticles aggregation/dispersion. In this context, we demonstrate the broad applicability of the molecular modelling and we ascertain that molecular simulation represent a powerful tool to understand and control the nanomaterials properties thus opening avenues for the in silico design of new materials.
XXVI Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
34

Marson, Domenico. "Coupling of experimental and computational approaches for the development of new dendrimeric nanocarriers for gene therapy." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11803.

Full text
Abstract:
2013/2014
Gene therapy is increasingly critical in the treatment of different types of maladies. The approach of gene therapy can be fundamental in dealing with many kinds of tumors, viral infections (e.g., HIV, HSV), and disturbs linked to genetic anomalies. However, the use of nucleic acids is limited by their ability to reach their action site—the target cell and, often, the inside of its nucleus. Dendrimers, on the other hand, are an interesting kind of polymers, the general synthetic scheme of which is relatively of recent development (∼1980). Among the many possible uses of these polymers, they revealed themselves as great nanocarriers for drugs in general, and particularly for genetic material. Many of the properties of these molecules are directly linked to their structure, and this in turn is critically influenced by their molecular composition. Exploiting in silico techniques, we can reveal many informations about the atomistic structure of dendrimers, some of which are otherwise difficult to gather. The interactions between the carrier and its cargo, and also with all the biological systems that are interposed between the administration and the reaching of the target (e.g., serum proteins, lipid membranes. . . ) are of critical importance in the development of new dendrimers for gene therapy. These interactions can be described and studied at a detail once unthinkable, thanks to the in silico simulation of these systems. In this thesis many different molecular simulation techniques will be employed to give a characterization as precise as possible of the structure and interactions of new families of dendrimers. In particular two new families of dendrimers (viologen and carbosilane) will be structurally characterized, and their interactions with albumin and two oligodeoxynucleotide, respectively, will be described. Then, the point of view of these interactions will be changed: the interactions between a fifth generation triethanolamine-core poly(amidoamine) dendrimer (G5 TEA-core PAMAM) and a sticky siRNA will be studied, varying the length and chemical compositions of the overhangs of the siRNA. Studying dendrimers the use of new molecular simulations techniques were deepened, and such techniques will be employed in other parallel projects. We’ll see the steered molecular dynamic method applied in the study of one mutation of the SMO receptor. The development of biological membranes models (that will be used in future to study the interactions of dendrimers with such membranes) was also used to refine and better characterize the σ1 receptor 3D model, previously developed by our research group. A detailed characterization of the putative binding site of this receptor will be given, employing this refined model.
La terapia genica si sta rivelando sempre più importante nel trattamento di diversi tipi di malattie. Da diversi tipi di tumori alle infezioni virali, quale ad esempio da HIV, fino anche a malattie legate ad anomalie genetiche sono tutti disturbi in cui l’approccio della terapia genica può rivelarsi fondamentale. L’utilizzo di acidi nucleici quali agenti terapeutici è fortemente limitato dalla possibilità di portare queste molecole al loro sito d’azione—la cellula bersaglio e, spesso, l’interno del nucleo di quest’ultima. I dendrimeri d’altro canto sono un interessante tipo di polimero, di cui lo schema generale di sintesi è relativamente recente (∼1980). Tra i diversi loro utilizzi, questi polimeri si sono rivelati anche ottimi agenti di trasporto per farmaci, ed in particolare per materiale genetico. Molte delle proprietà di queste molecole derivano direttamente dalla loro struttura, e questa è influenzata criticamente dalla loro composizione. Mediante tecniche in silico è possibile avere molte informazioni riguardo la struttura dei dendrimeri, alcune delle quali sono altrimenti difficilmente ottenibili. L’interazione tra il trasportatore ed il suo “carico”, come anche con tutti i diversi sistemi biologici che si frappongono tra la somministrazione ed il raggiungimento dell’obbiettivo (ad es. proteine seriche, membrane lipidiche...) è un parametro chiave nello sviluppo di nuovi dendrimeri per la terapia genica. Queste interazioni possono essere descritte e studiate con un dettaglio un tempo impossibile, mediante la simulazione in silico di tali sistemi. In questo lavoro di tesi diverse tecniche di simulazione molecolare saranno utilizzate al fine di dare una caratterizzazione quanto più precisa possibile della struttura e delle intera- zioni di nuove classi di dendrimeri. In particolare sarà data una descrizione strutturale di due nuove famiglie di dendrimeri viologeni e carbosilani, e delle loro interazioni rispettivamente con albumina e due diversi oligodeossinucleotidi. Si alternerà poi il punto di vista da cui studiare tale interazione: sarà data una descrizione dell’interazione tra un dendrimero po- liammidoamminico a nucleo trietanolamminico (TEA-core PAMAM) di generazione 5 e uno sticky siRNA, al variare della lunghezza e tipo di “braccia” del siRNA. Nello studio di dendrimeri alcune nuove tecniche di simulazione molecolare sono state approfondite, e tali tecniche sono state utilizzate anche in altri progetti paralleli. Vedremo la steered molecular dynamic applicata allo studio di una mutazione del recettore SMO. Lo sviluppo di modelli di membrane biologiche (utile in futuro per lo studio dell’interazione di dendrimeri con tali membrane) è stato utilizzato per perfezionare e meglio caratterizzare il modello tridimensionale del recettore σ1, precedentemente sviluppato dal nostro gruppo di ricerca. Una caratterizzazione dettagliata del sito di binding putativo di questo recettore sarà descritta, usando tale perfezionato modello.
XXVII Ciclo
1987
APA, Harvard, Vancouver, ISO, and other styles
35

Pani, Martino. "Sviluppo, valutazione ed applicazione di metodi numerici alternativi al medodo degli elementi finiti in problemi di biomeccanica ortopedica." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3674.

Full text
Abstract:
2008/2009
La predizione del rischio di frattura costituisce un elemento di estremo interesse in ambito clinico quale supporto dei processi diagnostici, di prognosi e di cura; attualmente la valutazione è basata su inferenze statistiche rispetto al contenuto minerale del tessuto osseo in siti specifici a mezzo di speciali immagini radiografiche, realizzandosi valutazioni caratterizzate da un consistente margine di incertezza. Un significativo miglioramento è ragionevole pensare possa derivare dall'uso di modelli numerici tridimensionali subject specific che, fondandosi su immagini diagnostiche, riescano a cogliere le peculiarità morfologiche e costitutive di ogni singolo caso. Ad oggi è stata sviluppata una metodologia di modellazione basata sul Metodo degli Elementi Finiti (FEM) che si è dimostrata precisa nel replicare misure sperimentali su segmenti ossei in vitro; la procedura si basa sulla precisa definizione topologica della superficie dell'osso, e risulta per questo estremamente laboriosa e significativamente impegnativa sia in termini di tempo che di competenze specializzate necessarie; questo fatto ne limita l’uso nella pratica clinica a causa della difficile applicazione su larga scala in tempi contenuti. Scopo della tesi era l’esplorazione di un approccio di modellazione alternativo, in grado di conservare i requisiti di robustezza, accuratezza e generalità della procedura FEM, ma in grado di aumentare il grado di automazione del processo di studio. L’indagine si è concentrata su implementazioni innovative del Metodo delle Celle (CM), un metodo numerico basato sulla formulazione discreta diretta delle equazioni dei campi fisici adatto a studiare sistemi non omogenei e di complessa geometria. Il rifiuto dell'ipotesi di continuo alla base del CM lo rendeva a priori filosoficamente concorde con la natura della sorgente di informazione (le immagini diagnostiche) su cui la procedura di modellazione automatizzata si sarebbe dovuta basare. L'elaborato esplora alcune ipotesi fondate su implementazioni numeriche innovative derivate del Metodo delle Celle: sono stati sviluppati, nella loro impostazione formale e implementativa, tre differenti approcci meshless del CM, approcci nei quali la soluzione viene calcolata in punti tra i quali non è richiesta la definizione di una connettività a livello globale. I tre metodi, accomunati dalla scrittura di un'equazione di bilancio scritta su un area tributaria di nodo definita localmente, sono stati valutati nella prospettiva applicativa del problema di riferimento. Uno di questi approcci, basato sulla creazione di un complesso locale di celle primali, si è dimostrato adatto ad essere applicato nella creazione di modelli numerici automaticamente costruiti sui dataset di immagini diagnostiche. Questa metodologia, denominata Meshless Cell Method (MCM), è stata valutata nella sua applicabilità replicando delle misure sperimentali di deformazione su un esemplare di femore in vitro. La buona capacità di predire i valori sperimentali, malgrado la ridotta risoluzione delle immagini diagnostiche di partenza, ne ha giustificato un più solido e ampio processo di validazione: misure sperimentali di deformazione in vitro in 15 differenti siti anatomici di 8 esemplari di femore in 6 distinte configurazioni hanno costituito l'elemento di confronto rispetto a cui sono state valutate le predizioni dei corrispondenti modelli MCM; ulteriore elemento di valutazione comparativa è stato offerto dalle predizioni di modelli FEM replicanti le stesse prove sperimentali. L'analisi ha evidenziato la buona capacità dei modelli MCM di identificare la realtà sperimentale: il coefficiente di correlazione, i parametri della retta di regressione e gli scarti medio e massimo rispetto alle misure sperimentali si sono dimostrati paragonabili a quanto realizzato dai modelli FEM. Lo studio ha individuato dunque un processo di modellazione numerica di segmenti ossei caratterizzato da un elevato grado di automaticità: il modello numerico viene costruito direttamente sul dataset CT in maniera indipendente dallo specifico segmento osseo rappresentato; la procedura non richiede alcuna manipolazione e si è dimostrato poter ottenere accuratezze nella replicazione delle misure sperimentali in vitro assolutamente concordi con quelle della procedura FEM di riferimento. Il lavoro si colloca nel contesto dell’attività di ricerca del Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli di Bologna, struttura presso cui lo studio è stato condotto.
XXII Ciclo
1977
APA, Harvard, Vancouver, ISO, and other styles
36

Posocco, Paola. "Multiscale Molecular Simulation of Nanostructured Systems." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3445.

Full text
Abstract:
2008/2009
Computational materials science based on multiscale approach is very promising in the domain of nanoscience. It gives the modeler a route from the atomistic description of the system to a trust-worthy estimate of the properties of a material, obtained from the underlying molecules in a quantifiable manner. In this thesis we discuss general guidelines for its implementation in the field of nanomaterials and propose an alternative pathway to link effectively atomistic to mesoscopic scale and this, in turn, to the macroscopic scale. As proofs of concept for the reliability of the proposed approach, we consider several systems of industrial interest, ranging from polymeric nanocomposite materials, to epoxy resins, block copolymers, and gels for biomedical applications. In this context, we ascertain that multiscale molecular modelling can play a crucial role in the design of new materials whose properties are influenced by the structure at nanoscale. The results suggest that the combination of simulations at multiple scales can unleash the power of modeling and yield important insights.
Le tecniche computazionali fondate su un approccio multiscala costituiscono uno strumento molto promettente nel campo della nanoscienza e dei nanomateriali. Esse forniscono al modellatore un percorso quantitativo che parte dalla descrizione atomistica fino alle proprietà finali del materiale. In questo lavoro di tesi sono discusse le linee guida per l’implementazione della modellistica multiscala nel settore dei nanomateriali ed è proposta una strategia alternativa alle soluzioni attualmente esistenti per collegare la scala atomistica alla mesoscala e, successivamente, la mesoscala alla scala macroscopica. Per dimostrare la validità del metodo proposto, sono stati presi in esame differenti sistemi di interesse industriale, i quali comprendono materiali nanocompositi polimerici, resine epossidiche, copolimeri a blocchi, e gel per applicazioni biomediche. In questo contesto, si è evidenziato come la modellistica multiscala possa svolgere un ruolo cruciale nella progettazione di nuovi materiali le cui proprietà sono influenzate dalla struttura a scala nanometrica. I risultati suggeriscono che la combinazione di simulazioni su scale multiple amplifica sinergicamente la potenza della modellazione e può fornire importanti intuizioni.
XXII Ciclo
1978
APA, Harvard, Vancouver, ISO, and other styles
37

Sorgon, Sveva. "Analisi di un sistema ibrido sismo - resistente costituito da elementi tralicciati in acciaio inglobati nel calcestruzzo." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4470.

Full text
Abstract:
2009/2010
Nel presente lavoro di dottorato si presentano i risultati di un’attività di ricerca che ha riguardato lo studio sperimentale di elementi tralicciati misti acciaio-calcestruzzo di nuova concezione, appositamente pensati per un utilizzo sismico. Il sistema costruttivo analizzato consente infatti la realizzazione di una struttura parzialmente prefabbricata ad ossatura portante intelaiata, atta ad assorbire sia i carichi verticali che quelli orizzontali con le stesse prerogative di quelli misti o in calcestruzzo armato. Particolarmente importante per il funzionamento d’insieme risulta il comportamento del nodo trave colonna e della trave in prima e seconda fase. Nel lavoro si riportano i risultati sperimentali ottenuti su questi elementi, assieme all’interpretazione dei risultati utili ai fini applicativi ed applicabili anche ad altre tipologie. Nel presente lavoro vengono inoltre analizzati i primi risultati di una prova sperimentale sul comportamento a taglio di un nodo esterno trave-colonna per sistemi reticolari misti. Obiettivo principale è quello di cogliere i diversi contributi forniti dal calcestruzzo e dall’acciaio per capire come il taglio viene assorbito dalla struttura all’interno del nodo. Noti i risultati delle prove espresse attraverso le curve sperimentali si è proceduto con la discretizzazione dei provini mediante codice agli elementi finiti Abaqus al fine di trovare una congruenza fra i risultati sperimentali e numerici e procedere con lo studio della risposta degli elementi alle diverse sollecitazioni. Lo studio ha evidenziato una buona duttilità del sistema, anche se si sono riscontrate carenze di armatura a taglio in prossimità del nodo che hanno comportato un prematuro collasso. In questo contributo si descrive in particolare la messa a punto del programma sperimentale in termini di caratteristiche del campione esaminato, viene presentata una panoramica della risposta strutturale, i modelli numerici per l’analisi e la verifica del funzionamento delle diverse componenti meccaniche del nodo con particolare interesse nell’individuazione di criteri di progettazione e di calcolo del comportamento a taglio in condizioni sismiche.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
38

Sosic, Boris. "La rumorosità degli impianti di trasporto persone non convenzionale: analisi, diagnosi, soluzioni ed indicazioni progettuali." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3459.

Full text
Abstract:
2008/2009
Il lavoro rappresenta una rielaborazione dell’esperienza maturata nel corso di una ormai ultradecennale attività, svolta prevalentemente nel campo dei controlli sugli impianti di trasporto persone, dal particolare punto di vista del fenomeno acustico. Al fine di inquadrare la trattazione in un contesto organico, sono stati analizzati i sistemi di trasporto persone non convenzionale, dove con il termine di trasporti non convenzionali si intendono qui tutti quei sistemi di trasporto che presentino delle particolarità o elementi innovativi dal punto di vista dell’infrastruttura, del sistema di movimentazione, della tipologia dei veicoli. Nella prima parte della tesi viene data una descrizione dei vari sistemi di trasporto non convenzionale proponendo una classificazione basata sulle loro specifiche caratteristiche. A seguire sono stati presentati gli elementi base di acustica mettendo in risalto il fenomeno della percezione sonora. Nella parte centrale del lavoro viene presenta una panoramica di situazioni che provocano emissione acustica nelle sue più svariate forme. Attraverso tutta una serie di esempi vengono illustrate varie cause di rumorosità e le loro forme di propagazione; si è cercato di impostare l’esposizione avvalendosi di concetti intuitivi, basati su manifestazioni direttamente osservabili. Il fenomeno della rumorosità è stato trattato sia dal punto di vista del fenomeno fisico che lo provoca, sia prendendo spunto da componenti singoli o in gruppo contraddistinti da un’emissione acustica caratterizzante. Contestualmente vengono fornite linee guida per affrontare i vari problemi legati alla rumorosità, tenendo in debita considerazione i principali enti oggetto dell’emissione acustica ovvero l’ambiente, gli utenti del trasporto piuttosto che il personale addetto alla conduzione e/o manutenzione dell’impianto. Nella sezione sperimentale della tesi vengono presentate una serie di rilievi fonometrici, scelti tra i più significativi, tra i svariati che sono stati portati a termine nel corso della ricerca. Le misure fonometriche non sono state condotte seguendo rigidamente la cospicua normativa, sia di legge che volontaria, disponibile; scopo delle misure infatti non era tanto quello di valutare gli effetti dell’emissione acustica nell’ambiente – attività questa di competenza degli esperti in acustica – ma piuttosto quella di rilevare le singole fonti di rumorosità che possono nascondersi nella complessità dell’impianto, e di proporre di conseguenza degli interventi mirati e finalizzati alla riduzione della rumorosità complessiva. E’ stata condotta al riguardo una sperimentazione su di un impianto funicolare; tale esperienza è stata condotta in prima persona dallo scrivente in tutte le sue fasi comprendenti le misure fonometriche preliminari, la progettazione dei componenti, la realizzazione degli stessi, la messa in opera delle parti sull’impianto e le misure fonometriche conclusive per la verifica dell’intervento. Nella parte finale della tesi viene data una breve descrizione di alcuni impianti di trasporto persone non convenzionale particolarmente interessanti, su alcuni dei quali sono state eseguite anche misure fonometriche. Infine viene riportato un elenco, alquanto completo, di quello che è il quadro normativo nazionale in materia di acustica, sia per quanto riguarda le disposizioni di legge, di carattere cogente, che per quanto concerne la normativa volontaria, fornendo così al lettore una utile guida per eventuali spunti di approfondimento.
XXII Ciclo
1970
APA, Harvard, Vancouver, ISO, and other styles
39

Poh'siè, Guillaume Hervè. "ANALISI DELLA DUTTILITÀ DI EDIFICI MULTIPIANO IN LEGNO E MITIGAZIONE DELLA RISPOSTA SISMICA MEDIANTE L'USO DI MASSE ACCORDATE." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11110.

Full text
Abstract:
2013/2014
Le tecniche di analisi numeriche in campo non lineare delle strutture in legno sulla base delle prove sperimentali su singoli componenti, elementi strutturali e interi edifici si sono molto evolute nell'ultimo decennio. Numerosi ricercatori si sono dedicati a sviluppare modelli per simulare il comportamento ciclico in campo non lineare (chiodi, hold down, viti e squadrette a taglio) e i risultati di numerosi modelli numerici sono stati confrontati con i risultati sperimentali in termini di forza massima, degrado di rigidezza ,resistenza, spostamento massimo e ultimo, energia dissipata. Questo lavoro di tesi segue la linea della progettazione basata sul Performance Based Design. Nella prima parte della stessa viene approfondita l’analisi statica non lineare per determinare la curva di capacità degli elementi e dei sistemi strutturali a telaio leggero e X-Lam. Nella seconda parte si analizza il problema del miglioramento delle performance delle strutture in X-Lam mediante l'uso delle masse accordate (Tuned Mass Dampers). Queste vengono progettate con tecniche di ottimizzazione, allo scopo di ridurre al meglio le accelerazioni massime che in genere accompagnano questa tipologia strutturale.
XXVII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
40

Bedon, Chiara. "Problemi di stabilità negli elementi in vetro strutturale e studio innovativo di facciate in vetro-acciaio sottoposte a carico da esplosione." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7403.

Full text
Abstract:
2010/2011
Recentemente, la richiesta architettonica sempre più spinta di trasparenza e luminosità ha favorito la diffusione nell’edilizia del vetro come materiale da costruzione. Sebbene si tratti di un materiale ancora poco conosciuto rispetto ad altri materiali convenzionali, il vetro trova, infatti, ampia applicazione nelle realizzazioni strutturali più innovative. Anche se le soluzioni architettoniche proposte trovano ampio consenso, spesso la difficoltà principale consiste nel dimensionare adeguatamente tali elementi e nel preservarne l’integrità da eventuali fenomeni di instabilità. Con riferimento a questo tema, nella presente tesi vengono proposte alcune significative formulazioni analitiche per la verifica di stabilità di elementi in vetro monolitico, stratificato o vetro-camera, con particolare attenzione per il comportamento di travi compresse, travi inflesse, pannelli sottoposti a compressione nel piano o taglio nel piano. Allo stesso tempo, viene studiato il comportamento di facciate in vetro-acciaio sottoposte a carico da esplosione, con riferimento specifico a due tipologie di facciata note come facciate continue a lastre indipendenti, controventate da un sistema di cavi pretesi, e facciate a pannelli, nelle quali le lastre di vetro sono sostenute da un telaio metallico di supporto. Per ciascuna tipologia di facciata, vengono evidenziate le criticità dovute a carichi da esplosione di varia intensità mediante opportuni modelli numerici. Inoltre, viene analizzato l’effetto di eventuali dispositivi in grado di mitigarne le componenti principali assorbendo e/o dissipando parte dell’energia d’ingresso associata all’evento esplosivo.
Recently, due to aesthetic and architectural requirements of transparency and lightness, the use of glass as a structural material showed a strong increase. Although its load carrying behavior is actually not well-known, glass finds large application in modern and innovative buildings. Nevertheless, the main difficulties are related to the proper design of these structural elements and in the preservation of their integrity, avoiding possible buckling phenomena. In this context, this Doctoral Thesis proposes a series of interesting analytical formulations suitable for the buckling verification of monolithic, laminated, insulated structural glass element, with particular attention for the load carrying behavior of beams in compression or in bending, as well as for the buckling response of glass panels subjected to in-plane compression or shear. At the same time, the Thesis focuses also on the dynamic behavior of two different typologies of steel-glass façades subjected to air blast loads, whit particular attention to the analysis of cable-supported façades and conventional curtain walls, in which a metallic frame supports the glass panels. In both the circumstances, accurate numerical simulations are performed to highlight the criticalities of similar structural systems, in presence of high-level or medium / low-level air blast loads. Finally, the structural benefits of possible devices able to mitigate the effects of explosions in the main components of these façades, by partly storing / dissipating the incoming energy, are investigated numerically and analytically.
XXIV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
41

Gervasio, Isabella. "Caratterizzazione di sito per la gestione delle risorse idriche sotterranee mediante metodi geofisici integrati." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7342.

Full text
Abstract:
2010/2011
Il presente lavoro affronta lo studio di due problematiche idrogeologiche complesse e molto diverse tra loro, mediante un approccio geofisico integrato con le indispensabili indagini geologiche e idrogeologiche: (1) caratterizzazione delle risorse sotterranee solforose in ambiente montano al fine di localizzare una o più aree adatte alla perforazione e quindi all’estrazione di acque solforose; (2) caratterizzazione idrogeofisica di un area golenale soggetta a forti eterogeneità locali che possono influenzare il flusso, alterando consistentemente la conduttività idraulica. I risultati delle indagini geofisiche costituiscono nei casi descritti un indispensabile supporto funzionale per comprendere approfonditamente le aree studiate con particolare riguardo alla ricostruzione dei sistemi acquiferi, circuiti idrogeologici e disponibilità di risorse idriche e termali al fine di realizzare un'azione progettuale ingegneristica mirata e consistente.
XXIV Ciclo
1977
APA, Harvard, Vancouver, ISO, and other styles
42

Gecchele, Gregorio. "Transportation data analysis. Advances in data mining and uncertainty treatment." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7448.

Full text
Abstract:
2010/2011
Nello studio dei sistemi di trasporto l’acquisizione e l’utilizzo di informazioni corrette e aggiornate sullo stato dei sistemi rappresentano da sempre elementi di centrale importanza per la produzione di analisi adeguate ed affidabili. Sfortunatamente in molti ambiti applicativi le informazioni disponibili per le analisi sono invece spesso carenti o di bassa qualità, e il loro utilizzo si traduce in risultati affetti da elevata incertezza e talvolta di dubbia validità. I processi di evoluzione tecnologica che interessano campi quali l’informatica, l’elettronica e le telecomunicazioni stanno rendendo progressivamente più semplice e conveniente l’acquisizione di rilevanti quantità di dati di interesse per le analisi trasportistiche, sia tradizionalmente raccolti per studi trasportistici (ad esempio dati di traffico rilevati su tronchi stradali) sia non direttamente connessi ad un uso trasportistico (ad esempio segnali Bluetooth e GPS provenienti da dispositivi di telefonia mobile). Tuttavia in molti casi l’ampia disponibilità di dati, soprattutto nel secondo caso, non si traduce in immediata spendibilità applicativa. I dati sono infatti spesso disomogenei dal punto di vista informativo, caratterizzati da una qualità non necessariamente elevata e spesso richiedono onerosi processi di verifica e validazione. In questi particolari contesti l’applicazione di tecniche di Data Mining può dimostrarsi una soluzione indubbiamente vantaggiosa. Esse infatti, per loro intrinseca natura, rendono possibile la gestione efficace di grandi quantità di dati e la produzione di risultati sempre più robusti all’aumentare delle dimensioni della base di dati disponibile. Sulla base di queste considerazioni questo lavoro di tesi si è concentrato in primo luogo su un’attenta revisione delle più consolidate tecniche di Data Mining, individuando gli ambiti applicativi, nel campo dei trasporti, in cui esse possono rappresentare dei validi strumenti di analisi. Con il termine Data Mining si fa riferimento al processo di estrazione dell’informazione presente in un certo insieme di dati, finalizzato ad individuare relazioni “nascoste” nei dati stessi o comunque a sintetizzare in modalità nuove la visione su di essi. Esso rappresenta una parte di un più ampio processo di estrazione della conoscenza, che inizia con un’accurata selezione e trasformazione dei dati disponibili (come detto i dati sottoposti a “mining” sono spesso raccolti con altri obiettivi) e si conclude con un’attenta interpretazione e valutazione dei risultati. Uno schema di classificazione generalmente accettato suddivide le tecniche di Data Mining in sei categorie in rapporto alla funzione considerata: stima (reti neurali, modelli di regressione, alberi decisionali), previsione (reti neurali, alberi decisionali), classificazione (k-nearest neighbour, alberi decisionali, reti neurali), raggruppamento (tecniche di clustering, Self-Organising-Maps), associazione (regole di associazione) e descrizione (regole di associazione, clustering, alberi decisionali). Nel presentare un quadro d’insieme dell’ampia letteratura esistente in materia, uno specifico rilievo è stato dato alle più consolidate tecniche di classificazione, raggruppamento e associazione, in quanto maggiormente impiegate nei diversi contesti applicativi. Successivamente è stato tracciato uno stato dell’arte per ciò che attiene le applicazioni in ambito trasportistico. In tal senso la revisione dei lavori prodotti ha evidenziato la notevole flessibilità d’uso di queste tecniche e la loro crescente diffusione applicativa. Molti sono infatti i filoni di ricerca che hanno beneficiato di queste tecniche innovative; tra questi nel lavoro di tesi si sono evidenziati alcuni tra i più interessanti: la previsione a breve termine dei flussi di traffico da dati storici o in real-time (traffic forecasting), l’identificazione e la quantificazione dei fattori che influenzano i fenomeni di incidentalità, l’analisi di sistemi di gestione delle pavimentazioni stradali e di sistemi di monitoraggio del traffico. La seconda parte della tesi si è invece focalizzata su un’applicazione delle tecniche di Data Mining allo studio del funzionamento di un sistema viario, attraverso una revisione critica della Procedura FHWA (Federal Highway Administration) per il monitoraggio del traffico stradale. La scelta di questo filone di ricerca è data dal fatto che la raccolta di informazioni sui volumi di traffico è un aspetto rilevante nell’attività di pianificazione dei trasporti (ambito stradale), quale componente significativa del processo conoscitivo. D’altra parte i costi legati alla gestione dei sistemi di monitoraggio, sia per attrezzature che per personale, richiedono una crescente attenzione alla loro progettazione, al fine di ottenere la massima qualità dei risultati. Negli Stati Uniti la FHWA definisce periodicamente alcune linee guida per migliorare questi aspetti attraverso la Traffic Monitoring Guide (2001) e ha raggiunto progressivamente un ruolo di riferimento per altre agenzie dello stesso tipo in altre parti del mondo, Italia compresa. Tale procedura è basata sull’uso congiunto di rilievi di diversa durata (rilievi in continuo con strumenti fissi e rilievi di breve durata con apparecchiature portatili) ed è finalizzata principalmente alla stima del Traffico Giornaliero Medio Annuo (Annual Average Daily Traffic, AADT). L’analisi della letteratura esistente ha individuato la lacuna principale della procedura FHWA nella determinazione dei gruppi tipologici di strade sulla base dei profili temporali di traffico e nell’assegnazione delle sezioni monitorate con rilievi di breve durata a questi gruppi. L’approccio elaborato si è pertanto posto l’obiettivo di migliorare la procedura relativamente a questi due aspetti rilevanti. Per trattare l’esistenza di situazioni di incerta attribuzione di una sezione stradale ad un certo gruppo tipologico, specie quando non è semplice fornire una chiara definizione in termini trasportistici (ad esempio strada “pendolare” o “turistica”), sono state adottate tecniche di Fuzzy Clustering, garantendo un’opportuna trattazione formale del problema. Per quanto concerne il secondo aspetto, le sezioni non monitorate in continuo vengono inserite nel gruppo tipologico più simile rispetto ai profili temporali di traffico osservati. Per effettuare l’assegnazione di queste sezioni ai gruppi tipologici, l’approccio proposto ha utilizzato una Rete Neurale Artificiale, opportunamente progettata per mantenere l’incertezza presente nella fase di creazione dei gruppi fino alla fine del processo. L’output della rete è infatti rappresentato dall’insieme delle probabilità di appartenenza del rilievo di breve durata ai diversi gruppi tipologici ed è interpretato utilizzando la teoria di Dempster-Shafer. Le misure di incertezza associate all’output (indici di non-specificità e discordanza) permettono di descrivere sinteticamente la qualità dell’informazione disponibile. L’approccio proposto è stato implementato considerando i dati di monitoraggio provenienti dal programma SITRA (Sistema Informativo TRAsporti) della Provincia di Venezia. Rispetto all’ambito applicativo di interesse è stata verificata la validità dell’approccio, confrontando i risultati ottenuti nella stima dell’AADT con precedenti approcci proposti in letteratura. L’analisi comparativa dei risultati ha permesso di rilevare una migliore accuratezza delle stime e soprattutto la possibilità, assente nei precedenti approcci, di evidenziare eventuali carenze informative (dovute all’esiguo numero di dati) e la necessità di procedere con ulteriori rilievi di traffico. I risultati positivi ottenuti in questa fase sperimentale hanno permesso di avviare il progetto per la realizzazione di uno strumento software di immediata spendibilità applicativa
In the study of transportation systems, the collection and the use of correct information of the state of the system represent a central point for the development of reliable and proper analyses. Unfortunately in many application fields information is generally obtained using limited, scarce and low-quality data and their use produces results affected by high uncertainty and in some cases low validity. Technological evolution processes which interest different fields, including Information Technology, electronics and telecommunications make easier and less expensive the collection of large amount of data which can be used in transportation analyses. These data include traditional information gathered in transportation studies (e.g. traffic volumes in a given road section) and new kind of data, not directly connected to transportation needs (i.e. Bluetooth and GPS data from mobile phones). However in many cases, in particular for the latter case, this large amount of data cannot be directly applied to transportation problems. Generally there are low-quality, non-homogeneous data, which need time consuming verification and validation process to be used. Data Mining techniques can represent an effective solution to treat data in these particular contexts since they are designed to manage large amount of data producing results whose quality increases as the amount of data increases. Based on these facts, this thesis first presents a review of the most well-established Data Mining techniques, identifying application contexts in transportation field for which they can represent useful analysis tools. Data mining can be defined as the process of exploration and analysis which aims to discover meaningful patterns and ‘’hidden’’ rules in the set of data under analysis. Data Mining could be considered a step of a more general Knowledge Discovery in Databases Process, which begins with selection, pre-processing and transformation of data (“mined” data are generally collected for reasons different from the analysis) and is completed with the interpretation and evaluation of results. A classification scheme generally accepted identifies six categories of DM techniques, which are related to the objective one would achieve from the analysis: estimation (neural networks, regression models, decision trees), prediction (neural networks, decision trees), classification (k-nearest neighbor, decision trees, neural networks), clustering (clustering techniques, Self-Organizing-Maps), affinity grouping or association (association rules) and profiling (association rules). In the review of the wide literature concerning Data Mining methods, particular attention has been devoted to the well-established technique of clustering, classification and association, since they are the most applied in different application contexts. The literature review process has been further extended to Data Mining applications in the transportation field. This review highlights the great flexibility of use of these techniques and the increasing number of applications. Many research topics have taken advantages of these innovative tools and some of them are presented due to their interest: short-term traffic flow forecasting from historical and real-time data, identification and quantification of factor risks in accident analysis, analysis of pavement management systems and traffic monitoring systems. The second part of the thesis has focused on the application of Data Mining techniques to road system analysis, through a critical review of U.S. Federal Highway Administration (FHWA) traffic monitoring approach. The choice of this topic is due to the fact that traffic monitoring activities represent a relevant aspect of highway planning activities, as a part of the knowledge process. However data collection activities produce relevant management costs, both for equipment and personnel, therefore monitoring programs need to be designed with attention to obtain the maximum quality of results. In the U.S.A., the Federal Highway Administration (FHWA) provides guidance for improving these aspects by way of its Traffic Monitoring Guide (TMG) (FHWA, 2001), which has a reference role for other similar agencies in the world. The FHWA procedure is based on two types of counts (short duration counts taken with portable traffic counters and continuous counts taken with fixed counters) and has the main objective of determine the Annual Average Daily Traffic (AADT). Critical review of literature on this topic has pointed out that the most critical aspects of this procedure are the definition of road groups based on traffic flow patterns and the assignment of a section to a road group using short counts. The proposed approach has been designed to solve both issues. The first issue is related to situations for which road section could belong to more than one road group, and the groups cannot be easily defined in transportation terms, (e.g. “commuter road”, “recreational road”). The proposed approach introduces Fuzzy Clustering techniques, which adopt an analytical framework consistent with this kind of uncertainty. Concerning the second issue, road sections monitored with short counts are assigned to the road group with more similar traffic patterns. In the proposed approach an Artificial Neural Network is implemented to assign short counts to roads groups. The Neural network is specifically designed to maintain the uncertainty related to the definition of road groups until the end of the estimation process. In fact the output of the Neural Network are the probabilities that the a specific short counts belongs to the road groups. These probabilities are interpreted using the Dempster-Shafer theory; measures of uncertainty related to the output (indices of non-specificity and discord) provide an assessment of the quality of information in a synthetic manner. The proposed approach have been implement on a case study, using traffic data from SITRA (Sistema Informativo TRAsporti) monitoring program of the Province of Venice. In this specific context the approach has been validated and the results obtained (AADT estimates) from the proposed method have been compared with those obtained by two approaches proposed in previous studies. The comparative analysis highlights that the proposed approach increases the accuracy of estimates and gives indication of the quality of assignment (depending on sample size) and suggests the need for additional data collection. The positive results obtained in the experimental phase of the research have led to the design of a software tool to be used in next future in real world applications.
XXIV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
43

Bertoni, Vanessa. "Analisi probabilistica e uso di controventi dissipativi in telai in accaio e composti acciaio - calcestruzzo." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4469.

Full text
Abstract:
2009/2010
In questa tesi si indagano vari metodi per la protezione sismica delle strutture a partire da una corretta e realistica valutazione della loro risposta sismica attraverso un approccio probabilistico che tenga conto delle aleatorietà più significative. Se la risposta non soddisfa quanto atteso si può intervenire in vari modi come attraverso l’introduzione di controventi dissipativi. Si analizzano qui due tipologie: i controventi dotati di dispositivi visco elastici e quelli con dispositivi fluido viscosi. Di entrambi si presentano dei metodi di progetto completi con relativi confronti.
XXIII Ciclo
1977
APA, Harvard, Vancouver, ISO, and other styles
44

Medeossi, Giorgio. "Capacity and reliability on railway networks: a simulative approach." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3675.

Full text
Abstract:
2008/2009
An efficient train operation is a primary success factor for all infrastructure managers, since it allows operating a higher number of trains without significant infrastructure investments. As known, a trade-off exists between capacity and punctuality, forcing planners to find an equilibrium allowing the highest number of slots to be operated with satisfying punctuality indicators. This is particularly challenging in nodes, where the combination of different stochastic parameters on various lines and for different trains dramatically increases modelling tasks. In the last years, railway simulators have become a very powerful instrument to support the different steps of the planning process: from the layout design to capacity investigations and offer model validations. More recently, the possibility of an automatic import of infrastructure layouts and timetables widened the application spectrum of micro-simulators to large nodes and to more detailed stochastic stability evaluations. Stochastic micro-simulators can reproduce most processes involved in rail traffic and comprehend not only its deterministic aspects, but also human factors. This is particularly relevant in order to simulate traffic under realistic conditions, considering variability at border, various driving styles and stop times. All these parameters have to be calibrated using real-world collected data for single trains or train families, considering their different behaviour in the network and at its border. Since a perfect representation of all stochastic and deterministic parameters involved in rail traffic is not possible, a calibrated model must be validated to evaluate its precision before using it in practice. Calibration has been tested on the Palermo - Punta Raisi single-track line, on the Trieste - Venice double-track line and in the node of Turin. The model is first used to forecast reliability of the operations after infrastructure and timetable changes. Results have been compared ex-post with real traffic data, showing remarkable reliability. An approach is then presented, in which stochastic micro-simulation is used to represent the relationship between robustness, capacity and a number of other important factors, such as traffic variability or running time supplements. The approach can be used to estimate the buffer times, and the running time supplements to obtain a given reliability level. First, micro simulation with its advantages and weaknesses is presented; then, after a presentation of the most common reliability measures, the a new indicator is explained. Third, calibration, validation and application of the case studies is described; in the last part, an approach to evaluate the trade-off between different parameters is presented.
La domanda di trasporto collettivo, in particolare ferroviario, è fortemente cresciuta nelle grandi aree urbane anche per effetto di specifici strumenti pianificatori volti a favorire l’utilizzo di alternative sostenibili sotto il profilo ambientale, nel rispetto della configurazione del territorio. La conseguente saturazione dei nodi e delle linee e la contemporanea necessità di aumentare la regolarità del servizio offerto impongono ai gestori un deciso aumento nella precisione della pianificazione dell'esercizio. Come è noto, esiste un trade-off tra capacità e regolarità dei servizi ferroviari, che obbliga i pianificatori a trovare un equilibrio, massimizzando il numero di treni e garantendo nel contempo un soddisfacente livello di regolarità. Il mantenimento di tale equilibrio risulta particolarmente complesso nei nodi, dove la combinazione di fenomeni stocastici in numerose linee e per diversi servizi aumenta notevolmente le difficoltà di modellizzazione della circolazione reale. Negli ultimi anni, gli strumenti di microsimulazione della circolazione ferroviaria sono divenuti uno strumento potente a supporto delle diverse fasi di pianificazione, dalla progettazione funzionale dell’infrastruttura alle stime di capacità e alla validazione degli orari. Più recentemente, la possibilità di ottenere l'importazione automatica del modello infrastrutturale e degli orari ha ampliato lo spettro di applicazione della microsimulazione ai nodi complessi ed alle valutazioni ex-ante della stabilità degli orari. La microsimulazione consente di riprodurre la gran parte dei processi coinvolti nella circolazione ferroviaria, comprendendo non solo i suoi aspetti deterministici, ma anche il fattore umano. Ciò risulta particolarmente importante al fine di simulare la circolazione in condizioni reali, considerando i ritardi in ingresso nell’area di simulazione, i diversi stili di guida e la variabilità dei tempi di fermata nelle stazioni. Tali parametri necessitano tuttavia di un’adeguata calibrazione mediante dati reali per singoli servizi o famiglie di treni, considerando le diversità di comportamento all’interno della rete simulata ed al cordone. Dato che non è possibile una rappresentazione perfetta di tutti i parametri stocastici e deterministici che definiscono la circolazione ferroviaria, un modello calibrato deve essere validato per valutarne la precisione, prima di venire utilizzato in pratica. La calibrazione è stata testata sulla linea a semplice binario Palermo-Punta Raisi, sulla Venezia - Trieste, a doppio binario e nel nodo di Torino. In primis, il modello è stato utilizzato per la stima ex-ante della regolarità in seguito a modifiche infrastrutturali e di orario. Dopo l’attivazione dei provvedimenti simulati, i dati della circolazione reale sono stati confrontati con quelli simulati, dimostrando la notevole attendibilità della stima. E’ stata quindi sviluppata una metodologia, in cui la microsimulazione viene utilizzata per rappresentare la relazione tra capacità, regolarità dei servizi ed una serie di altri fattori, quali ad esempio gli allungamenti sul tempo di percorrenza e i fenomeni stocastici. L’approccio può essere utilizzato per la stima delle riserve e degli allungamenti da inserire nell’orario per ottenere una data regolarità. La tesi muove dalla presentazione della microsimulazione, delle sue potenzialità e dei suoi limiti; quindi, dopo la descrizione delle principali misure di regolarità, viene introdotto un nuovo indicatore. Seguono la presentazione delle metodologie di calibrazione e validazione di un modello di microsimulazione e la loro applicazione ai casi di studio. Viene infine presentata la metodologia per la stima coordinata di regolarità e capacità, le cui potenzialità sono illustrate nei casi di studio.
XXII Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
45

Khodayari, Nahid. "Implementation of LiDAR data in hydrological model TOPMODEL for predicting flood: Monticano River case study." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7349.

Full text
Abstract:
2010/2011
The semi-distributed rainfall-runoff model, TOPOMODEL is applied to predict the ‎response of Monticano River basin to rain events. TOPMODEL is a topographic based ‎model in which the topographic index has an essential role. Topographic index is a ‎function of the Digital Elevation Model (DEM) resolution. ‎ The high resolution LiDAR data with 1-2 points per meter square, is used as ‎topographic data to generate DEMs, calculate the topographic index as well as extracting ‎the hydrological features. Due to significant effect of the DEM resolution on the ‎topographic index and hydrological features accuracy, different DEMs with 25 m, 50 m, ‎‎100 m and 200 m grid size are generated using LiDAR data. Comparing the density ‎function of topographic index with different resolutions indicate that by decreasing the ‎resolution there is a shift toward the higher values as well as increasing the topographic ‎constant λ from 7.36 for 25 m resolution to 10.32 corresponding to 200 m grid size.‎ TOPMODEL is applied to simulate the six events namely; 20-21 December 1997, 6-7 ‎November 2000, 10-12 August 2002, 21-23 January 2003 , 31 October-1November 2004 ‎and 22-26 December 2009. The model successfully simulates flood levels, with respect to ‎both their extent and to peak time.‎ The sensitivity analysis for scale parameter m and lateral transmissivity T0 shows that ‎the coefficient m affects much more than T0 on the hydrograph shape and peak value.‎ The effect of DEM resolution on the model results is examined. The model results are ‎different, but the differences are very small except for events 2003 and 2009. The results ‎of simulations based on 25 m grid size are very close to those of 50 m grid size, while the ‎simulated discharges using 100 m and 200 m grid size are overestimated.‎ The efficiency of the simulations are calculated for all events using different ‎topographic index distributions. The efficiency of model is in a range of 0.86 for event ‎‎2009 to 0.99 for event 2002. The high values of efficiency can be due to effect of accurate ‎topographic index distribution and hydrological features extracted from high resolution ‎topographic data.‎ The simulation based on DEM with 25 m resolution shows slightly higher efficiency ‎values. This means that generating higher resolution DEM with respect to suggested 50 m ‎grid size for TOPMODEL, may give a more accurate output as it is evident from this ‎study.‎
XXIV Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
46

Pavan, Giovanni Maria. "Energetic and structural analysis of organic and inorganic systems- the molecular modeling potentiality." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3444.

Full text
Abstract:
2008/2009
The notable progresses achieved in the medical biotechnology research allowed to identify the common genetic origin of many different pathologies. Genes that, for unknown reasons, mutate during the lifetime of the patient synthesize proteins and receptors that lose the control by grow factors. These aberrant proteins are consequently always active and give rise to a series of cascade signals that result in an uncontrolled proliferation of tumor cells. In this framework, the use of small inhibitor molecules to deactivate these proteins, and consequently to block the diseases, constitutes a revolutionary concept that is the base of the “target therapy”. However, during the treatment, patients develop almost unavoidably resistance toward these kind of drugs that is caused by mutations that interest the amino acidic chains of determined tyrosine kinases (i.e. KIT, PDGFRα, etc.). In this thesis we used molecular modelling techniques to gain an insight in the binding between proteins and inhibitors. In particular, we were able to obtain unique information about the interactions that stabilize the complexation, and consequently about the destabilizing effect induced by mutations in the protein and receptor structures. Our data show that different drugs penetrate differently inside the binding site of kinases during the inhibition. Consequently, the efficiency of each inhibitor molecule is strongly dependent on the situation (mutations) presented by each patient. It becomes thus necessary to create a benchmark of responses related to all the most common mutations treated with different drugs. In this direction, molecular simulation can really support clinical scientists in the comprehension of drug resistance phenomena – a virtual microscope, able to provide unique details to cancer research.
I notevoli progressi compiuti dalla ricerca nelle biotecnologie mediche ha permesso di identificare la comune origine genetica di diverse patologie. Geni che, per cause ancora sconosciute, mutano durante la vita del paziente, sintetizzano proteine e recettori che perdono il controllo da parte dei fattori di crescita. Queste proteine aberranti sono di conseguenza sempre attive e generano una serie di segnali “a cascata” che risultano in una proliferazione incontrollata delle cellule tumorali. In questo ambito, l’uso di piccole molecole inibitrici per deattivare queste proteine, bloccando di conseguenza la progressione delle malattie, costituisce il concetto rivoluzionario che sta alla base della terapia a “bersaglio molecolare” (target therapy). Durante il trattamento tuttavia i pazienti sviluppano quasi inevitabilmente una sorta di resistenza nei confronti dei questo tipo di farmaci che è causato dalla comparsa di mutazioni che interessano la catena aminoacidica di determinate chinasi (KIT, PDGFRα, ecc.). In questa tesi sono state utilizzate tecniche di modellistica molecolare per ottenere un’analisi dettagliata del binding tra proteine e inibitori. In particolare, è stato possibile ottenere importanti informazioni sulle interazioni che stabilizzano la complessazione, e di conseguenza sull’effetto destabilizzante generato da mutazioni che compaiono sulla struttura di proteine e recettori. I nostri risultati mostrano che farmaci diversi penetrano differentemente all’interno del sito di binding delle chinasi durante l’inibizione. L’efficienza di ciascun inibitore risulta quindi essere fortemente dipendente dalla situazione (mutazioni) del singolo paziente. Diviene dunque necessaria la creazione di un benchmark contenente i responsi di tutte le più comuni mutazioni trattate con diversi farmaci. In questa direzione, la simulazione molecolare può fornire un supporto reale alla clinica nella comprensione dei fenomeni di resistenza ai farmaci: un microscopio virtuale, capace di fornire dettagli unici alla ricerca sul cancro.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
47

De, Fabris Stefano. "Un nuovo approccio per la calibrazione dell'equazione generale del moto nella modellazione stocastica della circolazione ferroviaria." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4471.

Full text
Abstract:
2009/2010
La circolazione ferroviaria è interessata da una serie di fenomeni stocastici che determinano una notevole differenza tra gli orari pianificati e l’esercizio reale. Negli ultimi anni sono state proposte numerose metodologie di analisi della circolazione ferroviaria con lo scopo di individuarne le origini a livello di orario o di infrastruttura. In particolare le ricerche precedenti si sono concentrate sull’analisi delle partenze e dei tempi di fermata dei treni. Non si riscontrano invece in letteratura dei lavori focalizzati sull’intera marcia del treno e volti quindi all’individuazione della variabilità della marcia rispetto a quella calcolata con l’equazione generale del moto né sul comportamento dei treni all’interno dei grandi impianti che spesso rappresentano i punti critici delle reti. Per superare queste carenze vengono proposti due nuovi approcci per l’analisi della circolazione dei treni, rispettivamente sulle linee e nelle grandi stazioni di testa. Viene presentata una metodologia di ottimizzazione per ricavare, a partire dal tracciato gps rilevato a bordo treno, una serie di parametri di prestazione che compensino le differenze tra il profilo di velocità reale e quello teorico. Tali parametri, inseriti nell’equazione generale del moto per le diverse fasi, ne permettono quindi la calibrazione. Una volta ricavati tali parametri per un certo numero di corse, le loro distribuzioni possono essere utilizzate nell’ambito della microsimulazione stocastica o a supporto della pianificazione dell’orario. Quest’ultima possibilità è stata implementata nell’ambito di questo lavoro, sviluppando un approccio che supera i tempi deterministici convenzionalmente utilizzati introducendo tempi di percorrenza ed occupazione probabilistici. Si tiene in questo modo conto delle variabilità riscontrate nella circolazione dei treni in modo esplicito già in fase di pianificazione dell’orario ottenendo una stima realistica della stabilità della circolazione. Il secondo approccio è focalizzato sull’analisi delle dinamiche di funzionamento di una grande stazione di testa. Contrariamente da quanto affermato in ricerche precedenti, l’esperienza suggerisce l’esistenza di stazioni di grande rilevanza in cui i piazzamenti dei treni sui binari non seguono rigorosamente la pianificazione, ma subiscono delle alterazioni seguendo dinamiche probabilistiche. Tale analisi è stata condotta su Roma Termini, la più complessa stazione di testa al mondo, dimostrando una notevole variabilità nell’uso dei binari di stazione e consentendo di creare una relazione tra la variabilità dei piazzamenti ed una serie di fenomeni quali i ritardi e la densità dell’orario pianificato.
XXIII Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
48

Agrusta, Andrea Antonio. "OPTIMISATION'S TECHNIQUES OF HULL SHAPES USING CFD RANSE SIMULATIONS WITH LOW NUMBER OF CELLS." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11116.

Full text
Abstract:
2013/2014
Negli ultimi anni le tecniche di idrodinamica numerica CFD hanno permesso di effettuare simulazioni al computer riguardanti l’ interazione tra solidi e fluidi. L’utilizzo dei software CFD permette una simulazione assolutamente realistica dei fenomeni idrodinamici, permettendo al progettista/programmatore di analizzare in tempi relativamente brevi molteplici soluzioni, onde sceglierne la migliore e di conseguenza molteplici macro o micro modifiche sulla carena prescelta, per valutarne l’impatto in termini di resistenza al moto, assetto, tenuta al mare, comfort. Negli ultimi anni si è visto un crescente utilizzo di algoritmi matematici di ottimizzazione multiobiettivo associati a modellatori 3d parametrici e successivamente a solutori CFD BEM a potenziale. Tali applicazioni tipicamente consentono di trovare le forme ottimali che, nel rispetto dei vincoli imposti, generino la minima resistenza d’onda ad una o più determinate velocità. Associare un processo di ottimizzazione ad un solutore viscoso RANS consente invece, conoscendo una moltitudine di parametri fisici in più, di ottimizzare seguendo più obiettivi ed in particolar modo la capacità di poter valutare l’effetto dell’attrito consente di poter ottimizzare le forme al fine di ridurre la resistenza totale all’avanzamento. Fino a ieri però un processo di ottimizzazione associato a simulazioni CFD RANS, se pur teoricamente possibile, era di fatto raramente utilizzato in quanto sconveniente a causa dell’enorme mole di calcoli da eseguire per valutare la bontà di centinaia di soluzioni diverse, rendendo troppo lungo ed oneroso il processo. Minimizzando il numero di celle computazionali riducendo così i tempi ei costi di simulazioni in ogni caso risultati adeguati, si dimostra come il modo simulazioni RANS viscosi saranno molto più utili rispetto a potenziali metodi BEM . Scopo infatti di questo lavoro è stato quello di associare un processo di ottimizzazione di carena basato sulla riduzione della RESISTENZA TOTALE ALL’AVANZAMENTO valutata attraverso l’utilizzo di simulazioni CFD RANSE eseguite con un dominio di calcolo a basso numero di celle. Tale dominio di calcolo deriva dall’accurato sviluppo di una procedura standardizzata che permette di eseguire simulazioni RANSE con una griglia standard che garantisce la bontà del risultato anche se “COARSE”. La presente trattazione oltre a fornire una panoramica sullo stato dell’arte in letteratura, presenta lo sviluppo di una metodologia atta ad eseguire simulazioni a basso numero di celle in maniera standardizzata, sviluppando tre tipi di meshatura standard, suddividendo le carene da studiare in tre differenti famiglie raggruppate per similitudine di geometrie e velocità di funzionamento e pertanto accomunate da una similare formazione ondosa : Round Bilge Displacement Hull, Round Bilge and Hard Chine Semiplaning Hull (Single and Multi-Hull), Hard Chine Planing Hull. Si è successivamente passati alla determinazione dei metodi di ottimizzazione investigando le potenzialità ed i limiti dei diversi metodi noti per eseguire ottimizzazioni multi-obiettivo, compreso il metodo „Sherpa“ basato su un robusto algoritmo combinato e progressivo finalizzato al raggiungimento della soluzione ottima riducendo automaticamente il numero di casi da simulare. Il processo di ottimizzazione in oggetto è stato applicato ad una innovativa carena semi-planante a spigolo dotata di bulbo prodiero a lama: si è partiti da una carena di base che soddisfaceva tutti i requisiti di progetto e, nel rispetto dei vincoli imposti, parametrizzata la carena ed impostati i set-up di calcolo, al termine dell’ottimizzazione si è ottenuta la geometria ottimale della stessa al fine della riduzione della resistenza totale a due differenti velocità (crociera e massima). Al termine delle attività si è proceduto con l’esecuzione di test in vasca navale su modello in scala per validare i risultati ottenuti per via numerica. La possibilità di ottenere simulazioni viscose con domini “standardizzati” a basso numero di celle permette l’analisi comparativa di molteplici soluzioni progettuali contenendo tempi e costi e con la certezza che i risultati siano realistici ed affidabili. L’innovativa standardizzazione studiata permette inoltre una riduzione del tempo di preparazione del set-up permettendo all’operatore di lanciare una simulazione su una nuova carena in pochi minuti, senza dover effettuare laboriose meshature ad-hoc e controlli di grid-independence dei risultati. L’utilizzo di queste griglie standard permette inoltre, come spiegato, di utilizzare le simulazioni CFD RANSE anche per eseguire ottimizzazioni multi-obiettivo riguardanti, per esempio, la riduzione della resistenza totale all’avanzamento. Senza griglie di questo tipo, raffinate ottimizzazioni basate su solutori viscosi sarebbero spesso antieconomiche. Difatti i risultati cui il presente lavoro è pervenuto riguardano un sensibile abbattimento dei tempi di calcolo necessari all’esecuzione di un’ottimizzazione morfologica di carena basata sulla minimizzazione della resistenza a due differenti velocità: in meno di 700 ore di calcolo con un tradizionale server a 12 core, ovvero in circa 80 ore utilizzando un centro di calcolo a 100 core, si riescono ad ottenere risultati importanti validi per fare delle valutazioni in senso assoluto sulla potenza necessaria all’imbarcazione per raggiungere le velocità prestabilite. Una procedura di questo tipo permette da una parte la possibilità di lavorare sulla resistenza totale o su altre quantità fisiche espresse dal solutore RANSE, dall’altra per la sua velocità e la sua semplicità d’utilizzo, consente l’avvicinamento alla CFD anche a progettisti di piccole imbarcazioni che fino ad oggi per problematiche di tempo e di budget non potevano approcciare ad una tecnologia così raffinata per progettare le loro carene. Difatti in un prossimo futuro l’utilizzo diffuso di tecniche di ottimizzazione o anche semplicemente di comparazione ed analisi di carene destinate ad imbarcazioni grandi e piccole, potrà contribuire in maniera significativa al risparmio di Potenza motrice installata a bordo (es. Grazie alla riduzione della resistenza totale), consentendo da una parte risparmi economici di carburante e dall’altra, soprattutto, una riduzione delle emissioni nocive in atmosfera.
In recent years, the techniques of numerical hydrodynamic CFD allowed to perform computer simulations on the interaction between fluids and solids. The use of CFD software allows an absolutely realistic simulation of hydrodynamic phenomena, enabling the designer to analyze several solutions relatively quickly, in order to choose the best hull and therefore various macro or micro changes on the hull chosen, in order to evaluate its impact in terms of resistance, trim angle, seakeeping, comfort. In recent years we have seen an increasing use of mathematical algorithms for multi-objective optimisation related to 3D parametric modelers and then to potential CFD BEM solvers. Typically these applications allow you to find the optimal shape that, while respecting the constraints imposed, generate the minimum wave resistance to one or more certain speeds. The association of optimisation processes to a viscous RANSE solver enables to optimize following more targets, knowing a multitude of physical parameters in addition. In particular, the ability to assess the effect of friction on the hull’s shape, in order to reduce the total resistance. Until yesterday, however, an optimisation process associated with CFD RANSE simulations was in fact rarely used in the industrial sector, because it was considered quite inappropriate though theoretically possible. It was due to the large amount of calculations to be performed to evaluate the goodness of hundreds of different solutions, making the process too long and expensive. The present work demonstrates how viscous RANSE simulations methods can be easily used through number of computational cells minimization and the consequent reduction of time and costs of simulations. Indeed, the aim of this work has been to associate an hull optimisation process based on the reduction of total resistance, evaluated through the use of CFD RANSE simulations performed through computational domain with low number of cells. This calculation domain derives from the accurate development of a standardized procedure which allows to make RANSE simulations with a standard grid ensuring the accuracy of the result even if "COARSE". The present research, as well as providing an overview of the state of the art in literature, shows the development of an innovative methodology able to perform simulations with low number of cells in a standardized way, developing three types of standard meshing, dividing the hulls to be studied in three different families grouped by similarity of geometry and operation speed and having therefore in common a similar wave pattern: Round Bilge Displacement Hull, Round Bilge and Hard Chine Semiplaning Hull (Single and Multi-Hull), Hard Chine Planing Hull. The work subsequently involved the determination of the methods of optimisation investigating potentiality and limits of several already known methods to perform multi-objective optimisation, including the "Sherpa" one, based on a robust combined progressive algorithm aiming to achieve the optimal solution, automatically reducing the number of cases to be simulated. The optimization process has been applied to an innovative semi-planing hard-chine hull with blade bulbous bow: the process started from a basic hull matching all the project requirements and, respecting the imposed constraints, the hull has been parameterized and the calculation set-up has been established. At the end of the optimisation , the best hull geometry has been obtained in order to achieve the reduction of the total resistance at two different speeds (cruise and maximum). At the end of these activities, a towing tank tests on a scale model was carried out in order to validate the results numerically obtained. The chance to get viscous simulations with "standardized" domains with low number of cells allows comparative analysis of multiple design solutions by reducing time and cost, with the certainty that the results are realistic and reliable ones. The innovative process of standardization also makes a reduction in the time of preparation of the set-up allowing the operator to run a simulation on a new hull in a few minutes without having to make laborious ad-hoc meshing activities and grid-independence controls of results. The use of these standard grids also allows, as already said, the use of CFD RANSE simulations also to perform multi-objective optimizations relating to, for example, the reduction of the total resistance. Without such kind of grids, fine optimization based on viscous solvers would be often uneconomical. In fact, these work’s results concern a significant reduction in computation time necessary for the execution of a morphological hull optimization based on the resistance minimization at two different speeds. In less than 700 hours of calculation with a traditional 12 core server, or in about 80 hours using a to 100 cores computer-center, it is possible to achieve important results available to give some absolute assessments on the necessary power to the hull to reach the target speeds. A procedure like this, on one side, allows the opportunity to work on the total resistance or other physical quantities expressed by the RANSE solver, on the other side - thanks to its speed and its simplicity of use - enables the approach to the CFD also for small boats’ designers who, due to lack of time and budget, could not approach to a so refined hulls designing technology, up to now. In the near future the widespread use of optimization techniques, or even just comparative and analysis ones on hulls for large and small boats, will be able to significantly contribute to save engine power installed on board (i.e. by reducing the total resistance), allowing both economic fuel savings and, above all, a strong toxic emissions reduction in the atmosphere.
XXVII Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
49

Cimolino, Aurelie. "Caratterizzazione delle risorse geotermiche della bassa pianura friulana (regione FVG)." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3620.

Full text
Abstract:
2008/2009
Scopo della ricerca. La ricerca di dottorato è mirata allo studio delle risorse geotermiche profonde (acquiferi profondi e sub superficiali) presenti nel sottosuolo della Bassa Pianura Friulana, mediante l’integrazione di metodi geofisici applicati con metodi stratigrafici e idrogeologici, geochimici e numerici. Le tematiche del dottorato si sono focalizzate su: delimitazione spaziale e caratterizzazione dei sistemi acquiferi (anche come reservoirs a bassa entalpia); studio dei meccanismi di ricarica e circolazione delle acque; definizione della struttura geotermica e valutazione della risorsa nell’area di Grado (Gorizia), dove è stato perforato un pozzo esplorativo (1110 m di profondità). I risultati preliminari della ricerca costituiscono il primo studio integrato in Regione per la caratterizzazione e valutazione della risorsa geotermica effettuato con metodi geofisici da pozzo. Alla luce del modello geologico preesistente, il nuovo modello concettuale emerso dalle ricerche effettuate risulta per molti versi innovativo. Fasi di acquisizione dei dati. Il dottorato è risultato sinergico alle attività di ricerca sviluppate dal DICA dell’Università degli Studi di Trieste, nell’ambito di alcuni progetti innovativi finanziati negli ultimi anni dal Servizio Geologico regionale (Direzione Centrale Ambiente e Lavori Pubblici - RFVG) che hanno permesso la raccolta di numerosi dati inediti. I progetti sono: “Realizzazione della Carta Geologico-Tecnica della Risorsa Geotermica Nazionale e definizione delle Linee Guida per il suo Utilizzo”[Progetto 1]; “Perforazione del pozzo esplorativo Grado-1 per la quantificazione della Risorsa Geotermica - Progetto Geotermia Grado”[Progetto 2]; “Studio sugli acquiferi regionali finalizzato anche alla definizione di linee guida per il corretto e compatibile utilizzo delle loro acque”[Progetto 3]. Questi progetti sono stati completati con diverse collaborazioni con DISGAM e DST dell’Università di Trieste e l’OGS di Trieste. Attività di ricerca. La ricerca si è articolata in diverse fasi operative, anche in accordo ai progetti sopraccitati: 1)Definizione del quadro geologico e strutturale dell’avampaese friulano mediante analisi della letteratura esistente. 2)Studio degli acquiferi sotterranei profondi della Pianura friulana (fino alla profondità massima di 600 m circa) [Progetto 1]. In particolare, in questa fase: sono stati esaminati i dati in sito, analisi geochimiche ed isotopiche di campioni di acqua provenienti da alcuni acquiferi significativi; sono state elaborate mappe delle isobate del tetto dei sistemi acquiferi e mappe delle isoterme delle acque di strato. 3)Raccolta, analisi e contributo alla realizzazione di un database dei pozzi per acqua perforati nella Pianura Friulana che ha integrato oltre 1800 litostratigrafie e altri dati accessori [Progetto 3]. Lo studio ha compreso l’elaborazione numerica delle superfici delimitanti i principali sistemi di acquiferi e delle relative mappe, mediante l’applicazione di diverse metodologie statistiche e l’analisi dei variogrammi sperimentali. Questo ha aggiornato il modello idrogeologico ottenuto dal Progetto 1. 4)Studio del reservoir geotermico profondo mediante un pozzo esplorativo di circa 1100 m di profondità a Grado (Gorizia) e all’acquisizione e all’elaborazione dei dati del pozzo [Progetto 2]. Questa fase ha impegnato la dottoranda in assistenza continua alla D.L. in cantiere (tra gennaio ed aprile 2008) e nelle specifiche attività di: acquisizione e analisi di dati tecnici di perforazione, parametri chimico-fisici dei fluidi di circolazione, produzione del master log e well log di cantiere; monitoraggio termico e prove idrauliche di pompaggio nel reservoir geotermico; raccolta e analisi dei cuttings e delle carote, descrizione macroscopica delle litologie, ricostruzione della stratigrafia sulla base delle analisi preliminari di laboratorio sui cuttings e sulle carote; analisi delle caratteristiche geochimiche principali delle acque campionate; acquisizione e analisi dei logs geofisici di pozzo, che hanno fornito gli elementi-chiave per la ricostruzione delle strutture profonde. 5)Ricostruzione geologica della struttura di Grado e modello idrogeologico e termico per il termalismo profondo, mediante l’integrazione dei dati disponibili e dei nuovi dati acquisiti, con particolare attenzione a: stratigrafie e logs geofisici provenienti da pozzi perforati da Eni, Ina Naftaplin e altri; sezioni sismiche a terra, in Laguna di Grado e Marano e nel Golfo di Trieste; carte del tetto dei carbonati e delle isobate del Quaternario nella Pianura Friulana; mappe di anomalia gravimetrica e magnetica per il Golfo di Trieste ed il suo entroterra. Risultati del dottorato di ricerca. I dati acquisiti nell’area di Grado e Laguna circostante, integrati con le informazioni regionali hanno permesso di individuare e ricostruire una struttura dinarica esterna, non nota precedentemente, che costituisce la sede del sistema di circolazione termale che è caratterizzato da diversa permeabilità. La struttura è interessata da rilevanti faglie beanti sub-verticali e strutture tettoniche che probabilmente mettono in contatto i sistemi termali più profondi con il tetto del reservoir. L’area di Grado è caratterizzata da: una copertura di età plio-pleistocenica di sedimenti sciolti alternati, caratterizzati da granulometria variabile da ghiaioso-sabbiosa a limoso-argillosa; una potente successione clastica costituita da sedimenti neogenici marnoso-arenacei (semilitoidi) e dalle torbiditi del Flysch paleogenico; un basamento carbonatico composito, reservoir del sistema geotermico, rinvenuto a partire da 618 m di profondità nel pozzo Grado-1. Il basamento è risultato suddiviso in intervalli ben distinti. Sono stati individuati calcari di rampa paleogenici e la loro sequenza di sviluppo e annegamento con la comparsa del flysch. I calcari ad Alveolinidae e Nummulitidae sono stati differenziati dai sottostanti calcari micritici di piattaforma di età cretacica superiore anche grazie al riconoscimento di netti marker nel Gamma Ray Log. La correlazione tra i diversi logs geofisici acquisiti in pozzo ha permesso di differenziare ulteriormente il reservoir carbonatico in intervalli distinti per litologia (densità, porosità, resistività, radioattività naturale, …) e moduli elastici; le facies geofisiche sono risultate ben relazionabili a quelle riscontrate nell’offshore croato. I dati idraulici acquisiti durante le prove di strato (con portata naturale e stimolata) e le analisi geochimiche ed isotopiche delle acque hanno permesso di affinare il modello di circolazione idrotermale. Questo considera almeno due sistemi di circolazione all’interno dei carbonati, separati da un setto idraulico: il tratto 616–830 m circa è caratterizzato da circolazione di acque in poche fratture ma molto aperte (con portata spontanea di circa 15 l/s e temperatura di circa 41.4°C); nel tratto 830–1000 m circa si ha una debole circolazione di acque all’interno di un ammasso roccioso più massiccio, interessato da un reticolo fitto ma con modesta apertura; a partire da 1000 m circa si rinvengono acque più calde (45°C a fondo pozzo) in un reservoir a notevole permeabilità (per fratturazione e incarsimento) che potrebbe richiamare i fluidi del sistema idrotermale presente alla profondità di 600-800 m. A scala locale, le strutture tettoniche presenti e probabilmente riattivate recentemente costituiscono una importante via di migrazione, circolazione e cortocircuitazione dei fluidi profondi (acqua e gas) con i sistemi più superficiali. A scala più ampia, il quadro strutturale elaborato per l’area di Grado è caratterizzato da un sistema di strutture inverse ovest-vergenti che coinvolgono il basamento carbonatico e le soprastanti coperture e da un raddoppio tettonico individuato nei calcari; queste strutture sono state interpretate come il fronte dinarico più esterno e costituiscono la diretta prosecuzione di fronti compressivi affioranti in Istria. Il modello stratigrafico elaborato risulta inoltre coerente con il quadro stratigrafico generale desumibile dai pozzi perforati nell’offshore croato e con quanto ipotizzato a partire dalle mappe di anomalia gravimetrica e dalle sezioni sismiche disponibili. Nel più ampio contesto della Bassa Pianura friulana le attività di ricerca hanno consentito di:  caratterizzare preliminarmente dal punto di vista chimico-fisico ed isotopico le acque profonde circolanti a diverse profondità (in seno alle coperture post paleogeniche) nelle aree caratterizzate da anomalie geotermiche e le relative mappe delle isoterme  valutare la presenza di alcune strutture tettoniche (coinvolgenti le coperture prequaternarie e giungenti in prossimità della superficie) in grado di veicolare fluidi profondi con acque superficiali nelle aree a nordorientali della Laguna di Grado  rappresentare mappe regionali delle superfici delimitanti tetto e letto dei principali sistemi di acquiferi confinati evidenziati dalle litostratigrafie dei pozzi e ricostruire un modello numerico schematico del sottosuol. L’insieme dei risultati ottenuti ha permesso dunque di validare le ipotesi di lavoro formulate inizialmente e di proporre un più solido, rinnovato e, per molti versi, innovativo modello geologico-termico basato su inediti dati sperimentali. Il modello geologico elaborato risulta decisivo anche in relazione all’imminente realizzazione del pozzo esplorativo Grado-2, che permetterà al contempo di validare le ipotesi assunte e fornire ulteriori dati sperimentali.
XXII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
50

Akkad, Nader. "TECNICHE AVANZATE DI MODELLAZIONE NON LINEARE DELLE STRUTTURE COMPOSTE IN ZONE SISMICHE." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11105.

Full text
Abstract:
2013/2014
Nella presente tesi si sono analizzate le principali problematiche relative alla modellazione non lineare delle strutture composte intelaiate in zona sismica. Nella prima parte si sono esaminati in dettaglio i criteri attualmente adottati nella progettazione classica delle strutture intelaiate composte acciaio-calcestruzzo, facendo principalmente riferimento alle indicazioni sismiche fornite dall’Eurocodice 8. Successivamente si è affrontato il tema della progettazione del giunto composto, a questo proposito si è definito un iter progettuale con una procedura semplificata passo-passo utilizzando un software sviluppato in Excel. Tale software è stato sviluppato con lo scopo principale di facilitare la progettazione dei giunti saldati e flangiati indicando i passi e le verifiche da eseguire fino all’ottenimento della risposta in termini di momento-rotazione. La procedura di progettazione è stata poi validata sulla base di un test sperimentale per entrambi i giunti. Nel terzo capitolo è stata affrontata la tematica relativa alla modellazione non lineare della struttura con riferimento ad un telaio multipiano oggetto di studio di ricerca presso l’università del Sannio. Le non linearità del telaio si sono modellate prima attraverso l’uso di cerniere rigido-plastiche e in un secondo momento attraverso molle elasto-plastiche unite alla trave ed alla colonna con dei tratti rigidi. Sono stati forniti tutti i dettagli per una corretta modellazione e uso con il software agli elementi finiti Sap2000 al fine di condurre una analisi statica non lineare di “Pushover”. Per meglio comprendere i reali meccanismi che si vengono a realizzare in prossimità delle zone nodali, si è considerata la modellazione solida 3D agli elementi finiti facendo riferimento al software Abaqus/CAE. Anche in questo caso è stata presentata una procedura di modellazione passo-passo, atta a rendere semplice anche questo tipo di analisi. La modellazione 3D è stata applicata sia alla tipologia di giunto saldato che a quello flangiato. In particolare, si sono analizzati a fondo i modelli di materiale impiegati, studiando la derivazione dei parametri che ne governano il loro comportamento. Si sono inoltre introdotte diverse tecniche di modellazione delle interazioni tra gli elementi che compongono il giunto. Sulla base dei risultati dei test sperimentali condotti presso l’Università Federico II di Napoli, è stato validato il modello agli elementi finiti solidi proposto. L'analisi della risposta numerica ottenuta, sotto un carico monotono si è dimostrata coerente con l’inviluppo della risposta ciclica sperimentale, sia per le risposte locali che per quelle globali. Questo tipo di modellazione si è inoltre dimostrata in grado di predire adeguatamente anche i fenomeni di instabilità locale che avvengono nelle fasi finali di comportamento del giunto. In conclusione, si può affermare che la tesi qui sviluppata può costituire un primo punto di partenza per la progettazione sismica delle strutture composte acciaio-calcestruzzo, argomento particolarmente complesso e articolato. Inoltre, il fatto che il modello numerico agli elementi finiti di tipo solido sviluppato si sia dimostrato particolarmente affidabile per lo studio di questo tipo di strutture, può fare propendere per un suo ampio utilizzo nello sviluppo preliminare di nuovi prototipi di giunti composti.
XXVII Ciclo
1969
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography