Academic literature on the topic 'SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE"

1

Dardi, Francesca. "Progetto ed applicazioni di metodi per l'analisi della qualità delle immagini." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7418.

Full text
Abstract:
2010/2011
L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale, al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di algoritmi per la determinazione di criteri di valutazione. Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva, argomento ancora più circostanziato nel campo di studio individuato. Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche, comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi. La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche diverse ed imputabili a cause di natura differente. Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da codifica in modo abbastanza tipico. Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta. All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto percepito a livello della scena in termini di regioni estratte. Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle che soddisfano i criteri scelti di rilevanza percettiva. A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta dall’operatore, e quella da codifica. In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini. Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore, ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o meno. L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo dedicato. Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi riguardante la multimedialità. In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un operatore esperto o ad un algoritmo di riconoscimento automatico. Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.
XXIV Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
2

Cervelli, Federico. "Methods and applications for forensic sciences." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7443.

Full text
Abstract:
2009/2010
La scienza forense è quella branca della scienza che si occupa dell’analisi del ma- teriale probatorio. Lo scopo di questa analisi è quello di comprendere le dinamiche del delitto, al fine di trovare il colpevole. In questo lavoro sono stati studiati tre nuovi metodi per affrontare alcuni dei problemi che devono affrontare gli esperti di scienze forensi. Il primo è un sistema per l’identificazione automatica delle calzature, al fine di trovare la marca e il modello della scarpa che ha lasciato l’impronta sulla scena del crimine. Un algoritmo basato sulla distanza di Mahalanobis è stato impiegato per lo scopo ed è stato confrontato con altri sistemi disponibili in letteratura sia su tracce di scarpa sintetiche che su tracce di scarpa reali, ovvero sia tracce prodotte aggiungende sinteticamente rumore che tracce provenienti dalla scena del crimine, rispettivamente. In un secondo sistema studio è stato analizzato lo spettro di terzo ordine, cioè il bispettro. Il bispettro può essere utilizzato per restaurare segnali corrotti, ma molti degli algoritmi disponibili soffrono per la comparsa di una traslazione sconosciuta nel segnale ricostruito. L’algoritmo proposto esegue la ricostruzione utilizzando direzioni parallele del dominio del bispettro e offre una soluzione semplice per risolvere e dimostrare la soppressione del problema nel caso di segnali 1D. Nell’ultimo sistema studiato, viene svolta l’analisi di impronte digitali utiliz- zando tecniche non standard. Un microspettrometro a trasformata di Fourier nel- l’infrarosso (FT-IRMS) viene utilizzato per analizzare il contenuto delle impronte digitali. L’FT-IRMS produce un’immagine iperspettrale, ed il sistema proposto elabora ognuno degli spettri prima stimando il numero di gruppi funzionali che lo compongono e poi individuando i loro parametri. A completamento del qua- dro, sono state impiegate diverse metodiche basate sui raggi x per lo studio degli eventuali contaminanti presenti nell’impronta.
Forensic science is the branch of science dealing with the analysis of evidence material. Its aim is to understand the dynamics of the crime, in order to find the culprit. In this work three new methods have been studied as an aid for the forensic experts. The first one is a system for the automatic retrieval of footwear to find the make and model of the shoe that left its mark on the crime scene. A Mahalanobis distance based algorithm is employed for the purpose and is compared with other systems available in literature on both synthetic and real shoe marks, i.e. on both computer generated shoe marks and on marks coming from crime scene. In a second study the third order spectrum, i.e. the bispectrum, is analyzed. The bispectrum can be used to restore corrupted signals but many available al- gorithms suffer for the emergence of an unknown translation in the reconstructed signal. Here the procedure is performed using two parallel paths in the domain of the bispectrum and a simple solution to the unwanted translation is found and demonstrated in the case of a 1D signal. Finally, fingerprint analysis is performed using non standard techniques. A Fourier transform infrared microspectroscope (FT-IRMS) is used to analyze the content of fingerprints. The FT-IRMS produces a hyperspectral like image and the proposed system processes each spectrum to estimate the number of func- tional groups and to give their parameters. Finally contained contaminants have been studied with several x-ray based techniques to give a comprehensive picture of the fingerprint evidence.
XXIII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
3

Rotunno, Giuliana. "Integrated techniques for the internal logistics analysis and management of complex systems." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8531.

Full text
Abstract:
2011/2012
In the context of manufacturing systems management, a decisive role is played by logistics, which may be defined as a planning and organization process aimed at optimizing the flow of material and information within and outside the company. In detail, the internal logistic systems are an important part of the modern industry and their design is challenging due to high complexity and heterogeneity of the manufacturing plants. Moreover, the analysis and management of the logistics in complex manufacturing systems is a widely discussed research topic in the related scientific literature. In this thesis the study of the internal logistic, and specifically application to manufacturing system, is taken into account in relation to the complexity features that characterize such systems. Despite the numerous contributions in the related literature proposing manufacturing logistic management approaches, few attempts were made to propose systematic techniques that, while improving the manufacturing system internal logistics and the related performances, are able to assess the manufacturing dynamics and the corresponding improvement. Therefore, the research results presented in this thesis are focused on the development of twoinnovative strategies and integrated techniques to analyze and manage the internal logistics of complex manufacturing systems. First, we present a novel hierarchical and iterative technique for the analysis and lean management of the internal logistics of discrete manufacturing systems. The technique efficiently integrates the Value Stream Mapping (VSM) tool, the Analytic Hierarchy Process (AHP) methodology and discrete event simulation in order to systematically improve the manufacturing system behaviour by rigorously assessing the system dynamics and corresponding performance indicators. Second, we deal with the scheduling of operations in Steelmaking and Continuous Casting (SM-CC) plants. Despite the numerous contributions, all the published papers in the field two limitations in real applications: (i) they do not consider the detailed description of the complete system from the structural and dynamic viewpoints; (ii) the authors focus on the process of the SM-CC plant and do not consider some peculiar characteristic of the main machines involved on the process, such as the continuous casting machines. In order to face the problem of the management and optimization of the production in the steel making continuous casting we propose an integrated a methodology to describe, assess and improve the logistics of the SM-CC processes: the Unified Modeling Language (UML), the discrete event simulation and the Mixed Integer Linear Programming (MILP) formulation. The application of the techniques to some real cases studies shows the effectiveness of the proposed management and optimization strategies.
XXV Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
4

Aizza, Marco. "Modelli per la simulazione di azionamenti elettrici di propulsione e sistemi di generazione navali." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8532.

Full text
Abstract:
2011/2012
La propulsione elettrica navale è una soluzione che riscuote notevole interesse per le navi di nuova generazione. La sua versatilità permette di ottimizzare gli spazi ed i pesi del sistema elettrico di propulsione. Questo sistema garantisce una riduzione dei consumi specifici del motore primo che, al variare della velocità di rotazione dell’elica connessa alla macchina elettrica, lavora costantemente alla velocità nominale, dove i consumi sono ottimizzati. Il presente elaborato si pone come obiettivo lo studio di un sistema di propulsione ibrida, composto da una turbina a gas e due azionamenti elettrici, installato su navi militari di nuova concezione. Il sistema è in grado di funzionare anche come generatore asse. Lo studio si focalizzerà principalmente sugli azionamenti elettrici del sistema di propulsione e sulla loro interazione con il sistema elettrico integrato di bordo. L’obiettivo principale è quello di realizzare un simulatore dettagliato dell’azionamento elettrico di propulsione, permettendo di studiare il funzionamento dello stesso in regime stazionario e in regime dinamico. Viene quindi eseguita una modellizzazione matematica dettagliata dell’azionamento di propulsione oggetto di studio, dalla macchina elettrica ai convertitori di propulsione. Lo studio è condotto allo scopo di ottenere informazioni riguardanti il comportamento dell’azionamento, in determinate condizioni di funzionamento, e gli effetti da esso causati sulla rete elettrica di bordo. Viene poi descritto il modello del sistema funzionante in modalità di “generatore asse”, dalla trattazione fatta sul sistema di propulsione, effettuando una validazione del relativo simulatore implementato, attraverso la comparazione tra i risultati ottenuti e le prove di collaudo fornite dai produttori del sistema oggetto di studio. Viene infine trattato uno degli argomenti più promettenti nell’ambito della propulsione elettrica navale, il sistema di distribuzione in media tensione continua (MVDC). Il sistema MVDC è una soluzione che riscuote notevole interesse nell’ambito delle “all-electric ship” di nuova generazione, grazie ai vantaggi offerti in termini di riduzione di pesi e dimensioni del sistema di generazione e di consumo di energia.
XXV Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
5

Riscica, Fabio. "Online characterization of high - frequency percussive ventilator." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4654.

Full text
Abstract:
2009/2010
The thesis describes the study on the characterization of the percussive ventilator; the activities have been carried out in cooperation with the “D.A.I. di Medicina Perioperatoria, Terapia Intensiva ed Emergenza - UCO di Anestesia, Rianimazione e Terapia Antalgica dell'Azienda Mista Universitaria - Ospedaliera di Trieste”. The first chapter describes the physiology of the respiratory system and the classical models presented in literature, the second chapter illustrates the main modes of mechanical ventilation, particularly in the percussive ventilation. The third chapter describes the classical laboratory equipment for the measurement of breathing. The fourth chapter examines the state of the art of methods and instruments for the analysis of respiratory parameters. The fifth chapter discusses the instruments for measuring respiratory parameters, developed in the biomedical laboratory of the DEEI of University of Trieste. The sixth chapter contains a detailed study on the characterization of the percussive ventilator: the model, the method for estimating parameters, the system tests and the results. Particularly, the ability to monitor respiratory parameters by using the instrument developed avoids the volutrauma (alveolar-capillary permeability increase owing to excessive distension of the lung) during controlled ventilation. The instrument also allows to accurately estimate the lung elastance, determining factor of the volume distribution in the used model. At the conclusion of the work, the seventh chapter summarizes the results from the study of the volumes distribution in the two-compartment model of the lung conditioned to percussive ventilation.
XXIII Ciclo
1965
APA, Harvard, Vancouver, ISO, and other styles
6

Petronio, Marco. "Research and applications of radio - frequency deflecting cavities." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4569.

Full text
Abstract:
2009/2010
This thesis has the aim of describing the design and the applications of the radio-frequency deflecting cavities. These devices are used to analyze the properties of the ultra-relativistic electron bunches in the FERMI@Elettra project, which is a fourth generation light source under development at the Elettra laboratory. In particular, two travelling wave deflectors will be placed just before the undulators chains, where the free electron laser occurs, while another standing wave deflector has been already installed in the first part of the machine, after the first bunch compressor. In this work the radio-frequency design of the low energy deflector is presented with the electron bunch measurements. The measurements have been performed to investigate the bunch length, the reconstruction of the longitudinal profile and the slice emittance. Furthermore the radio-frequency design of the high energy deflectors is discussed, and a new simple theory which allows the explanation of the energy exchange degradation between the electromagnetic field and the particles is given. The theory is useful to describe the mechanical errors in the deflector basic cell realization. In the last part of this thesis a new algorithm to determine the transversal bunch motion in presence of wakefields in a radio-frequency deflector is presented. The algorithm is used to evaluate the wakefield effect in the high energy deflectors and gives the possibility of taking easily in account of every charge distribution, and of every initial condition of the bunch at the input section of the cavity. In particular, the errors produced by the transversal wakefields in a bunch length measurement is analyzed with significant examples.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
7

Genna, Mariangela. "Sviluppo di strumenti per l'analisi della scrittura e applicazioni." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8529.

Full text
Abstract:
2011/2012
Le funzioni fine-motorie sono la base per il rapido conseguimento della piena autonomia strumentale, in particolare il disegno e la scrittura a mano, sono fondamentali per le prestazioni scolastiche e lo sviluppo umano generale. Una varietà di condizioni neurologiche e psichiatriche dell'infanzia e dell'adolescenza potrebbe compromettere il normale sviluppo delle abilità motorie. La ricerca nel settore, soprattutto nel nostro Paese, manca di un sistema di riferimento per la determinazione precoce dei disturbi dell’apprendimento, necessario, inoltre, per una valutazione opportuna del trattamento riabilitativo. A tale scopo, le attività di ricerca svolte dall’Autore nel corso del dottorato hanno inizialmente riguardato lo studio dell’apprendimento in un campione di soggetti a sviluppo tipico, madrelingua italiana e destrimani. Per raggiungere quest’obiettivo sono stati sviluppati algoritmi di elaborazione che permettessero l’analisi delle caratteristiche dinamiche del movimento, da acquisizioni di prove di scrittura eseguite su tavoletta grafica digitale. Una volta definiti i test e i parametri cinematici più informativi per l’analisi dello sviluppo, quali velocità, grado di automazione, arrangiamento spaziale e tempi di pianificazione motoria, sono stati determinati i relativi valori di riferimento per ogni fascia d’età. A questo punto, creato tale sistema di riferimento, è stato possibile fare ulteriori studi su campioni con caratteristiche diverse. Si è avuta l’occasione di analizzare le prestazioni di un gruppo di studenti in cui è stato sperimentato, durante gli anni delle scuole primarie, un metodo di insegnamento ideato nella prima metà del Novecento da Ida Terzi, insegnante elementare all’istituto per ciechi di Reggio Emilia. Il metodo è utilizzato per migliorare la percezione e l’integrazione dello schema corporeo, per organizzare l’orientamento e la rappresentazione mentale dello spazio, facilitando la coerenza percettiva e il passaggio da un utilizzo inconscio a un uso consapevole del corpo in movimento. Confrontando le performance cinematiche di tale campione con un gruppo di controllo, sono state osservate diverse strategie nell’esecuzione delle prove di scrittura proposte, inoltre, grazie allo sviluppo di strumenti per l'analisi della qualità del prodotto scritto, è stato possibile distinguere una migliore accuratezza nel gruppo in cui è stato adottato il Metodo Terzi.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
8

Davanzo, Giorgio. "Machine learning in engineering applications." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4520.

Full text
Abstract:
2009/2010
Nowadays the available computing and information-storage resources grew up to a level that allows to easily collect and preserve huge amount of data. However, several organizations are still lacking the knowledge or the tools to process these data into useful informations. In this thesis work we will investigate several issues that can be solved effectively by means of machine learning techniques, ranging from web defacement detection to electricity prices forecasting, from Support Vector Machines to Genetic Programming. We will investigate a framework for web defacement detection meant to allow any organization to join the service by simply providing the URLs of the resources to be monitored along with the contact point of an administrator. Our approach is based on anomaly detection and allows monitoring the integrity of many remote web resources automatically while remaining fully decoupled from them, in particular, without requiring any prior knowledge about those resources—thus being an unsupervised system. Furthermore, we will test several machine learning algorithms normally used for anomaly detection on the web defacement detection problem. We will present a scrolling system to be used on mobile devices to provide a more natural and effective user experience on small screens. We detect device motion by analyzing the video stream generated by the camera and then we transform the motion in a scrolling of the content rendered on the screen. This way, the user experiences the device screen like a small movable window on a larger virtual view, without requiring any dedicated motion-detection hardware. As regards information retrieval, we will present an approach for information extraction for multi-page printed document; the approach is designed for scenarios in which the set of possible document classes, i.e., document sharing similar content and layout, is large and may evolve over time. Our approach is based on probability: we derived a general form for the probability that a sequence of blocks contains the searched information. A key step in the understanding of printed documents is their classification based on the nature of information they contain and their layout; we will consider both a static and a dynamic scenario, in which document classes are/are not known a priori and new classes can/can not appear at any time. Finally, we will move to the edge of machine learning: Genetic Programming. The electric power market is increasingly relying on competitive mechanisms taking the form of day-ahead auctions, in which buyers and sellers submit their bids in terms of prices and quantities for each hour of the next day. We propose a novel forecasting method based on Genetic Programming; key feature of our proposal is the handling of outliers, i.e., regions of the input space rarely seen during the learning.
Oggigiorno le risorse disponibili in termini computazionali e di archiviazione sono cresciute ad un livello tale da permettere facilmente di raccogliere e conservare enormi quantità di dati. Comunque, molte organizzazioni mancano ancora della conoscenza o degli strumenti necessari a processare tali dati in informazioni utili. In questo lavoro di tesi si investigheranno svariati problemi che possono essere efficacemente risolti attraverso strumenti di machine learning, spaziando dalla rilevazione di web defacement alla previsione dei prezzi della corrente elettrica, dalle Support Vector Machine al Genetic Programming. Si investigherà una infrastruttura per la rilevazione dei defacement studiata per permettere ad una organizzazione di sottoscrivere il servizio in modo semplice, fornendo l'URL da monitorare ed un contatto dell'amministratore. L'approccio presentato si basa sull'anomaly detection e permette di monitorare l'integrità di molte risorse web remote in modo automatico e sconnesso da esse, senza richiedere alcuna conoscenza a priori di tali risorse---ovvero, realizzando un sistema non supervisionato. A questo scopo verranno anche testati vari algoritmi di machine learning solitamente usati per la rilevazione di anomalie. Si presenterà poi un sistema di scorrimento da usare su dispositivi mobili capace di fornire una interfaccia naturale ed efficace anche su piccoli schermi. Il sistema rileva il movimento del dispositivo analizzando il flusso video generato dalla macchina fotografica integrata, trasformando lo spostamento rilevato in uno scorrimento del contenuto visualizzato sullo schermo. In questo modo, all'utente sembrerà che il proprio dispositivo sia una piccola finestra spostabile su una vista virtuale più ampia, senza che sia richiesto alcun dispositivo dedicato esclusivamente alla rilevazione dello spostamento. Verrà anche proposto un sistema per l'estrazione di informazioni da documenti stampati multi pagina; l'approccio è studiato per scenari in cui l'insieme di possibili classi di documenti (simili per contenuto ed organizzazione del testo) è ampio e può evolvere nel tempo. L'approccio si basa sulla probabilità: è stata studiata la probabilità che una sequenza di blocchi contenga l'informazione cercata. Un elemento chiave nel comprendere i documenti stampati è la loro classificazione in base alla natura delle informazioni che contengono e la loro posizione nel documento; verranno considerati sia uno scenario statico che uno dinamico, in cui il numero di classi di documenti è/non è noto a priori e nuove classi possono/non possono apparire nel tempo. Infine, ci si muoverà verso i confini del machine learning: il Genetic Programming. Il mercato della corrente elettrica si basa sempre più su aste in cui ogni giorno venditori ed acquirenti fanno delle offerte per l'acquisto di lotti di energia per il giorno successivo, con una granularità oraria della fornitura. Verrà proposto un nuovo metodo di previsione basato sul Genetic Programming; l'elemento chiave della soluzione qui presentata è la capacità di gestire i valori anomali, ovvero valori raramente osservati durante il processo di apprendimento.
XXIII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
9

Bava, Michele Salvatore Valerio. "Innovative ICT solutions in telemedicine to support clinical practice and research in hospitals." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7437.

Full text
Abstract:
2010/2011
The scope of this study was to examine ICT telemedicine innovations and potentialities in web-portals, intranet services and tele-radiology topics respectively, in order to design, develop and, possibly, realize apposite telemedicine systems and solutions for healthcare and in particular for the hospitals. ICT techniques and technologies are nowadays applied in every area of our common living from work places to our homes, our free-time, schools, universities and so on. The healthcare services offered by hospitals are heavily supported by technologies and, behind them, by a wide research both in ICT and biomedical sciences. Thanks to these advances telemedicine is now becoming a fundamental part of services offered by hospitals and healthcare structures. The healthcare management, the doctors and the common people are now experimenting how telemedicine is an added value to all the services offered in terms of the quality of care, the patient follow up, the early diagnose and treatment of pathologies and diseases. In this research is presented an all-inclusive approach to telemedicine problems and challenges in particular studying, developing and proposing ICT methods and technologies in the above mentioned three areas of interest: •innovative healthcare and telemedicine-ready hospital website or portal design and development; •analysis and study of models for the realization of intranet healthcare services to enhance both quality of care and the management of healthcare personnel evaluation; •tele-radiology and some of its actual new perspectives as the study and the evaluation of the “mobile” tele-radiology approach using commercial tablets (and what it could mean).For the first topic the results may be summarized in the development of a more interactive and “social” hospital web-portal offering original solutions and services to all the categories of users (audience, professionals, researchers), allowing them – through the use of advanced tools - to configure and select their own pages and interests. The originality of this approach consists in a good cost/effective result in the respect of the last and worldwide accepted Internet regulations and policies too. A similar approach regarded the intranet services and the design of web interfaces for the clinical practice and the executive evaluation. These kind of innovative systems regard a limited and selected number of more skilled users, typically belonging to a corporation or to specific offices. As above the approach is important: interactive services, innovative tools and affordable instruments are the keywords of the systems designed or proposed to solve specific problems or needs. The last research topic concerned the proposal of a protocol for the assessment of medical images on commercial displays, interesting the stakeholders and the groups involved in medical images treatment, visualization and communication. The potentialities of the mobile tablet devices improve day after day and new devices are marketed every week and the innovation is round the corner. These potentialities must encounter the medical diagnostics world and meet the standards and the regulations the international community established. It will be difficult for a commercial tablet to obtain the medical device CE mark not only for commercial reasons, but the technical limits may be reached and even surpassed adopting objective measures and evaluations. This study demonstrates that commercial tablets may be used in clinical practice for the correct visualization and diagnose of medical images. The measures of some display characteristics may be considered acceptable for mobile interpretation (even report?) of medical images, but if and only if the ambient lighting conditions are under objective control and integrated automated systems in tablets warns physicians about bad or borderline technical and ambient restrictions or bonds.
XXIII Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
10

Antonelli, Matias. "Photon Beam-Position Monitor basati su diamante e quantum well per sorgenti di luce di terza e quarta generazione." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8540.

Full text
Abstract:
2011/2012
L’attività di ricerca qui presentata ha avuto come oggetto lo sviluppo di tecnologie innovative per la produzione di photon beam-position monitor (pBPM) veloci per sincrotroni di terza generazione e laser a elettroni liberi. Tali rivelatori di fotoni sono uno strumento diagnostico utile non solo per le linee che usano la luce di sincrotrone, ma anche per il sistema di controllo dell’acceleratore che la produce. A causa di diverse limitazioni delle tecnologie comunemente usate per la fabbricazione di pBPM, la diagnostica dei fasci di luce non è diffusa né consolidata quanto quella del fascio di particelle, utilizzata per controllare la macchina. Alla luce dei recenti progressi di materiali e strumentazione, si è indirizzata l’attività di ricerca sui rivelatori veloci verso tecnologie allo stato solido quali quelle del diamante monocristallino e dei dispositivi a quantum well, realizzando pBPM innovativi basati su tali tecnologie. In questo documento, dopo un’introduzione al contesto delle sorgenti di luce in cui si è operato, sono riportati e discussi gli aspetti più importanti dello sviluppo di dette tecnologie, corredati dai risultati più significativi delle numerose prove sperimentali cui sono stati sottoposti i rivelatori realizzati.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography