Dissertations / Theses on the topic 'Network di sensori'

To see the other types of publications on this topic, follow the link: Network di sensori.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Network di sensori.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

La, Rosa Giovanni. "Prototipazione di un Modello di Trust in una rete di sensori." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
La recente esplosione di tecnologie quali Pervasive Computing e IoT ha fatto sı̀ che, negli ultimi anni, da una parte facessero ingresso nelle nostre vite dispositivi in grado di interagire con l’ambiente circostante grazie ai sensori di cui sono dotati che permettono di eseguire continue rilevazioni di numerosi tipi di dati, dall’altra che molti oggetti, anche di uso comune, venissero dotati di tecnologie di comunicazione e che divenissero capaci di comunicare in internet. Questo, oltre a portare molteplici benefici in numerosi campi di applicazione, ha generato un forte interesse dal punto di vista commerciale e numerosi produttori in tutto il mondo si sono lanciati in questo mercato. Non esistendo un criterio di comunicazione condiviso da tutti, questo ha determinato che dal punto di vista tecnologico la situazione si andasse cosı̀ a frammentare. L’obiettivo di questo studio è di illustrare come l’integrazione di un modello di trust possa fornire una valida soluzione al problema dell’eterogeneità e alla bassa qualità dei dati rilevati dovuta al basso costo dei dispositivi coinvolti. Contestualmente apporta numerosi benefici all’efficenza del sistema in termine di ottimizzazione delle risorse e di attuazione di strategie di identificazione degli errori.
APA, Harvard, Vancouver, ISO, and other styles
2

Bagnolini, Nicola. "Tracking di target multipli in reti di sensori radar." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7008/.

Full text
Abstract:
Viene proposta una possibile soluzione al problema del tracking multitarget, tramite una rete di sensori radar basata su tecnoligia ultra wide-band. L'area sorvegliata ha una superficie pari a 100 metri quadri e all'interno di essa si vuole tracciare la traiettoria di più persone.
APA, Harvard, Vancouver, ISO, and other styles
3

Baldassarre, Federico. "Progetto e sviluppo di un middleware per l’interfacciamento di sensori per la domotica in ambiente Java." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11317/.

Full text
Abstract:
La diffusione di soluzioni domotiche dipende da tecnologie abilitanti che supportino la comunicazione tra i numerosi agenti delle reti. L’obiettivo della tesi è progettare e realizzare un middleware per sensori distribuiti Java-based chiamato SensorNetwork, che permetta ad un agente domotico di effettuare sensing sull’ambiente. Le funzionalità principali del sistema sono uniformità di accesso a sensori eterogenei distribuiti, alto livello di automazione (autoconfigurazione e autodiscovery dei nodi), configurazione a deployment time, modularità, semplicità di utilizzo ed estensione con nuovi sensori. Il sistema realizzato è basato su un’architettura a componente-container che permette l’utilizzo di sensori all’interno di stazioni di sensori e che supporti l’accesso remoto per mezzo di un servizio di naming definito ad-hoc.
APA, Harvard, Vancouver, ISO, and other styles
4

Gimelli, Gabriele. "Studio e valutazione sperimentale di tecniche di sincronizzazione per reti di sensori 6LoWPAN." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15434/.

Full text
Abstract:
I recenti progressi nella tecnologia applicata alla produzione dei system-on-a-chip hanno permesso lo sviluppo di piccoli dispositivi per il rilevamento a basso costo, a bassa potenza e multifunzione, che sono in grado di svolgere attività quali il rilevamento, l'elaborazione dati e la comunicazione. Una rete di sensori wireless (WSN) è una rete distribuita che consiste, in generale, di un gran numero di nodi di sensori, densamente distribuiti su un'ampia area geografica per tracciare un determinato fenomeno fisico. Le reti di sensori wireless sono oggigiorno utilizzate in un'ampia gamma di applicazioni come quelle mediche, industriali, militari, ambientali, scientifiche e in reti domestiche. In tutte queste applicazioni, la sincronizzazione temporale è un componente molto importante di una rete di sensori wireless, come del resto in ogni sistema distribuito. Questa tesi ha come scopo principale lo studio dei protocolli esistenti che consentono di risolvere il problema della sincronizzazione tra i nodi di una rete wireless, analizzando in particolare le tecniche TPSN e FTSP. Queste tecniche sono poi state implementate all'interno di una rete wireless di sensori 6LoWPAN già esistente, osservandone poi le performance tramite una serie di test effettuati tramite l'utilizzo della rete all'interno di un ambiente reale.
APA, Harvard, Vancouver, ISO, and other styles
5

Badiali, Gabriele. "Progettazione e sperimentazione di una rete di sensori wireless per il monitoraggio e la gestione del risparmio energetico nell'abitazione." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5655/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Tosatto, Silvia. "A teledetection system based on surface plasmon resonance sensors for environmental pollutants." Doctoral thesis, Università degli studi di Padova, 2013. http://hdl.handle.net/11577/3422980.

Full text
Abstract:
Surface Plasmon Resonance (SPR) sensors are thin-film refractometers that measure changes in the refractive index that take place at the surface of a metal film supporting a surface plasmon (Homola, 2008). The research activity consisted on a study and realization of innovative Surface Plasmon Resonance based sensors and of their applications, in particular for the environment monitoring. In order to investigate the possibility of creating innovative SPR sensors, computer simulations of optical structures supporting surface plasmon polaritons and comprising peculiar materials were implemented. In particular SPR sensors based on metals showing Inverted Surface Plasmon Resonance and a single layer of Graphene (SGL) were simulated. An article has been submitted on this study. Surface Plasmon Resonance sensor prototypes were also realized in laboratory. By means of a first SPR sensor with dynamic setup, measurements with Helium and Pentane gases were made, then an SPR sensor with a static setup was assembled, refined and as a following improvement in the optical components an adaptive mirror also introduced, which was able to counteract, if present, a lens defocus, spherical aberration, coma and astigmatism . Moreover the elements of a feasible wireless sensor network based on Surface Plasmon Resonance sensors, the possible data that can be inferred from a SPR sensor and a possible data handling strategy were determined along with an evaluation of the sensor module energy requirements. Then two small wireless sensor network test setups were implemented in laboratory, each one composed of two SPR sensors controlled by a computer or a microcontroller, ZigBee antennas and a main computer for the data reception and diffusion into Internet. The feasibility of a Wireless Sensor Network based on SPR sensors, conceived for environmental pollutants detection and with broadband internet connection, has been demonstrated and two different laboratory setups for a test Wireless Sensor Network based on Surface Plasmon Resonance Sensors were realized.
I sensori basati sulla plasmonica di superficie (SPR) sono rifrattometri, basati sulla fisica dei film sottili, che misurano le variazioni di indice di rifrazione che avvengono sulla superficie di uno strato metallico supportante un plasmone di superficie (Homola , 2008). L’ attività di ricerca si è sviluppata come uno studio ed implementazione di sensori SPR innovativi e delle loro possibili applicazioni, in particolare per la rilevazione di sostanze inquinanti. Sono stati simulati in ambiente Matlab sensori SPR innovativi, comprendenti materiali peculiari. Tali sensori comprendono in particolare metalli mostranti una Risonanza Plasmonica Invertita (ISPR), oltre che un singolo strato di Graphene (SGL). Un articolo è stato sottomesso su tali studi. Sono stati inoltre implementati in laboratorio vari prototipi di sensori basati sulla plasmonica di superficie. Innanzi tutto sono state effettuate delle misure di riflettività con i gas elio e pentano mediante un sensore basato sulla plasmonica di superficie e con un setup dinamico, quindi è stato creato un nuovo sensore utilizzante un un sistema ottico di tipo statico ed un prisma cilindrico ad alto indice di rifrazione, migliorando il più possibile la qualità del fascio ottico e filtrandolo opportunamente. Altresì è stato innovativamente utilizzato nel setup ottico uno specchio deformabile, in grado di correggere le aberrazioni ottiche presenti nello stesso. Oltre a ciò sono stati individuati i possibili elementi di una rete wireless di sensori SPR progettata per il monitoraggio ambientale, i dati ottenibili da un sensore SPR, una strategia per la diffusione dei dati ed una stima dei consumi energetici. Infine sono stati implementati in laboratorio due diversi setup di prova per una piccola rete wireless di sensori, formata da due sensori SPR controllati da un computer o da un microcontrollore, antenne ZigBee e da un computer principale per la ricezione, analisi e diffusione in Internet dei dati. L’ attività di ricerca presentata in questa tesi ha quindi dimostrato la possibilità della creazione di una rete wireless di sensori basati sulla Plasmonica di Superficie e con accesso Internet a banda larga, finalizzata alla rilevazione di sostanze inquinanti in ambiente acquoso, e due piccole versioni di prova della stessa sono state implementate in laboratorio.
APA, Harvard, Vancouver, ISO, and other styles
7

Del, Magno Oscar. "Misure sperimentali per il monitoraggio e la sorveglianza di aree e strutture mediante reti di sensori wireless." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8610/.

Full text
Abstract:
Studio e realizzazione di una rete Wireless Sensor Network per il monitoraggio ambientale di area archeologica. Trasmissione dati raccolti su server tcp. Misure sperimentali su rete di sensori radar UWB per la localizzazione di un target in ambiente indoor
APA, Harvard, Vancouver, ISO, and other styles
8

RAGGIUNTO, SARA. "Sviluppo e implementazione di soluzioni innovative di Wireless Sensor Network per IoT e use cases in ambito Smart Environment." Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/273500.

Full text
Abstract:
La presente tesi si focalizza sullo sviluppo di innovative Wireless Sensor Network con relative applicazioni orientate all’IoT, valutando e analizzando i principali protocolli di comunicazione e implementando sistemi di gestione delle reti sia in locale che da remoto. Nello specifico ci si è concentrati su due use cases: Wireless Sensor Network (WSN) per il controllo di un sistema di illuminazione e reti diffuse di sensori low-cost per il monitoraggio sismico. In relazione al primo ambito si è realizzato un sistema intelligente capace di monitorare da remoto ed in tempo reale i corpi illuminanti. I principali elementi dell'architettura realizzata sono il sistema di controllo dell'impianto di illuminazione, il sistema di rilevamento, il sistema di gestione e il sistema di illuminazione. I primi due elementi consentono l'acquisizione di informazioni relative al livello di illuminamento e alla temperatura colore (CCT) nel sito di analisi, il sistema di gestione integra funzioni di monitoraggio locale e remoto dei parametri illuminotecnici per il controllo, mentre il sistema di illuminazione è composto dai corpi illuminanti. Per quanto riguarda il secondo ambito applicativo si è sviluppata un'unità di sensing low-cost, composta da accelerometri che, attraverso i dati rilevati è in grado di registrare terremoti, rilevando sia eventi di bassa magnitudo che significativi. Dai risultati ottenuti nelle prove effettuate sul campo, il sistema assicura prestazioni analoghe rispetto a quelle della rete sismica nazionale dell'Istituto Nazionale di Geofisica e Vulcanologia (INGV). Vista l'ottima precisione ottenuta dall'unità di sensing, il dispositivo può essere utilizzato per incrementare e creare una rete diffusa per il monitoraggio di edifici strategici, come scuole e ospedali, per la realizzazione di mappe di scuotimento e per la creazione di sistemi intelligenti di Earthquake Early Warning (EEW) per l'allerta precoce, basati sulle architetture di Internet of Things.
This thesis focuses on the development of an innovative Wireless Sensor Network for IoT applications. An evaluation of the main communication protocols and an implementation of the network's management system for both local and remote control and monitoring is performed. Specifically, it deals with the two use cases: Wireless Sensor Network (WSN) for lighting system control and low-cost sensor networks for seismic monitoring. A smart lighting system has created capable of remotely and real time control the lighting performance. The main elements of the developed architecture are the control system, the detection system, the management system and the lighting system. The first two elements allow the acquisition of information relating to the level of illumination and the color temperature (CCT) in the analysis site, the management system integrates local and remote monitoring functions of the lighting parameters for control, while the lighting system is composed of LED fixtures. A low-cost sensing unit, composed of MEMS accelerometers, has developed for seismic applications. Through the data collected by this device it is possible to recording earthquakes of several intensity. During the field tests the obtained results show similar performance to the national seismic network of the National Institute of Geophysics and Volcanology (INGV). Given the high accuracy the device can be used to improve current installations and create new network infrastructures of smart systems for seismic and structural monitoring, finalized to collapses prevention in critical structures, such as schools and hospitals, for creating shaking maps and for implementation of Earthquake Early Warning (EEW) system, based on Internet of Things architectures.
APA, Harvard, Vancouver, ISO, and other styles
9

Pasqualetto, Michele. "Sistema di monitoraggio energetico di edifici." Doctoral thesis, Università degli studi di Padova, 2013. http://hdl.handle.net/11577/3423620.

Full text
Abstract:
The project developed during the PhD period aims to design, develop, implement and verify an innovative system of sensors and algorithms of data processing, which makes it possible for an accurate survey and assessment of the main environmental and energy parameters in buildings. The work has been included in the project SIMEA (Integrated/Distributed Energy Monitoring and Environmental), funded by the Region of Veneto in the "Strategic Plan for Scientific Research, Technological Development and Innovation 2008-2010". The sensor system is designed to produce the energy/operating building profile to be used for: - the purpose of certification of buildings; - the process of energy audits to improve the working conditions and comfort; - to promote the maximization of resources through an intelligent automatic control. The theory concerning the energy efficiency of buildings is based on a compromise between comfort and consumption and, in fact, all the regulations are aimed to decrease (decrease) the power consumption without compromising the comfort of the internal environment in which people are living. For this purpose, in the project of thesis have been considered, among others, UNI EN 15251:2007 which has the purpose to define which are the components to ensure the indoor comfort and UNI EN 15603:2008 which explains in detail the types of energy certifications. The sensor system developed is based on the latter regulation. The technical literature presents several studies aimed at defining the effective energy assessment of the building and if it can be certified with a methodology based on performing calculations or measurements made in situ. It can be concluded that the procedures are not discriminating but complementary: methods of calculation are used for an assessment of the standard type, implemented by software tools, while the monitoring system are used for assessment of the real consumption. The sensor system developed tries to satisfy the need to use a methodology based on monitoring the real behavior of building-plant but supported, for assessment of the energy consumption, by a calculation software validated at international level. The hardware part of the monitoring system is formed by a series of sensors for the measurement of various thermohygrometric parameters and is divided into two networks that differ by type and objectives: the structure in the fixed network (wired) and the structure in the mobile network (wireless). The development of the PhD project made it possible for monitoring with the system of sensors installed; this system permits not only the calculation of current consumption but also to define a short-term forecasts for the next day. In particular, the forecasts have been carried out in two modes: - estimation of consumption with air conditioning on and the setpoint temperature; - estimation of the temperature in free evolution with the conditioning system off. The final part of the work was devoted to the validation of the predictions made and the use of the sensor network for other purposes that could expand the potential of the monitoring system developed.
Il lavoro sviluppato nell’ambito del dottorato di ricerca ha l’obiettivo di progettare, sviluppare, realizzare e verificare un sistema innovativo di sensori, e relativi algoritmi di elaborazione dei dati, che permetta di effettuare una rilevazione e una valutazione precise dei principali parametri ambientali ed energetici negli edifici. Il progetto è stato inserito all’interno di un progetto sovvenzionato dalla Regione Veneto nell’ambito del “Piano strategico per la ricerca scientifica, lo sviluppo tecnologico e l'innovazione 2008-2010” denominato SIMEA (Sistema Integrato/distribuito di Monitoraggio Energetico ed Ambientale). La rete di sensori ha lo scopo di produrre il profilo energetico/operativo dell’edificio per essere successivamente utilizzato: - ai fini della certificazione, per elaborare degli audit energetici in modo da migliorare le condizioni operative e di comfort; - per incentivare l’utilizzo ottimizzato delle risorse attraverso un controllo automatico intelligente; - per ricavare informazioni utili alle procedure di manutenzione. La teoria riguardante l’energetica degli edifici si basa sul sottile compromesso tra comfort e consumi e, infatti, tutte le normative sono volte a cercare di abbassare i consumi non compromettendo il comfort dell’ambiente interno dentro cui le persone vivono. A questo scopo, nel lavoro di tesi sono state considerate, tra le altre, la norma UNI EN 15251:2007 che definisce quali sono le componenti per assicurare il comfort indoor e la UNI EN 15603:2008 che specifica le tipologie di certificazione energetica; ed è proprio a quest’ultima che si riferisce il sistema di sensori sviluppato. La letteratura tecnica presenta numerosi studi volti a definire l’effettiva valutazione energetica di un edificio e se questa possa essere certificata con una metodologia basata su esecuzione di calcoli oppure su misure eseguite in loco. Si può concludere che i procedimenti non sono discriminanti ma complementari: i metodi di calcolo servono per una valutazione di tipo standard, implementata spesso da strumenti software, mentre i monitoraggi sono utilizzati per una valutazione reale dei consumi. Il sistema di sensori sviluppato cerca di soddisfare l’esigenza di utilizzare una metodologia basata sullo sfruttamento dei monitoraggi per la valutazione ad hoc del comportamento reale edificio-impianto ma supportato, per la valutazione del consumo energetico, da un software di calcolo validato a livello internazionale. La parte hardware del sistema di monitoraggio è formata da una serie di sensori per la misura delle varie grandezze termoigrometriche ed è diviso in due reti che differiscono per tipologia e obiettivi: la struttura a rete fissa, cablata, e la struttura a rete mobile, wireless. Lo sviluppo del progetto di dottorato ha permesso di utilizzare i monitoraggi eseguiti con il sistema di sensori installato, non solo per il calcolo dei consumi attuali ma per realizzare anche delle previsioni a breve termine, ovvero per il giorno successivo. In particolare le previsioni effettuate sono state eseguite in due modalità: - stima dei consumi con impianto di climatizzazione acceso e temperatura di setpoint impostata; - stima della temperatura in evoluzione libera con impianto spento. La parte conclusiva del lavoro è stata dedicata alla validazione delle previsioni eseguite nonché all’utilizzo della rete di sensori per altri scopi che potessero ampliare le potenzialità della sistema di monitoraggio sviluppato.
APA, Harvard, Vancouver, ISO, and other styles
10

Zincarelli, Nicola. "Applicazioni Wireless in Body Area Network." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9641/.

Full text
Abstract:
Negli ultimi dieci anni si è rinnovata l’esigenza di sviluppare nuove tecnologie legate alla telemedicina, specie a seguito dello sviluppo dei sistemi di telecomunicazione che consentono ad ogni persona di avere a disposizione sistemi portatili, come gli smartphone, sempre connessi e pronti a comunicare. Lo stesso sviluppo si è avuto all’interno dei sistemi sanitari in cui è diventato fondamentale informatizzare le attività ospedaliere per via del contesto demografico a cui si va incontro: invecchiamento della popolazione e aumento del numero di pazienti affetti da malattie croniche. Tutti questi aspetti portano all’attuazione di un cambiamento strategico. Le Body Area Network, fulcro di questo lavoro di tesi, rappresentano la risposta a questa necessità. Si spiegano l'architettura e le tecnologie abilitanti per la realizzazione di queste reti di sensori, gli standard di comunicazione tramite i quali avviene la trasmissione dei dati e come le reti si interfacciano con i pazienti e le strutture sanitarie. Si conclude con una panoramica sui sensori di una BAN e alcuni esempi in commercio.
APA, Harvard, Vancouver, ISO, and other styles
11

Boschian, Valentina. "Models and Methods for Multi-Actor Systems." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7431.

Full text
Abstract:
2010/2011
The study of the models and methods to apply to multi-actor systems is a widely discussed research topic in the related scientific literature. The multi-actor systems are defined as systems that are characterized by the presence of several autonomous elements, of different decision makers and of complex rules that allow the communication, the coordination and the connection of the components of such systems. Commonly, the study of Multi-Actor System, MAS, recalls the well-known issues concerning the multi-agent systems. The research topic related to the multi-agent system firstly started to appear in scientific literature in 1980s, mainly in relation to the computer science and artificial intelligence. In this dissertation, in particular, the study of the multi-agent systems, and specifically of the multi-actor systems, is taken into account merely in relation to the distinctive features of complexity that characterize such systems and not to the issues concerning the agent-oriented software engineering. Therefore, the research results presented in this thesis are focused on the development and on the realization of innovative models and methodologies to face the management and the decision making mechanisms applied to complex multi-actor systems. This dissertation especially focuses on two different examples of multi-actor systems in two very diverse perspectives. The former deals with the research problem related to intermodal transportation networks, while the latter with the so called consensus problem in distributed networks of agents. Concerning the research problem related to the intermodal logistic systems, the research activity addresses the management of their more and more increasing complexity by the applications of the modern Information and Communication Technologies (ICT) tools that are key solutions to achieve the efficiency and to enhance logistics competitiveness. The related scientific literature still seems lacking in addressing with adequate attention the impact of these new techniques on the management of these complex systems and, moreover, there is an apparent lack of a systematic and general methodology to describe in detail the multiplicity of elements that can influence the dynamics and the corresponding information and decision making structure of intermodal transportation systems. The innovative results presented in this dissertation are focused on the development of an Integrated System, IS, devoted to manage intermodal transportation networks at the tactical as well as operational decision level to be used by decision makers both in off-line planning and real time management. To specify the Integrated System, a reference model is developed relying on a top-down metamodeling procedure. These innovative research results are a contribution to bridge the gap and to propose not only a systematic modeling approach devoted to describe a generic multi-actor logistic system, but also a management technique based on a closed loop strategy. The second example of application is focused on a topic that is widely discussed in scientific literature related to the study of the multi-actor collective behaviors in a distributed network. The interaction protocols that allow the agents to reach the convergence to a common value is called consensus or agreement problem. This research problem is particularly studied in the context of cooperative control of multi-agent systems because the agents are autonomous, independent and have to interact in a distributed network. The presented research results address the investigation of new and fast alignment protocols that enhance the performances of the standard iteration protocols for particular topologies of digraphs on the basis of a triangular splitting of the standard iteration matrix. The examined examples, the models and the methodologies applied to analyze them, are very different in the two cases and this testifies the large extent of research problems related to the multi-actor systems.
L’analisi di modelli e metodi da sviluppare e da applicare nel contesto dei sistemi multi-attoriali costituisce un tema molto variegato e discusso nella letteratura scientifica internazionale. I sistemi multi-attoriali sono sistemi che si contraddistinguono per la presenza di molti elementi autonomi diversi tra loro, di molteplici decisori e di complesse regole che determinano la comunicazione, il coordinamento e la connessione all'interno di tali sistemi. Frequentemente, facendo riferimento a sistemi multi-attoriali, Multi-Actor Systems, si richiama il tema molto attuale dei sistemi multi agente, Multi-Agent Systems. Diffusisi a partire dal 1980, i sistemi multi agente sono spesso studiati in relazione alle metodologie di sviluppo dell'ingegneria del software. Nel presente lavoro di tesi, il tema dei sistemi multi-agente, ed in particolare di quelli multi-attoriali, non viene analizzato in questo contesto, ma in relazione alle tecniche decisionali da adottare per gestire sistemi caratterizzati da un alto livello di complessità. In tale ambito, i risultati presentati all'interno di questa dissertazione sono focalizzati sullo sviluppo e sulla realizzazione di nuovi metodi e di nuove metodologie, in grado di affrontare la gestione della complessità dei sistemi multi-attoriali. Vengono in particolare esaminate due diverse problematiche, in due contesti completamente diversi e con tecniche differenti, a testimoniare le vaste applicazioni che riguardano i sistemi multi-attoriali. I problemi analizzati sono incentrati, in primo luogo, su un'applicazione inerente la gestione di sistemi logistici intermodali ed, in secondo luogo, sullo studio delle regole o protocolli di interazione in una rete distribuita di agenti autonomi. Per quanto riguarda l'aspetto legato ai sistemi intermodali di trasporto, un tema molto discusso nella letteratura scientifica recente, l'analisi si focalizza sulla gestione della loro sempre crescente complessità, tramite l'utilizzo di sistemi dell'Information and Communication Technology, ICT. Questi strumenti richiedono metodi e modelli che sono innovativi rispetto a quanto è presente nella letteratura scientifica, all'interno della quale è stata riscontrata la mancanza di un approccio sistematico e sufficientemente ad alto livello per la realizzazione di una metodologia in grado di descrivere allo stesso tempo sia la molteplicità di elementi che influenzano le dinamiche e le informazioni, sia le strutture decisionali dei sistemi intermodali. L'innovazione dei risultati presentati in questa tesi si focalizza proprio sull'esigenza di proporre un sistema integrato, Integrated System (IS), basato su un metamodello delle reti intermodali di trasporto, che fornisca un valido supporto ai decisori sia a livello tattico che operativo. Il secondo aspetto affrontato in questa tesi riguarda un altro argomento di largo ed attuale interesse nella letteratura scientifica, che viene comunemente chiamato problema del consenso. Questo problema affronta lo studio di come diversi agenti autonomi collocati su una rete distribuita siano in grado di comunicare e di accordarsi su un valore comune, senza la presenza di un decisore centrale. A questo scopo ci sono degli algoritmi che specificano le regole o protocolli di interazione tra i diversi agenti. In tale contesto, i risultati proposti si focalizzano su alcune problematiche rappresentate dal protocollo classico del consenso e soprattutto sulla sua scarsa efficienza in particolari conformazioni delle reti di agenti. Il lavoro di tesi propone, quindi, un approccio di suddivisione, splitting, della matrice standard di iterazione, di tipo triangolare, che presenta notevoli vantaggi in termini di performance rispetto all'algoritmo classico. Lo studio di problemi multi-attoriali, pertanto, richiede lo sviluppo di innovative metodologie decisionali e di nuovi metodi di gestione delle comunicazioni, per rispondere al livello sempre crescente di complessità, offrendo in questo modo alcuni spunti molto interessanti per la ricerca.
XXIV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
12

Masiero, Riccardo. "Distributed Optimization and Data Recovery for Wireless Networking." Doctoral thesis, Università degli studi di Padova, 2011. http://hdl.handle.net/11577/3425322.

Full text
Abstract:
My research activity focused on the field of heterogeneous wireless networks and has been particularly inspired by the problem of sensing a city-wide environment through a large scale, partially distributed, mobile and low cost network (possibly composed of mobile phones or similar user’s equipment). In my PhD thesis I have been guided by the grand vision of a two tier architecture which integrates existing cellular systems with different types of distributed networks (these could be mixtures of ad hoc, sensor networks and soon). In fact, a fully distributed infrastructure alone would be inappropriate when the network is very large in size and highly populated (e.g., urban area networks). In such a case, the network organization itself would be energy draining and probably impractical. On the other hand, a cellular system alone does not have the flexibility and the instruments to get a fine grained view of all the data generated within such a network. This envisioned scenario, besides featuring a number of mobile phones, also consists of a mixture of embedded devices, which are expected to have on-board radio and sensing capabilities. Nowadays technology makes us more and more able to control the environment we are in through motion sensors, GPS, health care devices, microphones and video-cameras. Wireless Sensor Networks (WSNs), for instance, are infrastructures made of small devices (nodes) equipped with “intelligent sensors” able to sense their surroundings for, e.g., light, temperature, humidity and/or pollution. Therefore, mobile phones as well as other network elements, including base stations, routers and access points hosting diverse wireless and wired technologies, can cooperate to accomplish a common task like the detection of a fire or the monitoring of a physical phenomenon. Exploiting the fact that cell phones are becoming a communication hub in our daily life, we can foresee the integration of standard cellular systems with overlayed distributed networks such as WSNs. The ultimate goal of this is to “connect” everything has some communication capability, possibly providing self-configurability and self-adaptability of the network. We note that current cellular networks already implement some of these features: user positions, to a certain extent, can be tracked already and services can be provided based on contextual information. As a matter of fact, we are depicting a Delay Tolerant Network (DTN) scenario, where heterogeneous, sparse and/or mobile wireless networks communicate with each other, but where, due to the inherent nature of the infrastructure itself, no continuous connectivity can be assumed. The above grand vision entails quite a few challenges, and during my research activity I have been focusing on the following ones: 1) the design of reconstruction algorithms that from a subset of the data (i.e., from the collection of the sensor readings from a small fraction of nodes) are able to reconstruct with high accuracy the data monitored over the entire sensor field (these algorithms allow for scalability of the system as they decrease the number of data packets to collect for a given accuracy goal); 2) the design of cooperative networking protocols, where cooperation is utilized to reach a common goal such as the detection of a fire or/and to increase the network performance in terms of optimization of given performance metrics, e.g., energy consumption, delivery time, delivery probability. Concerning the first point, my study explores the capabilities of Compressive Sensing (CS), a technique that has been proved to be very effective for the compression and recovery of correlated signals, with the objective of designing and implementing a system for the efficient acquisition of large data sets in distributed (sensor) networks. The goal of this system is to reconstruct large signals through the collection of the smallest number of samples that will keep the reconstruction quality above a minimum target level. The steps of my research activity can be summarized as follows: 1.a) assess the applicability and potential benefits of CS in networking applications; 1.b) provide a sound theoretical justification of the effectiveness of CS recovery when coupled with Principal Component Analysis (PCA) along with a characterization of the optimality of the reconstruction process as a function of the statistics of the input signal; 1.c) design an algorithm for signal reconstruction based on CS and validating the proposed method through Matlab simulations as well as real signal traces. For the second point, my work has been centered around distributed optimization methods whose objective is that of optimizing network wide (global) performance metrics. In detail, in the investigated scenario nodes collaborate to minimize the sum of local objective functions, which in general depend on global variables such as the network protocol parameters or actions taken by all the nodes in the network. In the case where the local objective functions are convex, it is possible to adopt a framework that relies on local subgradient methods and consensus algorithms to average the information from each node, while granting convergence towards global optimal solutions. However, existing convergence results for this framework can only be applied in the case of synchronous operations of the nodes and mobility models without memory. My research addresses and solves these issues, and its fundamental steps were: 2.a) the extension of the convergence results to the optimal solution for a more general class of mobility models; 2.b) the application of distributed sub-gradient methods under asynchronous operations; 2.c) the presentation of a possible networking scenario to validate the analysis, showing the effectiveness of the considered distributed optimization technique. The outcomes of my research are useful tools for the optimization of practical network protocols and provide recommendations for the design of the integrated communication and sensing system that we have envisioned above.
Durante la mia attività di ricerca mi sono concentrato sullo studio di problematiche relative alle reti wireless eterogenee, ispirandomi in particolare ad uno scenario di monitoraggio urbano realizzato per mezzo di una rete di comunicazione estesa su vasta scala, parzialmente distribuita, mobile e a basso costo (possibilmente composta da telefoni cellulari o simili). Nella mia tesi di dottorato, dunque, sono stato guidato dalla visione globale di una architettura a due livelli, che permettesse l’integrazione dei sistemi cellulari esistenti con varie tipologie di reti distribuite (quali, ad esempio, le reti ad hoc o di sensori). Infatti, una infrastruttura completamente distribuita sarebbe inappropriata nel caso di una rete di grandi dimensioni e composta da numerosi dispositivi (si pensi, ad esempio, a reti su scala urbana). In questo caso, l’organizzazione stessa dell’infrastruttura di comunicazione risulterebbe assai dispendiosa in termini energetici e probabilmente impraticabile. D’altro canto, il solo sistema cellulare non possiede la flessibilità e gli strumenti per sfruttare la granularità di informazione prodotta dai dati generati in una tale rete. Nello scenario considerato, oltre alla presenza di un certo numero di cellulari mobili, e implicita anche l’esistenza di dispositivi (embedded devices) di varia natura, capaci di comunicare tra loro e con gli altri elementi della rete, e che ci si aspetta possano anche “misurare” l’ambiente circostante. Al giorno d’oggi, infatti, la tecnologia ci rende sempre più capaci di controllare la realtà quotidiana attraverso sensori di movimento, GPS, strumentazioni per il monitoraggio medico, microfoni e video-camere. Le reti di sensori (Wireless Sensor Networks, WSN), ad esempio, sono infrastrutture costituite da piccoli dispositivi (nodi) dotati di “sensori intelligenti” capaci di misurare l’ambiente circostante in termini di luminosità, temperatura, umidità , inquinamento e/o altro. Perciò, e possibile pensare che i telefoni cellulari, così come altri elementi di rete (incluse le base station, i router e gli access point su cui si basano diverse tecnologie cablate e non), possano cooperare per realizzare un obiettivo comune come l’individuazione di un incendio o il monitoraggio di un fenomeno fisico. Osservando il fatto che i telefoni cellulari sono sempre piu al centro delle comunicazioni quotidiane, è possibile prevedere l’integrazione dei sistemi cellulari standard con reti distribuite aggiuntive come le WSN. Lo scopo ultimo sarebbe quello di “connettere” qualsiasi cosa in grado di comunicare, trasmettendo e ricevendo dell’informazione, e possibilmente dotare tale rete di meccanismi autonomi di configurazione e adattamento. Si noti che le reti cellulari odierne già implementano alcune di queste caratteristiche: sulla base di informazioni contestuali, infatti, è oggigiorno possibile determinare la posizione di un utente con una certa accuratezza e fornirgli determinati servizi. Di fatto, si sta considerando una infrastruttura di rete che può essere classificata come una Delay Tolerant Network (DTN). In questo tipo di infrastruttura, reti wireless eterogenee, sparse e/o mobili, comunicano tra loro, ma tale comunicazione non puo essere assunta continua a causa della natura stessa della reti interagenti. La visione generale di cui sopra porta con s'é numerose problematiche, e durante la mia attività di ricerca mi sono concentrato in particolare sulle seguenti due: 1) la progettazione di algoritmi di ricostruzione che a partire da un sottoinsieme di dati (ossia, dalla raccolta parziale delle letture dei nodi che costituiscono l’intera rete) sono in grado di ricostruire con elevata accuratezza l’intero segnale misurato (tali algoritmi rendono il sistema scalabile, dal momento che permettono di ridurre il numero di pacchetti dati da raccogliere, fissato un certo livello di accuratezza che si vuole garantire sulla rappresentazione del segnale da monitorare); 2) la progettazione di protocolli di rete cooperativi, dove la cooperazione è utilizzata per raggiungere un obiettivo comune come l’individuazione di un incendio e/o l’aumento delle prestazioni della rete in termini di metriche quali il consumo energetico, la latenza, la probabilità di consegna. Per quanto riguarda il primo punto, il mio studio indaga le potenzialità di Compressive Sensing (CS), una tecnica molto efficace per l’acquisizione e il recupero di segnali correlati, con l’obiettivo di progettare e implementare un sistema per la raccolta efficiente di elevate quantità di dati da reti (di sensori) distribuite. Tale sistema ha l’obiettivo di ricostruire segnali di grandi dimensioni, raccogliendo il minor numero di campioni necessario al recupero del segnale di interesse entro un fissato livello minimo di qualità . I passi della mia attività di ricerca possono essere riassunti come segue: 1.a) valutazione dell’applicabilità dei benefici potenziali di CS in applicazioni di reti; 1.b) giustificazione dell’efficacia del recupero del segnale tramite CS, quando quest’ultimo è utilizzato in sinergia con la tecnica dell’analisi alle componenti principali (Principal Component Analysis, PCA) e caratterizzazione dell’ottimalità del meccanismo di ricostruzione in funzione della statistica del segnale di ingresso; 1.c) progettazione di un algoritmo per la ricostruzione di segnali basato su CS, e successiva validazione del metodo proposto per mezzo di simulazioni (Matlab) e utilizzando tracce reali. A proposito del secondo punto, invece, il mio lavoro si è focalizzato sullo studio di metodi distribuiti il cui obiettivo è quello di ottimizzare una metrica globale, nel senso delle prestazioni dell’intera rete di interesse. Nel dettaglio, nello scenario considerato vi sono più nodi che collaborano per minimizzare la somma di funzioni obiettivo locali, che in generale dipendono da variabili globali quali parametri protocollari o decisioni prese dai nodi stessi. Nel caso in cui le funzioni obiettivo locali siano convesse, è possibile utilizzare una tecnica che si basa sul metodo del subgradiente e algoritmi di consenso per mediare l’informazione proveniente da ogni nodo, e che garantisce la convergenza verso una soluzione di ottimo globale. In letteratura si trovano risultati di convergenza per tale tecnica che considerano solo il caso di operazioni sincrone tra nodi e modelli di mobilità senza memoria. La mia ricerca si è occupata di estendere tali risultati ad un contesto piu ampio. I passi fondamentali del mio lavoro sono stati: 2.a) estensione dei risultati di convergenza all’ottimo per una classe piu generale di modelli di mobilità (con memoria); 2.b) applicazione del metodo del subgradiente nel caso di operazioni asincrone tra nodi; 2.c) presentazione di un possibile scenario di applicazione di rete per validare l’analisi svolta e mostrare l’efficacia della tecnica di ottimizzazione distribuita considerata. I risultati della mia ricerca si sono rivelati strumenti utili per l’ottimizzazione pratica di protocolli di rete e permettono di formulare raccomandazioni per la progettazione del complesso sistema integrato discusso sopra.
APA, Harvard, Vancouver, ISO, and other styles
13

Villani, Clemente. "Progettazione, caratterizzazione e calibrazione di un sensore di tensione contactless per smart metering." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/8023/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Golfarelli, Maurizio. "Progettazione di Energy Harvesting solare per l'autonomia energetica di una Wireless Sensor Network." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24207/.

Full text
Abstract:
In agricoltura, il controllo delle condizioni del raccolto prevede un frequente intervento manuale, che richiede tempo e manodopera. Con l’avvento dell’Internet of Things (IoT) e l’utilizzo delle Wireless Sensor Network (WSN) è stato però possibile automatizzare le procedure di controllo della crescita dei frutti ed inviare le informazioni raccolte (come lo stato di maturità o i livelli di umidità e insolazione del terreno) tramite comunicazioni wireless. Ciò consente di ridurre i costi di manodopera e migliorare la qualità del raccolto grazie ad una maggiore precisione dei dati ottenuti. Le applicazioni delle WSN possono essere molto differenti l’una dall’altra e le soluzioni commerciali esistenti, per poter essere molto versatili, sono poco ottimizzate e portano a costi e consumi energetici eccessivi. Con questo progetto si è sviluppata una soluzione integrata per la trasmissione a lunga distanza dello stato di crescita di un frutto, in grado di operare autonomamente per lunghi periodi di tempo. Per adempiere a questo compito si è scelto di progettare un nodo sensore con LoRa come protocollo di comunicazione per il suo basso consumo di potenza e la circuiteria è stata progettata per richiedere meno energia possibile a riposo. Inoltre, si è optato per l’alimentazione a batteria per eliminare la dipendenza dalla rete elettrica, la quale richiederebbe un cablaggio ingombrante e costoso nel caso si utilizzino molteplici nodi sensori, oltre a renderne più complicato il posizionamento. In aggiunta l’utilizzo di tecniche di Energy Harvesting, che permettono di recuperare energia da fonti alternative come il solare o l’eolico, consente poi di ricaricare la batteria direttamente sul campo, riducendo le dimensioni minime di questa e, quindi, il suo costo ed ingombro, andando ad ottenere dei nodi sensori maggiormente miniaturizzati.
APA, Harvard, Vancouver, ISO, and other styles
15

TIBERTI, WALTER. "A Security Framework for Wireless Sensor Networks." Doctoral thesis, Università degli Studi dell'Aquila, 2020. http://hdl.handle.net/11697/157442.

Full text
Abstract:
Wireless Sensor Networks (WSN ) are networks composed of small, wireless, battery-powered and sensor- equipped nodes, called motes. Thank to their characteristics, WSNs are often adopted as monitoring plat- forms in environments where the deployment of conventional networks are unfeasible. Typical applications of WSNs can be found in the smart home scenarios, in industrial applications, in safety-related and in military contexts. The reference protocol stack for WSNs is the IEEE 802.15.4 [1], which defines the first two layers of the ISO/OSI network stack (PHY and MAC). Providing security in WSNs is a non-trivial challenge: the performance limitations, the limited amount of storage and the finite energy resources cause the implementation of well-known state-of-art security solutions to be unfeasible. The IEEE 802.15.4 standard defines some security-related specifications, but they do not cover all the WSNs security issues. In order to provide a complete solution for WSN security, we propose a framework to provide a set of lightweight security solutions which take WSN constrains into account. In particular: • we address the confidentiality security requirement by mean of a set of lightweight cryptographic schemes based on hybrid cryptography, Elliptic Curve Cryptography (ECC) and new key transport pro- tocols; at the same time, we introduce a hardware accelerator to overcome the performance limitations; • we address the need for dynamic security checks on the WSN with the improvement of a misuse-based WSN Intrusion Detection System; • we address the integrity requirements of both data and WSN motes by introducing a novel lightweight anti-tampering mechanism based on the blockchain technology; • finally, we use an enhanced version of a famous mobile-agent middleware for WSN. The new version support additional features (e.g. energy-awareness) and integrate all the above techniques to build up a complete secure platform based on mobile agents for WSN.
APA, Harvard, Vancouver, ISO, and other styles
16

De, Lisa Angelo. "SensorSpeak: monitoraggio e controllo vocale di reti di sensori mediante Amazon Alexa." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14555/.

Full text
Abstract:
L’Internet of Things (IoT) sta rapidamente acquistando una grande importanza e utilità nella vita di tutti i giorni. L’idea di base dell’IoT è la presenza pervasiva, intorno a noi, di oggetti in grado di interagire e di cooperare tra loro per eseguire una determinata funzione. Con il proliferare di nuove applicazioni e tecnologie in tale ambito, si introducono anche innovativi modi di collaborare e interagire, sia dal punto di vista degli oggetti che dell’uomo. Essendo la voce la maniera naturale dell’uomo di esprimersi, l’integrazione del controllo vocale nei sistemi IoT offre un metodo versatile ed intuitivo in termini di interazione, comunicazione e controllo dei dispositivi. Lo scopo di questa tesi è la realizzazione di SensorSpeak, un sistema di monitoraggio e controllo dei dispositivi IoT mediante l’utilizzo di comandi vocali. Attraverso la semplice interazione vocale con Amazon Alexa, l’utente è in grado di monitorare e controllare i dispositivi associati al proprio cloud. L’approccio utilizzato nell’implementazione del sistema estende il suo utilizzo ad un’enorme varietà di dispositivi e la sua integrazione in diversi scenari, come smart home o reti di sensori. Inoltre, data l’importanza della questione energetica in contesti del genere, è stato testato un algoritmo di predizione del tempo di carica rimanente delle batterie che alimentano i device. SensorSpeak è stato installato e testato in una rete 6LoWPAN montata presso il centro di ricerca ARCES di Bologna per il monitoraggio dei sensori disposti all’interno della struttura.
APA, Harvard, Vancouver, ISO, and other styles
17

Zennaro, Davide. "Clock Synchronization in Wireless Sensor Networks: Statistical and Algorithmic Analysis." Doctoral thesis, Università degli studi di Padova, 2012. http://hdl.handle.net/11577/3422165.

Full text
Abstract:
In the past few years, the impressive growth of applications performing tasks in a distributed fashion has been enabled by the availability of tiny, inexpensive devices which, in turn, has been made possible by the recent micro-electromechanical technology advancements. Sparsely disposing small intelligent appliances throughout a specific area is something that the community has become used to. Low cost and low power sensing devices equipped with telecommunication hardware are attractive for use in an infrastructure-less network in which the absence of a central node stands out, making robustness be one of the strengths of this kind of networks. Environmental monitoring and military surveillance are just a few examples of the number of applications suitable for sensor networks; in fact, home automation and several health services also can be implemented given that a distributed network of sensors exists. Sensors need to keep track of a common time scale. This is fundamental for prolonging the network lifetime, making channel access schemes work properly, for example, or for allowing precise duty cycling among the nodes. Clock synchronization is also basic if the goal of a running application is to track moving objects in the battlefield or, more generally, to perform distributed processing of the sensed data. Since the local notion of time in a sensor is based on a low quality local oscillator, it turns out that even small changes in the environmental conditions, like temperature and pressure, lead to modification in the oscillation frequency of the quartz crystals, thus producing time discrepancies among different sensor nodes as time goes by. This thesis tackles the problem of clock synchronization in sensor networks, both from a perspective of clock parameters estimation and from an algorithmic point of view, to pursue the final goal of making nodes agree on a common time scale, all across the network. In the first part of the thesis, the so-called two-way message exchange between two nodes is thoroughly analyzed. After recalling existing results on clock parameters estimation exploiting data collected via this message exchange process on the wireless channel, an innovative mathematical framework is introduced, which encompasses several common assumptions for the random delays present in the collected data, in a more general treatment. Based on this new framework, a factor graph-based clock offset estimator for wireless sensor networks is proposed and evaluated. Comparison of the variance of the estimation error with classical bounds available in the literature shows that the new estimator has extremely good performance, therefore it can be considered outstanding among Bayesian clock offset estimators. The focus of the second part of the thesis is on the design of distributed consensus algorithms in wireless sensor networks, especially for observations averaging purposes. In fact, an innovative fast consensus algorithm is proposed and evaluated, based on the alternating direction multipliers method, which is a distributed method used to solve minimization problems in an iterative fashion. The new consensus algorithm is compared with the state-of-the-art of fast consensus, showing an excellent convergence rate and an outstanding noise resilience. The proposed algorithm is then applied to solve a network-wide clock synchronization issue, assuming both clock skew and offset for the nodes in the network, showing a relevant performance improvement with respect to previously proposed consensus-based synchronization schemes. Finally, the Appendix contains a work whose topic falls out of the main stream of this thesis: in uplink cellular networks, based on the knowledge of channel statistics, surrounding base stations are carefully and iteratively chosen in order to provide the mobile terminal a certain quality of service in terms of the maximum allowed outage probability, with the aim of minimizing the overall backhaul network usage.
Negli ultimi anni abbiamo assistito alla continua comparsa di applicazioni distribuite, la cui implementabilita' risulta consentita dalla possibilita' di avere a disposizione sensori piccoli ed economici. I recenti progressi tecnologici nel settore micro-elettronico-meccanico hanno infatti consentito una miniaturizzazione dei nodi sensore. La comunita' scientifica si e' oramai abituata alla possibilita', con una spesa minima, di collocare piccoli dispositivi intelligenti lungo un'area specifica. Sensori economici e a basso consumo, una volta muniti dell'hardware necessario per le telecomunicazioni, risultano ideali per l'utilizzo in reti senza infrastruttura, uno scenario in cui spicca l'assenza di un nodo centrale e la robustezza diviene quindi una proprieta' fondamentale. Monitoraggio ambientale e sorveglianza militare sono solamente un paio di esempi di applicazioni adatte a reti di sensori, cosi' come la domotica e l'ambito sanitario risultano scenari in cui l'uso di una rete distribuita di sensori puo' rivelarsi, in effetti, utile e vantaggiosa. I sensori necessitano di una base temporale comune. Questo bisogno risulta fondamentale al fine di prolungare il tempo di vita di una rete, ottimizzando schemi di accesso deterministico al mezzo, ad esempio, oppure schedulando i periodi di attivita' dei nodi in maniera precisa. La sincronizzazione risulta fondamentale anche in applicazioni legate alla localizzazione, o piu' genericamente, per permettere l'elaborazione distribuita di dati raccolti dai sensori stessi. Dal momento che la nozione di tempo locale in un sensore e' fornita da un oscillatore di bassa qualita', anche minime perturbazioni delle condizioni ambientali (come temperatura e pressione) si riflettono in modifiche nella frequenza di oscillazione del cristallo di quarzo, producendo discrepanze nel comportamento tra oscillatori in diversi sensori, che diventano non trascurabili man mano che il tempo scorre. Questa tesi affronta il problema della sincronizzazione di clock in reti di sensori, sia da una prospettiva di stima dei parametri di clock, sia da un punto di vista algoritmico lungo tutta la rete, con l'obiettivo finale di permettere ai nodi interessati di trovare una concordanza su una scala temporale comune. Nella prima parte di questa tesi viene analizzato il processo di scambio di informazioni tra due nodi chiamato two-way message exchange. Dopo aver richiamato la letteratura esistente sulla stima dei parametri del clock utilizzando questo protocollo di scambio dati attravero il canale wireless, viene introdotto un nuovo framework matematico per permettere un'assunzione piu' generale riguardo i ritardi casuali presenti nei dati raccolti. Basandosi su questo framework, viene proposto e studiato un nuovo stimatore del clock offset basato sulla teoria dei factor graphs. Dal confronto della varianza dell'errore di stima con classici limiti inferiori presenti in letteratura risulta che il nuovo stimatore proposto permette degli ottimi risultati, per cui puo' a pieno titolo essere considerato meritevole di menzione nella teoria della stima Bayesiana applicata al clock offset. La seconda parte della tesi riguarda invece la progettazione di algoritmi di consensus distribuiti per reti di sensori wireless, in special modo per operazioni di averaging svolte in maniera distribuita. Viene proposto e valutato un nuovo algoritmo di consensus velocizzato basato su alternating direction multipliers method, un metodo distribuito per risolvere problemi di minimizzazione in modo iterativo. Il nuovo algoritmo di consensus viene confrontato con lo stato dell'arte del consensus velocizzato, mostrando un'eccellente velocita' di convergenza e una resistenza al rumore migliore rispetto agli altri algoritmi presenti in letteratura. Lo schema proposto viene poi applicato al problema della sincronizzazione di clock in reti di sensori wireless, assumendo presenza di clock skew e clock offset tra i vari oscillatori della rete. L'algoritmo di sincronizzazione risultante consente un rilevante miglioramento delle prestazioni rispetto a schemi di sincronizzazione basati su consensus proposti in precedenza. Infine, nell'Appendice viene descritto un lavoro il cui argomento si discosta da quello principale della tesi: in reti cellulari in uplink, in base alla statistica del canale le stazioni base cooperanti vengono selezionate tramite l'utilizzo di tecniche iterative con l'obiettivo di garantire al terminale mobile una certa qualita' del servizio in termini di probabilta' di disservizio massima permessa e allo stesso tempo di minimizzare l'utilizzo della rete di backhaul.
APA, Harvard, Vancouver, ISO, and other styles
18

Monti, Gabriele <1978&gt. "Management and routing algorithms for ad-hoc and sensor networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/928/1/Tesi_Monti_Gabriele.pdf.

Full text
Abstract:
Large scale wireless adhoc networks of computers, sensors, PDAs etc. (i.e. nodes) are revolutionizing connectivity and leading to a paradigm shift from centralized systems to highly distributed and dynamic environments. An example of adhoc networks are sensor networks, which are usually composed by small units able to sense and transmit to a sink elementary data which are successively processed by an external machine. Recent improvements in the memory and computational power of sensors, together with the reduction of energy consumptions, are rapidly changing the potential of such systems, moving the attention towards datacentric sensor networks. A plethora of routing and data management algorithms have been proposed for the network path discovery ranging from broadcasting/floodingbased approaches to those using global positioning systems (GPS). We studied WGrid, a novel decentralized infrastructure that organizes wireless devices in an adhoc manner, where each node has one or more virtual coordinates through which both message routing and data management occur without reliance on either flooding/broadcasting operations or GPS. The resulting adhoc network does not suffer from the deadend problem, which happens in geographicbased routing when a node is unable to locate a neighbor closer to the destination than itself. WGrid allow multidimensional data management capability since nodes' virtual coordinates can act as a distributed database without needing neither special implementation or reorganization. Any kind of data (both single and multidimensional) can be distributed, stored and managed. We will show how a location service can be easily implemented so that any search is reduced to a simple query, like for any other data type. WGrid has then been extended by adopting a replication methodology. We called the resulting algorithm WRGrid. Just like WGrid, WRGrid acts as a distributed database without needing neither special implementation nor reorganization and any kind of data can be distributed, stored and managed. We have evaluated the benefits of replication on data management, finding out, from experimental results, that it can halve the average number of hops in the network. The direct consequence of this fact are a significant improvement on energy consumption and a workload balancing among sensors (number of messages routed by each node). Finally, thanks to the replications, whose number can be arbitrarily chosen, the resulting sensor network can face sensors disconnections/connections, due to failures of sensors, without data loss. Another extension to {WGrid} is {W*Grid} which extends it by strongly improving network recovery performance from link and/or device failures that may happen due to crashes or battery exhaustion of devices or to temporary obstacles. W*Grid guarantees, by construction, at least two disjoint paths between each couple of nodes. This implies that the recovery in W*Grid occurs without broadcasting transmissions and guaranteeing robustness while drastically reducing the energy consumption. An extensive number of simulations shows the efficiency, robustness and traffic road of resulting networks under several scenarios of device density and of number of coordinates. Performance analysis have been compared to existent algorithms in order to validate the results.
APA, Harvard, Vancouver, ISO, and other styles
19

Monti, Gabriele <1978&gt. "Management and routing algorithms for ad-hoc and sensor networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/928/.

Full text
Abstract:
Large scale wireless adhoc networks of computers, sensors, PDAs etc. (i.e. nodes) are revolutionizing connectivity and leading to a paradigm shift from centralized systems to highly distributed and dynamic environments. An example of adhoc networks are sensor networks, which are usually composed by small units able to sense and transmit to a sink elementary data which are successively processed by an external machine. Recent improvements in the memory and computational power of sensors, together with the reduction of energy consumptions, are rapidly changing the potential of such systems, moving the attention towards datacentric sensor networks. A plethora of routing and data management algorithms have been proposed for the network path discovery ranging from broadcasting/floodingbased approaches to those using global positioning systems (GPS). We studied WGrid, a novel decentralized infrastructure that organizes wireless devices in an adhoc manner, where each node has one or more virtual coordinates through which both message routing and data management occur without reliance on either flooding/broadcasting operations or GPS. The resulting adhoc network does not suffer from the deadend problem, which happens in geographicbased routing when a node is unable to locate a neighbor closer to the destination than itself. WGrid allow multidimensional data management capability since nodes' virtual coordinates can act as a distributed database without needing neither special implementation or reorganization. Any kind of data (both single and multidimensional) can be distributed, stored and managed. We will show how a location service can be easily implemented so that any search is reduced to a simple query, like for any other data type. WGrid has then been extended by adopting a replication methodology. We called the resulting algorithm WRGrid. Just like WGrid, WRGrid acts as a distributed database without needing neither special implementation nor reorganization and any kind of data can be distributed, stored and managed. We have evaluated the benefits of replication on data management, finding out, from experimental results, that it can halve the average number of hops in the network. The direct consequence of this fact are a significant improvement on energy consumption and a workload balancing among sensors (number of messages routed by each node). Finally, thanks to the replications, whose number can be arbitrarily chosen, the resulting sensor network can face sensors disconnections/connections, due to failures of sensors, without data loss. Another extension to {WGrid} is {W*Grid} which extends it by strongly improving network recovery performance from link and/or device failures that may happen due to crashes or battery exhaustion of devices or to temporary obstacles. W*Grid guarantees, by construction, at least two disjoint paths between each couple of nodes. This implies that the recovery in W*Grid occurs without broadcasting transmissions and guaranteeing robustness while drastically reducing the energy consumption. An extensive number of simulations shows the efficiency, robustness and traffic road of resulting networks under several scenarios of device density and of number of coordinates. Performance analysis have been compared to existent algorithms in order to validate the results.
APA, Harvard, Vancouver, ISO, and other styles
20

Valero, Marco. "DI-SEC: Distributed Security Framework for Heterogeneous Wireless Sensor Networks." Digital Archive @ GSU, 2012. http://digitalarchive.gsu.edu/cs_diss/66.

Full text
Abstract:
Wireless Sensor Networks (WSNs) are deployed for monitoring in a range of critical domains (e.g., health care, military, critical infrastructure). Accordingly, these WSNs should be resilient to attacks. The current approach to defending against malicious threats is to develop and deploy a specific defense mechanism for a specific attack. However, the problem with this traditional approach to defending sensor networks is that the solution for one attack (i.e., Jamming attack) does not defend against other attacks (e.g., Sybil and Selective Forwarding). This work addresses the challenges with the traditional approach to securing sensor networks and presents a comprehensive framework, Di-Sec, that can defend against all known and forthcoming attacks. At the heart of Di-Sec lies the monitoring core (M-Core), which is an extensible and lightweight layer that gathers information and statistics relevant for creating defense modules. Along with Di-Sec, a new user-friendly domain-specific language was developed, the M-Core Control Language (MCL). Using the MCL, a user can implement new defense mechanisms without the overhead of learning the details of the underlying software architecture (i.e., TinyOS, Di-Sec). Hence, the MCL expedites the development of sensor defense mechanisms by significantly simplifying the coding process for developers. The Di-Sec framework has been implemented and tested on real sensors to evaluate its feasibility and performance. Our evaluation shows that Di-Sec is feasible on today’s resource-limited sensors and has a nominal overhead. Furthermore, we illustrate the functionality of Di-Sec by implementing four detection and defense mechanisms for attacks at various layers of the communication stack.
APA, Harvard, Vancouver, ISO, and other styles
21

PILLONI, VIRGINIA. "Dynamic deployment of applications in wireless sensor networks." Doctoral thesis, Università degli Studi di Cagliari, 2013. http://hdl.handle.net/11584/266095.

Full text
Abstract:
Over the past decades, the progress inWirelss Sensor Network (WSN) technology, both in terms of processing capability and energy consumption reduction, has evolved WSNs into complex systems that can gather information about the monitored environment and make prompt and intelligent decisions. In the beginning, military applications drove the research and development of WSNs, with large-scale acoustic systems for underwater surveillance, radar systems for the collection of data on air targets, and Unattended Ground Sensor (UGS) systems for ground target detection. Typical civil WSNs are basically not complex monitoring systems, whose applications encompass environment and habitat monitoring, infrastructure security and terror threat alerts, industrial sensing for machine health monitoring, and traffic control. In these WSNs, sensors gather the required information, mostly according to a fixed temporal schedule, and send it to the sink, which interfaces with a server or a computer. Only at this point data from sensors can be processed, before being stored. Recent advances in Micro-Eletro-Mechanical Systems (MEMS), low power transceivers and microprocessor dimensions have led to cost effective tiny sensor devices that combine sensing with computation, storage and communication. These developments have contributed to the efforts on interfacing WSNs with other technologies, enabling them to be one of the pillars of the Internet of Things (IoT) paradigm. In this context, WSNs take a key role in application areas such as domotics, assisted living, e-health, enhanced learning automation and industrial manufacturing logistics, business/process management, and intelligent transportation of people and goods. In doing so, a horizontal ambient intelligent infrastructure is made possible, wherein the sensing, computing and communicating tasks can be completed using programmable middleware that enables quick deployment of different applications and services. One of the major issues with WSNs is the energy scarcity, due to the fact that sensors are mainly battery powered. In several cases, nodes are deployed in hostile or unpractical environments, such as underground or underwater, where replacing battery could be an unfeasible operation. Therefore, extending the network lifetime is a crucial concern. Lifetime improvement has been approached by many recent studies, from different points of view, including node deployment, routing schemes, and data aggregation Recently, with the consistent increase in WSN application complexity, the way distributed applications are deployed in WSNs is another important component that affects the network lifetime. For instance, incorrect execution of data processing in some nodes or the transmission of big amounts of data with low entropy in some nodes could heavily deplete battery energy without any benefit. Indeed, application tasks are usually assigned statically to WSN nodes, which is an approach in contrast with the dynamic nature of future WSNs, where nodes frequently join and leave the network and applications change over the time. This brings to issue talked in this thesis, which is defined as follows. Dynamic deployment of distributed applications in WSNs: given the requirements of WSN applications, mostly in terms of execution time and data processing, the optimal allocation of tasks among the nodes should be identified so as to reach the application target and to satisfy the requirements while optimizing the network performance in terms of network lifetime. This issue should be continuously addressed to dynamically adapt the system to changes in terms of application requirements and network topology.
APA, Harvard, Vancouver, ISO, and other styles
22

Del, Favero Simone. "Analysis and Development of Consensus-based Estimation Schemes." Doctoral thesis, Università degli studi di Padova, 2010. http://hdl.handle.net/11577/3427027.

Full text
Abstract:
In the last few decades we assisted to an extraordinary expansion of the Internet and of wireless technologies. These interconnection technologies allow a continuously increasing number of devices to exchange information. This fact, together with the parallel increase in the availability of inexpensive nodes carrying a wide range of sensing capabilities, attracts the interest in developing large-scale sensing platforms, which could be used to measure a variety of physical phenomena. However, these huge networks of simple devices are subject to tight energy and bandwidth constraints, making efficient distributed estimation and data fusion algorithms a strong need, to avoid unmanageable computational and communicational burden on network bottleneck nodes. %In this thesis we address some issues in this research avenue In this thesis we address some issues in this field, presenting and analyzing distributed algorithms to solve specific distributed estimation problems and carrying out the analysis of some other recently-proposed algorithms. To perform data fusion in a distributed fashion, we relay on consensus algorithms, namely algorithms that achieve agreement on a common value in the network. Using consensus as a basic brick to build estimation algorithms we can take advantage of the solid understanding on this problem that many recent contributions deepened and sharpened, and we can leverage for our analysis on powerful and effective tools. In the thesis we propose a distributed algorithm for offset removal and an algorithm for least-square identification of the wireless-channel parameters, motivated by the application of localization and tracking of a moving object. We present moreover a novel linear algebra inequality, useful in the analysis of randomized algorithms. This result comes into play when we carry out an analysis of a recently-proposed distributed Kalman filtering algorithm. Finally, we look at the intriguing set up of a network cooperation to estimate different but correlated quantities, proposing and analyzing a distributed algorithm that performs inference over a simple Gauss-Markov random field.
Gli ultimi decenni sono stati segnati dallo straordinario sviluppo di Internet e dalla pervasiva diffusione della tecnologia wireless, consentendo ad un numero sempre maggiore di dispositivi di scambiare tra loro informazioni. Questo fatto, assieme alla crescente disponibilità, a prezzi modici, di nodi equipaggiati con un'ampia varietà di dispositivi di misura, rende tecnologicamente concretizzabile l'idea di sviluppare grandi piattaforme di sensing, incaricate di monitorare qualsivoglia grandezza fisica. Tuttavia, queste grandi reti di dispositivi estremamente semplici hanno stringenti vincoli sul consumo energetico e sulla banda di comunicazione, che rendono criticamente necessario lo sviluppo di tecniche efficienti per la stima e la data-fusion, così da evitare carichi computazionali e di comunicazione insostenibili ai colli di bottiglia della rete. Questa tesi si propone di contribuire proprio in questo settore, presentando alcuni algoritmi per la soluzione distribuita di specifici problemi di stima ed analizzando le prestazioni di algoritmi recentemente proposti. Strumento chiave nella decentralizzazione della stima è la teoria del consensus, che propone algoritmi in grado di portare l'intera rete a concordare su una specifica quantità. L'utilizzo di algoritmi di consensus come elemento base nella costruzione di algoritmi di stima ci consente di sfruttare la solida comprensione di questo problema, affinata dai molti risultati recentemente proposti in letteratura, e di sfruttare degli strumenti di analisi ben consolidati. Nella tesi, motivati dal problema della localizzazione e del tracking di un oggetto, proponiamo un algoritmo per la compensazione degli offset ed un algoritmo per la stima ai minimi quadrati dei parametri caratterizzanti il canale wireless. Inoltre presentiamo un nuovo risultato di algebra lineare, utile nell'analisi di algoritmi randomizzati. Questo risultato giocherà un ruolo centrale nell'analisi qui proposta di un algoritmo distribuito per la stima alla Kalman. Infine, consideriamo l'interessante caso di una rete di sensori incaricata di stimare quantità diverse ma tra loro correlate e proponiamo un algoritmo per l'inferenza di un semplice campo di Gauss-Markov.
APA, Harvard, Vancouver, ISO, and other styles
23

Montecchiari, Leonardo. "Progettazione e valutazione sperimentale di una piattaforma di mobilità controllata per UAV-aided sensor networks." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19131/.

Full text
Abstract:
Con “mobilità controllata” s’intende la tecnica attraverso la quale si utilizzano veicoli (droni/rover) sprovvisti di equipaggio ed in grado di controllare in maniera autonoma la propria posizione. Molte applicazioni della mobilità controllata fanno riferimento a scenari nel quale il veicolo a guida autonoma funge da collettore dati raccolti da installazione di sensori a terra. Questo elaborato presenta Sybelius, un piattaforma di mobilità controllata per UAV-aided sensor networks. È stato progettato un sistema di controllo autonomo per "Unmanned Aerial Vehicle" (UAV), in grado di eseguire delle intere "Missioni" di volo con lo scopo di raccogliere dati da sensori a terra. La sperimentazione è stata effettuata in ambiente outdoor usando un drone "manned" ed equipaggiandolo di apposito coordinatore di bordo e di modulo per l'acquisizione dati dai sensori a terra. Sono stati eseguiti test sperimentali relativi alla direzionalità, distanza e potenza della comunicazione drone-sensore, alla precisione del puntamento verso la coordinata GPS del sensore a terra e all'efficienza energetica in fase di comunicazione, volo stazionario e volo continuo.
APA, Harvard, Vancouver, ISO, and other styles
24

MILAZZO, Fabrizio. "FAULT DETECTION AND DATA PREDICTION FOR WIRELESS SENSOR NETWORKS." Doctoral thesis, Università degli Studi di Palermo, 2014. http://hdl.handle.net/10447/91031.

Full text
Abstract:
In the last few years, Wireless Sensor Networks (WSNs) have been extensively used as a pervasive sensing module of Ambient Intelligence (AmI) systems in several application fields, thanks to their versatility and ability to monitor diverse environmental quantities. Although wireless sensor nodes are able to perform onboard computations and to share the sensed data, they are limited by the scarcity of energy resources which heavily influences the network lifetime; moreover, the design phase of a WSN requires testing the application scalability prior to actual deployment. In this regard, this dissertation focuses on data prediction to address such crucial tasks as prolonging the network lifetime and testing the WSN scalability. Nevertheless, the matter is particularly challenging as the real world measurements are influenced by unpredictable events that affect the sensor readings. To this aim, fault detection techniques help to identify corrupt measurements and to discard them before they are actually transmitted within the network, so they may be profitably used to improve the precision of the prediction models. This dissertation describes the design of two software modules which address fault detection and data prediction and may be combined in a single software system for WSNs. The fault detection submodule classifies the sensed measurements as “corrupt” or “regular” by means of Bayesian Inference. The prediction submodule builds models for the monitored quantities and is also able to generalize them to unknown environments populated by virtual sensor nodes so it allows to test the scalability of the application for networks of different sizes. Prediction also allows sensor nodes to reduce their energy consumption as much as possible by fine tuning their sampling rate based on the accuracy of the predictors. Experimental results show the capabilities of the proposed system to detect faults and to build reliable prediction models for some of the most common physical quantities for WSNs, namely light exposure, temperature and humidity.
APA, Harvard, Vancouver, ISO, and other styles
25

DARIZ, Luca. "A Functional Safety Approach to Wireless Sensor Networks for Heterogeneous Applications." Doctoral thesis, Università degli studi di Ferrara, 2017. http://hdl.handle.net/11392/2487923.

Full text
Abstract:
The extensive use of sensors represents an opportunity for industrial applications to become more precise, more comfortable for the operator and more safe. The possibility to collect data, for immediate use or offline analysis, is opening new business opportunities that were not possible until just some years ago. For this reason, it is becoming always more recurrent to have industrial applications with sensors involved; here, the use of a Wireless Sensor Network (WSN) is an attractive solution that would greatly reduce costs. In those applications that can be considered safety-relevant the use of a WSN is currently discouraged or prohibited because the wireless communication channel is not considered safe. However, recent technology and conceptual advances such as the black channel principle, and the recent evolution of functional safety standards, suggest that this can change in the future; in order to make this possible, a thorough analysis on the implication of requiring a certain safety level on the development of a system is required. Referring to the most used safety standards, the IEC 61508, IEC 62061, ISO 13849 and the ISO 25119 standards, it is possible to define an hardware and software co-design to make wireless sensor modules suited to be used in safety-critical applications. The work described in this thesis cover the technical aspects of the design and development of a safe WSN node, from hardware aspects to software and protocol issues. Compared to existing real-time protocols for WSN, this thesis propose an enhancement which decreases the worst-case communication latency, allowing for faster control loops or a greater number of sensors to be employed. Software issues are then analysed, with reference to the requirements of functional safety standards, showing the inadequacy of common WSN operating systems and proposing the use of hard-real time operating systems as a starting code base. Finally, the hardware architectures proposed in this thesis are derived applying international functional safety standards, mainly ISO 61508 and ISO 25119. Different architectural variants are then possible, depending on the characteristics of the chosen components. One of the main results of this thesis is a prototype implementation that has been designed and is being realised at CNR-IMAMOTER, and will be used to develop a proof-of-concept device which can then be used to realise a test-bed.
APA, Harvard, Vancouver, ISO, and other styles
26

Raminella, Marco. "Predizione real-time da dati di sensori impiantistici e ambientali." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18643/.

Full text
Abstract:
L'utilizzo dell'Intelligenza Artificiale in ambito industriale sta prendendo piede negli ultimi anni e il caso studiato in questa tesi ne è la prova. Lo sviluppo della tecnologia ha reso disponibile sempre più potenza computazionale a minor prezzo, rendendo possibile l'utilizzo delle Reti Neurali Profonde, studiate fin dagli anni ottanta, in un modo che fino a non molti anni fa era economicamente insostenibile. Si andrà a vedere il caso concreto della realizzazione di un sistema che esegue previsioni in tempo reale su telemetrie di un impianto per la gestione delle acque, con lo scopo di assistere gli operatori nelle decisioni critiche da prendere in situazioni che potrebbero portare a un'emergenza. Sono state utilizzate tecniche allo stato dell'arte del Deep Learning per la realizzazione della rete previsionale, soluzioni di Big Data e Cloud Computing per la raffinazione dei dati grezzi e rendere possibile il training della rete neurale. Sono state studiate le basi teoriche richieste per realizzare un sistema in streaming, è stata poi progettata e realizzata una architettura apposita dedicata alla trasformazione in tempo reale dei dati per poter realizzare previsioni aggiornate.
APA, Harvard, Vancouver, ISO, and other styles
27

PRINCIPI, GUIDO. "Tecnologia Zigbee wireless sensor network per il monitoraggio dell'energia prodotta da un campo fotovoltaico di medie dimensioni." Doctoral thesis, Università Politecnica delle Marche, 2011. http://hdl.handle.net/11566/241894.

Full text
Abstract:
In questo documento viene mostrata un’applicazione del protocollo ZigBee per reti di sensori wireless (WSN) con lo scopo di monitorare l’energia elettrica prodotta da un campo fotovoltaico di medie dimensioni e altri parametri necessari alla manutenzione e alla diagnosi dei guasti; il controllo viene effettuato a livello di singolo modulo fotovoltaico. L’applicazione prevede che il circuito di controllo venga inserito nella stessa scatola di derivazione del modulo fotovoltaico e che venga configurata la rete wireless in maniera automatica. Il monitoraggio e il controllo dell’energia prodotta da un impianto fotovoltaico è di fondamentale importanza in quanto l’energia prodotta influisce direttamente sul flusso di cassa da cui deriva la convenienza economica o meno dell’investimento effettuato sull’impianto fotovoltaico. Ad oggi sono particolarmente diffusi i sistemi di controllo di energia effettuati a livello del convertitore statico cc/ca; questi raggruppano una o più stringhe e cioè un numero generalmente elevato di moduli FV; in questo modo è possibile vedere se l’impianto sta producendo energia in modo efficiente, ma non permette di individuare le cause di un’eventuale inefficienza dovuta ai singoli moduli FV. Le cause di malfunzionamento potrebbero essere svariate: sporcizia sulla superficie, ombreggiamento, guasto elettrico, danneggiamento o addirittura furto, e naturalmente l’inefficienza può riguardare uno o più moduli. Il sistema di acquisizione dati proposto in questo documento prende in considerazione il singolo modulo con i sensori posti all’interno di ogni scatola di derivazione. Il dati acquisiti vengono valutati dal software che individua le cause di malfunzionamento distinguendo le situazioni anomale da quelle normali: ad esempio, una mancata produzione di energia può essere dovuta sia ad un guasto elettrico sia all’assenza di radiazione solare nella fase notturna: il confronto fra il singolo modulo e tutti gli altri individua se si tratta di una situazione normale o anomala.
In this paper we show an application of the ZibBee protocol of wireless sensors networks (WSN), with the aim of monitoring the electric energy produced by a mean-size photovoltaic plants and other parameters useful for maintenance and fault-diagnostics. The control is done at a single photovoltaic module. In practice, the control circuit will be inserted in the same junction box of the photovoltaic module and the wireless network will be configured automatically. The monitoring and control of the energy produced by a photovoltaic system is very important because the energy produced has a direct impact on cash flow which determines the economic convenience of the investment on the photovoltaic plant. Nowadays, the most diffused control systems of energy are that made at the level of the static DC / AC converter; these group one or more strings, so a usually high number of photovoltaic modules, it is possible in this way to see if the plant is producing energy efficiently, but does not identify the causes of inefficiencies due to the individual module. The causes of failure may be varied: dirt on the surface, shading, electrical breakdown, damage or even theft and, of course, the inefficiency may derive from more than one module. The data acquisition system proposed in this paper takes into account the single module with sensors located within each junction box. The acquired data are evaluated by a software that identifies the causes of failure by distinguishing the abnormal situations from the normal ones: for example, a failure in producing energy can be either due to an electrical fault or to the absence of solar radiation during the night: a comparison between the single module and all the others identifies if the situation is normal or abnormal.
APA, Harvard, Vancouver, ISO, and other styles
28

Mercuriali, Dennis. "Progettazione di un Sistema Informatico con Web Semantico per Assistenza Sanitaria." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13893/.

Full text
Abstract:
La tesi si concentra su come sviluppare un sistema informatico basato su Web Semantico per la raccolta, gestione, analisi e visualizzazione di dati clinici riguardanti persone, ricoverate e non. Il progetto propone un sistema che metta in relazione malattie, sintomi e oggetti fisici al fine di creare un database contenente la cartella clinica dettagliata di una persona. La creazione di una cartella clinica elettronica consente alla persona e ai medici di avere accesso a tutti i dati clinici di tale persona indipendentemente dalla loro posizione, oltre ad abbassare i costi per la gestione dei documenti che oggi sono mantenuti in forma cartacea. Il sistema si compone anche di un "modulo" formato da reti di sensori per il monitoraggio in tempo reale e a distanza dei pazienti ricoverati o in riabilitazione. Dopo la progettazione teorica del sistema, è stato sviluppato un prototipo che mostra come sia possibile sfruttare le tecnologie del Web Semantico per la memorizzazione, accesso e analisi dei dati nel database.
APA, Harvard, Vancouver, ISO, and other styles
29

Tabella, Gianluca. "Subsea Oil Spill Risk Management based on Sensor Networks." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
This thesis consists of the evaluation of sensor-based risk management against oil spills using an underwater distributed sensor network. The work starts by highlighting the importance of having a performing leak detection system both from an environmental, safety and economic point of view. The case study is the Goliat FPSO in the Barents Sea which has to meet requirements dictated by Norwegian authorities to prevent oil spills. The modeled network is made of passive acoustic sensors monitoring the subsea manifolds. These sensors send their local 1-bit decision to a Fusion Center which takes a global decision on whether the leakage is occurring. This work evaluates how the choice of adapted Fusion Rules (Counting Rule and Weighted Fusion Rule) can affect the performances of the leak detection system in its current geometry. It will also be discussed how different thresholds, selected for a specific FR or sensor test, can change the system performance. The detection methods are based on statistical signal processing adapted to fit this application within the Oil&Gas field. The work also proposes some new leak localization methods developed so they can be coupled with the proposed leak detection methods, giving a coherent set of operations that the sensors and the FC must perform. Performances of detection techniques are assessed balancing the need for high values of True Positive Rate and Precision and low values of False Positive Rate using indexes based both on the ROC curve (like the Youden's Index) and on the PR curve (the F-scores). Whereas, performances of localization techniques will be assessed on their ability to localize the spill in the shortest time; if this is not possible, parameters like the difference between the estimated and the real leak position will be considered. Finally, some tests are carried out applying the different sets of proposed methods.
APA, Harvard, Vancouver, ISO, and other styles
30

Spadazzi, Gianluca. "Middleware per Internet of Things: Java Embedded come caso di studio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7865/.

Full text
Abstract:
Grazie al progresso dell'elettronica, ai giorni nostri, è possibile costruire dispositivi elettronici molto piccoli, che col passare del tempo lo sono sempre più. Questo ci permette di poter imboccare nuove strade nel mondo dell'informatica, sfruttando proprio questo fatto. Le dimensioni ridotte dei dispositivi in commercio, come sensori, attuatori, tag e tanto altro, sono particolarmente adatte a nuovi scenari applicativi. Internet of Things è una visione in cui Internet viene esteso alle cose. Facendo largo uso di dispositivi come sensori e tag è possibile realizzare sistemi intelligenti che possono avere riscontri positivi nella vita di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati sull'ambiente per realizzare sistemi automatici (ad esempio regolare automaticamente la luce o la temperatura di una stanza) sono solo alcuni esempi. Internet of Things è la naturale evoluzione di Internet, ed è destinato a cambiare radicalmente la nostra vita futura, poichè la tecnologia sarà sempre più parte integrante della nostra vita, aumentando sempre più il nostro benessere e riducendo sempre più il numero delle azioni quotidiane da compiere. Sempre più sono middleware, le piattaforme e i sistemi operativi che nascono per cercare di eliminare o ridurre le problematiche relative allo sviluppo di sistemi di questo genere, e lo scopo di questa tesi è proprio sottolinearne l'importanza e di analizzare gli aspetti che questi middleware devono affrontare. La tesi è strutturata in questo modo: nel capitolo uno verrà fatta una introduzione a Internet of Things, analizzando alcuni degli innumerevoli scenari applicativi che ne derivano, insieme però alle inevitabili problematiche di tipo tecnologico e sociale. Nel secondo capitolo verranno illustrate le tecnologie abilitanti di Internet of Things, grazie alle quali è possibile realizzare sistemi intelligenti. Nel terzo capitolo verranno analizzati gli aspetti relativi ai middleware, sottolineandone l'importanza e prestando attenzione alle funzioni che devono svolgere, il tutto riportando anche degli esempi di middleware esistenti. Nel quarto capitolo verrà approfondito il middleware Java Embedded di Oracle.
APA, Harvard, Vancouver, ISO, and other styles
31

LOCCI, AMEDEO. "Sviluppo di una piattaforma inerziale terrestre assistita da reti neurali artificiali." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2008. http://hdl.handle.net/2108/684.

Full text
Abstract:
Molte delle tecnologie impiegate nei moderni sistemi di ausilio alla navigazione terrestre, risalgono a circa un quarto di secolo. Generalmente, i principali sistemi in uso negli apparati per la navigazione terrestre, risultano essere i Sistemi di Posizionamento Globale (GPS) ed i Sistemi di Navigazione Inerziale (INS). Tali apparati tecnologici, necessitano di componenti fondamentali di qualità più o meno spinta che ne determina costi di mercato progressivamente crescenti, in grado di soddisfare le più diverse applicazioni di navigazione, passando da quella veicolare terrestre, sino a quella aerospaziale, ma includendo anche applicazione di handling o gestione di flotte veicolari. Negli ultimi anni, i sistemi di navigazione hanno visto applicazioni su larga scala, come sistemi di ausilio alla navigazione terrestre, in particolare con l’impiego del sistema GPS. Per ovviare agli inconvenienti che esso presenta, ultimamente si sono sviluppati sistemi integrati low-cost per la navigazione terrestre con applicazioni su larga scala, tra i quali si distingue, per rilevanti aspetti tecnici ed economici, il sistema integrato INS/GPS. Per ovviare alla bassa qualità dei sensori impiegati, si è dovuto ricorrere all’impiego di modelli matematici in grado di correggere le risposte dei sensori. Da qui, negli anni, uno dei maggiori strumenti di utilizzo si è dimostrato essere il filtro di Kalman nel data fusion INS/GPS; nonostante esso presenti diverse limitazioni. La necessità della correzione dell’INS è legata sia all’ottenimento di una risposta più affidabile nei brevi percorsi rispetto al GPS, sia alla generazione di un data base ove vengano raccolte tutta una serie di informazioni tra le caratteristiche cinematiche, geometriche ed ambientali necessarie, qual’ora venisse ad essere assente o di scarsa qualità il segnale GPS. A tale scopo, si cerca di rendere intelligente il sistema di navigazione: Il filtro di Kalman ha fatto scuola negli anni passati ed ha indirizzato la ricerca verso l’impiego di sistemi intelligenti, quali ad esempio la logica fuzzy, gl algoritmi genetici o le reti neurali. Quest’ultime sono in grado di rendere i sistemi integrati INS/GPS dei sistemi intelligenti, cioè capaci di prendere delle decisioni autonome nella correzione dei dati, a fronte di capacità di apprendimento. Ciò che qui si è perseguito è stato l’impiego delle Reti Neurali Artificiali, al fine di sopperire alla sola risposta del sistema INS qualora si verificasse l’outage del GPS. In tali situazioni, a causa delle inevitabili derive causate dagli effetti del random walk dell’INS, si necessita di eseguire una correzione dei dati inerziali, demandata alle Reti Neurali. Si è resa necessaria un’investigazione dei modelli più attinenti con tali tipologia di dati, nonché un tuning delle rete stesse. Quindi è stato sviluppato sia un sistema di memorizzazione dei dati sensibili, basato sull’aggiornamento della memoria della rete, ( i pesi ), sia un sistema di correzione dei dati inerziali. La valutazione è stata eseguita su test case evidenziando, rispetto agli impieghi di correzione con sistemi classici un netto miglioramento di performance. Tali applicazioni, come anche evidenziato in lavori scientifici, possono considerarsi come un metodo per gli sviluppi futuri delle nuove piattaforme integrate per la navigazione terrestre. Inoltre esse sono in grado di fornire informazioni di assetto, necessarie per la guida dei sistemi autonomi. ed i loro bassi costi di mercato, ne consentono l’impiego su vastissima scala, conseguendo vantaggi in ambito di sicurezza stradale e di ricostruzione di eventi accidentali.
Many of the technologies used in the modern systems of aid to terrestrial navigation go back to approximately a quarter of century. Generally, the main systems in use in the equipments for terrestrial Navigation are the Global Positioning Systems (GPS) and the Inertial Navigation Systems (INS). Such technological apparatus, need fundamental components of high or quite almost quality, which cause progressively growing market costs and can satisfy the most various range of applications in the navigation field, from the vehicular terrestrial one to the aerospace application, but also including handling applications or the management of vehicular fleets. In the last few years, the navigation systems have seen applications on a large scale, as the terrestrial navigation aid systems, in particular with the use of the GPS system. In order to avoid the disadvantages that it can cause, integrated low-cost systems for terrestrial navigation have been lately developed with applications on a large scale, among which, for important technical and economic aspects, the integrated INS/GPS system. The need to avoid the low quality of the used sensors led to the application of mathematical models able to correct the sensors’ answers. From here, one of the most used instrument throughout the years has been the Kalman filter, as an optimal linear Gaussian estimator in the data fusion INS/GPS. However, as multi-sensor integration methodology, it has various limits. The INS correction is needed either to get a more reliable answer in the short route compared the GPS-based navigation system, and to generate a data base in which a series of information are collected, among the necessary cinematic, geometric and environmental characteristics, in case the GPS signal is absent or of low quality. For that purpose, the attempt is to make the navigation system intelligent: the Kalman filter has been shown to be in the last years the reference model which has addressed the research to the use of intelligent models, such as for example the fuzzy logic, the genetic algorithms or the neural networks. The latter can make the integrated INS/GPS systems intelligent, or capable to take independent decisions in the data correction, after a learning process. The aim which has been reached is the use of the Artificial Neural Networks (ANN), in order to compensate for the answer of the INS system, in case the GPS outage occurred. In such situations, due to the unavoidable drifts caused by the INS random walk effects, a correction of the inertial data is needed, through the Neural Networks. A research of the models more related to this kind of data has been necessary, as well as a tuning of the networks. Therefore it has been developed either a storage system for the sensitive data, based on the updating of the network memory, (the weights), and a correction system of the inertial data. The evaluation has been carried out on many test cases and it has shown a definite improvement in performance compared to the use of the correction with conventional systems. Such applications, as also emphasized in scientific works, can be considered as a method for the future developments of the new integrated platforms for terrestrial navigation. Moreover, they can supply attitude configuration needed for the control of the autonomous systems and their low market costs allow a large scale applications, and also advantages in the road safety field and the reconstruction of accidental events.
APA, Harvard, Vancouver, ISO, and other styles
32

Zecchin, Chiara. "Online Glucose Prediction in Type-1 Diabetes by Neural Network Models." Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3423574.

Full text
Abstract:
Diabetes mellitus is a chronic disease characterized by dysfunctions of the normal regulation of glucose concentration in the blood. In Type 1 diabetes the pancreas is unable to produce insulin, while in Type 2 diabetes derangements in insulin secretion and action occur. As a consequence, glucose concentration often exceeds the normal range (70-180 mg/dL), with short- and long-term complications. Hypoglycemia (glycemia below 70 mg/dL) can progress from measurable cognition impairment to aberrant behaviour, seizure and coma. Hyperglycemia (glycemia above 180 mg/dL) predisposes to invalidating pathologies, such as neuropathy, nephropathy, retinopathy and diabetic foot ulcers. Conventional diabetes therapy aims at maintaining glycemia in the normal range by tuning diet, insulin infusion and physical activity on the basis of 4-5 daily self-monitoring of blood glucose (SMBG) measurements, obtained by the patient using portable minimally-invasive lancing sensor devices. New scenarios in diabetes treatment have been opened in the last 15 years, when minimally invasive continuous glucose monitoring (CGM) sensors, able to monitor glucose concentration in the subcutis continuously (i.e. with a reading every 1 to 5 min) over several days (7-10 consecutive days), entered clinical research. CGM allows tracking glucose dynamics much more effectively than SMBG and glycemic time-series can be used both retrospectively, e.g. to optimize metabolic control therapy, and in real-time applications, e.g. to generate alerts when glucose concentration exceeds the normal range thresholds or in the so-called “artificial pancreas”, as inputs of the closed loop control algorithm. For what concerns real time applications, the possibility of preventing critical events is, clearly, even more appealing than just detecting them as they occur. This would be doable if glucose concentration were known in advance, approximately 30-45 min ahead in time. The quasi continuous nature of the CGM signal renders feasible the use of prediction algorithms which could allow the patient to take therapeutic decisions on the basis of future instead of current glycemia, possibly mitigating/ avoiding imminent critical events. Since the introduction of CGM devices, various methods for short-time prediction of glucose concentration have been proposed in the literature. They are mainly based on black box time series models and the majority of them uses only the history of the CGM signal as input. However, glucose dynamics are influenced by many factors, e.g. quantity of ingested carbohydrates, administration of drugs including insulin, physical activity, stress, emotions and inter- and intra-individual variability is high. For these reasons, prediction of glucose time course is a challenging topic and results obtained so far may be improved. The aim of this thesis is to investigate the possibility of predicting future glucose concentration, in the short term, using new models based on neural networks (NN) exploiting, apart from CGM history, other available information. In particular, we first develop an original model which uses, as inputs, the CGM signal and information on timing and carbohydrate content of ingested meals. The prediction algorithm is based on a feedforward NN in parallel with a linear predictor. Results are promising: the predictor outperforms widely used state of art techniques and forecasts are accurate and allow obtaining a satisfactory time anticipation. Then we propose a second model, which exploits a different NN architecture, a jump NN, which combines benefits of both feedforward NN and linear algorithm obtaining performance similar to the previously developed predictor, although the simpler structure. To conclude the analysis, information on doses of injected bolus of insulin are added as input of the jump NN and the relative importance of every input signal in determining the NN output is investigated by developing an original sensitivity analysis. All the proposed predictors are assessed on real data of Type 1 diabetics, collected during the European FP7 project DIAdvisor. To evaluate the clinical usefulness of prediction in improving diabetes management we also propose a new strategy to quantify, using an in silico environment, the reduction of hypoglycemia when alerts and relative therapy are triggered on the basis of prediction, obtained with our NN algorithm, instead of CGM. Finally, possible inclusion of additional pieces of information such as physical activity is investigated, though at a preliminary level. The thesis is organized as follows. Chapter 1 gives an introduction to the diabetes disease and the current technologies for CGM, presents state of art techniques for short-time prediction of glucose concentration of diabetics and states the aim and the novelty of the thesis. Chapter 2 discusses NN paradigms from a theoretical point of view and specifies technical details common to the design and implementation of all the NN algorithms proposed in the following. Chapter 3 describes the first prediction model we propose, based on a NN in parallel with a linear algorithm. Chapter 4 presents an alternative simpler architecture, based on a jump NN, and demonstrates its equivalence, in terms of performance, with the previously proposed algorithm. Chapter 5 further improves the jump NN, by adding new inputs and investigating their effective utility by a sensitivity analysis. Chapter 6 points out possible future developments, as the possibility of exploiting information on physical activity, reporting also a preliminary analysis. Finally, Chapter 7 describes the application of NN for generation of preventive hypoglycemic alerts and evaluates improvement of diabetes management in a simulated environment. Some concluding remarks end the thesis.
Il diabete mellito è una patologia cronica caratterizzata da disfunzioni della regolazione della concentrazione di glucosio nel sangue. Nel diabete di Tipo 1 il pancreas non produce l'ormone insulina, mentre nel diabete di Tipo 2 si verificano squilibri nella secrezione e nell'azione dell'insulina. Di conseguenza, spesso la concentrazione glicemica eccede le soglie di normalità (70-180 mg/dL), con complicazioni a breve e lungo termine. L'ipoglicemia (glicemia inferiore a 70 mg/dL) può risultare in alterazione delle capacità cognitive, cambiamenti d'umore, convulsioni e coma. L'iperglicemia (glicemia superiore a 180 mg/dL) predispone, nel lungo termine, a patologie invalidanti, come neuropatie, nefropatie, retinopatie e piede diabetico. L'obiettivo della terapia convenzionale del diabete è il mantenimento della glicemia nell'intervallo di normalità regolando la dieta, la terapia insulinica e l'esercizio fisico in base a 4-5 monitoraggi giornalieri della glicemia, (Self-Monitoring of Blood Glucose, SMBG), effettuati dal paziente stesso usando un dispositivo pungidito, portabile e minimamente invasivo. Negli ultimi 15 anni si sono aperti nuovi orizzonti nel trattamento del diabete, grazie all'introduzione, nella ricerca clinica, di sensori minimamente invasivi (Continuous Glucose Monitoring, CGM) capaci di misurare la glicemia nel sottocute in modo quasi continuo (ovvero con una misurazione ogni 1-5 min) per parecchi giorni consecutivi (dai 7 ai 10 giorni). I sensori CGM permettono di monitorare le dinamiche glicemiche in modo più fine delle misurazioni SMBG e le serie temporali di concentrazione glicemica possono essere utilizzate sia retrospettivamente, per esempio per ottimizzare la terapia di controllo metabolico, sia prospettivamente in tempo reale, per esempio per generare segnali di allarme quando la concentrazione glicemica oltrepassa le soglie di normalità o nel “pancreas artificiale”. Per quanto concerne le applicazioni in tempo reale, poter prevenire gli eventi critici sarebbe chiaramente più attraente che semplicemente individuarli, contestualmente al loro verificarsi. Ciò sarebbe fattibile se si conoscesse la concentrazione glicemia futura con circa 30-45 min di anticipo. La natura quasi continua del segnale CGM rende possibile l'uso di algoritmi predittivi che possono, potenzialmente, permettere ai pazienti diabetici di ottimizzare le decisioni terapeutiche sulla base della glicemia futura, invece che attuale, dando loro l'opportunità di limitare l'impatto di eventi pericolosi per la salute, se non di evitarli. Dopo l'introduzione nella pratica clinica dei dispositivi CGM, in letteratura, sono stati proposti vari metodi per la predizione a breve termine della glicemia. Si tratta principalmente di algoritmi basati su modelli di serie temporali e la maggior parte di essi utilizza solamente la storia del segnale CGM come ingresso. Tuttavia, le dinamiche glicemiche sono determinate da molti fattori, come la quantità di carboidrati ingeriti durante i pasti, la somministrazione di farmaci, compresa l'insulina, l'attività fisica, lo stress, le emozioni. Inoltre, la variabilità inter- e intra- individuale è elevata. Per questi motivi, predire l'andamento glicemico futuro è difficile e stimolante e c'è margine di miglioramento dei risultati pubblicati finora in letteratura. Lo scopo di questa tesi è investigare la possibilità di predire la concentrazione glicemica futura, nel breve termine, utilizzando modelli basati su reti neurali (Neural Network, NN) e sfruttando, oltre alla storia del segnale CGM, altre informazioni disponibili. Nel dettaglio, inizialmente svilupperemo un nuovo modello che utilizza, come ingressi, il segnale CGM e informazioni relative ai pasti ingeriti, (istante temporale e quantità di carboidrati). L'algoritmo predittivo sarà basato su una NN di tipo feedforward, in parallelo ad un modello lineare. I risultati sono promettenti: il modello è superiore ad algoritmi stato dell'arte ampiamente utilizzati, la predizione è accurata e il guadagno temporale è soddisfacente. Successivamente proporremo un nuovo modello basato su una differente architettura di NN, ovvero una “jump NN”, che fonde i benefici di una NN di tipo feedforward e di un algoritmo lineare, ottenendo risultati simili a quelli del modello precedentemente proposto, nonostante la sua struttura notevolmente più semplice. Per completare l'analisi, valuteremo l'inclusione, tra gli ingressi della jump NN, di segnali ottenuti sfruttando informazioni sulla terapia insulinica (istante temporale e dose dei boli iniettati) e valuteremo l'importanza e l'influenza relativa di ogni ingresso nella determinazione del valore glicemico predetto dalla NN, sviluppando un'originale analisi di sensitività. Tutti i modelli proposti saranno valutati su dati reali di pazienti diabetici di Tipo 1, raccolti durante il progetto Europeo FP7 (7th Framework Programme, Settimo Programma Quadro) DIAdvisor. Per valutare l'utilità clinica della predizione e il miglioramento della gestione della terapia diabetica proporremo una nuova strategia per la quantificazione, in simulazione, della riduzione del numero e della gravità degli eventi ipoglicemici nel caso gli allarmi, e la relativa terapia, siano determinati sulla base della concentrazione glicemica predetta, utilizzando il nostro algoritmo basato su NN, invece che su quella misurata dal sensore CGM. Infine, investigheremo, in modo preliminare, la possibilità di includere, tra gli ingressi della NN, ulteriori informazioni, come l'attività fisica. La tesi è organizzata come descritto in seguito. Il Capitolo 1 introduce la patologia diabetica e le attuali tecnologie CGM, presenta le tecniche stato dell'arte utilizzate per la predizione a breve termine della glicemia di pazienti diabetici e specifica gli scopi e le innovazioni della presente tesi. Il Capitolo 2 introduce le basi teoriche delle NN e specifica i dettagli tecnici che abbiamo scelto di adottare per lo sviluppo e l'implementazione di tutte le NN proposte in seguito. Il Capitolo 3 descrive il primo modello proposto, basato su una NN in parallelo a un algoritmo lineare. Il Capitolo 4 presenta una struttura alternativa più semplice, basata su una jump NN, e dimostra la sua equivalenza, in termini di prestazioni, con il modello precedentemente proposto. Il Capitolo 5 apporta ulteriori miglioramenti alla jump NN, aggiungendo nuovi ingressi e investigando la loro utilità effettiva attraverso un'analisi di sensitività. Il Capitolo 6 indica possibili sviluppi futuri, come l'inclusione di informazioni sull'attività fisica, presentando anche un'analisi preliminare. Infine, il Capitolo 7 applica la NN per la generazione di allarmi preventivi per l'ipoglicemia, valutando, in simulazione, il miglioramento della gestione del diabete. Alcuni commenti e osservazioni concludono la tesi.
APA, Harvard, Vancouver, ISO, and other styles
33

Boem, Francesca. "Distributed Methods for Estimation and Fault Diagnosis: the case of Large-scale Networked Systems." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8534.

Full text
Abstract:
2011/2012
L’obiettivo di questa tesi è il monitoraggio di sistemi complessi a larga-scala. L’importanza di questo argomento è dovuto alla rinnovata enfasi data alle problematiche riguardanti la sicurezza e l’affidabilità dei sistemi, diventate requisiti fondamentali nella progettazione. Infatti, la crescente complessità dei moderni sistemi, dove le relazioni fra i diversi componenti, con il mondo esterno e con il fattore umano sono sempre più importanti, implica una crescente attenzione ai rischi e ai costi dovuti ai guasti e lo sviluppo di approcci nuovi per il controllo e il monitoraggio. Mentre nel contesto centralizzato i problemi di stima e di diagnostica di guasto sono stati ampiamente studiati, lo sviluppo di metodologie specifiche per sistemi distribuiti, larga scala o “networked”, come i Cyber-Physical Systems e i Systems-of-Systems, è cominciato negli ultimi anni. Il sistema fisico è rappresentato come l’interconnessione di sottosistemi ottenuti attraverso una decomposizione del sistema complesso dove le sovrapposizioni sono consentite. L’approccio si basa sul modello dinamico non-lineare dei sottosistemi e sull’approssimazione adattativa delle non note interconnessioni fra i sottosistemi. La novità è la proposta di un’architettura unica che tenga conto dei molteplici aspetti che costituiscono i sistemi moderni, integrando il sistema fisico, il livello sensoriale e il sistema di diagnostica e considerando le relazioni fra questi ambienti e le reti di comunicazione. In particolare, vengono proposte delle soluzioni ai problemi che emergono dall’utilizzo di reti di comunicazione e dal considerare sistemi distribuiti e networked. Il processo di misura è effettuato da un insieme di reti di sensori, disaccoppiando il livello fisico da quello diagnostico e aumentando in questo modo la scalabilità e l’affidabilità del sistema diagnostico complessivo. Un nuovo metodo di stima distribuita per reti di sensori è utilizzato per filtrare le misure minimizzando sia la media sia la varianza dell’errore di stima attraverso la soluzione di un problema di ottimizzazione di Pareto. Un metodo per la re-sincronizzazione delle misure è proposto per gestire sistemi multi-rate e misure asincrone e per compensare l’effetto dei ritardi nella rete di comunicazione fra sensori e diagnostici. Poiché uno dei problemi più importanti quando si considerano sistemi distribuiti e reti di comunicazione è per l’appunto il verificarsi di ritardi di trasmissione e perdite di pacchetti, si propone una strategia di compensazione dei ritardi , basata sull’uso di Time Stamps e buffer e sull’introduzione di una matrice di consenso tempo-variante, che permette di gestire il problema dei ritardi nella rete di comunicazione fra diagnostici. Gli schemi distribuiti per la detection e l’isolation dei guasti sono sviluppati, garantendo la convergenza degli stimatori e derivando le condizioni sufficienti per la detectability e l’isolability. La matrice tempo-variante proposta permette di migliorare queste proprietà definendo delle soglie meno conservative. Alcuni risultati sperimentali provano l’efficacia del metodo proposto. Infine, le architetture distribuite per la detection e l’isolation, sviluppate nel caso tempo-discreto, sono estese al caso tempo continuo e nello scenario in cui lo stato non è completamente misurabile, sia a tempo continuo che a tempo discreto.
This thesis deals with the problem of the monitoring of modern complex systems. The motivation is the renewed emphasis given to monitoring and fault-tolerant systems. In fact, nowadays reliability is a key requirement in the design of technical systems. While fault diagnosis architectures and estimation methods have been extensively studied for centralized systems, the interest towards distributed, networked, large-scale and complex systems, such as Cyber-Physical Systems and Systems-of-Systems, has grown in the recent years. The increased complexity in modern systems implies the need for novel tools, able to consider all the different aspects and levels constituting these systems. The system being monitored is modeled as the interconnection of several subsystems and a divide et impera approach allowing overlapping decomposition is used. The local diagnostic decision is made on the basis of the knowledge of the local subsystem dynamic model and of an adaptive approximation of the uncertain interconnection with neighboring subsystems. The goal is to integrate all the aspects of the monitoring process in a comprehensive architecture, taking into account the physical environment, the sensor layer, the diagnosers level and the communication networks. In particular, specifically designed methods are developed in order to take into account the issues emerging when dealing with communication networks and distributed systems. The introduction of the sensor layer, composed by a set of sensor networks, allows the decoupling of the physical and the sensing/computation topologies, bringing some advantages, such as scalability and reliability of the diagnosis architecture. We design the measurements acquisition task by proposing a distributed estimation method for sensor networks, able to filter measurements so that both the variance and the mean of the estimation error are minimized by means of a Pareto optimization problem. Moreover, we consider multi-rate systems and non synchronized measurements, having in mind realistic applications. A re-synchronization method is proposed in order to manage the case of multi-rate systems and to compensate delays in the communication network between sensors and diagnosers. Since one of the problems when dealing with distributed, large-scale or networked systems and therefore with a communication network, is inevitably the presence of stochastic delays and packet dropouts, we propose therefore a distributed delay compensation strategy in the communication network between diagnosers, based on the use of Time Stamps and buffers and the definition of a time-varying consensus matrix. The goal of the novel time-varying matrix is twofold: it allows to manage communication delays, packet dropouts and interrupted links and to optimize detectability and isolability skills by defining less conservative thresholds. The distributed fault detection and isolation schemes are studied and analytical results regarding fault detectability, isolability and estimator convergence are derived. Simulation results show the effectiveness of the proposed architecture. For the sake of completeness, the monitoring architecture is studied and adapted to different frameworks: the fault detection and isolation methodology is extended for continuous-time systems and the case where the state is only partially measurable is considered for discrete-time and continuous-time systems.
XXV Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
34

Della, Chiesa Enrico. "Progetto a componenti discreti di un circuito wake-up radio in ambito ultra-low power." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
L’obiettivo principale nella progettazione di una Wireless sensor Network (WSN) in ambito ultra-low power è la minimizzazione dei consumi energetici, per aumentare la durata della batteria o addirittura rimuoverla, rendendo il sistema autosufficiente. La maggior parte dell’energia in questi sistemi viene consumata dal ricevitore, che rimane acceso aspettando l’inizio di una comunicazione. Gestire le accensioni del ricevitore si rivela la tecnica migliore per abbassare il consumo energetico. Un circuito studiato per la gestione del ricevitore è la Wake-up Radio (WuR). Una Wake-up radio è un circuito con bassi consumi di potenza, dell’ordine dei uW, che analizza il canale radio e attiva il ricevitore principale solo se viene rilevato un segnale di wake-up, che può limitarsi alla semplice presenza di un segnale ad una certa frequenza o può prevedere la presenza di un indirizzo. In questo elaborato è presentata la progettazione di una Wake-up Radio a componenti discreti. In particolare ci si è concentrati sull’implementazione di una rete di indirizzamento utilizzando i componenti più efficienti presenti sul mercato. Per prima cosa si definiscono le specifiche della rete di indirizzamento e le sue possibili implementazioni; seguono poi la selezione dei componenti, la sintesi logica e infine l’analisi dei consumi. Il risultato finale è di un consumo pari a 2,1 uW in stato di riposo e 417 uW in stato di decodifica dell’indirizzo, ricavato con una frequenza di clock pari a 10KHz. Considerando la bit-rate di trasmissione dell’indirizzo di 7kbit/s e un massimo tempo di risveglio di 60ms la potenza media necessaria al funzionamento della rete è di 12 uW, paragonabile a quella ottenuta in altri progetti in letteratura.
APA, Harvard, Vancouver, ISO, and other styles
35

Laricchia, Luigi. "Monitoraggio ambientale tramite tecnologia LoRaWAN: misurazioni sperimentali e piattaforma di data analytics." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/17312/.

Full text
Abstract:
I requisiti di molte applicazioni IoT necessitano di trasmettere dati su lunghe distanze, con basso data rate e con il minor impatto possibile sul consumo energetico. Le tecnologie LPWAN (Low Power Wide Area Network) sono state progettate per complementare ed in alcuni casi sostituire le soluzioni offerte dalla reti cellulari e dalle reti di sensori a corto/medio raggio. Nonostante la pletora di standards LPWAN disponibili sul mercato, la tecnologia LoRa/LoRaWAN sta riscuotendo notevole successo grazie alle performance che riesce a garantire. L’imponente mole di dati generata dalle applicazioni IoT richiede soluzioni in grado di poter archiviare e gestire in maniera efficiente il ciclo di vita delle informazioni. L’utilizzo di piattaforme di data analytics basate su sistemi NoSQL permettono una gestione più agile dei Big Data. In questa tesi è stata progettata ed implementata un’infrastruttura per il monitoraggio ambientale tramite LoRaWAN e la relativa piattaforma di data analytics adoperata per lo studio delle metriche relative alla trasmissione radio LoRa. I risultati ottenuti dalla sperimentazione possono essere usati per fare tuning delle configurazioni per il deploy in contesti reali.
APA, Harvard, Vancouver, ISO, and other styles
36

VENUTA, MARIA LUISA. "La città da energivora a nodo attivo delle reti di produzione e di scambio energetico." Doctoral thesis, Università Cattolica del Sacro Cuore, 2007. http://hdl.handle.net/10280/85.

Full text
Abstract:
Il concetto di rete dell'informazione può diventare uno schema logico con cui descrivere l'evoluzione delle politiche sulle energie rinnovabili e sulla sostenibilità? La ricerca è stata svolta analizzando l'architettura delle due reti (internet e reti energetiche) e l'evoluzione del bene prodotto e distribuito nella rete energetica, l'energia, esplicitando l'accessibilità da parte della distribuzione mondiale delle risorse petrolifere tradizionali e delle risorse rinnovabili. La struttura metodologica del progetto di ricerca si basa due tipi di analisi teorica: 1) l'analisi della nascita delle società in rete attraverso le teorie di Manuel Castells (concetto di spazio di flussi) e di Saskia Sassen e l'evoluzione delle città (cap.2 e cap.5) 2) le analisi dei flussi dei materiali e delle energie avendo come riferimento metodologico l'approccio ecologico ideato dai ricercatori dell'istituto per il Clima, l'Ambiente e l'Energia di Wuppertal, Germania (cap.3 e cap.4) La contraddizione tra città innovative e città che sono ai livelli di enormi discariche o di baraccopoli è esposta nel cap.6 attraverso casi studio e progetto dei Programmi Europei. Nell'ultimo capitolo (cap.7) si riassumono le ipotesi di partenza e i risultati della ricerca e si espongono le questioni aperte.
Can internet logic scheme be used as a basis to describe public policies evolution on renewable energies production and sharing in urban areas all over the world? The research project analyses the two networks (internet and energetic grids) architectures in actual and future urban areas. This analysis is connected with present and future forecasts energy productions from traditional fuels and from renewable sources. Theoretical analysis is conducted following a double conceptual pathway: - societal networks (Manuel Castells theory) and urban areas evolution (Saskia Sassen and Mike Davis) in order to picture the evolution of cities and towns in modern economies and in developing countries (Chapters 2 and 5); - Material and Energy Flow Analysis (approach by Wuppertal Institute for Climate, Environment and Energy) applied to renewable energy (Chapters 3 and 4) In Chapter 6 case studies are exposed on the deep cleavage between two different worlds: innovative, rich towns on a side and the landfills cities, slums on the other side. In the last part hypothesis and thesis are put together and open questions are explained (Chapter 7).
APA, Harvard, Vancouver, ISO, and other styles
37

VENUTA, MARIA LUISA. "La città da energivora a nodo attivo delle reti di produzione e di scambio energetico." Doctoral thesis, Università Cattolica del Sacro Cuore, 2007. http://hdl.handle.net/10280/85.

Full text
Abstract:
Il concetto di rete dell'informazione può diventare uno schema logico con cui descrivere l'evoluzione delle politiche sulle energie rinnovabili e sulla sostenibilità? La ricerca è stata svolta analizzando l'architettura delle due reti (internet e reti energetiche) e l'evoluzione del bene prodotto e distribuito nella rete energetica, l'energia, esplicitando l'accessibilità da parte della distribuzione mondiale delle risorse petrolifere tradizionali e delle risorse rinnovabili. La struttura metodologica del progetto di ricerca si basa due tipi di analisi teorica: 1) l'analisi della nascita delle società in rete attraverso le teorie di Manuel Castells (concetto di spazio di flussi) e di Saskia Sassen e l'evoluzione delle città (cap.2 e cap.5) 2) le analisi dei flussi dei materiali e delle energie avendo come riferimento metodologico l'approccio ecologico ideato dai ricercatori dell'istituto per il Clima, l'Ambiente e l'Energia di Wuppertal, Germania (cap.3 e cap.4) La contraddizione tra città innovative e città che sono ai livelli di enormi discariche o di baraccopoli è esposta nel cap.6 attraverso casi studio e progetto dei Programmi Europei. Nell'ultimo capitolo (cap.7) si riassumono le ipotesi di partenza e i risultati della ricerca e si espongono le questioni aperte.
Can internet logic scheme be used as a basis to describe public policies evolution on renewable energies production and sharing in urban areas all over the world? The research project analyses the two networks (internet and energetic grids) architectures in actual and future urban areas. This analysis is connected with present and future forecasts energy productions from traditional fuels and from renewable sources. Theoretical analysis is conducted following a double conceptual pathway: - societal networks (Manuel Castells theory) and urban areas evolution (Saskia Sassen and Mike Davis) in order to picture the evolution of cities and towns in modern economies and in developing countries (Chapters 2 and 5); - Material and Energy Flow Analysis (approach by Wuppertal Institute for Climate, Environment and Energy) applied to renewable energy (Chapters 3 and 4) In Chapter 6 case studies are exposed on the deep cleavage between two different worlds: innovative, rich towns on a side and the landfills cities, slums on the other side. In the last part hypothesis and thesis are put together and open questions are explained (Chapter 7).
APA, Harvard, Vancouver, ISO, and other styles
38

MUGNAI, GIOVANNI. "Stima distribuita dello stato in reti di sensori." Doctoral thesis, 2014. http://hdl.handle.net/2158/849579.

Full text
Abstract:
Attualmente le reti di sensori rappresentano una tecnologia efficace per la realizzazione di sistemi di monitoraggio scalabili, flessibili, a costi contenuti e tolleranti ai guasti. La sorveglianza di un processo, di un oggetto o di un fenomeno richiede la stima dello stato del processo d’interesse mediante l’utilizzo di modelli matematici e l’effettuazione di misure di grandezze direttamente o indirettamente legate al suo stato. I sistemi di monitoraggio tradizionali sono costituiti da un insieme di sensori distribuiti nella regione di sorveglianza connessi con un unico centro di elaborazione che provvede a elaborare i dati raccolti. Negli ultimi tempi si stanno sempre più diffondendo reti in cui ogni nodo (o agente) è dotato di capacità di elaborazione, comunicazione e, in alcuni casi, rilevamento. Una rete di questo tipo è detta distribuita o anche net-centrica, in quanto ogni agente è in grado di effettuare una stima dello stato del processo monitorato, o di una sottoparte di esso. Due diversi approcci per la stima distribuita di sistemi lineari, detti consenso sull’informazione a posteriori (CP: Consensus on Posteriors) e consenso sulla verosi- miglianza (CL: Consensus on Likelihoods), vengono combinati per dar luogo ad una nuova classe di filtri di consenso su verosimiglianza e informazione a priori (CLCP: Consensus on Likelihoods and Priors), che beneficiano dei vantaggi complementari degli approcci CL e CP. Vengono presentati nuovi risultati teorici, limitatamente ai sistemi lineari, sulla stabilità dei filtri CLCP sotto condizioni di osservabilità collettiva e connettività di rete. Infine viene fatta una valutazione comparativa delle prestazini di alcuni filtri basati sul consenso in un caso di studio relativo al tracciamento di un oggetto in movimento, sia con sensori lineari che non lineari. Una delle principali vulnerabilità dei sistemi di sorveglianza net-centrici è la loro debolezza rispetto agli effetti distruttivi di virus informatici. Si sono studiati i principali modelli per la diffusione dei virus e l’insorgenza di un focolaio epidemico in relazione ai principali parametri di rete. Un ampio insieme di simulazioni su scenari realistici di sorveglianza ha permesso di analizzare il modo in cui i parametri di rete influenzano la diffusione del virus e la fusione distribuita dell’informazione, fornendo indicazioni utili per preservare la funzionalità di sorveglianza della rete in presenza di guasti e/o attacchi informatici. Nelle reti di monitoraggio e sorveglianza non è detto che ciascun agente abbia una visione complessiva dello stato del sistema. Si è studiato il problema della stima distribuita nel caso in cui gli agenti abbiano una visione parziale del sistema complessivo facendo uno studio comparativo tra varie tecniche di fusione dei dati su scenari di studio sia lineari che non lineari.
APA, Harvard, Vancouver, ISO, and other styles
39

FARRUGGIA, Alfonso. "A PROBABILISTIC APPROACH TO ANOMALY DETECTION FOR WIRELESS SENSOR NETWORKS." Doctoral thesis, 2012. http://hdl.handle.net/10447/94695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

PAOLI, MARIO. "The energy problem in resource constrained wireless networks." Doctoral thesis, 2017. http://hdl.handle.net/11573/936572.

Full text
Abstract:
Today Wireless Sensor Networks are part of a wider scenario involving several wireless and wired communication technology: the Internet Of Things (IoT). The IoT envisions billions of tiny embedded devices, called Smart Objects, connected in a Internet-like structure. Even if the integration of WSNs into the IoT scenario is nowadays a reality, the main bottleneck of this technology is the energy consumption of sensor nodes, which quickly deplete the limited amount of energy of available in batteries. This drawback, referred to as the energy problem, was addressed in a number of research papers proposing various energy optimization approaches to extend sensor nodes lifetime. However, energy problem is still an open issue that prevents the full exploitation of WSN technology. This thesis investigates the energy problem in WSNs and introduces original solutions trying to mitigate drawbacks related to this phenomenon. Starting from solutions proposed by the research community in WSNs, we deeply investigate critical and challenging factors concerning the energy problem and we came out with cutting-edge low-power hardware platforms, original software energy-aware protocols and novel energy-neutral hardware/software solutions overcoming the state-of-art. Concerning low-power hardware, we introduce the MagoNode, a new WSN mote equipped with a radio frequency (RF) front-end which enhances radio performance. We show that in real applicative contexts, the advantages introduced by the RF front-end keep packet re-trasmissions and forwards low. Furthermore, we present the ultra low-power Wake-Up Radio (WUR) system we designed and the experimental activity to validate its performance. In particular, our Wake-up Radio Receiver (WRx) features a sensitivity of -50 dBm, has a current consumption of 579nA in idle-listening and features a maximum radio range of about 19 meters. What clearly resulted from the experimental activity is that performance of the WRx is strongly affected by noise. To mitigate the impact of noise on WUR communication we implemented a Forward Error Correction (FEC) mechanism based on Hamming code. We performed several test to determine the effectiveness of the proposed solution. The outcome show that our WUR system can be employed in environment where the Bit Error Rate (BER) induced by noise is up to 10^2, vice versa, when the BER induced by noise is in the order of 10´3 or below, it is not worth to use any Forward Error Correction (FEC) mechanism since it does not introduce any advantages compared to uncoded data. In the context of energy-aware solutions, we present two protocols: REACTIVE and ALBA-WUR. REACTIVE is a low-power over-the-air programming (OAP) protocol we implemented to improve the energy efficiency and lower the image dissemination time of Deluge T2, a well-known OAP protocol implemented in TinyOS. To prove the effectiveness of REACTIVE we compared it to Deluge exploiting a testbed made of MagoNode motes. Results of our experiments show that the image dissemination time is 7 times smaller than Deluge, while the energy consumption drops 2.6 times. ALBA-WUR redesigns ALBA-R protocol, extending it to exploit advantages of WUR technology. We compared ALBA-R and ALBA-WUR in terms of current consumption and latency via simulations. Results show that ALBA-WUR estimated network lifetime is decades longer than that achievable by ALBA-R. Furthermore, end-to-end packet latency features by ALBA-WUR is comparable to that of ALBA-R. While the main goal of energy optimization approaches is motes lifetime maximization, in recent years a new research branch in WSN emerged: Energy Neutrality. In contrast to lifetime maximization approach, energy neutrality foresees the perennial operation of the network. This can be achieve only making motes use the harvested energy at an appropriate rate that guarantees an everlasting lifetime. In this thesis we stress that maximizing energy efficiency of a hardware platform dedicated to WSNs is the key to reach energy neutral operation (ENO), still providing reasonable data rates and delays. To support this conjecture, we designed a new hardware platform equipped with our wake-up radio (WUR) system able to support ENO, the MagoNode++. The MagoNode++ features a energy harvester to gather energy from solar and thermoelectric sources, a ultra low power battery and power management module and our WUR system to improve the energy efficiency of wireless communications. To prove the goodness in terms of current consumption of the MagoNode++ we ran a series of experiments aimed to assess its performance. Results show that the MagoNode++ consumes only 2.8 µA in Low Power Mode with its WRx module in listening mode. While carrying on our research work on solutions trying to mitigate the energy problem, we also faced a challenging application context where the employment of WSNs is considered efficient and effective: structural health monitoring (SHM). SHM deals with the early detection of damages to civil and industrial structures and is emerging as a fundamental tool to improve the safety of these critical infrastructures. In this thesis we present two real world WSNs deployment dedicated to SHM. The first concerned the monitoring of the Rome B1 Underground construction site. The goal was to monitor the structural health of a tunnel connecting two stops. The second deployment concerned the monitoring of the structural health of buildings in earthquake-stricken areas. From the experience gained during these real world deployments, we designed the Modular Monitoring System (MMS). The MMS is a new low-power platform dedicated to SHM based on the MagoNode. We validated the effectiveness of the MMS low-power design performing energy measurements during data acquisition from actual transducers.
APA, Harvard, Vancouver, ISO, and other styles
41

ROMAGNOLI, Valentina. "La gestione dei resi dei clienti come strumento per lo sviluppo del commercio elettronico delle aziende: il caso Santoni S.p.A." Doctoral thesis, 2018. http://hdl.handle.net/11393/251107.

Full text
Abstract:
Il settore del commercio elettronico è un settore in sempre più ampio e rapido sviluppo. Le motivazioni possono essere molteplici ma sono sicuramente legate al cambiamento dello stile di vita delle persone e alla possibilità di accedere all’acquisto di beni che altrimenti sarebbe stato pressoché impossibile acquistare. La disciplina riguardante questo settore è anch’essa stata elaborata mano a mano che questo settore si è evoluto, per rispondere di volta in volta alle diverse necessità che si sono presentate. La disciplina è tutt’oggi ancora in evoluzione, soprattutto a causa del fatto che in questo settore ci sono molteplici forme contrattuali che vengono utilizzate per creare accordi commerciali dei più vari tipi, e ognuno dei quali prospetta problematiche diverse. In questo lavoro si parte dalla nascita e dallo sviluppo del commercio elettronico per analizzare l’evoluzione della disciplina associata. Dopodiché si analizza il tipo di contratto posto in essere tra la Santoni S.p.A. (noto marchio di calzature di alta gamma) e la Filoblu s.rl. (società veneta che si occupa della creazione e gestione di piattaforme e-commerce) per valutarne i punti cruciali. Dopo aver analizzato in dettaglio gli aspetti sopra citati, viene illustrata la disciplina delle denunce per difetto di conformità del bene e come queste vengono gestite dalla Santoni S.p.A., per passare poi all’analisi delle denunce per difetto di conformità degli ultimi 3 anni. Questo perché, come si noterà, questo è un campo in cui le problematiche sono controverse e gran parte della gestione viene lasciata alle ditte produttrici che si trovano di volta in volta di fronte alla scelta su come gestire il caso per rendere il cliente soddisfatto del servizio. La disciplina segue i suoi sviluppi e cerca di prevenire (per quanto possibile) situazioni sgradevoli sia per il fornitore del bene che per l’acquirente. L’entusiasmo mostrato dagli acquirenti per la comodità e la facilità dell’acquisto on-line, viene molto spesso smorzato dall’impossibilità di vedere e toccare con mano il bene oggetto della transazione, creando un senso di inquietudine legata alla qualità del bene che si sta acquistando. Per questo motivo, nel momento in cui un acquirente denuncia un difetto di conformità sul bene acquistato on-line o semplicemente la sua insoddisfazione su determinati aspetti del bene (colore, calzata, forma, ecc.), si attiva un meccanismo volto a valutare la presenza o meno di un eventuale difetto sul bene e di risolverlo nel modo più soddisfacente per l’acquirente. Dopotutto per un’azienda, gestire un negozio on-line equivale ad avere una vetrina di sé stessa attiva 24 ore su 24 e visibile a chiunque abbia un accesso al mondo di internet, e per questo motivo gestire i clienti che utilizzano questo tipo di servizio significa migliorare o peggiorare, in maniera esponenziale rispetto a quanto può avvenire in un negozio fisico, l’immagine percepita da ogni singolo acquirente. C’è però da dire che, in molti casi registrati, nonostante una perizia tecnica effettuata da operai specializzati sul prodotto venduto, la poca conoscenza dei processi di produzione dei singoli clienti, mette i venditori in situazioni difficili da gestire, in quanto il cliente non riesce a capire che quello che lui percepisce come un difetto in realtà non lo è, e che quindi non è imputabile all’azienda quello che lui crede che lo sia. Generalmente in questi casi, sempre per cercare di limitare degli inevitabili danni d’immagine, si offrono al cliente soluzioni alternative come resi gratuiti, omaggi di piccoli prodotti complementari o buoni sconto su acquisti successivi, ma sarebbe sicuramente necessaria una normativa completa e definitiva, che indichi in maniera risoluta come gestire casistiche particolari che si presentano frequentemente nella fase post-vendita. Viste le innumerevoli problematiche che si riscontrano frequentemente in questo ambito, la normativa a tutt’oggi presente non risulta essere sufficientemente soddisfacente per lo scopo a cui è stata creata. Come detto precedentemente, tutto il meccanismo che viene messo in atto all’interno di ogni azienda dopo una denuncia di difetto di conformità, si innesca per risolvere il problema ed evitare un inevitabile danno d’immagine, quindi si può concludere che, nonostante la presenza di una normativa (anche se ancora in via di sviluppo), l’arma migliore che un consumatore on-line può mettere in atto e che spaventa di più i venditori è sicuramente il danno d’immagine. Una cattiva recensione su un blog, un social network, o semplicemente un racconto di una brutta esperienza derivante da un acquisto on-line, può vanificare tutti gli sforzi fatti dal venditore per raggiungere una buona percezione del proprio marchio, e innestare un meccanismo a catena che non giova all’immagine aziendale.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography