Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Elaborazione segnale.

Thèses sur le sujet « Elaborazione segnale »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 34 meilleures thèses pour votre recherche sur le sujet « Elaborazione segnale ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Onofri, Claudio. « Elaborazione del segnale elettroanatomico cardiaco in condizioni di fibrillazione atriale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
La Fibrillazione Atriale è l'aritmia maggiormente riscontrata nella pratica clinica. Le mappe elettroanatomiche sono uno strumento valido per la visualizzazione e il riconoscimento della cardiopatia. L'obiettivo di questa tesi è stato quello di implementare un algoritmo, ai fini dello sviluppo di una mappa di fase per segnali EGM simulati in atrio destro del cuore.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Federici, Alessandro. « Tecniche di elaborazione del segnale elettrocardiografico per il riconoscimento della frequenza cardiaca ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14981/.

Texte intégral
Résumé :
Il complesso QRS è un’onda del tracciato elettrocardiografico che riflette l’attività elettrica del cuore durante la contrazione ventricolare. La sua forma caratteristica consente di determinare la frequenza cardiaca, classificare i cicli cardiaci e diagnosticare correttamente eventuali disturbi di conduzione che possono portare a malattie cardiache più o meno gravi. L’analisi dell’ECG, e in particolare l’identificazione dei complessi QRS (alla base del riconoscimento della frequenza cardiaca), ha avuto grande sviluppo grazie all’implementazione di sistemi e algoritmi automatizzati e il progresso nel settore dei microprocessori ha aumentato l’uso di software di riconoscimento, sostituendo quelli via hardware. Questo lavoro di tesi propone una panoramica delle diverse tecniche di elaborazione del segnale elettrocardiografico per il riconoscimento della frequenza cardiaca concentrandosi sugli algoritmi presenti in letteratura e basati sullo studio di caratteristiche proprie del segnale elettrocardiografico, come l’ampiezza, la pendenza o la larghezza del complesso QRS. La tesi è strutturata come segue: dopo una breve descrizione dell’anatomia del cuore, il capitolo 2 è dedicato alla fisiologia del cuore e del suo sistema di conduzione a partire dall’elettrofisiologia delle cellule eccitabili e del potenziale d’azione. Nel capitolo 3 si descrive l’elettrocardiografia illustrando il ciclo cardiaco e i metodi di acquisizione dell’attività elettrica cardiaca, mentre nel capitolo 4 si propone una descrizione delle caratteristiche degli algoritmi di detezione eventi e riconoscimento di forme d’onda e si trattano alcuni approcci, tra cui l’algoritmo di Pan-Tompkins, che, nonostante sia piuttosto datato, è il più diffuso tra questi metodi grazie alla sua precisione e al suo basso carico computazionale.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Lauriola, Angela Pia. « Il neurofeedback : acquisizione ed elaborazione di un segnale EEG a scopo terapeutico ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
La finalità di questa tesi è la presentazione dei principi di funzionamento del neurofeedback, tecnica non invasiva che sfrutta la capacità del soggetto di autoregolare e modulare la propria attività cerebrale verso una condizione desiderata, grazie alla somministrazione in retroazione di una rappresentazione di determinati parametri estratti dal suo stesso segnale EEG; di quest'ultimo saranno esposte le modalità di acquisizione ed elaborazione. Il neurofeedback si propone come trattamento alternativo per alcuni disturbi di origine neurologica e neuropsicologica, soprattutto in virtù della quasi totale assenza di effetti collaterali e della possibilità di offrire miglioramenti a lungo termine.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Urbani, Camilla. « Elaborazione di segnali audio per la localizzazione di sorgenti ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9258/.

Texte intégral
Résumé :
In questo lavoro viene trattata l'elaborazione di segnali audio per la localizzazione di sorgenti sonore. Di certo gli elementi che concorrono maggiormente nella localizzazione del suono sono le nostre orecchie: esse sono separate dalla testa, che funge da ostacolo acustico. E' importante distinguere se la sorgente si trova davanti agli occhi dell'ascoltatore, ossia nel piano interaurale, o se altrimenti occupa una posizione più o meno laterale. In tali due casi i segnali audio raggiungeranno in modo diverso le due orecchie: avremo rispettivamente che essi, in un caso, raggiungeranno le due orecchie contemporaneamente; nell'altro una delle due orecchie riceverà un segnale ritardato ed attenuato. Tale elaborato si propone di ricreare uno scenario di classe virtuale in cui, attraverso l'utilizzo di MATLAB, vengono riprodotti i vari segnali cercando di fornire la sensazione di un ascolto reale, andando ad operare su di essi.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Pambi, Ngeya Cédric. « Elaborazione del segnale di corrente di ionizzazione orientata al controllo della combustione in motori ad accensione comandata ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
Storicamente, è venuto prima il problema dell’inquinamento perché si era raggiunta una qualità della vita associata a un inquinamento atmosferico critico che poneva problemi di tipo economico (poiché le persone si ammalavano a causa dell’inquinamento ambientale e non poteva recarsi al lavoro). Gli enti governativi hanno imposto ai costruttori di limitare l’impatto inquinante dei loro veicoli poiché avevano individuato delle sostanze nocive quali, HC, CO2, NOx e particolato in seguito, per l’uomo e per l’ambiente. In questo periodo, la riduzione dei consumi e delle emissioni inquinanti, accompagnata anche dalla domanda di veicoli sempre più performanti, costituisce una delle principali sfide nello sviluppo di nuovi sistemi di propulsione per l’industria automobilistica. La soddisfazione di questi requisiti, comporta la ricerca di soluzioni volte a migliorare l’efficienza dei motori a combustione interna nei quali, il processo di combustione rappresenta uno dei principali parametri che influenzano l’efficienza di conversione dell’energia chimica del combustibile in lavoro meccanico. Il modo migliore per aver informazioni sulla qualità della combustione e di conseguenza controllarla, è utilizzare dei sensori che rilevano la pressione all’interno della camera. Nonostante il progresso tecnologico, la complessa progettazione della testa del motore per componenti aggiuntivi e l’alto costo del sensore di pressione stanno portando i costruttori ad intraprendere strade alternative per il controllo della combustione con l’ausilio di sensori economici. In questo lavoro di tesi, l’attenzione è rivolta allo studio di un metodo alternativo di controllo della combustione nei motori ad accensione comandata attraverso l’analisi di un segnale diverso da quello pressione ovvero il segnale di corrente di ionizzazione che contiene informazioni simili.
Styles APA, Harvard, Vancouver, ISO, etc.
6

SAIBENE, AURORA. « A Flexible Pipeline for Electroencephalographic Signal Processing and Management ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2022. http://hdl.handle.net/10281/360550.

Texte intégral
Résumé :
L'elettroencefalogramma (EEG) fornisce registrazioni non-invasive delle attività e delle funzioni cerebrali sotto forma di serie temporali, a loro volta caratterizzate da una risoluzione temporale e spaziale (dipendente dai sensori), e da bande di frequenza specifiche per alcuni tipi di condizioni cerebrali. Tuttavia, i segnali EEG risultanti sono non-stazionari, cambiano nel tempo e sono eterogenei, essendo prodotti da differenti soggetti e venendo influenzati da specifici paradigmi sperimentali, condizioni ambientali e dispositivi. Inoltre, questi segnali sono facilmente soggetti a rumore e possono venire acquisiti per un tempo limitato, fornendo un numero ristretto di condizioni cerebrali sulle quali poter lavorare. Pertanto, in questa tesi viene proposta una pipeline flessibile per l'elaborazione e la gestione dei segnali EEG, affinchè possano essere più facilmente comprensibili e quindi più facilmente sfruttabili in diversi tipi di applicazioni. Inoltre, la pipeline flessibile proposta è divisa in quattro moduli riguardanti la pre-elaborazione del segnale, la sua normalizzazione, l'estrazione e la gestione di feature e la classificazione dei dati EEG. La pre-elaborazione del segnale EEG sfrutta la multivariate empirical mode decomposition (MEMD) per scomporre il segnale nelle sue modalità oscillatorie, chiamate intrinsic mode function (IMF), ed usa un criterio basato sull'entropia per selezionare le IMF più relevanti. Queste IMF dovrebbero mantenere le naturali dinamiche cerebrali e rimuovere componenti non-informative. Le risultati IMF rilevanti sono in seguito sfruttate per sostituire il segnale o aumentare la numerosità dei dati. Nonostante MEMD sia adatto alla non-stazionarietà del segnale EEG, ulteriori passi computazionali dovrebbero essere svolti per mitigare la caratteristica eterogeneità di questi dati. Pertanto, un passo di normalizzazione viene introdotto per ottenere dati comparabili per uno stesso soggetto o più soggetti e tra differenti condizioni sperimentali, quindi permettendo di estrarre feature nel dominio temporale, frequenziale e tempo-frequenziale per meglio caratterizzare il segnale EEG. Nonostante l'uso di un insieme di feature differenti fornisca la possibilità di trovare nuovi pattern nei dati, può altresì presentare alcune ridondanze ed incrementare il rischio di incorrere nella curse of dimensionality o nell'overfitting durante la classificazione. Pertanto, viene proposta una selezione delle feature basata sugli algoritmi evolutivi con un approccio completamente guidato dai dati. Inoltre, viene proposto l'utilizzo di modelli di apprendimento non o supervisionati e di nuovi criteri di stop per un algoritmo genetico modificato. Oltretutto, l'uso di diversi modelli di apprendimento automatico può influenzare il riconoscimento di differenti condizioni cerebrali. L'introduzione di modelli di deep learning potrebbe fornire una strategia in grado di apprendere informazioni direttamente dai dati disponibili, senza ulteriori elaborazioni. Fornendo una formulazione dell'input appropriata, le informazioni temporali, frequenziali e spaziali caratterizzanti i dati EEG potrebbero essere mantenute, evitando l'introduzione di architetture troppo complesse. Pertato, l'utilizzo di differenti processi ed approcci di elaborazione potrebbe fornire strategie più generiche o più legate a specifici esperimenti per gestire il segnale EEG, mantenendone le sue naturali caratteristiche.
The electroencephalogram (EEG) provides the non-invasive recording of brain activities and functions as time-series, characterized by a temporal and spatial (sensor-dependent) resolution, and by brain condition-bounded frequency bands. Moreover, it presents some cost-effective device solutions. However, the resulting EEG signals are non-stationary, time-varying, and heterogeneous, being recorded from different subjects and being influenced by specific experimental paradigms, environmental conditions, and devices. Moreover, they are easily affected by noise and they can be recorded for a limited time, thus they provide a restricted number of brain conditions to work with. Therefore, in this thesis a flexible pipeline for signal processing and management is proposed to have a better understanding of the EEG signals and exploit them for a variety of applications. Moreover, the proposed flexible pipeline is divided in 4 modules concerning signal pre-processing, normalization, feature computation and management, and EEG data classification. The EEG signal pre-processing exploits the multivariate empirical mode decomposition (MEMD) to decompose the signal in oscillatory modes, called intrinsic mode functions (IMFs), and uses an entropy criterion to select the most relevant IMFs that should maintain the natural brain dynamics, while discarding uninformative components. The resulting relevant IMFs are then exploited for signal substitution and data augmentation. Even though MEMD is adapt to the EEG signal non-stationarity, further processing steps should be undertaken to mitigate these data heterogeneity. Therefore, a normalization step is introduced to obtain comparable data inter- and intra-subject and between different experimental conditions, allowing the extraction of general features in the time, frequency, and time-frequency domain for EEG signal characterization. Even though the use of a variety of feature types may provide new data patterns, they may also present some redundancies and increase the risk of incurring in classification problems like curse of dimensionality and overfitting. Therefore, a feature selection based on evolutionary algorithms is proposed to have a completely data-driven approach, exploiting both supervised and unsupervised learning models, and suggesting new stopping criteria for a modified genetic algorithm implementation. Moreover, the use of different learning models may affect the discrimination of different brain conditions. The introduction of deep learning models may provide a strategy to learn directly from the available data. By suggesting a proper input formulation it could be possible to maintain the EEG data time, frequency, and spatial information, while avoiding too complex architectures. Therefore, using different processing steps and approaches may provide general or experimental specific strategies to manage the EEG signal, while maintaining its natural characteristics.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Sarti, Mattia. « Elaborazione Spaziale di Segnali Audio ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14240/.

Texte intégral
Résumé :
In questo elaborato verrà sperimentata la localizzazione di sorgenti sonore, intesa come direzione di provenienza dei diversi suoni, per finalizzarla alla riproduzione di una conversazione tra due speakers in modo che un terzo ascoltatore possa “localizzarla spazialmente”, ossia discriminare i diversi speakers (sorgenti) assegnando virtualmente ad ognuno una diversa posizione spaziale. In questo modo si riusciranno a discriminare e identificare i conversatori in modo sicuro, senza doversi basare solamente sulle differenze nelle voci come avverrebbe normalmente.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Farolfi, Andrea. « Elaborazione di segnali elettromagnetici mediante metasuperfici ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24026/.

Texte intégral
Résumé :
La crescita esponenziale del traffico dati e le future applicazioni che dovranno essere supportate imporranno requisiti di bit-rate e latenza che non potranno essere soddisfatte dall'odierno standard di quinta generazione, ma richiederanno una larga banda, presumibilmente individuabile nella banda dei TeraHertz. Si prospetta che nel prossimo futuro, con l'avvento dello standard di sesta generazione (6G), le tecniche di Digital Signal Processing (DSP) correntemente utilizzate possano non essere sufficienti a soddisfare i requisiti richiesti. Le cause delle limitazioni del DSP sono da ricercare nelle elevate frequenze dei segnali, i quali, per il teorema di Shannon, richiedono convertitori analogico-digitali (ADC) e convertitori digitali-analogico (DAC) operanti a frequenze molto alte. Inoltre, l'elevata quantità di dati binari prodotta dagli ADC, non potrebbe essere processata dagli odierni circuiti digitali garantendo piccole latenze e bassi consumi. Alla luce di ciò, a livello accademico si stanno investigando metodi alternativi per eseguire il Signal Processing direttamente sull'onda elettromagnetica veicolo dell'informazione, allo scopo di semplificare l'elaborazione eseguita in digitale, con vantaggi in termini di piccole latenze, bassi consumi e modesti ingombri. In tal senso la tecnologia delle metasuperfici, dispositivi in grado di interagire con le onde elettromagnetiche effettuando funzioni non presenti o difficili da ottenere in natura, potrebbe rivestire un importante ruolo. Nel presente elaborato vengono illustrate le metasuperfici sviluppate negli ultimi anni, analizzandone le caratteristiche e le peculiarità elettromagnetiche al fine di ricavare un modello ingresso-uscita della funzione implementata. Successivamente, sfruttando alcune delle metasuperfici proposte, viene presentata una possibile applicazione delle stesse per la modulazione e demodulazione a livello elettromagnetico di segnali chirp, che rappresentano uno dei candidati per i sistemi 6G.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Bardhi, Endri. « Tecnologie di elaborazione dei segnali per l'Actigrafia ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
L'impiego della Actigrafia per ridurre i disturbi del sonno. Vengono trattate le principali tecnologie che costituiscono gli actigrafi e anche gli algoritmi adoperati per distinguere se il soggetto è sveglio o addormentato. Tali algoritmi permettono inoltre di verificare se il dispositivo è indossato o meno.
Styles APA, Harvard, Vancouver, ISO, etc.
10

FALCONE, DAMIANO. « Elaborazione di segnali video per applicazioni multimediali ». Doctoral thesis, Università Politecnica delle Marche, 2008. http://hdl.handle.net/11566/242347.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
11

CHIARELLO, LEONARDO. « Tecniche di Elaborazione dei Segnali per la Protezione dei Segnali GNSS e delle Reti URLLC ». Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3447542.

Texte intégral
Résumé :
Wireless communications have evolved rapidly during the last 20 years. Nowadays, not only people communicate with each other, but also people communicate with machines and also machines communicate with each other. Therefore, there exist huge communication networks and the usage of these networks have grown exponentially. In order to support these intense demands, research should develop innovative but also realistic technologies. While developing new technologies, it is necessary that the vulnerabilities of these technologies are investigated. In this context, the aim of this Thesis is the proposal of signal processing techniques for the protection of global navigation satellite system (GNSS) signals and mobile networks, with particular focus to ultra-reliable low-latency communications (URLLC). GNSS-dependent positioning, navigation, and timing synchronization procedures have a significant impact on everyday life. Therefore, such a widely used system increasingly becomes an attractive target for illicit exploitation by terrorists and hackers for various motives. As such, anti-spoofing and anti-jamming algorithms have become an important research topic within the GNSS discipline. As a first contribution, this Thesis provides the performance evaluation of i) signal quality monitoring (SQM) techniques for anti-spoofing and ii) an adaptive notch filter for anti-jamming, both implemented in a security-oriented GNSS software package. Then, the problem of detecting spoofing attacks for a GNSS receiver in space orbiting around the Earth is considered and a solution via fusion of consistency metrics is proposed. Security has been one of the main drivers also in the design of the fifth generation (5G) of mobile communication systems by the 3rd Generation Partnership Project (3GPP), however with focus only at high layers to guarantee authentication, privacy and data integrity. On the other hand, jamming attacks for denial of service are a rising threat which can severely compromise the system performance, in particular in Industry 4.0 scenarios. This Thesis proposes a defense mechanism based on pseudo-random blanking of subcarriers with orthogonal frequency division multiplexing (OFDM) and designs a detector by applying the generalized likelihood ratio test (GLRT) on those subcarriers. The performance are evaluated against a smart jammer in single-cell single-user uplink scenario with additive white Gaussian noise (AWGN) and Rayleigh channel models. Then, this work is extended to investigate the problem of jamming detection and mitigation in a more realistic indoor factory deployment, where also a jamming mitigation with frequency hopping and random scheduling of user equipments (UEs) is proposed.
Wireless communications have evolved rapidly during the last 20 years. Nowadays, not only people communicate with each other, but also people communicate with machines and also machines communicate with each other. Therefore, there exist huge communication networks and the usage of these networks have grown exponentially. In order to support these intense demands, research should develop innovative but also realistic technologies. While developing new technologies, it is necessary that the vulnerabilities of these technologies are investigated. In this context, the aim of this Thesis is the proposal of signal processing techniques for the protection of global navigation satellite system (GNSS) signals and mobile networks, with particular focus to ultra-reliable low-latency communications (URLLC). GNSS-dependent positioning, navigation, and timing synchronization procedures have a significant impact on everyday life. Therefore, such a widely used system increasingly becomes an attractive target for illicit exploitation by terrorists and hackers for various motives. As such, anti-spoofing and anti-jamming algorithms have become an important research topic within the GNSS discipline. As a first contribution, this Thesis provides the performance evaluation of i) signal quality monitoring (SQM) techniques for anti-spoofing and ii) an adaptive notch filter for anti-jamming, both implemented in a security-oriented GNSS software package. Then, the problem of detecting spoofing attacks for a GNSS receiver in space orbiting around the Earth is considered and a solution via fusion of consistency metrics is proposed. Security has been one of the main drivers also in the design of the fifth generation (5G) of mobile communication systems by the 3rd Generation Partnership Project (3GPP), however with focus only at high layers to guarantee authentication, privacy and data integrity. On the other hand, jamming attacks for denial of service are a rising threat which can severely compromise the system performance, in particular in Industry 4.0 scenarios. This Thesis proposes a defense mechanism based on pseudo-random blanking of subcarriers with orthogonal frequency division multiplexing (OFDM) and designs a detector by applying the generalized likelihood ratio test (GLRT) on those subcarriers. The performance are evaluated against a smart jammer in single-cell single-user uplink scenario with additive white Gaussian noise (AWGN) and Rayleigh channel models. Then, this work is extended to investigate the problem of jamming detection and mitigation in a more realistic indoor factory deployment, where also a jamming mitigation with frequency hopping and random scheduling of user equipments (UEs) is proposed.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Rossi, Silvia. « Elaborazione di segnali video per monitoraggio in situazioni di emergenza ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5324/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Azhakathu, Anisha Tresa. « Elaborazione di segnali EEG e analisi di connettività cerebrale durante crisi epilettiche ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25090/.

Texte intégral
Résumé :
L’epilessia è una patologia neurologica cronica in cui l’attività anomala dei neuroni causa crisi ricorrenti. Il trattamento di prima scelta nella cura dell’epilessia sono i farmaci antiepilettici. Tuttavia, circa il 30% dei pazienti epilettici è resistente ai farmaci: una possibile soluzione consiste nella rimozione chirurgica della zona responsabile dell’insorgenza delle crisi, definita zona epilettogena (ZE). La precisa localizzazione della ZE è fondamentale per il successo della chirurgia dell’epilessia. In questo lavoro di tesi, sono stati analizzati i tracciati EEG di tre pazienti epilettici, ricoverati presso l’ospedale Bellaria di Bologna, con l’obiettivo di identificare grandezze in grado di localizzare e lateralizzare l’origine delle crisi epilettiche. In particolare, i segnali sono stati analizzati in termini di potenza e connettività. La connettività cerebrale è stata studiata attraverso la causalità di Granger. Il network cerebrale è stato analizzato utilizzando la teoria dei grafi, con particolare interesse agli indici di degree centrality. I risultati ottenuti dall’analisi di outdegree centrality hanno permesso di confermare le valutazioni cliniche. Due dei tre pazienti analizzati erano affetti da crisi temporali destre; la valutazione dell’outdegree centrality, durante le crisi epilettiche, ha mostrato lateralizzazione destra, con coinvolgimento delle regioni temporali in particolare. Nel caso del paziente affetto da crisi bitemporali, l’indice di outdegree centrality ha confermato il coinvolgimento di entrambi gli emisferi durante le crisi. I risultati ottenuti hanno evidenziato la capacità dello studio di connettività, insieme all’applicazione della teoria dei grafi, di permettere una maggiore comprensione del funzionamento del network cerebrale. Ulteriori studi possono permettere di definire un metodo di localizzazione precisa della ZE, a partire dai tracciati EEG ottenuti in maniera non invasiva.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Lozupone, Graziano Vito. « Elaborazione automatica di segnali intracardiaci per la rilevazione di rotori elettrici sottostanti la fibrillazione atriale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
La fibrillazione atriale (FA) è la più frequente tra le aritmie. In questo lavoro è stata studiata la teoria dei rotori che si ipotizza sostenga la FA. Sono stati utilizzati elettrogrammi (EGM) provenienti da 8 pazienti con FA persistente, ottenuti con elettrocatetere ad alta densità: 20 elettrodi in 7cm^2. È stato realizzato un sistema automatico che permette di rilevare numero, durata e collocazione dei rotori trovati. I segnali esportati dal sistema hanno subito un processo di selezione secondo vincoli imposti sul contatto degli elettrodi e sulla stabilità durante l’acquisizione. Il segnale EGM unipolare utilizzato, è stato sottoposto a eliminazione di artefatti (far field ventricolare) ed in seguito ne è stata analizzata la fase. Per la ricostruzione del segnale di fase è stato necessario calcolare le frequenze dominanti (DF). Di queste è stata implementata una doppia stima ottenuta con due diverse metodologie di calcolo al fine di osservare eventuali variazioni dei risultati in funzione di questo parametro. Le attivazioni locali sono state poste in corrispondenza delle inversioni del valore di fase e affinate andando a cercare, sul segnale EGM, il valore minimo della derivata in un intorno dell’inversione. Associati gli elettrodi alle aree dell’atrio, i valori della fase sono stati riportati sull’anatomia cardiaca generando le mappe di fase. Sono stati individuati i centri dei pattern rotatori (singolarità di fase) andando a valutare il gradiente spaziale del valore della fase. Il persistere del pattern per un tempo maggiore del periodo dominante (1/DF), fa sì che in quell’area venga identificato un rotore. Se il centro di rotazione resta fisso i rotori sono detti stabili altrimenti mobili. Quelli che sono stati individuati con i due metodi sono di tipo stabile e hanno una durata media minore ai 300ms (Metodo 1: 292±118ms. Metodo 2: 258±88ms). Per la prima volta è stato possibile riconoscere rotori su acquisizioni eseguite su un’area ristretta di osservazione.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Perugini, Enrico. « Elaborazione audio dei Segnali con reti neurali profonde per la rilevazione di situazioni di pericolo ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22397/.

Texte intégral
Résumé :
Nei sistemi di sorveglianza moderni, soluzioni composte dall’unione di telecamere a circuito chiuso e tecniche di intelligenza artificiale, rappresentano lo strumento principale per fronteggiare minacce e pericoli in diversi ambienti: ambienti pubblici, abitazioni private, uffici, strutture critiche come ospedali o scuole. Questi sistemi vengono equipaggiati da robuste tecniche di computer vision, le quali permettono di riconoscere e rilevare oggetti e persone, attraverso sequenze di immagini in maniera automatica. L’obiettivo è predire l’azione degli elementi osservati in un determinato scenario per aumentare l’efficienza globale di un sistema di sorveglianza. Tuttavia, l’analisi delle immagini può subire importanti cali di prestazioni in diverse circostanze, dovuti alla natura dei sensori video e dalle limitazioni che essi introducono. Nel progetto di tesi presentato, si discute lo sviluppo di un sistema di riconoscimento di situazioni di pericolo i cui dati elaborati sono acquisiti da sensori audio. Negli ultimi anni, la sorveglianza audio ha riscosso un grande interesse grazie alla flessibilità di utilizzo, sia per la diversità delle situazioni in cui può essere impiegata, sia per la possibilità di essere combinata con la controparte video in sistemi ibridi. Il sistema proposto è costituito da una rete neurale convoluzionale, la cui architettura si ispira fortemente alla VGG19. Al suo ingresso vengono fornite immagini costruite a partire da porzioni di stream audio e trasformate in rappresentazioni tempo-frequenza quali: spettrogramma, spettrogramma in scala Mel e gammatonogramma. L’obiettivo è stato quello di costruire un modello di classificazione di eventi audio di pericolo, per i quali si sono considerati suoni come: vetri che si infrangono, colpi di pistola e urla. Successivamente si è condotto un confronto sia tra le performance indotte dall’utilizzo delle tre rappresentazioni, sia tra la rete neurale e una tecnica di classificazione standard quale l’SVM
Styles APA, Harvard, Vancouver, ISO, etc.
16

Forcelli, Veronica. « Elaborazione di segnali elettroencefalografici per lo studio di potenziali evocati durante compiti di apprendimento associativo ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7928/.

Texte intégral
Résumé :
Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Faedi, Alberto. « Elaborazione di dati da sensori inerziali per monitoraggio strutturale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14247/.

Texte intégral
Résumé :
In questa relazione viene presentata una tecnica di analisi non lineare per il monitoraggio strutturale, denominata RQA, “recurrence quantification analysis”, che permette di rilevare il danno della struttura sotto osservazione attraverso una tecnica grafica e attraverso metriche da essa generate; questa tecnica è implementata in un algoritmo nell'ambiente di lavoro Matlab, e successivamente applicata ad una struttura di test. L'applicazione pratica cerca di ottenere risultati che siano in accordo con quanto detto sul piano teorico, sia per quanto riguarda informazioni di carattere generale sul monitoraggio di salute strutturale, sia per il particolare metodo di analisi applicato.
Styles APA, Harvard, Vancouver, ISO, etc.
18

QUETTIER, THOMAS CHARLES JOSEPH. « Elaborazione cosciente delle espressioni facciali e il contributo dei segnali somestetici : Studio dalla dinamica della rivalità binoculare ». Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3459400.

Texte intégral
Résumé :
Questo lavoro si prefigge di dare un contributo teorico alla teoria della cognizione incarnata ed alla scienza della coscienza. Presi insieme, entrambi gli ambiti di ricerca sollevano importanti domande riguardanti non solo ciascuno di essi, ma la loro interazione. Riguardo al contributo dato alla teoria della cognizione incarnata, gli esperimenti svolti usando la mimica facciale (Esperimento 1 ed Esperimento 2), testeranno il modello proposto da Wood e colleghi (2016). Questo modello propone che segnali sensorimotori possano fornire un feedback alle aree visive e giocare un ruolo nel modulare l’elaborazione visiva delle espressioni emotive del volto. Il possibile ruolo della mimica facciale nella percezione consapevole di espressioni facciali emotive è quasi totalmente trascurato. I miei risultati confermano l'importanza della mimica nell'elaborazione consapevole delle espressioni facciali. Da quanto finora noto, l'integrazione delle informazioni tra le aree sensorimotorie e le aree visive modula l'esperienza delle espressioni facciali. In relazione alla scienza della coscienza, questo lavoro esplorerà i meccanismi temporali della coscienza. Un'attenzione particolare sarà data ai meccanismi relativi al contenuto della coscienza una volta che tale contenuto sia stato costruito. La modulazione dell'esperienza cosciente è osservata in due modi diversi: l'effetto di stabilizzazione (Esperimenti da 1 a 3), ovvero la durata del contenuto in consapevolezza, e l'effetto di disformazione (Esperimenti 4 e 5), ovvero la dissoluzione di un contenuto dalla consapevolezza. Propongo che questi due effetti debbano essere implementati nel decorso temporale della coscienza proposto da Aru e Backmann (2017) in quanto descrivono la possibile evoluzione del contenuto consapevole (rimanere consapevole o abbandonare la consapevolezza).
This work aims to give a theoretical contribution to embodied cognition theory and science of consciousness. Taken together, these two fields of research raise important questions regarding each field as well as their interaction. Regarding the contribution to the embodied cognition theory, experiments using mimicry (Experiment 1 and Experiment 2), will test the model proposed by Wood and colleagues (2016). This model proposes that sensorimotor signals may feedback to visual areas and play a role in modulating the visual processing of emotional faces. The possible role of facial mimicry in conscious perception of emotional facial expressions is almost totally neglected. My findings confirm the importance of mimicry in conscious processing of facial expressions. So far, integration of information between sensorimotor (i.e., mimicry) and visual areas modulates experience of facial expressions. Regarding science of consciousness, this work will explore the consciousness time-course mechanisms. A particular focus is given to the mechanisms related to the content of consciousness once such content is built up. Conscious experience modulation is observed in two different ways: the stabilization effect (Experiments 1 to 3), that is the duration of a content in consciousness, and the disformation effect (Experiments 4 and 5), that is the process of fading away of a content from consciousness. I propose these two effects need to be implemented in the consciousness time-course proposed by Aru and Backmann (2017) as they describe the possible evolution of the conscious content (i.e., remain or leave consciousness).
Styles APA, Harvard, Vancouver, ISO, etc.
19

Forlivesi, Diego. « Diagnostica di macchine elettriche tramite l'elaborazione numerica dei segnali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21378/.

Texte intégral
Résumé :
La diagnosi dei guasti delle macchine elettriche rotanti ha assunto negli ultimi anni una notevole importanza, a causa della sua grande influenza sulla continuazione operativa di molti processi industriali. Una precisa diagnosi e un rilevamento precoce dei guasti incipienti comportano una rapida manutenzione della macchina, in modo che essa possa essere rimessa in funzione nel più breve tempo possibile, e spesso evitano conseguenze dannose, che possono condurre alla definitiva sostituzione della macchina. Questo elaborato analizza i principali guasti elettrici e meccanici di un motore a induzione, con particolare attenzione al guasto relativo alle barre rotte di rotore, e le principali tecniche diagnostiche, fra le quali i metodi EPVA, MCSA, e la trasformata di wavelet. Una tecnica diagnostica ideale preleva dalla macchina le minime misurazioni necessarie, ed estrae, mediante una loro analisi, una diagnosi completa nel tempo minimo. In particolare, i tre metodi citati in precedenza, basano la loro analisi sulla misurazione di una delle correnti di fase di statore, e, attraverso le opportune elaborazioni dei segnali (FFT, trasformate tempo-frequenza), realizzano figure di merito in grado di fornire una precisa indicazione quantitativa sulla gravità del guasto.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Iaria, Paolo. « Metodi numerici per l'analisi e simulazione di segnali nella verifica di un test sul motore ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2366/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Passeri, Mattia. « Analisi tempo-frequenza dei segnali : dalla trasformata di Fourier alla trasformata wavelet ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
L’obiettivo di questa tesi è lo studio dal punto di vista teorico dei principali strumenti matematici per l’analisi tempo-frequenza dei segnali: la trasformata di Fourier, la trasformata di Fourier a tempo breve (STFT) e la trasformata wavelet. Il punto di partenza dello studio è l’analisi di Fourier, di cui vengono presentati i fondamenti e le proprietà. Poiché questo strumento ha il limite di fornire una rappresentazione spettrale di un segnale senza però localizzare nel tempo il suo contenuto in frequenza, si introduce l’analisi tempo-frequenza, proposta da Dennis Gabor nella seconda metà del Novecento come estensione dell’analisi di Fourier. L'analisi tempo-frequenza si basa sull’idea di fare scorrere una finestra di dimensione fissa sul segnale, per analizzare l’evoluzione nel tempo del contenuto spettrale del segnale all'interno della finestra. Successivi studi matematici hanno dato origine all'analisi wavelet, che permette di utilizzare finestre temporali di analisi di dimensione variabile così da sfruttare sia finestre di grande durata, ideali per lo studio delle basse frequenze, sia finestre di breve durata, maggiormente adatte a rilevare le alte frequenze. Nell’affrontare questi argomenti si è scelto di privilegiare gli aspetti teorici e formali alla base di ciascuno di essi, senza tralasciare però le intuizioni che hanno portato al loro sviluppo. Infine, sono stati presentati alcuni esempi di applicazione pratica di questi strumenti e dove necessario ne sono stati esaminati i pregi, i difetti e le limitazioni.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Fioretti, Folco. « Protocolli di trasmissione, codifica ed algoritmi di elaborazione di segnali multimediali per applicazioni e servizi di home automation ed entertainment su reti IP ». Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242272.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
23

Pasquali, Luca. « Riconoscimento delle emozioni tramite strumentazione per EEG ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Trouver le texte intégral
Résumé :
Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Placucci, Elisa. « Stima della frequenza respiratoria per un ventilatore polmonare ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
L’obiettivo di questo elaborato è quello di presentare un algoritmo in grado di stimare la frequenza respiratoria a partire da segnali disponibili in un respiratore polmonare, ideato per fronteggiare l’emergenza COVID. Il calcolo della frequenza respiratoria parte dall’analisi del segnale di flusso, fornito dal ventilatore utilizzato su un banco prova. Il setup prevede l’impiego di un polmone meccanico che simula la respirazione del paziente, di un misuratore di flusso (il Fluke VT900), di un casco come interfaccia e del ventilatore polmonare Biorespira, per il quale è stato creato l’algoritmo. La stima della frequenza respiratoria necessita dell’analisi di una finestra di 10 secondi, all’interno della quale si ricercano i picchi presenti nel tracciato. Nel caso in cui il numero di picchi non sia sufficiente per effettuare il calcolo, si allarga la finestra. In questo senso l’algoritmo è di tipo adattativo. Viene utilizzata una funzione per rilevare i picchi presenti nel tracciato che questa si basa su findpeaks.m, una funzione built–in di Matlab. La finestra in cui i picchi vengono ricercati è quella immediatamente precedente l’instante attuale, in modo da effettuare il calcolo in tempo reale. La frequenza respiratoria misurata è stata confrontata con un segnale di riferimento prodotto dal VT900 e che fa da gold standard, così da permettere di verificare le performance dell’algoritmo. L’errore commesso è stato quantificato mediante Bland Altman Plot, inoltre è stato calcolato il ritardo presente tra la stima e il gold standard, in modo da quantificare la bontà dell’algoritmo implementato.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Santandrea, Federico. « Implementazione in Python della modulazione digitale Olivia ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Questo lavoro di tesi si propone di ricostruire ed illustrare in modo completo la struttura del sistema di trasmissione Olivia a partire dai documenti disponibili, arrivando allo sviluppo di un'implementazione pratica e chiara in linguaggio Python della quale verranno misurate le prestazioni in scenari simulati e nel mondo reale.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Calamia, Giuseppe. « Analisi preliminare dei risultati di TC perfusionale effettuata su tessuto polmonare sano ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11188/.

Texte intégral
Résumé :
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Bertolini, Daniele. « Comparison of EEG signals from epilepsy patients with Bump modeling ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5067/.

Texte intégral
Résumé :
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Maccanti, Cecilia. « Progettazione e realizzazione di un bicchiere sensorizzato per la valutazione delle capacità prensili di pazienti affetti da patologie neurodegenerative motorie, tramite la metodologia del Quality Function Deployment ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/17356/.

Texte intégral
Résumé :
L’ambito di riferimento in cui si inserisce il lavoro di tesi è quello della bioingegneria riabilitativa. Essa si propone di realizzare strumenti per la valutazione e soluzioni assistive pensate per sostenere l’autonomia di pazienti con disabilità motorie. Per la valutazione dell’uso degli arti superiori, lo stato dell’arte attuale non fornisce strumenti specifici, nonostante la manipolazione di oggetti con le mani coinvolga qualsiasi persona nelle più svariate attività e quindi incida molto sull’autonomia. A tal scopo, in questo lavoro di tesi, è stato progettato e realizzato uno smart-object sensorizzando un oggetto della vita di tutti i giorni, un bicchiere che, pur mantenendo l’interfaccia semplice dell’oggetto originale, fosse in grado di restituire una descrizione quantitativa della capacità di presa e di articolazione della mano. All’interno del bicchiere sono stati integrati sensori di pressione ed accelerazione per ottenere le misure relative alla forza impressa durante l’impugnatura e altri dati aggiuntivi per una valutazione più completa. Nel corso del progetto di tesi è stata applicata la metodologia del Quality Function Deployment. Il QFD è una tecnica di definizione del prodotto orientata all’utente, creando un modello di interazione con gli utenti che consente una definizione delle specifiche di prodotto efficace e coerente con i loro reali bisogni. Il lavoro di analisi svolto in accordo con tale metodologia ha prodotto un insieme di indicazioni sulle priorità progettuali. Queste informazioni sono state poi utilizzate nella fase di progettazione vera e propria del bicchiere sia per quanto riguarda il design della forma, sia per quanto riguarda la selezione degli hardware e la loro programmazione. L’attività di tesi si è conclusa con la stampa 3D del prototipo e sono state condotte alcune prove coinvolgendo l’utenza reale, terapisti occupazionali e pazienti per testare l’usabilità del bicchiere e le nuove funzionalità smart integrate.
Styles APA, Harvard, Vancouver, ISO, etc.
29

AMIRI, AMIR MOHAMMAD. « An intelligent diagnostic system for screening newborns ». Doctoral thesis, Università degli Studi di Cagliari, 2015. http://hdl.handle.net/11584/266593.

Texte intégral
Résumé :
The goal of this research is to devise and develop an intelligent system for analyzing heart sound signals, able to support physicians in the diagnosis of heart diseases in newborns. Many studies have been conducted in recent years to automatically differentiate normal heart sounds from heart sounds with pathological murmurs using audio signal processing in newborns. Serious cardia pathology may exist without symp- toms. Since heart murmurs are the first signs of heart disease, we screen newborns for normal (innocent) and pathological murmurs. This thesis presents a variety of techniques in time-frequency domain such as Cepstrum, Shannon energy, Bispe trum, and Wigner Bispe trum for feature extraction. A comparison of these techniques is considered to feature selection which has been used to reduce the size of the feature vector. In the final step, different lassi ers and techniques, e.g., Multi layer perc eptron (MLP), decision tree, Classification and Regression Trees (CART) and ensemble of decision trees, are applied on data in order to a hieve highest performan e. High classifi cation accuracy, sensitivity, and specifity have been obtained on the given data by CART. The validation process has been performed on a balanced dataset of 116 heart sound signals taken from healthy and unhealthy medical cases.
Styles APA, Harvard, Vancouver, ISO, etc.
30

CURCIO, Luciano. « Elaborazione parametrica di segnali ottici ». Doctoral thesis, 2012. http://hdl.handle.net/10447/94686.

Texte intégral
Résumé :
Questa tesi presenta una panoramica dell‘attività di ricerca da me svolta in questo triennio di dottorato, avente come oggetto la progettazione, la fabbricazione e la caratterizzazione di dispositivi non lineari in ottica integrata per l‘elaborazione parametrica dei segnali. Gli aspetti funzionali di questi dispositivi, le proprietà non lineari del secondo ordine dei materiali di cui sono composti così come i risultati dei processi di fabbricazione necessitano di un‘analisi teorica approfondita che ne consenta l‘effettiva applicazione alle comunicazioni ottiche. Il primo capitolo è un‘attenta disamina del metodo del Quasi-Phase-Matching mediante il quale si ha l‘implementazione del fenomeno di generazione efficiente e il mantenimento della radiazione elettromagnetica di seconda armonica all‘interno di un mezzo non lineare. Il secondo capitolo tratta della teoria e della tecnica dei complessi processi fisici che governano il bulk e surface poling nei cristalli di Niobato e di Tantalato Litio. Nel terzo capitolo si descrivono le caratteristiche peculiari del Surface Periodic Poling e si riportano i risultati conseguiti nell‘indagine, effettuata mediante diffrazione di raggi X, di strutture periodiche fabbricate con questa tecnica. L‘analisi strumentale è focalizzata sulla periodicità e sull‘uniformità dei reticoli sub-micrometrici implementati. Il quarto capitolo descrive le fasi di progettazione, fabbricazione e caratterizzazione di un dispositivo costruito per la generazione di seconda armonica in configurazione retro-propagante. Trattandosi di un fenomeno estremamente difficile da esaminare, lo studio ed il lavoro di ricerca si sono concentrati principalmente sugli aspetti di Tutor Ch.mo Prof. Alessandro C. Busacca Sommario III fabbricazione e di caratterizzazione del componente, portando a risultati originali, ed interessanti soprattutto da un punto di vista fisico. Nel quinto capitolo si descrivono i passi tecnologici che hanno portato alla costruzione di un dispositivo per il random Quasi-Phase-Matching e si discute delle misure realizzate durante le osservazioni sperimentali in bulk ed in guida d‘onda planare, cercando di darne una spiegazione chiara e, per quanto possibile, dettagliata alla luce della caratterizzazione del dispositivo stesso. L‘approccio seguito, oltre ad essere estremamente utile per svariate applicazioni, permette, al contempo, di evidenziare interessanti proprietà fisiche proprie di questo processo. Nel sesto ed ultimo capitolo, infine, viene presentato, per la prima volta, un frequency shifter in guida d‘onda a canale per scambio protonico in fase α, su substrato di Tantalato di Litio con poling periodico, in grado di confinare la radiazione elettromagnetica e permettere la conversione parametrica a due stadi in cascata (Generazione di Seconda Armonica-Generazione di Frequenza Differenza) operante nel range della banda C delle telecomunicazioni ottiche.
Styles APA, Harvard, Vancouver, ISO, etc.
31

GHERARDELLI, MONICA. « Elaborazione dei segnali nei radar polarimetrici ». Doctoral thesis, 1987. http://hdl.handle.net/2158/593395.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
32

FACHERIS, LUCA. « Tecniche di sintesi ed elaborazione dei segnali in radar polarimetrici ». Doctoral thesis, 1993. http://hdl.handle.net/2158/779500.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
33

D'ASARO, Elena. « COMPONENTI NON LINEARI IN OTTICA INTEGRATA : NUOVI SPUNTI PER L' ELABORAZIONE TUTTO-OTTICA DEI SEGNALI ». Doctoral thesis, 2011. http://hdl.handle.net/10447/95495.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
34

BUCCIARELLI, MARTA. « Tecniche di elaborazione di segnali a banda larga per sistemi radar multi-canale spaceborne e airborne ». Doctoral thesis, 2010. http://hdl.handle.net/11573/918439.

Texte intégral
Résumé :
L’ambito scientifico dell’attività di ricerca svolta riguarda lo sviluppo e l’analisi di tecniche innovative per l’elaborazione di segnali a banda larga, utilizzando le potenzialità che sistemi multo-canale e/o multi - sensore forniscono. Nello specifico l’obiettivo è rappresentato dallo studio di funzionalità avanzate per radar aviotrasportati e spaziali di nuova generazione, tra cui la cancellazione di interferenze elettromagnetiche (e.m.) a banda larga e la capacità di imaging di target ad alta risoluzione. Il primo argomento trattato riguarda l’elaborazione di dati radar ad apertura sintetica multicanale (M-SAR), allo scopo di difendere il sistema da interferenze elettromagnetiche a larga banda (SAR-ECCM) preservando le normali capacità di imaging. I SAR sono sensori attivi in grado di produrre, attraverso tecniche di scansione, “mappe” di parametri radiativi ad alta risoluzione, grazie all’utilizzo di bande elevate; a tal fine sfruttano il backscattering dalla superficie, che subisce un’attenuazione a due vie, quindi è di estrema importanza che sistemi di questo tipo siano in grado di proteggersi dalle interferenze elettromagnetiche (intenzionali, dovute al Jamming, oppure dovute alle spurie di altri sistemi a radiofrequenza, in altre parole Radio Frequency Interference - RFI), che subiscono attenuazioni a una via e possono essere caratterizzate da potenze molto più elevate di quelle del segnale utile, anche se ricevute dai lobi laterali del pattern di antenna. L’utilizzo di tecniche di nulling di antenna ottimizzate per lavorare a banda stretta non può garantire la protezione da interferenze di tipo Noise-Like a banda larga, quindi sembra di grande interesse lo sviluppo e lo studio di prestazioni di tecniche apposite, che prevedano l’aumento di gradi di libertà a disposizione, sia spaziali, nel senso di un numero maggiore di canali riceventi ed eventualmente introducendo vincoli aggiuntivi, sia temporali, in altre parole considerando la possibilità di elaborare più campioni di segnale per ciascun canale ricevente. Il secondo argomento affrontato riguarda l’elaborazione di dati radar ad apertura sintetica inversa (ISAR) al fine di aumentare la risoluzione cross-range dell’immagine quando siano disponibili le acquisizioni, monostatiche o bistatiche, di una molteplicità di sensori aviotrasportati. Come è noto l’ISAR fornisce immagini di target ad alta risoluzione sfruttando le caratteristiche del moto dei bersagli rispetto a un sensore, posto su di una piattaforma quasi stazionaria. Il principale svantaggio di questo tipo di processing risiede nel fatto che le prestazioni raggiungibili in termini di risoluzione cross-range dipendono dalle caratteristiche intrinseche del moto del bersaglio, piuttosto che da parametri di sistema; mentre la risoluzione in slant-range è determinata una volta che la banda e la forma d’onda trasmessa sono state decise, non c’è nessun modo di assegnare un valore desiderato di risoluzione cross-range. In casi particolari di bersagli con piccole componenti di movimento il valore di risoluzione di cross-range ottenuto può essere insufficiente, se si pensa che le immagini ISAR generalmente sono usate nelle procedure di Non Cooperative Target Recognition (NCTR). Per contrastare questo effetto è possibile derivare delle procedure per combinare in modo coerente le acquisizioni di un insieme di sensori trasportati da piattaforme che volano in formazione; in questo modo è possibile sintetizzare un’apertura equivalente maggiore, quindi un valore di risoluzione migliore che se si considerasse un unico sensore.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie