To see the other types of publications on this topic, follow the link: Analisi di immagini.

Dissertations / Theses on the topic 'Analisi di immagini'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analisi di immagini.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Landuzzi, Alberto. "Analisi e processi di immagini astronomiche." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8716/.

Full text
Abstract:
Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.
APA, Harvard, Vancouver, ISO, and other styles
2

Vagnoni, Ulderico. "Analisi di immagini storiche con reti neurali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19624/.

Full text
Abstract:
Durante il lavoro di tesi è stata realizzata una applicazione web finalizzata al caricamento e modifica di immagini storiche. L'applicazione web è stata realizzata sfruttando tecnologie come il PHP, per il lato back-end, Javascript, HTML e CSS, per il lato front-end, e MySQL per la creazione e gestione del database. L’applicazione offre, inoltre, una funzionalità di rilevamento volti per le immagini caricate. Per tale funzionalità è stata impiegata la rete neurale convoluzionale You Only Look Once (YOLO). Durante il lavoro di tesi, sono stati svolti degli esperimenti per verificare le prestazioni della rete neurale. Tali esperimenti consistevano nell'analizzare 5000 immagini processate da YOLO per poter individuare i True Positive, False Positive e False Negative necessari a calcolare il miss rate e la sensitività dell’algoritmo.
APA, Harvard, Vancouver, ISO, and other styles
3

Bertini, Flavio. "Analisi qualitativa di immagini in tomosintesi digitale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2741/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Franceschetti, Sara. "Analisi di immagini fluoroscopiche: compensazione dell'artefatto da movimento." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4690/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Tardini, Gianmarco. "Studio dell'osteoclastogenesi tramite analisi di immagini di microscopia confocale in fluorescenza." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24032/.

Full text
Abstract:
Ogni anno in Italia si registrano trentacinquemila nuovi casi di metastasi ossee e l’osso è il terzo sito di metastatizzazione più frequente al mondo. Non avendo a disposizione cure efficaci contro la malattia, il progetto “Dinamica” si impegna a sviluppare dei materiali biomimetici medicati che svolgono la duplice azione antitumorale e inibente il riassorbimento osseo. Obiettivo principale del progetto è la validazione in vitro ed ex vivo dei dispositivi, con l’intento di poterli utilizzare come cura per i pazienti colpiti da metastasi ossee. Per ricreare l’ambiente metastatico in laboratorio, utile per la validazione in vitro dei device, gli studiosi sono partiti ottenendo e analizzando le varie cellule costituenti il microambiente metastatico, tra cui gli osteoclasti. Da prelievi sanguigni di pazienti, sono stati estratti dei monociti e attraverso un trattamento chimico sono stati fatti differenziare in osteoclasti. Dopo quindici giorni, sono state ricavate delle immagini attraverso microscopia confocale in fluorescenza sia delle colture cellulari sottoposte al trattamento che no. Per valutare l’efficienza del processo di differenziazione e il comportamento cellulare in modo automatico e ripetibile, è stato creato un codice in Matlab che analizza i vari campioni di pre-osteoclasti. Lo sviluppo di un codice in ambiente Matlab permette di esaminare le immagini in maniera più accurata e consistente rispetto ad una mera analisi visiva dell’operatore, a cui verrà mostrato il risultato finale dopo che le immagini sono state processate. I risultati ottenuti sono di notevole supporto all’operatore sotto molteplici aspetti. L’affaticamento visivo dell’operatore è notevolmente ridotto, infatti l’elaborazione svolta mette in luce le cellule cercate, focalizzando l’attenzione dell’esperto sulle suddette cellule e non sull’intero campione. Chiaramente è sempre necessario un controllo finale che possa valutare l’apprezzabilità del risultato.
APA, Harvard, Vancouver, ISO, and other styles
6

Pesaresi, Simone. "Analisi e controllo di qualità di immagini da OCRA TableTop MRI." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
OCRA Tabletop MRI è un setup di risonanza magnetica da tavolo usato a scopo didattico e di ricerca. Il sistema è composto da un magnete permanente da 0.28 T, 4 bobine di gradiente e una bobina a RF usata sia per trasmettere che per ricevere i segnali. I segnali sono elaborati da una scheda di acquisizione che comunica in rete i risultati delle scansioni. Il setup è abbastanza economico e versatile in quanto permette di personalizzare le sequenze di acquisizione e di modificarle in tempo reale. In questo contesto si è inserito il lavoro descritto in questo elaborato: una interfaccia grafica (GUI) che permettesse di visualizzare il volume acquisito nelle tre viste sagittale, coronale e assiale e di valutarne la qualità. Dalla vista assiale la GUI consente quindi di selezionare delle ROIs (Regions of Interest), regioni di un determinato tipo, forma e dimensione, importanti per valutare la qualità dell’immagine tramite la stima del rapporto segnale rumore (SNR). Gli elementi acquisiti sono phantom alti 30mm con un foro a forma di stella. Da 3 volumi scansionati con una sequenza "spin echo" sono stati eseguiti 2 protocolli di acquisizione per individuare gruppi di ROIs su 2 slice differenti. Queste slice sono state scelte per delle caratteristiche differenti: una rappresenta la zona del volume con maggior segnale, l'altra invece individua una zona con maggiore omogeneità nelle aree che rappresenta. Dai dati risulta che il protocollo non standard è troppo volume-dipendente, quindi poco affidabile per misure su differenti volumi. E' stato fatto anche un breve studio sulla omogeneità delle regioni.
APA, Harvard, Vancouver, ISO, and other styles
7

Morotti, Elena. "Tecniche di regolarizzazione per analisi perfusionali da immagini tomografiche." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4925/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

POLLASTRI, FEDERICO. "Utilizzo del Deep Learning nella Analisi di Immagini Dermoscopiche." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271182.

Full text
Abstract:
In medicina, innumerevoli tecniche di acquisizione di immagini impiegate come strumento per eseguire diagnosi, dalla microscopia alla risonanza magnetica (MRI). Questa comune pratica ha prodotto una grande opportunità per gli algoritmi di visione artificiale di trovare modi per eseguire analisi automatizzate di immagini mediche. In particolar modo, dopo il rivoluzionario successo di AlexNet nel 2012, il deep learning è diventato un elemento vitale nella ricerca sulle immagini mediche. Più precisamente, le reti neurali convoluzionali (CNN) sono state adottate con successo per affrontare una grande varietà di problemi come la classificazione e la generazione di immagini, o l’identificazione e la segmentazione di oggetti all’interno di esse. Questa tesi è una raccolta di applicazioni di deep learning su immagini dermoscopiche. La dermoscopia è una forma di microscopia in vivo della superficie cutanea, eseguita utilizzando lenti di ingrandimento di alta qualità e una potente fonte di luce, che mitiga il riflesso superficiale della pelle con lo scopo di migliorare la visibilità della pigmentazione della lesione. Tuttavia, per utilizzare a pieno questo approccio di imaging non invasivo, è necessaria un'analisi approfondita dell'immagine da parte di dermatologi esperti, e la comunità scientifica ha quindi impiegato grandi risorse per la creazione di strumenti automatici che possano assistere l'analisi di immagini dermoscopiche. Affrontiamo per prima la segmentazione delle lesioni cutanee, mediante una nuova tecnica di data augmentation e una strategia di insieme diversificata. L'obiettivo finale dell'analisi delle immagini dermoscopiche è la classificazione delle lesioni, per la quale sviluppiamo un approccio che ha ottenuto il terzo miglior risultato nella sfida globale ISIC 2019. Inoltre, affrontiamo uno dei principali svantaggi degli algoritmi di deep learning, la loro bassa interpretabilità, utilizzando un recupero di immagini basato sul contenuto per assistere il processo di diagnosi sia di dermatologi esperti che di principianti. Infine, cerchiamo di determinare quali caratteristiche siano prese in considerazione dagli algoritmi di classificazione automatica.
Countless different imaging acquisition techniques are employed by medical practitioners as a tool to perform diagnosis, ranging from microscopy to Magnetic Resonance Imaging (MRI). This common practice produced a great opportunity for computer vision algorithms to find ways to perform automated analysis on medical images. In particular, after the groundbreaking success of AlexNet in 2012, deep learning has become a vital element in medical imaging research. Above all, Convolutional Neural Networks (CNNs) have been successfully adopted to perform a great variety of tasks such as image segmentation, classification, detection, and generation. This thesis is a collection of deep learning applications for dermoscopic images analysis. Dermoscopy is a form of in-vivo skin surface microscopy performed using high quality magnifying lenses and a powerful light source to mitigate the surface reflection of the skin, to enhance the visibility of the pigmentation of the lesion. However, to fully make use of this non-invasive imaging approach, a thorough image analysis must be performed by expert clinicians, and therefore many efforts have been given in recent years towards the creation of tools to assist physicians in the analysis of dermoscopic images. We start by approaching lesion segmentation, by means of a novel data augmentation technique and a diverse ensemble strategy. The final goal of dermoscopic images analysis is skin lesion classification, for which we develop an approach that achieved the third best result in the 2019 ISIC global challenge. Moreover, we address one of the main drawbacks of deep learning algorithms, their low interpretability, by using content-based image retrieval to assist the diagnosis process of both expert and novice practitioners and, finally, by trying to determine which characteristics are taken into account by autonomous classification algorithms.
APA, Harvard, Vancouver, ISO, and other styles
9

Antonacci, Antonello. "Sviluppo e analisi di un algoritmo parallelo di riconoscimento di oggetti in immagini." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10508/.

Full text
Abstract:
Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.
APA, Harvard, Vancouver, ISO, and other styles
10

Amicone, Alessio. "Analisi biomeccanica in vitro di segmenti di rachide tramite correlazione digitale di immagini." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13060/.

Full text
Abstract:
In questi ultimi anni, diversi studi si sono posti come obiettivo quello di analizzare la biomeccanica del rachide, focalizzandosi sulla valutazione del range of motion e della rigidezza dei singoli componenti, quali dischi e vertebre, tralasciando l’aspetto relativo alle deformazioni. Il mio lavoro di tesi si propone di verificare l’applicabilità di un metodo innovativo per la caratterizzazione meccanica, in termini di deformazione, di segmenti di rachide multi-vertebre, oggetto di studio presso il laboratorio dove ho svolto la tesi. Tramite l’utilizzo della Correlazione Digitale di Immagini (DIC), attraverso misure a tutto campo e non invasive, si è riusciti a discriminare gli spostamenti e le deformazioni sull’intera superficie del rachide preso in analisi, affiancando come supporto algoritmi che permettessero un controllo preliminare. Partendo da un rachide di maiale, applicandogli un pattern bianco su sfondo blu e diverse configurazioni di carico, sono giunto all’implementazione di un metodo di analisi in grado di valutare quantitativamente e qualitativamente lo stato delle deformazioni, per poi applicarlo a segmenti di rachide umano. In ultima analisi si è arrivati a riconoscere l’importanza di uno studio a tutto campo dei segmenti di rachide, date le diverse distribuzioni di deformazione tra i suoi componenti (vertebre e dischi).
APA, Harvard, Vancouver, ISO, and other styles
11

Castellazzi, Nicolò. "Analisi di immagini per l'identificazione automatica di anomalie superficiali in ambito industriale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
La ricerca di anomalie nei processi produttivi è una tematica molto attuale, di estremo interesse e di notevole complessità. Lo scopo di questa tesi è stato quello di verificare se, attraverso l'utilizzo di strategie di deep learning, fosse possibile sviluppare una soluzione in grado di distinguere quali fossero i campioni anomali rispetto ai campioni normali esaminando nello specifico immagini ottenute dal processo di lavorazione di superfici metalliche, che presentavano texture poco marcate e variabili. Dopo aver valutato il problema ed aver analizzato le soluzioni presenti in letteratura inerenti al nostro caso d'interesse, abbiamo deciso di basare la nostra soluzione sull'utilizzo degli autoencoder, in combinazione con tecniche di visione artificiale necessarie a identificare ed evidenziare i difetti presenti nei campioni oggetto di studio. Addestrando l'autoencoder a ricostruire solo campioni normali si ottiene che, nella ricostruzione di un campione anomalo, il difetto venga eliminato in quanto non è mai stato visto dalla rete nella fase di addestramento. Uno dei vantaggi delle soluzioni basate su questo tipo di architettura è quindi dovuto al fatto che è necessario conoscere solo i campioni normali e, qualsiasi tipo di anomalia si presenti, potenzialmente anche anomalie mai viste prima, esse non vengano ricostruite dalla rete, risolvendo così il problema dato dall'impossibilità di conoscere a priori tutti i possibili difetti che si possono presentare in fase di produzione. In particolare sono state esplorate varie metodologie e architetture (Convolutional Autoencoders, Variational Autoencoders, Transfer Learning) adottando quella più idonea al tipo di dato in nostro possesso. Attraverso la soluzione sviluppata siamo riusciti ad ottenere buoni risultati sia per quanto riguarda le prestazioni inerenti a data set pubblici, utilizzati come benchmark, sia sul data set privato in nostro possesso, obiettivo primario di questa ricerca.
APA, Harvard, Vancouver, ISO, and other styles
12

Lazzerini, Daniela. "Analisi del metodo PIDAL-TV per la ricostruzione di immagini." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13456/.

Full text
Abstract:
In questa tesi si é affrontato il problema della ricostruzione di immagini corrotte da rumore di Poisson. Tale problema sorge in diversi contesti applicativi in Astronomia e in Medicina. In particolare, in questo lavoro, si é considerato il metodo PIDAL-TV recentemente proposto per la risoluzione di questo problema. L’obiettivo della tesi é stato, dunque, analizzare dal punto di vista numerico e sperimentale, il comportamento di tale metodo. Il metodo é stato implementato in MATLAB e testato su una serie di problemi test. L’analisi sperimentale é stata condotta con lo scopo di analizzare la sensibilità del metodo al variare dei due parametri che lo caratterizzano. Infine il metodo PIDAL-TV é stato confrontato con altri metodi proposti in letteratura. I risultati numerici ottenuti mostrano che PIDAL-TV risulta essere competitivo con i metodi proposti in letteratura sia dal punto di vista della qualitá dei risultati, che dal punto di vista del costo computazionale. In particolare, un aspetto positivo di PIDAL-TV é che non risulta essere molto sensibile al variare di uno dei suoi due parametri.
APA, Harvard, Vancouver, ISO, and other styles
13

Turci, Alice. "Analisi di immagini del tessuto prostatico in Risonanza Magnetica multiparametrica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
INTRODUZIONE. In campo oncologico la Risonanza Magnetica multiparametrica (RMmp) sta diventando sempre più importante in quanto sequenze multiple, quali T2 e DWI, permettono di rilevare la presenza di tumore, ovvero di zone ipo-iper-intense rispetto al tessuto circostante. L’analisi delle immagini mediante tecniche di texture analysis può essere utilizzata per cercare dei potenziali biomarker che aiutino il radiologo nella diagnosi svolgendo un ruolo di second opinion per detection e diagnosis di una lesione ancor prima di aver eseguito la biopsia. MATERIALI E METODI. In questa Tesi sono state analizzate le sequenze T2 e DWI di RMmp-3T per identificare le neoplasie prostatiche mediante tecniche di texture analysis con estrazione di feature su patch locali centrate sui pixel d’interesse, la cui distribuzione spaziale è stata visualizzata ed analizzata mediante colormap su cui è stato applicato un algoritmo di segmentazione automatica. Sono state calcolate sette feature e per ciascuna nove descrittori statistici. RISULTATI. Dalla feature più significativa (entropia) nel caratterizzare l’eterogeneità del tessuto, sono state rilevate automaticamente le lesioni e confrontate con quelle segmentate manualmente dal medico, valutando mutualmente le performance ottenute (lesioni rilevate nel 96.55% dei casi con una media del 72.42% di lesioni con il radiologo come ground-truth e con una media del 53.33% di lesioni viceversa). Le feature locali risultano inoltre ben correlate con i biomarker clinici per la stratificazione delle lesioni (ρ=0.695 tra Skewness della Media e PSALT e ρ=0.790 tra la Kurtosi della Mediana e PSALT). CONCLUSIONI. I risultati ottenuti incoraggiano futuri approfondimenti nello studio della texture analysis che deve comprendere un’analisi multiparametrica di tutte le feature ed essere estesa a tutte le sequenze disponibili dalla RMmp. La metodologia sviluppata ha le caratteristiche per embrionali di un sistema di Computer Aided Detection/Diagnosis (CAD).
APA, Harvard, Vancouver, ISO, and other styles
14

Casadio, Lorenzo. "Analisi della tessitura cerebrale con tecnica voxelwise di immagini MR." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
I metodi di texture analysis al giorno d'oggi si basano prevalentemente su ROIs (regions of interest), il che può essere limitativo nel caso di malattie neurodegenerative come la malattia di Alzheimer. A tale proposito, in questa tesi si descrive un approccio voxelwise recentemente proposto in letteratura basato sulla tecnica chiamata VGLCM-TOP-3D, la quale mostra una migliore sensibilità ai cambiamenti tenui a livello di tessitura. Tramite uno studio multicenter è stata attuata una comparazione di affidabilità, confrontando tecnica ROI based con quella voxelwise. Infine, si è sfruttata la tecnica sulla malattia di Alzheimer, osservando soprattutto i cambiamenti di tessitura nel passaggio da mild cognitive impairmente a malattia di Alzheimer.
APA, Harvard, Vancouver, ISO, and other styles
15

Malavasi, Silvia. "Studio e sviluppo di algoritmi di elaborazione di immagini da TC per analisi perfusionali." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3787/.

Full text
Abstract:
La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.
APA, Harvard, Vancouver, ISO, and other styles
16

Belloni, Silvia. "Sviluppo di un algoritmo di calibrazione per analisi quantitative di immagini in microscopia a fluorescenza." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7401/.

Full text
Abstract:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
APA, Harvard, Vancouver, ISO, and other styles
17

Mandanici, Emanuele. "Analisi di immagini satellitari nello studio della regione del Fayyum - Egitto." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amslaurea.unibo.it/41/.

Full text
Abstract:
La tesi nasce da una collaborazione di ricerca, attiva da anni, tra il DISTART - Area Topografia ed il Dipartimento di Archeologia dell’Università di Bologna, impegnato da lungo tempo in scavi archeologici nella regione egiziana del Fayyum. Lo scopo di questa tesi è offrire un contributo alla creazione di un database multiscala di informazioni georeferenziate, che possa essere di supporto ad ulteriori approfondimenti sul territorio del Fayyum. Il raggiungimento degli obiettivi preposti è stato perseguito mediante l’utilizzo sistematico di algoritmi di classificazione su immagini satellitari a media risoluzione registrate ed ortorettificate. Per quanto riguarda la classificazione litologica, sulla base delle informazioni presenti in letteratura, è stata ottenuta una mappa della fascia desertica che circonda l’oasi, in cui sono distinte diverse tipologie: sabbie sciolte recenti, arenarie mioceniche, calcareniti dell’Eocene superiore, calcari dell’Eocene medio, basalti tardo-oligocenici. Inoltre è stata messa a punto una procedura per giungere ad una classificazione almeno in parte automatica di anomalie sul terreno che presentano una forma lineare. L’applicazione di questa procedura potrà rivelarsi utile per ulteriori indagini finalizzate alla individuazione di paleocanali, naturali o artificiali, ed alla ricostruzione dell’assetto idrografico nel passato.
APA, Harvard, Vancouver, ISO, and other styles
18

Margaria, Matteo. "Analisi di dati satellitari radar e ottici per il monitoraggio di un evento alluvionale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Ogni anno le alluvioni causano la morte di numerose persone, generando anche ingenti perdite economiche in tutto il pianeta. Le tecniche di osservazione della Terra a distanza rappresentano strumenti fondamentali nella gestione di questi fenomeni. Il telerilevamento satellitare permette di identificare le aree alluvionate, e monitorarne lo sviluppo nel tempo e nello spazio, senza entrare in contatto diretto con esse. Il sistema di rilevamento radar, nella sua forma SAR, ed i sistemi di rilevamento satellitare multispettrali rappresentano in particolare i mezzi più efficienti e più rapidi per la raccolta di dati di eventi alluvionali. Il programma Copernicus, gestito dalla Commissione Europea, nasce allo scopo di fornire servizi di monitoraggio di catastrofi naturali e dell'ambiente in generale. Le missioni Sentinel sono state progettate appositamente per gli scopi del programma e ne costituiscono la principale fonte di dati satellitari radar e multispettrali. Immagini SAR acquisite dalla missione Sentinel-1 e immagini multispettrali acquisite dalla missione Sentinel-2 costituiscono la base dell’analisi effettuata in questo elaborato. Il caso di studio è rappresentato da un evento alluvionale occorso nella Repubblica Islamica dell’Iran nel mese di Aprile 2019, causato da precipitazioni eccezionali verificatesi nell’ultima settimana di Marzo. Gli obiettivi prefissati sono in primo luogo l’identificazione delle aree colpite ed il monitoraggio dell’evoluzione dell’evento tramite l’analisi delle immagini SAR della missione Sentinel-1. Una volta definite, le informazioni geo-spaziali vengono impiegate attivamente allo scopo di determinare gli effetti causati nell’area di studio considerata, in termini di centri abitati colpiti e loro localizzazione, e di danno al settore agricolo ed al settore delle infrastrutture.
APA, Harvard, Vancouver, ISO, and other styles
19

Martino, Filippo. "Analisi multitemporale del dissesto da immagini satellitari Sentinel (provincia di Forlì-Cesena)." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
La tesi ha l'obbiettivo di testare le capacità del software Google Earth Engine nel telerilevamento satellitare del dissesto e più precisamente nell'individuazione di frane. L'analisi svolta considera frane recenti note avvenute nella provincia di Forlì-Cesena e cerca di riconoscerne l'attivazione attraverso il confronto di immagini satellitari Sentinel nel tempo. Lo scopo è definire le caratteristiche (tipologia, dimensioni) dei fenomeni effettivamente riconoscibili con questa tecnologia, nella prospettiva che essa possa trovare applicazione in ambiti quali lo studio dell'occorrenza delle frane e il loro monitoraggio.
APA, Harvard, Vancouver, ISO, and other styles
20

Ansaloni, Pietro. "Analisi di immagini con trasformata Ranklet: ottimizzazioni computazionali su CPU e GPU." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5037/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Fantigrossi, Ilaria. "Analisi temporale di caratteristiche morfometriche estratte da immagini di broncosfere sottoposte a differenti trattamenti radiobiologici." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4334/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Sotomayor, Gonzalez Miguel. "Analisi e sviluppo di una procedura di post-processing per immagini acquisite da telecamere in toni di grigio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20459/.

Full text
Abstract:
Ai giorni nostri, la Microscopia è diventata una disciplina fortemente legata all’acquisizione di immagini digitali, in questo scenario, disporre di una telecamera in grado di acquisire immagini a colori, ad esempio una telecamera RGB, diventa fondamentale per varie discipline della Microscopia. Tuttavia, nel campo della Microscopia a Fluorescenza, dove si perde la correlazione cromaticità-tessuto e dove si contano fotoni emessi da sonde fluorescenti legate a particolari compartimenti sub-cellulari di interesse, sono tipicamente utilizzate telecamere in toni di grigio, molto più sensibili di quelle a colori. Non sempre nei laboratori è possibile avere a disposizione tutte le attrezzature necessarie, c’è quindi bisogno di poter sfruttare, dove possibile, tutte le potenzialità delle attrezzature già disponibili per l’acquisizione d’immagine in toni di grigio, poiché, utilizzando in maniera intelligente dei filtri di plastica, tipicamente presenti microscopio per selezionare fotoni d'interesse a seconda della sonda fluorescente utilizzata, si potrebbero ricostruire immagini a colori partendo da una serie di tre immagini acquisite in scala di grigio, utilizzando in sequenza un filtro per il range di lunghezze d’onda del Rosso (R), del Verde (G) e del Blu (B). Ciò permetterebbe l’opportunità di utilizzare immagini a colori e sfruttare l’attrezzatura già presente all’interno di un laboratorio, non appositamente sviluppata, rendendo superfluo l’uso o acquisto di strumentazione dedicata all’acquisizione di immagini a colori. In questo lavoro di Tesi, abbiamo verificato la possibilità di acquisizione di immagini “fake-RGB” utilizzando un microscopio confocale dotato di telecamera in toni di grigio. Abbiamo quindi definito una metrica quantitativa, il Delta E normalizzato, per poter confrontare immagini “fake-RGB” con immagini a colori, realmente acquisite con una telecamera a colori, ed abbiamo discusso limiti e possibilità fornite dalla strumentazione.
APA, Harvard, Vancouver, ISO, and other styles
23

Fiorini, Anna. "Analisi e sviluppo di modelli per la classificazione di immagini in contesto open set nell’ambito di dispositivi embedded." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22412/.

Full text
Abstract:
L’obiettivo del mio progetto di tesi era quello di aggiungere una funzionalità all’interno del sensore di visione intelligente Smart-VS. Questo dispositivo è in grado di classificare l’oggetto in due classi, Good e No Good, sulla base del set di esempi forniti in fase di training, in ambito industriale è però difficile ottenere un set di campioni che comprenda tutte le situazioni possibili che potrebbero verificarsi. Lo scopo di questo progetto era perciò quello di progettare e implementare dei modelli che fossero in grado di rilevare la presenza di oggetti mai visti prima (Open set). La fase iniziale si è focalizzata sulla scelta dell’estrattore di features delle immagini. Alla fine, si sono utilizzati un descrittore di features ingegnerizzate e la VGG-16 pre-addestrata sul database ImageNet. La prima strategia è stata quella di creare un modello in grado di effettuare una tradizionale classificazione binaria per oggetti Good e No Good e inserire la fase di riconoscimento dell’Open set nella fase di inferenza. La seconda strategia si è focalizzata sull’utilizzo di modelli di Deep Metric Learning che sono in grado di imparare una trasformazione dallo spazio immagine allo spazio delle features, attribuendo alla distanza una misura di similarità semantica tra gli oggetti. In questo modo le classi Good e No Good risulteranno compatte mentre gli oggetti Open, semanticamente diversi, si troveranno lontani. Entrambe le strategie hanno prodotto risultati soddisfacenti, in particolare, nella prima categoria è stata creata una CNN che utilizza le features estratte dalla VGG-16 per eseguire il training per la classificazione binaria e che poi impiega il Classificatore con Processo Gaussiano per identificare gli oggetti Open che raggiunge un livello di accuracy sulle 3 classi del 99,44%. Mentre nella seconda categoria tra i modelli implementati il più performante è risultato essere la Rete Neurale Siamese con le features della VGG-16 che ottiene un accuracy del 99,3
APA, Harvard, Vancouver, ISO, and other styles
24

Falcini, Patrick. "Analisi di immagini termiche aeree e satellitari per indagini multiscala in ambito urbano." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2007/.

Full text
Abstract:
L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.
APA, Harvard, Vancouver, ISO, and other styles
25

Urbani, Luca. "I sistemi Earth Viewers per la consultazione via web di immagini satellitari georeferenziate: una analisi di accuratezza." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amslaurea.unibo.it/225/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Misino, Eleonora. "Studio dell'andamento temporale di features estratte da immagini PET." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16766/.

Full text
Abstract:
Questo studio è focalizzato sull'analisi radiomica di immagini PET con particolare attenzione all'andamento di alcune features nel tempo. Lo scopo è quello di valutare la stabilità di media, deviazione standard, indice di covarianza ed entropia in intervalli consecutivi di acquisizione. Le immagini PET utilizzate per lo studio sono state fornite dall'Istituto Europeo di Oncologia e il soggetto delle acquisizioni è un fantoccio con caratteristiche tecniche che permettono di indagare diversi aspetti. In particolare, è stato possibile valutare la dipendenza delle features dalla concentrazione di radiofarmaco e l'incidenza del partial-volume effect (PVE) sul segnale misurato. Le immagini analizzate coprono un tempo acquisizione di 30 minuti dall'iniezione del radionuclide e sono state raggruppate in 10 intervalli da 3 minuti ciascuno. Dopo aver scelto un'opportuna sezione assiale del fantoccio, sono state eseguite 4 segmentazioni manuali, isolando le regioni con differente radioattività o con caratteristiche geometriche rilevanti per il PVE. Introducendo un fattore di correzione per il decadimento, le features estratte dai quattro istogrammi di intensità presentano un andamento costante nel tempo. Come atteso, la concentrazione di radiofarmaco gioca un ruolo cruciale nell'eterogeneità del segnale: le regioni con segnale meno intenso possiedono un'entropia maggiore. Lo studio della regione appositamente inserita per valutare il PVE ha mostrato come questo incida sull'intensità del segnale e, dunque, sull'affidabilità delle informazioni ricavabili dall'immagine PET.
APA, Harvard, Vancouver, ISO, and other styles
27

Baldoni, Jacopo. "Riduzione del rumore nelle misure di deformazione tramite correlazione digitale di immagini." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5559/.

Full text
Abstract:
L'elaborato si propone di esplorare e mettere a punto metodi di filtraggio del rumore nelle misure di deformazione tramite correlazione digitale di immagini. Tali strategie vengono perseguite inizialmente tramite filtraggio delle immmagini in ingresso, successivamente tramite filtraggio nel dominio delle frequenze spaziali delle distribuzioni di deformazione ed infine tramite filtraggio nel dominio temporale di immagini e distribuzioni di deformazione.
APA, Harvard, Vancouver, ISO, and other styles
28

Palanca, Marco. "Ottimizzazione dei parametri di acquisizione ed elaborazione per l'analisi di segmenti ossei tramite correlazione di immagini digitali." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6436/.

Full text
Abstract:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
APA, Harvard, Vancouver, ISO, and other styles
29

Zappala', Luigi. "Analisi ed implementazione di metodi geomatici per l'elaborazione di dati geopetrologici interoperibilità, geostatistica e classificazione di immagini multispettrali a raggi X." Doctoral thesis, Università di Catania, 2014. http://hdl.handle.net/10761/1570.

Full text
Abstract:
La presente tesi di dottorato ha avuto come oggetto principale dell attività di ricerca lo studio della geomatica l.s. quale strumento fondamentale utile all archiviazione, trattazione, elaborazione e sviluppo di tecniche di interpolazione ed analisi quantitativa di dati provenienti da diverse fonti di acquisizione in campo geoscientifico. La geomatica, è stata qui intesa quale strumento di sintesi tra, l insieme delle conoscenze derivanti dalle discipline del rilevamento geologico, con quelle discipline geoscientifiche relative all acquisizione e al trattamento di dati alla scala micrometrica (ad es. Petrografia, Geochimica, Petrologia etc ) al fine di sviluppare una serie di protocolli e strumenti atti a collegare in maniera interoperabile (i.e. in grado di far dialogare in modo automatico i sistemi informatici) e completa dati articolati e complessi, comunque riconducibili ad una primitiva geografica, identificata dal punto di campionamento. Su tale base l attività di ricerca, basata su tre fasi distinte, ha consentito di: I. sviluppare un geo-database prototipale contenente tutte le informazioni relative alle analisi dei campioni di roccia alle diverse scale di osservazione, provenienti da diverse fonti strumentali; II. applicare ad un area pilota (il batolite di Squillace-Petrizzi Calabria centro orientale) alcune tecniche di interpolazione in grado di minimizzare i limiti intrinseci di una campionatura in campo geologico (ad es. distribuzione randomica e discontinua dei punti di campionamento), affiancando a queste tecniche lo sviluppo di un nuovo algoritmo atto a realizzare in maniera automatica mappe geo-litologiche su base TAS (Total Alkali Silica); III. sviluppare un insieme di strumenti in parte originali, atti ad analizzare, attraverso tecniche di analisi statistica multivariata, immagini a raggi X di campioni di rocce metamorfiche provenienti dall area di Mammola (zona meridionale del Massiccio delle Serre Calabria) con lo scopo di integrare i dati minero-chimici puntuali con mappe micro-tessiturali di tipo quantitativo ottenute su metapeliti a granato. I risultati ottenuti alla fine del triennio di attività hanno consentito di verificare come la geomatica, intesa nella sua trasversalità più ampia, sia ancora alle fasi iniziali del suo sviluppo, specialmente in alcuni campi geoscientifici. In tale contesto, scopo principale della presente tesi è stato quello di fornire al lettore uno strumento completo e versatile sullo stato dell arte ad oggi dell utilizzo delle tecniche geomatiche in campo geoscientifico, con particolare riferimento all ambito geo-petrologico. A tale obiettivo è stato altresì affiancato quello di testare ed in parte integrare, con nuovi ed opportuni algoritmi, nuove tecniche geomatiche in grado di: gestire, interpolare e trattare dati geo-petrologici a scala variabile da quella dell affioramento a quella della sezione sottile.
APA, Harvard, Vancouver, ISO, and other styles
30

Gardini, Mattia. "Studio delle applicazioni metodologiche di analisi d'immagini in tc perfusionali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6437/.

Full text
Abstract:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
APA, Harvard, Vancouver, ISO, and other styles
31

Mognol, Alessandro <1977&gt. "Analisi di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/308/1/Tesi_Dottoraro_Mognol.pdf.

Full text
Abstract:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
APA, Harvard, Vancouver, ISO, and other styles
32

Mognol, Alessandro <1977&gt. "Analisi di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/308/.

Full text
Abstract:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
APA, Harvard, Vancouver, ISO, and other styles
33

Cimatti, Martina. "Identificazione e mappatura di "Suoli Nudi" attraverso immagini tele-rilevate." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20623/.

Full text
Abstract:
La popolazione e la domanda di cibo ed energia sono destinate a raddoppiare entro il 2050 con conseguente crescita competitiva tra le risorse. Inoltre, dove viene praticata la rotazione agronomica i suoli permangono improduttivi in determinati periodi causando lisciviazione dei nutrienti, erosione ed accelerazione del consumo di materia organica. I dati telerilevati sono cruciali per l'agricoltura di precisione (droni) e per la caratterizzazione e il monitoraggio del suolo (satelliti) al fine di aumentarne la resa, la sostenibilità e limitarne il degrado. Sebbene sia nota la presenza temporanea di "suolo nudo" (SN) entro la superficie agricola utilizzata (SAU), non esistono studi atti a fornire un quadro regionale dedicato da sollevare la problematica. Questa tesi mira a mappare i SN in determinati periodi dell'anno tramite immagini satellitari definendone l'estensione areale e temporale. Inoltre, è stato proposto uno scenario per l’ottimizzazione della produzione di biomassa energetica, con colture no food. La metodologia applicata prevede l’elaborazione di immagini Sentinel-2 con risoluzione spaziale al suolo di 20 m acquisite nel 2017. Le immagini, pre-processate con SIAM™, sono state elaborate su QGIS e convalidate tramite ground truth fornite da Agrea. I risultati mostrano che circa il 15% della SAU è in condizioni di SN in marzo-giugno e luglio-ottobre. A livello dimensionale, il 30% dei SN ha dimensioni superficiali superiori a 3 ha sufficienti da giustificarne lo sfruttamento agronomico. Nello scenario in cui il sorgo da biomassa è coltivato da marzo a giugno e da luglio a ottobre, potrebbe essere prodotta una quantità totale di energia pari al 20% dei consumi regionali del settore trasporti attuali. Questo studio ha proposto una procedura per mappare i SN, ha suggerito e quantificato i benefici di un potenziale sfruttamento e ha posto le basi per nuove politiche agricole in grado di avviare percorsi a breve termine per la riduzione delle emissioni di CO2
APA, Harvard, Vancouver, ISO, and other styles
34

Bonomi, Letizia. "Sviluppo di un metodo di radioterapia adattativa tramite immagini portali e Cone-Beam CT." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9343/.

Full text
Abstract:
Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.
APA, Harvard, Vancouver, ISO, and other styles
35

Bartalena, Tommaso <1976&gt. "Studio volumetrico del nodulo polmonare con TC multidetettore: influenza dei parametri di ricostruzione dell'immagine e dei software di analisi semiautomatica sui risultati della volumetria." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/2169/1/bartalena_tommaso_tesi.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Bartalena, Tommaso <1976&gt. "Studio volumetrico del nodulo polmonare con TC multidetettore: influenza dei parametri di ricostruzione dell'immagine e dei software di analisi semiautomatica sui risultati della volumetria." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/2169/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Toscano, Elena. "Analisi di immagini satellitari in ambiente GIS nel monitoraggio dei danni antropici al patrimonio archeologico in Siria." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
APA, Harvard, Vancouver, ISO, and other styles
38

Gruppioni, Laura. "Progetto e sviluppo di un software per l'esecuzione del workflow analitico su immagini e dati generati da una piattaforma di analisi cellulare." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Find full text
Abstract:
La medicina di precisione rappresenta ad oggi la più promettente alternativa alla somministrazione di farmaci Trial & Error ed è il principio fondante di CellPly, azienda del settore delle biotecnologie che ricerca e sviluppa soluzioni per la terapia personalizzata del cancro. L’azienda utilizza diverse tecnologie per l’acquisizione di immagini di cellule sottoposte a vari trattamenti sotto studio, a supporto delle quali risulta essenziale un adeguato software di analisi degli esperimenti. Questo lavoro di tesi si è focalizzato sull’analisi approfondita del programma attualmente in uso e delle sue criticità, sfociando poi nel progetto e nella realizzazione di un nuovo software di analisi. Il progetto è stato diviso in Sprint secondo la metodologia SCRUM e, dopo una fase di studio delle principali best practice UX/UI è stata avviata la raccolta dei requisiti. Da qui, seguendo le fasi del ciclo di vita del software, sono state svolte tutte le attività di analisi e progettazione necessarie allo sviluppo vero e proprio. Infine, il software risultante è stato distribuito, testato e valutato. Le principali feature del nuovo software possono essere riassunte come segue: l’utente può visualizzare e manipolare immagini acquisite dallo strumento caricandole sia da file system sia da database. L’utente può, inoltre, lanciare diversi algoritmi automatici di detection delle cellule presenti nelle immagini, ottenendo come risultato diversi file di output contenenti i dati delle cellule trovate nella fase di detection. A supporto dell’intero progetto sono stati utilizzati svariati strumenti, tra cui GIT come sistema di versionamento, Eclipse come IDE e JavaFX come linguaggio di programmazione ad oggetti. La versione del software attualmente distribuita e in uso dall’azienda non è che il trampolino di lancio di un progetto molto più ampio e innovativo in cui verrà inclusa, in primis, anche una parte di classificazione manuale/semi-automatica delle cellule.
APA, Harvard, Vancouver, ISO, and other styles
39

Nicolini, Alberto. "Analisi dello stato tensionale a flessione di strutture reticolari stampate con tecnologia SLM (Selective Laser Melting) tramite test meccanici e correlazione di immagini." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19082/.

Full text
Abstract:
L’attività sperimentale presentata in questo elaborato è focalizzata sull’analisi del comportamento a flessione di provini realizzati con tecnologia SLM (Selective Laser Melting), al fine di realizzarne una completa caratterizzazione in campo elastico. L’obiettivo è, quindi, quello di fornire informazioni specifiche sulle proprietà meccaniche di tali strutture reticolari (anche denominate “lattice”) in CrCoMo, in modo tale che esse possano poi essere implementate nell’analisi FEM (Finite Element Method) di veri e propri oggetti realizzati con tale tecnologia; ad esempio nel caso in esame, per la realizzazione di protesi che garantiscano ottimi livelli di resistenza meccanica e di resistenza all’usura, e che al contempo, grazie alla geometria e alla porosità controllata che contraddistingue tali strutture, permettano l’osteointegrazione della componente protesica post impianto. Il lavoro di analisi tensionale delle strutture lattice è stato possibile grazie all’impiego di una pressa meccanica appositamente costruita ed utilizzando un sistema di misurazione ottico costituto da una telecamera. Le immagini dei provini, ottenute a valori dei carichi flessionali crescenti, hanno così permesso la caratterizzazione del provino mediante DIC (Digital Image Correlation). I test sperimentali svolti e i risultati ottenuti hanno consentito una completa caratterizzazione a flessione delle diverse strutture lattice in CrCoMo studiate; quindi si è compiuto un passo avanti verso la possibilità di attuare, in futuro, analisi FEM su componenti realizzati con queste particolari strutture.
APA, Harvard, Vancouver, ISO, and other styles
40

Di, Gemma Giuseppe. "Sviluppo ed analisi agli elementi finiti di un modello numerico 3D per la simulazione dell'enfisema polmonare in immagini di tomografia computerizzata a raggi X." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Ad oggi, l’esame del torace con tomografia computerizzata (TC) è considerato lo strumento diagnostico migliore per estrarre, in vivo, indicatori dell’estensione e della distribuzione dell’enfisema, che appare come aree polmonari a bassa attenuazione. L’enfisema è definito come un allargamento degli spazi aerei distali al bronchiolo terminale conseguente alla distruzione dei setti alveolari dovuto all'esposizione a sostanze irritanti per le vie aeree come, ad esempio, il fumo di sigaretta. In questo lavoro di tesi si propone un modello 3D agli elementi finiti del parenchima polmonare al fine di simulare l’origine e la progressione dell’enfisema con diversi gradi di gravità e di simulare immagini di cluster a bassa attenuazione ottenibili da imaging TC. Al fine di raggiungere tali scopi sono stati utilizzati due parametri, N e Smax, utili a descrivere rispettivamente il numero e la dimensione dei siti di infiammazione iniziale, in diverse combinazioni. La simulazione agli elementi finiti è stato iterata con lo scopo di esaminare il processo di fusione delle aree di distruzione parenchimale in funzione degli stress presenti sui setti di separazione. Lo sviluppo futuro di tale modello richiederà un adeguamento della geometria per una miglior rappresentazione del polmone ed una ottimizzazione della gestione della complessità computazionale.
APA, Harvard, Vancouver, ISO, and other styles
41

BERTOCCHI, CARLA. "I Metodi Interior Point Incontrano le Reti Neurali: un'Applicazione al Deblurring di Immagini." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200562.

Full text
Abstract:
In questa tesi si propone una nuova strategia di deep learning per affrontare il problema del deblurring applicato a immagini digitali. Quest’ultimo è un problema inverso noto che viene solitamente riformulato come problema di ottimizzazione regolarizzata, in cui, la funzione obiettivo da minimizzare è data dalla somma di un termine di data-fidelity e di un termine di regolarizzazione. Inoltre, è possibile imporre dei vincoli sulla funzione obiettivo, che permettono di integrare conoscenze a priori sulla soluzione desiderata. In questo lavoro, si considerano termini di data-fidelity e di regolarizzazione differenziabili e si includono vincoli di tipo box sulla funzione obiettivo, attraverso l'uso di una funzione di barriera logaritmica. Nel nostro caso, viene adottato un metodo interior point (IPM) per affrontare il processo di minimizzazione, in cui il proximity operator è applicato alla sola funzione di barriera. La peculiarità dell’approccio proposto sta nel fatto che il parametro di regolarizzazione, il parametro di barriera e la lunghezza di passo necessari all’applicazione del metodo IPM sono scelti mediante una particolare strategia di deep learning. In particolare, i passi dell’algoritmo IPM vengono incorporati in una rete neurale, il cui processo di training si fonde con il processo di ottimizzazione. Per fare il training e testare la rete neurale risultante si è utilizzato un dataset di immagini naturali ben noto in letteratura. In particolare ci si è confrontati con metodi standard di proiezione del gradiente, con recenti algoritmi di machine learning e con altri unfolded methods. In conclusione, i test mostrano come l’approccio proposto abbia buone prestazioni e sia competitivo rispetto allo stato dell’arte.
The aim of this thesis is to propose novel Deep Learning model to approach the image deblurring problem. This is a well known Inverse Problem that is usually reformulated as a regularized optimization problem, in which the objective function to be minimized is a sum of a data discrepancy measure with a regularization term. Also additional constraints can be imposed to incorporate a priori knowledge on the desired solution. In our work we consider smooth data-fidelity and regularization terms and we include constraints in the objective function by means of a logarithmic barrier. A proximal interior point method (IPM) is adopted to address the minimization step, in which the proximity operator is restricted only to the barrier function. The key issue of our proposed approach is the following: the regularization parameter, the barrier parameter and the step size needed in the iterations of the IPM are chosen by means of a particular Deep Learning strategy. In particular, we say that the IPM algorithm is unfolded in a neural network structure, whose training process merges with the optimization process. We used benchmarks image datasets to train the resulting neural network architecture and test our approach. Comparisons with standard gradient projection methods, with recent machine learning algorithms and also with other unfolded methods have been performed and the tests showed good performances and competitiveness of our approach.
APA, Harvard, Vancouver, ISO, and other styles
42

Coffa, Giulio. "Valutazione e confronto dell'evapotraspirazione attuale determinata tramite tecnica Eddy Covariance e analisi di immagini telerilevate a bassa ed alta risoluzione." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
La crescente disponibilità di dati telerilevati e di dataset meteorologici globali consente di stimare l'evapotraspirazione (ET) con un buon grado di dettaglio. Il presente lavoro ha come scopo la validazione del modello SSEBop, che risolve in maniera semplificata l'equazione di bilancio energetico ed utilizzando immagini satellitari fornisce stime di ET. Tale validazione è stata effettuata confrontando i risultati forniti dal modello stesso con le misurazioni registrate da due torri Eddy Covariance: una ubicata su un campo di erba medica a Twitchell (California, USA), con misure relative agli anni 2013 e 2014, ed una su un campo coltivato a panico a Cadriano (Bologna, Emilia Romagna, Italia), con misure relative all'anno 2014. Mentre per quest’ultimo sito sono state utilizzate solo immagini Landsat, ad alta risoluzione spaziale, per quello americano, sono stati confrontati i risultati che il modello genera a partire sia da immagini ad alta risoluzione spaziale che da immagini MODIS a bassa risoluzione spaziale, allo scopo di verificare la differente accuratezza della stima.
APA, Harvard, Vancouver, ISO, and other styles
43

Poggi, Giulia. "Un coniglio e un topo di biblioteca nel Terzo Reich - Analisi comparata delle due immagini della Germania nazista in Jojo Rabbit e Storia di una ladra di libri." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Analisi comparata delle due immagini della Germania nazista in Jojo Rabbit e Storia di una ladra di libri. In particolare, si affrontano i temi della propaganda, della figura di Adolf Hitler, dell'antisemitismo e dell'opposizione tedesca al regime nazista.
APA, Harvard, Vancouver, ISO, and other styles
44

Calamia, Giuseppe. "Analisi preliminare dei risultati di TC perfusionale effettuata su tessuto polmonare sano." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11188/.

Full text
Abstract:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
APA, Harvard, Vancouver, ISO, and other styles
45

Schirinzi, Mattia. "Action cam per la raccolta di verità a terra propedeutica all'identificazione di colture agricole attraverso immagini ottiche del satellite Sentinel-2." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22341/.

Full text
Abstract:
Il telerilevamento ha reso possibile l’applicazione di tecnologie in grado di ridurre gli impatti sull’ambiente. Tra queste, la missione Sentinel-2 di ESA è in grado di fornire informazioni per contrastare il cambiamento climatico. In questo elaborato, l’utilizzo di una action cam per il monitoraggio di appezzamenti agricoli correlata all’utilizzo di bande Sentinel-2 e degli indici NDVI e NDWI hanno permesso di valutare l’andamento fenologico in una serie di appezzamenti della Provincia di Ravenna. Il primo risultato è stato quello di ottenere ground truth (GTs) a basso costo che potessero integrarsi al successivo utilizzo del satellite attraverso il software Google Earth Engine. Secondariamente, le GTs accoppiate al dato satellitare hanno permesso di identificare alcune fasi fenologiche (maturazione e fioritura) nel mais, girasole, soia e sorgo. Gli indici NDVI e NDWI descrivono bene la curva di crescita delle piante e in particolare la loro deviazione standard appare utile per identificare alcune variazioni di fenologia legata ad un non omogeneo accrescimento delle piante. L’applicazione di una tecnica di Machine Learning, attraverso il Random Forest Classifier, per creare un modello predittivo delle colture ha permesso di tentare l’identificazione delle colture nell’intera provincia di Ravenna. Le colture sono risultate ben riconosciute nell’area di raccolta delle GTs, mentre l’assenza di verità a terra nell’area vasta non ha permesso di validare i risultati della classificazione. I risultati ottenuti pongono le basi per integrare la conoscenza a terra ottenuta con metodi di rilievo a basso costo con l’informazione del programma Copernicus, per proseguire verso una precoce identificazione delle colture agricole in un’ottica di gestione sostenibile delle produzioni e dei loro sottoprodotti.
APA, Harvard, Vancouver, ISO, and other styles
46

Esposito, Ettore. "Sviluppo di algoritmi di autolocalizzazione su dispositivi mobili." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7350/.

Full text
Abstract:
Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.
APA, Harvard, Vancouver, ISO, and other styles
47

Falla, José Silvio. "Sviluppo di algoritmi e interfaccia grafica per applicazioni in ambito medico a supporto dello studio perfusionale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3788/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Evandri, Chiara. "Modelli variazionali convessi-nonconvessi per la ricostruzione di segnali bilivello corrotti da sfocamento e rumore: analisi e soluzione numerica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
APA, Harvard, Vancouver, ISO, and other styles
49

Catellani, Daniele. "Una rassegna di tecnologie per posizionamento indoor." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13705/.

Full text
Abstract:
Questo documento nasce con lo scopo di catalogare e valutare le tecnologie allo stato dell’arte, attualmente disponibili o in fase di sviluppo, che permettano la localizzazione in interni o in luoghi in cui non è possibile fare affidamento sul segnale GPS.
APA, Harvard, Vancouver, ISO, and other styles
50

Borgia, Alessandra. "Torbiere di montagna: mappatura e stato delle torbiere del Trentino-Alto Adige." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23068/.

Full text
Abstract:
Le torbiere, nonostante rappresentino importanti riserve di carbonio organico, svolgendo quindi un ruolo essenziale nella mitigazione al cambiamento climatico, sono considerate tra gli habitat maggiormente a rischio, la cui tutela risulta fondamentale. Il presente elaborato, attraverso l’identificazione delle principali torbiere presenti in parte del territorio regionale del Trentino-Alto Adige, si pone due obiettivi: (i) lo sviluppo e l’analisi di una metodologia per la mappatura delle torbiere alpine e (ii) la stima, attraverso l’esaminazione di campioni prelevati nella zona dell’Alta Val Rendena, della quantità di carbonio organico da esse immagazzinato. Tramite l’uso del software QGIS sono state mappate 71 torbiere, la cui presenza sul territorio è stata certificata dalla consultazione di diverse fonti di dati. Queste torbiere sono state utilizzate come classe di “verità a terra”, che, in aggiunta ad altre classi, ovvero acqua, suolo, prato, roccia, seminativo 1-2-3-4, urbano, bosco e neve, hanno permesso di effettuare, attraverso il software SNAP, una classificazione Random Forest, applicata ad alcune immagini satellitari Sentinel-2. La seconda attività, svoltasi a Madonna di Campiglio, ha previsto il campionamento della torba presente in quattro torbiere. I risultati mostrano che la classificazione Random Forest causa una sovrastima delle aree di torba, specialmente nelle zone coperte da seminativo, prato e bosco. Dai risultati delle analisi svolte in laboratorio si evince che la densità apparente secca ha valori maggiori a profondità di campionamento comprese tra 50 e 100 cm. Il contenuto di carbonio organico immagazzinato per volume di suolo, invece, presenta valori medi meno variabili. Le quantità di carbonio organico più elevate si trovano all’interno dei campioni prelevati a profondità comprese tra i 50 e 180 cm.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography