Academic literature on the topic 'Elaborazione dei dati'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Elaborazione dei dati.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Elaborazione dei dati"

1

Presciutti, O. "Aspetti metodologici nell'acquisizione e nell'elaborazione delle immagini funzionali." Rivista di Neuroradiologia 13, no. 1 (February 2000): 95–98. http://dx.doi.org/10.1177/197140090001300117.

Full text
Abstract:
Vengono illustrati i metodi seguiti dal gruppo di Perugia per l'acquisizione e l'elaborazione dei dati funzionali e più in generale vengono esposti i principali passi metodologici da seguire per una corretta ed ottimale elaborazione dei dati e viene fatta una panoramica sui più comuni metodi usati allo scopo.
APA, Harvard, Vancouver, ISO, and other styles
2

Gallucci, Mary M., Cecilia Nubola, and Angelo Turchini. "Visite pastorali ed elaborazione dei dati: Esperienze e metodi." Sixteenth Century Journal 26, no. 1 (1995): 188. http://dx.doi.org/10.2307/2541552.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Moro, Alessandro, and Carlo Spediacci. "Elaborazione computerizzata dei dati aerobiologici a costituzione di una banca dati nazionale." Aerobiologia 2, no. 1-2 (December 1986): 14–22. http://dx.doi.org/10.1007/bf02450000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

De Nisco, Nicola, Sandra Gorla, and Alessia Valenti. "Una banca dati per Petrarca e il suo tempo: criteri, modelli e obiettivi." DigItalia 16, no. 2 (December 2021): 67–90. http://dx.doi.org/10.36181/digitalia-00037.

Full text
Abstract:
L’articolo presenta le fasi di elaborazione e i modelli del database del progetto PRIN Itinera – Italian Trecento Intellectual Network and European Renaissance Advent. Sviluppata attraverso il framework Cadmus, la banca dati raccoglierà le ricerche sui corrispondenti di Petrarca e quelle sui testi, insieme ai dati codicologici e paleografici relativi alla tradizione manoscritta dei Rerum vulgarium fragmenta.
APA, Harvard, Vancouver, ISO, and other styles
5

Mozzillo, Giuseppe, and Enrico Todini. "Valutazione del commitment locale di un programma regionale di politiche attive del lavoro. La scala di distanza culturale e valoriale." RIV Rassegna Italiana di Valutazione, no. 45 (October 2010): 27–46. http://dx.doi.org/10.3280/riv2009-045004.

Full text
Abstract:
La finalitŕ dell'articolo č illustrare la Scala di distanza culturale e valoriale, uno strumento messo a punto e impiegato dallo Staff Monitoraggio & Valutazione di Italia Lavoro Spa nella valutazione dell'efficacia interna di un programma regionale di politiche attive del lavoro allo scopo di rilevare la distanza tra gli orientamenti culturali e valoriali dei diversi attori coinvolti nella sua implementazione, tra questi e il piů generico frame valoriale che informa le finalitŕ e gli obiettivi del programma medesimo. L'ambito di analisi sviluppato č quello dell'effettivo commitment locale della politica regionale, cioč del grado di condivisione tra i diversi attori locali delle sue finalitŕ e dei valori sottintesi; l'analisi č stata orientata dal presupposto teorico che, per quanto ben "disegnato" sulla carta, un programma pubblico č tanto piů efficace quanto piů č compreso e "agito" con reale partecipazione dagli organismi e dagli operatori in esso coinvolti, chiamati a condividerne gli obiettivi e, almeno in parte, i valori. Nella prima parte del contributo si da conto del processo di elaborazione e di validazione dello strumento; nella seconda č illustrato il processo di elaborazione statistica dei dati e la "mappa delle distanze culturali" che ne č derivata.
APA, Harvard, Vancouver, ISO, and other styles
6

Conti Puorger, Adriana, and Pierpaolo Napolitano. "Caratterizzazione socio-economica della regione Marche per sezioni di censimento." RIVISTA DI ECONOMIA E STATISTICA DEL TERRITORIO, no. 2 (September 2011): 30–59. http://dx.doi.org/10.3280/rest2011-002002.

Full text
Abstract:
La suddivisione del territorio realizzata dall'ISTAT in occasione dei censimenti della popolazione e delle abitazioni, utilizzata inizialmente per finalitŕ organizzative e di gestione dell'operazione censuaria, ha assunto a partire dal 1981 una specifica valenza informativa, che risulta possibile finalizzare a una conoscenza di dettaglio del territorio. La disponibilitŕ di tale informazione rende possibile l'analisi territoriale al di lŕ della soglia dei confini amministrativi, rispondendo alla convinzione ormai diffusa che si debba entrare nei dettagli della struttura insediativa e residenziale per una proficua analisi del territorio regionale. L'obiettivo č l'identificazione delle morfologie sociali ed economiche descritte nel loro dispiegarsi sul territorio e analizzarle nelle loro reciproche interdipendenze, trasformando la grande mole di dati in una sintesi informativa fruibile. L'accresciuta potenza di elaborazione e di memorizzazione dei dati da parte degli strumenti HW e SW (Vickers e Rees, 2007), rende possibile l'applicazione di avanzati metodi statistici a insiemi di dati anche piů grandi di quelli qui considerati. La classificazione delle sezioni di censimento in tipologie socio-economiche fornisce uno strumento di lettura e interpretazione semplificata dei dati statistici, pur nelle dovute cautele suggerite dalle inevitabili scelte effettuate nel corso dell'analisi e dai possibili ulteriori miglioramenti con l'applicazione di metodologie piů complesse Una volta definite le tipologie, la ricerca sviluppa un'analisi multi-scala, sovrapponendo i risultati ottenuti dall'applicazione statistica con alcune principali partizioni territoriali che insistono sulla regione. Ricomporre le tipologie individuate a livello di sezione, a scala provinciale e comunale, come anche alla dimensione distrettuale e dei sistemi locali del lavoro, puň servire ad arricchire la loro interpretazione, come pure su un piano piů operativo, risultare di possibile ausilio alla stesura dei piani territoriali. In sede di conclusione si collegherŕ quanto analizzato a un contesto piů ampio per valutare la loro rispondenza alla volontŕ di orientare i territori verso uno sviluppo territoriale inteso, secondo le attuali tendenze delle pianificazione europea,.
APA, Harvard, Vancouver, ISO, and other styles
7

Origgi, D., L. T. Mainardi, A. Falini, G. Calabrese, G. Scotti, S. Cerutti, and G. Tosi. "Quantificazione automatica di spettri 1H ed estrazione di mappe metaboliche da acquisizioni CSI mediante Wavelet Packets." Rivista di Neuroradiologia 13, no. 1 (February 2000): 31–36. http://dx.doi.org/10.1177/197140090001300106.

Full text
Abstract:
La quantificazione dei picchi spettrali del segnale di spettroscopia 1H in risonanza magnetica, utile per un'analisi metabolica dei tessuti in-vivo, richiede un tempo di elaborazione elevato, soprattutto quando si tratta di acquisizioni CSI dove ad essere elaborata è un'intera matrice di dati. Inoltre, la sovrapposizione dei picchi, maggiormente marcata negli spettri con tempo di eco breve (20 ms), rende spesso difficoltosa la separazione dei singoli contributi metabolici. Si propone pertanto un metodo automatico per la quantificazione dei metaboliti, che utilizza l'algoritmo delle Wavelet Packets per scomporre il segnale nel dominio del tempo (FID) in sottobande. La stima dei parametri di ampiezza, fase, frequenza e smorzamento viene quindi eseguita nelle sottobande, dove cadono i picchi di interesse, mediante metodi di predizione lineare basati sulla scomposizione a valori singolari (LPSDV). L'ampiezza stimata dei picchi viene infine utilizzata sia per il calcolo dei rapporti metabolici sia per l'estrazione di mappe metaboliche. Il metodo di quantificazione proposto è stato messo a punto su fantocci e poi applicato alle acquisizioni di volontari sani e infine su alcuni pazienti. L'elaborazione automatica dei dati spettroscopici con il metodo proposto offre la possibilità di studiare in modo efficace ed affidabile i metaboliti cerebrali nonché di rappresentare la loro distribuzione spaziale mediante mappe metaboliche.
APA, Harvard, Vancouver, ISO, and other styles
8

Knapton, Michael. "Le campagne trevigiane: i frutti di una ricerca." SOCIETÀ E STORIA, no. 130 (February 2011): 771–800. http://dx.doi.org/10.3280/ss2010-130005.

Full text
Abstract:
Questo saggio verte sul progetto di ricerca "Le campagne trevigiane", condotto dalla Fondazione Benetton Studi Ricerche di Treviso. Il progetto intendeva svolgere un'analisi dettagliata della storia agraria, anzi della storia economica e sociale a tutto tondo, dell'intero Trevigiano fra secondo quattrocento e metÀ cinquecento. Le piů importanti fonti utilizzate furono gli estimi generali datati 1518 e1542, e l'accumulazione ed elaborazione dei dati furono condotte utilizzando la moderna tecnologia informatica. I volumi finora pubblicati, fra 1990 e 2006, consistono in tredici dei diciotto ufficialmente programmati. Questo saggio riassume le finalitÀ e la metodologia del progetto, e offre un sunto breve, parziale dei risultati finora raggiunti. Rapporta quei risultati al piů ampio contesto del dibattito storiografico e propone il rilancio della ricerca.
APA, Harvard, Vancouver, ISO, and other styles
9

Ruggiero, R., E. Covelli, G. Carannante, M. C. Buonocore, and E. Leone. "L'esame Spect nella patologia del SNC in età pediatrica: Esperienze preliminari." Rivista di Neuroradiologia 10, no. 2_suppl (October 1997): 167. http://dx.doi.org/10.1177/19714009970100s268.

Full text
Abstract:
I recenti progressi nella tecnologia Spect hanno prodotto un evidente aumento della sensibilità e della risoluzione dei sistemi di acquisizione ed elaborazione consentendo una estensione della applicazione della metodica a svariate patologie, particolarmente a quelle di pertinenza neurologica. In età pediatrica la Spect ha, negli ultimi anni, fornito ulteriori informazioni nello studio delle epilessie. Noi abbiamo iniziato da alcuni mesi ad applicare la metodica nello studio di patologie del SNC della prima età pediatrica. In questo lavoro vengono presentati i risultati preliminari e viene posta una iniziale verifica se i dati Spect, correlati con gli altri dati strumentali, possano essere utili nell'iter diagnostico di queste patologie.
APA, Harvard, Vancouver, ISO, and other styles
10

Gasparotti, R., A. Orlandini, G. F. Gualandi, and A. Chiesa. "Studio preliminare del circolo cerebrale e dei vasi del collo con angiografia tridimensionale a risonanza magnetica." Rivista di Neuroradiologia 2, no. 3 (October 1989): 241–54. http://dx.doi.org/10.1177/197140098900200306.

Full text
Abstract:
Viene presentata un'esperienza iniziale sull'utilizzazione dell'angiografia a risonanza magnetica nello studio del circolo cerebrale e dei vasi del collo in una popolazione di 20 soggetti sani. Nel presente lavoro vengono analizzati i principali fenomeni fisici che stanno alla base dei variabili aspetti che assume il flusso sanguigno nelle immagini RM e le principali tecniche utilizzate sino ad oggi in angiografia RM. In particolare sono state valutate l'applicabilità clinica e la definizione anatomica di una speciale tecnica, l'Angiografia Tridimensionale a Risonanza Magnetica; essa si basa su acquisizioni volumetriche effettuate con sequenze ad «eco di gradiente» FISP 3D (Fast Imaging with Steady-state Precession) e FLASH 3D (Fast Low Angle SHot) e su una elaborazione computerizzata dei dati ottenuti, attraverso un programma in grado di analizzare l'elevata intensity di segnale dei vasi (Ray-tracing method). La tecnica consente di ottenere proiezioni angiografiche tridimensionali del circolo cerebrale e dei vasi del collo con buona definizione anatomica del poligono di Willis e delle biforcazioni carotidee, in un tempo compatibile con la routine clinica (27 minuti al massimo).
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Elaborazione dei dati"

1

Schipilliti, Luca. "Progetto del software di acquisizione ed elaborazione dei dati di un Sonar multibeam." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21608/.

Full text
Abstract:
L'obiettivo del progetto noto come SUSHI DROP è quello di realizzare un drone sottomarino AUV dotato di MBES con il relativo software di acquisizione ed altre tipologie di sistemi per la caratterizzazione geofisica, biologica e biomarina dell'ambiente subacqueo. In questo contesto il presente lavoro di tesi è volto in particolar modo allo sviluppo del software di acquisizione ed elaborazione dei dati in uscita dal sonar multibeam. Tali dati dovranno essere letti, riorganizzati, interpretati ed elaborati al fine di poter ottenere informazioni utili relative a ciò che si trova sul fondale del mar Adriatico ed alla sua morfologia tramite acquisizioni batimetriche. Inoltre sarà possibile ricavare informazioni su ciò che sta all'interno della colonna d'acqua sottostante il drone tramite acquisizioni Water Column. Questa tesi sarà quindi focalizzata sullo sviluppo del codice che dovrà effettuare tutte queste operazioni, andando a rispettare quelli che sono i vincoli imposti dal tipo di dati che vengono forniti dal dispositivo di acquisizione e le non idealità dello stesso nello svolgimento della propria funzione. Una prima parte di questo elaborato andrà descrivere il processo di lettura ed interpretazione dei dati forniti dal MBES Sonic2020, in modo da avere un modello iniziale su cui poter lavorare per scrivere i primi algoritmi che si occuperanno della correzione dei dati e di una semplice quanto immediata rappresentazione degli stessi. Successivamente si passerà ad una fase di generazione e simulazione di dati fittizi, per poter esser certi della validità di quanto definito in precedenza. Infine verrà descritto il processo seguito per rappresentare in maniera completa i dati ottenuti dalle precedenti elaborazioni, valutando e confrontando le prestazioni di due diversi algoritmi,IDW e Kriging.
APA, Harvard, Vancouver, ISO, and other styles
2

Faedi, Alberto. "Elaborazione di dati da sensori inerziali per monitoraggio strutturale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14247/.

Full text
Abstract:
In questa relazione viene presentata una tecnica di analisi non lineare per il monitoraggio strutturale, denominata RQA, “recurrence quantification analysis”, che permette di rilevare il danno della struttura sotto osservazione attraverso una tecnica grafica e attraverso metriche da essa generate; questa tecnica è implementata in un algoritmo nell'ambiente di lavoro Matlab, e successivamente applicata ad una struttura di test. L'applicazione pratica cerca di ottenere risultati che siano in accordo con quanto detto sul piano teorico, sia per quanto riguarda informazioni di carattere generale sul monitoraggio di salute strutturale, sia per il particolare metodo di analisi applicato.
APA, Harvard, Vancouver, ISO, and other styles
3

Chiarelli, Rosamaria. "Elaborazione ed analisi di dati geomatici per il monitoraggio del territorio costiero in Emilia-Romagna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19783/.

Full text
Abstract:
La tesi analizza nel dettaglio, attraverso dati topo-batimetrici ripetuti nel tempo, quale sia stato il comportamento di alcuni litorali emiliano-romagnoli, valutando anche l’influenza della modalità di gestione del dato a posteriore, nella creazione dei modelli digitali del terreno e nell'uso delle tecniche interpolative. Nello specifico, introduce il problema dell’erosione costiera, descrive le tipologie di opere di difesa da poter adoperare per fronteggiare il fenomeno, esplicita l’importanza del monitoraggio e quindi del sistema di riferimento, e illustra le tecniche di rilievo per il litorale. Inoltre, mostra sia i metodi utilizzati per l’analisi dei dati, che i risultati ottenuti in termini di mappe e grafici, grazie all'utilizzo di specifici software. Le elaborazioni prodotte riguardano la "Macrocella 1" del litorale emiliano-romagnolo, con particolare attenzione alle spiagge di Misano e Riccione che rientrano tra quelle coinvolte dal Progettone 2 nel 2007 e dal Progettone 3 nel 2016, dell'Arpae. L'attività di tesi termina con lo sviluppo di un argomento legato all'ambito della ricerca. Infatti, per la stessa area di indagine, sono state confrontate delle mappe di accumulo-erosione e dei grafici relativi all'andamento dei profili di spiaggia, ottenuti con metodi di post-elaborazione differenti. Quindi è stato valutato come i punti interpolati con un certo tipo di algoritmo, producano risultati diversi sia a livello visivo che di volume stimato, a seconda della densità di punti, della posizione che essi occupano e della densità del grid cercato.
APA, Harvard, Vancouver, ISO, and other styles
4

Matrone, Erika. "Elaborazione dei dati inerenti alla raccolta dei rifiuti della Regione Emilia Romagna finalizzata all'individuazione dei più performanti sistemi di raccolta." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12934/.

Full text
Abstract:
La Legge Regionale 16 del 2015 è il fulcro della seguente tesi. Seguendone i criteri e le definizioni, sono stati definiti i sistemi di raccolta dei 337 Comuni dell'Emilia Romagna, individuandone il più performante dal punto di vista ambientale ed economico. La Legge che mira alla minimizzazione dei rifiuti, stabilisce 4 obiettivi fondamentali: a) scendere sotto il 150 kg di rifiuti non inviati a riciclo; b) diminuire del 20-25% la produzione pro-capite di rifiuti rispetto l'anno di riferimento del 2011; c) raggiungere una percentuale di raccolta differenziate del 73%; d) portare il quantitativo di riciclato al 70%. I dati inerenti la raccolta dei rifiuti sono stati forniti da Arpae e si riferiscono all'anno 2015, i dati economici sono quelli ufficiali forniti dai PEF ed approvati dai Comuni e da Atersir. L'analisi è stata condotta a livello regionale, secondo aree omogenee, per distribuzione demografica, per abitanti residenti ed equivalenti. Individuati i principali sistemi di raccolta (senza raccolta di umido, misto, stradale e porta a porta), ne sono stati analizzati i loro relativi sottosistemi (stradale con calotta e porta a porta con tariffazione puntuale).
APA, Harvard, Vancouver, ISO, and other styles
5

Guidetti, Mattia. "Ricostruzione di flussi veicolari su scala regionale: analisi dei dati disponibili." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5957/.

Full text
Abstract:
Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.
APA, Harvard, Vancouver, ISO, and other styles
6

Fioravanti, Matteo. "Sviluppo di tecniche di elaborazione di dati elettroanatomici per l'analisi dei pattern di attivazione elettrica in fibrillazione atriale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Per quanto risulti chiaro come l'innesco della fibrillazione atriale (principalmente parossistica) sia da attribuire a sorgenti focali collocate prevalentemente in prossimità delle vene polmonari (nel 94% dei casi), risulta tutt'ora estremamente dibattuto quali siano i meccanismi di mantenimento di tale anomalia del ritmo cardiaco. Fra le varie teorie riportate in letteratura, una delle più accreditate risulta essere la teoria dei rotori, secondo la quale il mantenimento della FA sarebbe da attribuire a pattern di rotazione spiraliformi, in grado di persistere, come osservato nel celebre studio CONFIRM, per tempi superiori ai 10 minuti. Il presente lavoro di tesi ha quindi l'obiettivo di dare un contributo alla teoria dei rotori, attraverso la realizzazione di mappe di fase ottenute elaborando segnali endocavitari acquisiti durante procedure di ablazione transcatetere con il sistema di mappaggio elettroanatomico CARTO 3 e l'elettrocatetere diagnostico PentaRay, della Biosense Webster. Dopo aver introdotto la fisiopatologia della fibrillazione atriale, soffermandosi particolarmente sulla teoria dei rotori, nel Capitolo 1, e aver introdotto la procedura di ablazione transcatetere, focalizzandosi sull'ausilio del CARTO 3 come sistema di mappaggio real-time, nel Capitolo 2, è stata infatti presentata l'elaborazione eseguita per poter ottenere dai segnali unipolari intracardiaci prelevati, le mappe di fase dalle quali è stata indagata l'eventuale presenza di rotori in 6 pazienti affetti principalmente da FA persistente (Capitolo 3). In conclusione, nell'ultimo capitolo è stata eseguita un'analisi dei risultati, valutando non solamente l'eventuale presenza di rotori nelle regioni della camera atriale in cui sono stati maggiormente osservati in letteratura, ma soffermandosi anche sulla validità dell'elettrocatetere Pentaray nell'indagare la dinamica alla base dei pattern di rotazione spiraliformi.
APA, Harvard, Vancouver, ISO, and other styles
7

Lo, Piccolo Salvatore. "La digestione anaerobica dei fanghi prodotti dal depuratore di Savignano sul Rubicone: elaborazione dei dati sperimentali di impianto e simulazione del processo tramite il modello ADM1." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Nel presente lavoro di tesi è stata analizzata la digestione anaerobica dei fanghi di depurazione prodotti nell'impianto di Savignano sul Rubicone. Sono state effettuate delle analisi sullo stato di fatto dell'impianto per inquadrare il funzionamento del sistema, poi è stato modellizzato il comportamento della digestione tramite il modello ADM1 implementato in AQUASIM e in fine sono state proposte delle modifiche per ottimizzare le prestazione della digestione anaerobica dell'impianto e sono state simulate le prestazioni dell'impianto in condizioni di progetto.
APA, Harvard, Vancouver, ISO, and other styles
8

Baietta, Alessia. "Preparazione dei dati e generazione delle mappe di TC perfusionale nel cancro al polmone." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9279/.

Full text
Abstract:
L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.
APA, Harvard, Vancouver, ISO, and other styles
9

SPALLANZANI, MATTEO. "Un framework per l’analisi dei sistemi di apprendimento automatico." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200571.

Full text
Abstract:
Il fare predizioni si fonda sulla comprensione degli schemi del nostro ambiente. Possiamo aver accesso alla realtà fisica grazie a strumenti di misura che ci forniscono dati nei quali speriamo di trovare schemi utili. Lo sviluppo delle macchine calcolatrici ha permesso di stoccare grandi insiemi di dati e di processarli ad alta velocità. L’apprendimento automatico studia sistemi capaci di automatizzare l’identificazione di schemi in grandi insiemi di dati utilizzando i computer. L’apprendimento automatico è al cuore della scienza dei dati e dell’intelligenza artificiale, due campi di ricerca che stanno cambiando l’economia e la società in cui viviamo. I sistemi di apprendimento automatico sono solitamente addestrati ed eseguiti su potenti cluster di computer composti da centinaia o migliaia di macchine. Oggigiorno, la miniaturizzazione dei dispositivi di calcolo sta permettendo di utilizzarli su sistemi, alimentati a batteria, posizionati in ambienti diversi. Rispetto ai cluster di computer, questi dispositivi sono molto meno potenti, ma hanno il vantaggio di essere più vicini alla sorgente dei dati. Da un lato, questo estende il numero di applicazioni dei sistemi di apprendimento automatico; dall’altro, le limitazioni fisiche delle macchine calcolatrici richiedono di identificare metriche appropriate per valutare l’idoneità di sistemi di apprendimento automatico differenti in un contesto dato. In particolare, questi sistemi dovrebbero essere valutati basandosi non solo sulle loro proprietà modellistiche e statistiche, ma anche sui loro costi algoritmici e sulla loro idoneità a diverse architetture di calcolatori. In questa tesi, analizziamo le proprietà modellistiche, algoritmiche ed architetturali di diversi sistemi di apprendimento automatico. Presentiamo il metodo fingerprint, un sistema che è stato sviluppato per risolvere un problema di strategia commerciale in cui l’accuratezza statistica è più importante dei vincoli di latenza o di consumo energetico. Dopodiché, analizziamo le reti neurali artificiali e discutiamo le loro proprietà computazionali; descriviamo anche un esempio di applicazione, un modello che abbiamo progettato per identificare le cause oggettive di percezioni soggettive alla guida. Infine, descriviamo ed analizziamo le reti neurali quantizzate, reti neurali artificiali che usano insiemi finiti per i parametri e funzioni di attivazione a scala. Queste limitazioni pongono problemi matematici non banali, ma le reti neurali quantizzate possono essere eseguite in modo estremamente efficiente su acceleratori hardware dedicati, rendendole candidate ideali per utilizzare l’apprendimento automatico su computer edge. In particolare, mostriamo che le reti neurali quantizzate sono equivalenti alle reti neurali artificiali classiche (quantomeno sull’insieme di bersagli rappresentato dalle funzioni continue definite su domini compatti); presentiamo anche un nuovo algoritmo di apprendimento basato sul gradiente, chiamato additive noise annealing, basato sull’effetto regolarizzante del rumore additivo sull’argomento di funzioni discontinue, riportando risultati allo stato dell’arte su benchmark di classificazione d’immagini.
Making predictions is about getting insights into the patterns of our environment. We can access the physical world through media, measuring instruments, which provide us with data in which we hope to find useful patterns. The development of computing machines has allowed storing large data sets and processing them at high speed. Machine learning studies systems which can automate the detection of patterns in large data sets using computers. Machine learning lies at the core of data science and artificial intelligence, two research fields which are changing the economy and the society in which we live. Machine learning systems are usually trained and deployed on powerful computer clusters composed by hundreds or thousands of machines. Nowadays, the miniaturisation of computing devices is allowing deploying them on battery-powered systems embedded into diverse environments. With respect to computer clusters, these devices are far less powerful, but have the advantage of being nearer to the source of the data. On one side, this increases the number of applications of machine learning systems; on the other side, the physical limitations of the computing machines require identifying proper metrics to assess the fitness of different machine learning systems in a given context. In particular, these systems should be evaluated according not only to their modelling and statistical properties, but also to their algorithmic costs and their fitness to different computer architectures. In this thesis, we analyse modelling, algorithmic and architectural properties of different machine learning systems. We present the fingerprint method, a system which was developed to solve a business intelligence problem where statistical accuracy was more important than latency or energy constraints. Then, we analyse artificial neural networks and discuss their appealing computational properties; we also describe an example application, a model we designed to identify the objective causes of subjective driving perceptions. Finally, we describe and analyse quantized neural networks, artificial neural networks which use finite sets for the parameters and step activation functions. These limitations pose challenging mathematical problems, but quantized neural networks can be executed extremely efficiently on dedicated hardware accelerators, making them ideal candidates to deploy machine learning on edge computers. In particular, we show that quantized neural networks are equivalent to classical artificial neural networks (at least on the set of targets represented by continuous functions defined on compact domains); we also present a novel gradient-based learning algorithm for, named additive noise annealing, based on the regularisation effect of additive noise on the argument of discontinuous functions, reporting state-of-the-art results on image classification benchmarks.
APA, Harvard, Vancouver, ISO, and other styles
10

PARMIGGIANI, Nicolò. "Metodi per l’analisi e la gestione dei dati dell’astrofisica gamma in tempo reale." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239980.

Full text
Abstract:
Il contesto delle attività svolte per il Ph.D. sono l’analisi e la gestione dei dati per l’astronomia dei raggi gamma, la quale coinvolge l’osservazione dei raggi gamma, la forma più energetica di radiazione elettromagnetica. Dalle osservazioni dei raggi gamma effettuate con telescopi o satelliti, è possibile studiare eventi catastrofici generati da oggetti compatti come nane bianche, stelle di neutroni e buchi neri. Questi eventi sono chiamati transienti di raggi gamma. Per comprendere questi fenomeni, essi devono essere osservati durante la loro evoluzione. Per questa ragione, la velocità è cruciale e vengono sviluppate pipeline automatiche di analisi dei dati per identificare questi transienti e generare allerte scientifiche. L’allerta scientifica è una comunicazione immediata da un osservatorio ad altri osservatori per segnalare che un evento astrofisico interessante sta avvenendo nel cielo. La comunità astrofisica si trova in una nuova era chiamata “multi-messenger astronomy”, nella quale le sorgenti astronomiche sono osservate con strumenti che raccolgono diversi segnali: onde gravitazionali, radiazioni elettromagnetiche e neutrini. In questa multi-messenger era, i progetti astrofisici condividono le loro allerte scientifiche tramite reti di comunicazione. Il coordinamento di diversi progetti tramite le allerte scientifiche è fondamentale per capire la natura di questi fenomeni fisici. Gli osservatori devono gestire queste allerte scientifiche sviluppando software dedicato. Durante il corso del Ph.D. l’attività di ricerca è stata focalizzata sulla missione spaziale AGILE, attualmente in operazione, e sull’osservatorio Cherenkov Telescope Array, in fase di costruzione. Il follow-up di allerte scientifiche esterne ricevute dagli strumenti che identificano Gamma-Ray Bursts (GRB) e Gravitational Waves (GW) è una delle maggiori attività del Team di AGILE. Le generazioni future degli osservatori di raggi gamma come CTA o ASTRI Mini-Array possono trarre vantaggio dalle tecnologie sviluppate per AGILE. Questa ricerca ha l’obiettivo di sviluppare software per l’analisi e la gestione dei dati gamma. Il primo capitolo della tesi descrive la piattaforma web utilizzata dai ricercatori AGILE per preparare il secondo catalogo di sorgenti gamma di AGILE. Le analisi realizzate per questo catalogo sono memorizzate in un database dedicato e la piattaforma web interroga il database. Questo è stato il lavoro preparatorio per capire come gestire i risultati delle analisi di sorgenti gamma (detection e curve di luce) per la fase successiva: lo sviluppo di una pipeline scientifica per gestire in tempo reale le detection e le allerte scientifiche. Nel secondo capitolo viene presentato un framework progettato per facilitare lo sviluppo di pipeline per l’analisi scientifica in tempo reale. Il framework offre un’architettura comune e automatismi che possono essere utilizzati dagli osservatori per sviluppare le loro pipeline. Questo framework è stato usato per sviluppare le pipeline della missione spaziale AGILE e per sviluppare un prototipo per la Science Alert Generation (SAG) dell’osservatorio CTA. Il terzo capitolo descrive un nuovo metodo per identificare i GRB nei dati dello strumento AGILE-GRID utilizzando le Convolutional Neural Network. Con questa tecnologia Deep Learning è possibile migliorare la capacità di detection di AGILE. Questo metodo è anche stato inserito come tool scientifico all’interno della pipeline AGILE. L’ultimo capitolo mostra i risultati scientifici ottenuti con il software sviluppato durante le attività di ricerca del Ph.D. Parte dei risultati sono stati pubblicati su riviste scientifiche. La restante parte è stata inviata alla comunità scientifica tramite The Astronomer’s Telegram o il Gamma-ray Coordination Network.
The context of this Ph.D. is the data analysis and management for gamma-ray astronomy, which involves the observation of gamma-rays, the most energetic form of electromagnetic radiation. From the gamma-ray observations performed by telescopes or satellites, it is possible to study catastrophic events involving compact objects, such as white dwarves, neutron stars, and black holes. These events are called gamma-ray transients. To understand these phenomena, they must be observed during their evolution. For this reason, the speed is crucial, and automated data analysis pipelines are developed to detect gamma-ray transients and generate science alerts during the astrophysical observations or immediately after. A science alert is an immediate communication from one observatory to other observatories that an interesting astrophysical event is occurring in the sky. The astrophysical community is experiencing a new era called "multi-messenger astronomy", where the astronomical sources are observed by different instruments, collecting different signals: gravitational waves, electromagnetic radiation, and neutrinos. In the multi-messenger era, astrophysical projects share science alerts through different communication networks. The coordination of different projects done by sharing science alerts is mandatory to understand the nature of these physical phenomena. Observatories have to manage the follow-up of these external science alerts by developing dedicated software. During this Ph. D., the research activity had the main focus on the AGILE space mission, currently in operation, and on the Cherenkov Telescope Array Observatory (CTA), currently in the construction phase. The follow-up of external science alerts received from Gamma-Ray Bursts (GRB) and Gravitational Waves (GW) detectors is one of the AGILE Team's current major activities. Future generations of gamma-ray observatories like the CTA or the ASTRI Mini-Array can take advantage of the technologies developed for AGILE. This research aims to develop analysis and management software for gamma-ray data to fulfill the context requirements. The first chapter of this thesis describes the web platform used by AGILE researchers to prepare the Second AGILE Catalog of Gamma-ray sources. The analysis performed for this catalog is stored in a dedicated database, and the web platform queries this database. This was preparatory work to understand how to manage detections of gamma-ray sources and light curve for the subsequent phase: the development of a scientific pipeline to manage gamma-ray detection and science alerts in real-time. The second chapter presents a framework designed to facilitate the development of real-time scientific analysis pipelines. The framework provides a common pipeline architecture and automatisms that can be used by observatories to develop their own pipelines. This framework was used to develop the pipelines for the AGILE space mission and to develop a prototype of the scientific pipeline of the Science Alert Generation system of the CTA Observatory. The third chapter describes a new method to detect GRBs in the AGILE-GRID data using the Convolutional Neural Network. With this Deep Learning technology, it is possible to improve the detection capabilities of AGILE. This method was also integrated as a science tool in the AGILE pipelines. The last chapter of the thesis shows the scientific results obtained with the software developed during the Ph.D. research activities. Part of the results was published in refereed journals. The remaining part was sent to the scientific community through The Astronomer's Telegram or the Gamma-ray Coordination Network.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Elaborazione dei dati"

1

Girolamo, Irene Di. Indici biotici per la valutazione della qualità delle acque: Un approccio alle tecniche di campionamento e di elaborazione dei dati. Roma: Istituto superiore di sanità, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Busacca, Helle. Diario epistolare a Corrado Pavolini. Edited by Serena Manfrida. Florence: Firenze University Press, 2014. http://dx.doi.org/10.36253/978-88-6655-583-4.

Full text
Abstract:
Vulcano, 1964. Dopo un incontro a Cortona, la poetessa e scrittrice messinese Helle Busacca intraprende la stesura di un Diario epistolare dedicato a Corrado Pavolini, noto intellettuale e regista di origini toscane di cui è innamorata da più di vent’anni. Ciò a cui dà vita attraverso le pagine sinora inedite dedicate a una “storia senza storia” è un incandescente teatro del sé, in cui drammatizzazione dell’esperienza personale, elaborazione autorappresentativa ed espressione di un’interiorità viva e inquieta si fondono in un amalgama dai caratteri fortemente ibridi, veicolato da una dirompente forza comunicativa. Mentre l’interlocutore disperatamente inseguito si fa sempre più evanescente e irraggiungibile emerge inconfondibile, fra confessione e rivendicazione, la voce di una moderna eroina tragica.
APA, Harvard, Vancouver, ISO, and other styles
3

Elaborazione dei dati sperimentali. Milan: Springer-Verlag, 2005. http://dx.doi.org/10.1007/b139070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Visite pastorali ed elaborazione dei dati: Esperienze e metodi. Bologna: Società editrice il Mulino, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Dapor, M., and M. Ropele. Elaborazione dei dati sperimentali (UNITEXT / Collana di Fisica e Astronomia). Springer, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Impianti sportivi, quanti, dove, come, per chi: Indagine sugli impianti sportivi nei comuni della Provincia di Roma ed elaborazione dei dati rilevati. Roma: Officina, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Guerrieri, Gianluca, Giovanni Luchetti, Michele Angelo Lupoi, Paola Manes, Marco Martino, and Thomas Tassani, eds. Fiducia e destinazione patrimoniale. Bologna University Press, 2022. http://dx.doi.org/10.30682/sg312.

Full text
Abstract:
Con riferimento ai temi della fiducia e della destinazione patrimoniale si avverte l’esigenza, sul piano scientifico, di una sistemazione idonea ad individuare i principi e gli elementi strutturali delle diverse fattispecie. Il sintagma “proprietà fiduciaria” evoca una pluralità di istituti che, ancorché in larga parte omogenei sul piano degli effetti economici e degli interessi concreti, risultano fortemente differenziati nella elaborazione dogmatica e in talune schematizzazioni teoriche. L’innegabile diversa origine degli istituti e la non totale omologazione sul piano effettuale non impediscono però di apprezzare un dato che è, al tempo stesso, sia storico sia evolutivo. Se le differenti culture hanno portato alla creazione di variegati modelli di proprietà nell’interesse altrui, occorre sottolineare come siano in parte comuni gli interessi protetti e gli ingredienti giuridici che ne costituiscono le basi concettuali. Ciò ha reso possibile la contaminazione degli istituti e la creazione di flussi giuridici, di fenomeni di metabolizzazione e reciproca integrazione delle soluzioni normative ed interpretative. Tali generali esigenze di sistemazione hanno portato ad elaborare e sviluppare, nell’ambito del Dipartimento di Scienze Giuridiche dell’Università di Bologna, il progetto di ricerca “Destinazione patrimoniale e causa fiduciaria: un approccio interdisciplinare per una prospettiva ricostruttiva unitaria” conclusosi con il Convegno “Fiducia e destinazione patrimoniale” (2 e 9 ottobre 2020). Nel volume sono raccolte le relazioni presentate al Convegno e rielaborate dagli Autori in forma di articoli.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Elaborazione dei dati"

1

Baldassarri, Monica, Giuseppe Naponiello, and Giuliana Pagni. "Elaborazione di un sistema di schedatura dati e sviluppo di un web GIS per la consultazione dei dati archeologici: iI caso di Montescudaio in Val di Cecina (PI)." In Open Source Free Software e Open Format nei processi di ricerca archeologica, 51–74. Ubiquity Press, 2013. http://dx.doi.org/10.5334/bae.f.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Elaborazione dei dati"

1

Albissini, Piero, Antonio Catizzone, Laura De Carlo, Laura Carlevaris, Vittorio Di Stefano, and Alessandro Micucci. "Le trasformazioni dello spazio urbano: la quarta dimensione nella georeferenziazione dell’iconografia storica di Rome." In International Conference Virtual City and Territory. Barcelona: Centre de Política de Sòl i Valoracions, 2009. http://dx.doi.org/10.5821/ctv.7549.

Full text
Abstract:
Se si considera la componente fisica del sistema città come espressione materiale dell’insieme dei fenomeni evolutivi dei luoghi, appare evidente come la sua rappresentazione possa essere considerata come sistema di conoscenza generale in grado di manifestare una convergenza di informazioni di natura altamente eterogenea. Le vaste trasformazioni che hanno interessato le città nella storia hanno determinato una evoluzione non solo nelle modifiche morfologiche degli assetti territoriali e nella stratificazione architettonica delle strutture urbane, ma anche nella percezione e fruizione degli spazi urbani. Se si considera l’organizzazione dello spazio urbano come ambito di relazione tra gli uomini, i contributi che provengono dalle fonti bibliografiche, iconografiche e cartografiche in particolare possono consentire la ricostruzione diacronica dei tessuti urbani. Questa ricostruzione è resa possibile dalla lettura delle diverse rappresentazioni che della città sono state date nel tempo, come rappresentazioni iconografiche o pittoriche, talvolta simboliche se non addirittura metaforiche, che consentono di acquisire conoscenze dei luoghi, anche quando presentano uno scarso grado di attendibilità. L’introduzione dell’informatica nel rilevamento e nella rappresentazione cartografica e la realizzazione dei sistemi informativi territoriali hanno aperto nuove possibilità non solo nella realizzazione di database collegati e georeferenziati, che possono contenere una notevole quantità di informazioni di diversa natura progressivamente incrementabili, ma soprattutto rendendo agevoli sia le molteplici interrogazioni sia le successive elaborazioni. Lo sviluppo della cartografia digitale dalla quale si possono derivare direttamente modelli tridimensionali, si pone quindi come punto di partenza per una corretta rappresentazione della complessità del fenomeno urbano e per un ripensamento dello spazio non più sulla base di esplorazioni planimetriche, ma tramite la creazione di modelli virtuali generati in maniera più o meno automatica a partire dalla cartografia stessa. In questo senso, il modello di derivazione cartografica costituisce l’aspetto metrico-quantitativo della rappresentazione della città, aspetto che risulta tanto più esatto, obiettivo e verificabile in quanto ottenuto con strumenti che rendono le misurazioni sufficientemente attendibili. Si tratta dunque di esplorare la cartografia tridimensionale cogliendone le peculiarità e la ricchezza nella restituzione dello spazio urbano, caratteristiche, queste, che suggeriscono immediatamente di tentare di ricostruire con la stessa vivacità rappresentativa anche tutti i trascorsi storici della città o, quanto meno, di alcuni dei suoi momenti topici, con particolare attenzione alle trasformazioni di natura orografica ed edilizia. In questo quadro emergono due distinti aspetti di natura metodologica, l’uno concernente la generazione del modello urbano e le implicazioni tecniche che questo comporta (implementazione di dati, automatismi, studi tipo-morfologici, scala del modello, …), l’altro relativo all’evoluzione della città attraverso il confronto tra modelli cartografici diversi (bi e tridimensionali). La realizzazione di un modello virtuale basato sulla cartografia digitale 3D, che fotografa lo stato attuale della struttura urbana, può rappresentare la griglia tridimensionale di riferimento per una visualizzazione delle trasformazioni spaziali attuata con una procedura che ripercorre a ritroso il cammino della storia. Si tratta di riferire a questa griglia orientata sulla base di capisaldi topografici certi i dati cartografici e iconografici provenienti dalla ricerca storico-documentaria, sulla base della individuazione di elementi invarianti della struttura urbana, come assetti orografici, vuoti urbani o edifici esistenti, etc., che non hanno mutato la loro localizzazione e le loro caratteristiche morfologiche. Così concepito, il modello tridimensionale di derivazione cartografica si caratterizza per la capacità di recepire e valorizzare documenti molto diversi e non necessariamente “scientifici” ai fini di una visualizzazione interattiva della storia del singolo brano di città o del singolo edificio per valutarne le trasformazioni sul piano morfologico e dimensionale, ma anche percettivo.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography