Academic literature on the topic 'Analisi e progettazione dei sistemi di elaborazione'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Analisi e progettazione dei sistemi di elaborazione.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Analisi e progettazione dei sistemi di elaborazione"

1

Castellano, Nicola. "Modelli e misure di performance aziendale: analisi della letteratura e spunti di ricerca." MANAGEMENT CONTROL, no. 1 (April 2011): 41–63. http://dx.doi.org/10.3280/maco2011-001003.

Full text
Abstract:
I sistemi di misurazione delle performance (SMP) nascono e si diffondono con l'obiettivo di orientare in maniera dinamica i comportamenti dei responsabili aziendali verso l'attuazione delle strategie. L'esigenza di utilizzo di questi strumenti si rafforza peraltro con la presa d'atto che gli strumenti di controllo tradizionale, a base esclusivamente contabile, impediscono una lettura efficace dei risultati e delle relative cause gestionali ed offuscano la ricerca delle conseguenti azioni volte al miglioramento. Questo articolo si propone di analizzare la piů recente letteratura in campo internazionale sul tema dei SMP, allo scopo di delineare i temi su cui si concentra l'attenzione dei ricercatori, le principali metodologie adottate ed i piů significativi risultati ottenuti. La classificazione dei contributi di ricerca selezionati č stata realizzata in relazione alle principali fasi del ciclo di vita di questi strumenti, cioč progettazione, implementazione ed utilizzo dei SMP. Nella parte finale sono proposti alcuni spunti per lo sviluppo futuro della ricerca.
APA, Harvard, Vancouver, ISO, and other styles
2

Lorenzi, F. "Breve Storia del Metodo Gemellare 2 - Le Attuali Formulazioni del Metodo." Acta geneticae medicae et gemellologiae: twin research 47, no. 1 (January 1998): 57–71. http://dx.doi.org/10.1017/s0001566000000386.

Full text
Abstract:
Il termine LISREL e l'acronimo di LInear Structural RELationship ed è nato inizialmente come nome di un software messo a punto dallo svedese Karl Joreskog e dai suoi collaboratori nei primi anni '70 per stimare, col metodo della massima verosimiglianza, i coefficienti strutturali dei modelli basati su sistemi di equazioni strutturali.Tali modelli, nella elaborazione tramite il LISREL, rappresentano la sistemazione logica, prima ancora che statistica o computeristica, di tecniche di analisi multivariata le cui prime proposte risalgono all'ininzio del secolo; riconducendo ad un unico modello che ne costituisce una geniale sintesi, approcci ed itinerari scientifici fino ad allora distinti e non comunicanti, quali l'analisi fattoriale, i modelli causali e i modelli di misurazione. In particolare rappresentano in questo momento la più completa e sistematica risposta al problema di operazionalizzare in termini di ricerca e di verifica empirica, nel campo delle scienze sociali, la controversa, ma non per questo meno fondamentale, nozione di causalità. Essi sono quindi la reinterpretazione, sistemazione e soprattutto generalizzazione di quelli che negli anni '60 venivano chiamati i modelli causali e che nella prima metà degli anni '70 avevano conosciuto una notevole popolarità fra i sociologi soprattutto attraverso la tecnica della path analysis.
APA, Harvard, Vancouver, ISO, and other styles
3

Conti Puorger, Adriana, and Pierpaolo Napolitano. "Caratterizzazione socio-economica della regione Marche per sezioni di censimento." RIVISTA DI ECONOMIA E STATISTICA DEL TERRITORIO, no. 2 (September 2011): 30–59. http://dx.doi.org/10.3280/rest2011-002002.

Full text
Abstract:
La suddivisione del territorio realizzata dall'ISTAT in occasione dei censimenti della popolazione e delle abitazioni, utilizzata inizialmente per finalitŕ organizzative e di gestione dell'operazione censuaria, ha assunto a partire dal 1981 una specifica valenza informativa, che risulta possibile finalizzare a una conoscenza di dettaglio del territorio. La disponibilitŕ di tale informazione rende possibile l'analisi territoriale al di lŕ della soglia dei confini amministrativi, rispondendo alla convinzione ormai diffusa che si debba entrare nei dettagli della struttura insediativa e residenziale per una proficua analisi del territorio regionale. L'obiettivo č l'identificazione delle morfologie sociali ed economiche descritte nel loro dispiegarsi sul territorio e analizzarle nelle loro reciproche interdipendenze, trasformando la grande mole di dati in una sintesi informativa fruibile. L'accresciuta potenza di elaborazione e di memorizzazione dei dati da parte degli strumenti HW e SW (Vickers e Rees, 2007), rende possibile l'applicazione di avanzati metodi statistici a insiemi di dati anche piů grandi di quelli qui considerati. La classificazione delle sezioni di censimento in tipologie socio-economiche fornisce uno strumento di lettura e interpretazione semplificata dei dati statistici, pur nelle dovute cautele suggerite dalle inevitabili scelte effettuate nel corso dell'analisi e dai possibili ulteriori miglioramenti con l'applicazione di metodologie piů complesse Una volta definite le tipologie, la ricerca sviluppa un'analisi multi-scala, sovrapponendo i risultati ottenuti dall'applicazione statistica con alcune principali partizioni territoriali che insistono sulla regione. Ricomporre le tipologie individuate a livello di sezione, a scala provinciale e comunale, come anche alla dimensione distrettuale e dei sistemi locali del lavoro, puň servire ad arricchire la loro interpretazione, come pure su un piano piů operativo, risultare di possibile ausilio alla stesura dei piani territoriali. In sede di conclusione si collegherŕ quanto analizzato a un contesto piů ampio per valutare la loro rispondenza alla volontŕ di orientare i territori verso uno sviluppo territoriale inteso, secondo le attuali tendenze delle pianificazione europea,.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Analisi e progettazione dei sistemi di elaborazione"

1

Lepore, Marco. "Impatto dei cambiamenti climatici in relazione alla progettazione di sistemi di drenaggio urbano." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
I principali effetti dei cambiamenti climatici sono l’incremento delle temperature e la variazione del regime delle precipitazioni.L’obiettivo della presente tesi è stimare l’entità di tale variazione per la città di Bologna e valutarne le possibili ripercussioni nella progettazione dei sistemi di drenaggio urbano.Nella prima parte della tesi,è stata condotta un’analisi sui dati di precipitazione a passo 15’ degli ultimi 30 anni,da cui è emerso come l’ultimo decennio sia stato caratterizzato da un notevole incremento del numero di eventi pluviometrici di breve durata ed elevata intensità.Tutti gli eventi con intensità sui 15’ superiore ai 2 anni di TR sono stati successivamente utilizzati come dati di input di un modello numerico,realizzato mediante il software EPA SWMM,del sistema fognario del quartiere Fossolo della città di Bologna per valutarne la risposta idraulica in termini di allagamenti urbani,volumi di acqua e masse inquinanti scaricate dagli scolmatori nei ricettori.Aumentando le intensità di precipitazione del 10,20,e 30% è stato possibile simulare 3 scenari futuri di cambiamento climatico e valutare le conseguenti risposte della rete.Il confronto tra lo scenario "reale" e quelli futuri (F1,F2,F3) mostra un incremento del numero di nodi soggetti a flooding (+50% in F1,+70% in F2,+100% in F3), un incremento delle portate di picco dell'8.5% in F1,12.5% in F2,20% in F3 ed infine un aumento consistente dei volumi di acque reflue scaricate verso i corpi ricettori (17% in F1,35% in F2,5% in F3).Il Piano d’Adattamento ai Cambiamenti Climatici,adottato dal Comune di Bologna suggerisce di incrementare le superfici permeabili,in misura proporzionale all'incremento delle intensità. Infatti i risultati delle simulazioni condotte mostrano che prendendo a titolo esemplificativo lo scenario F3,un incremento delle aree permeabili dello 30% determina una riduzione dei nodi allagati e dei volumi e delle masse sversate nei ricettori rispettivamente pari al 50% e 80%.
APA, Harvard, Vancouver, ISO, and other styles
2

Laterza, Marco. "Strategie di ingegnerizzazione e di sviluppo di sistemi software per big data management." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Il lavoro svolto si concentra sullo studio e lo sviluppo dei sistemi software per la gestione dei big data. Inizialmente sono stati analizzati i settori nei quali i big data si stanno diffondendo maggiormente per poi studiare l'ingegnerizzazione e lo sviluppo dei sistemi in grado di gestire questo tipo di dati. Sono state studiate tutte le fasi del processo di realizzazione del software e i rischi e i problemi che si possono incontrare. Infine è stato presentato un software di analisi di big data: Google BigQuery.
APA, Harvard, Vancouver, ISO, and other styles
3

Chiarelli, Rosamaria. "Elaborazione ed analisi di dati geomatici per il monitoraggio del territorio costiero in Emilia-Romagna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19783/.

Full text
Abstract:
La tesi analizza nel dettaglio, attraverso dati topo-batimetrici ripetuti nel tempo, quale sia stato il comportamento di alcuni litorali emiliano-romagnoli, valutando anche l’influenza della modalità di gestione del dato a posteriore, nella creazione dei modelli digitali del terreno e nell'uso delle tecniche interpolative. Nello specifico, introduce il problema dell’erosione costiera, descrive le tipologie di opere di difesa da poter adoperare per fronteggiare il fenomeno, esplicita l’importanza del monitoraggio e quindi del sistema di riferimento, e illustra le tecniche di rilievo per il litorale. Inoltre, mostra sia i metodi utilizzati per l’analisi dei dati, che i risultati ottenuti in termini di mappe e grafici, grazie all'utilizzo di specifici software. Le elaborazioni prodotte riguardano la "Macrocella 1" del litorale emiliano-romagnolo, con particolare attenzione alle spiagge di Misano e Riccione che rientrano tra quelle coinvolte dal Progettone 2 nel 2007 e dal Progettone 3 nel 2016, dell'Arpae. L'attività di tesi termina con lo sviluppo di un argomento legato all'ambito della ricerca. Infatti, per la stessa area di indagine, sono state confrontate delle mappe di accumulo-erosione e dei grafici relativi all'andamento dei profili di spiaggia, ottenuti con metodi di post-elaborazione differenti. Quindi è stato valutato come i punti interpolati con un certo tipo di algoritmo, producano risultati diversi sia a livello visivo che di volume stimato, a seconda della densità di punti, della posizione che essi occupano e della densità del grid cercato.
APA, Harvard, Vancouver, ISO, and other styles
4

Di, Giovanni Ferdinando. "Progettazione e sviluppo di un software per la simulazione dinamica della redazione del Master Production Schedule." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Il presente lavoro di Tesi documenta la realizzazione di un software in C# per la simulazione dinamica della redazione del Master Production Schedule - MPS (Piano Principale di Produzione). Il software è nato dalla necessità di avere strumenti informatici efficienti e di facile comprensione che permettessero all'utente – attraverso interfacce chiare e accessi immediati a grafici dinamici, analisi di serie storiche e previsioni di mercato –, di “giocare” una “partita” in un contesto simulato, ma aderente alla realtà, effettuando scelte legate alla pianificazione della produzione in un orizzonte temporale predefinito e di avere un feedback immediato dopo ogni step, oltre che un report finale, sulla bontà delle proprie decisioni. L'obiettivo è quello di mostrare la complessità della pianificazione della produzione in un contesto industriale in cui, sulla base di dati statistici, è necessario sapersi destreggiare. Alla luce di tutto ciò, il software può essere utilizzato per mettere alla prova chiunque si occupi di pianificazione, produzione, operations, previsione della domanda di mercato, logistica, impiantistica, manutenzione dei sistemi produttivi e gestione dei ricambi.
APA, Harvard, Vancouver, ISO, and other styles
5

ROLLO, FEDERICA. "Verso soluzioni di sostenibilità e sicurezza per una città intelligente." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271183.

Full text
Abstract:
Una città intelligente è un luogo in cui la tecnologia viene sfruttata per aiutare le amministrazioni pubbliche a prendere decisioni. La tecnologia può contribuire alla gestione di numerosi aspetti della vita quotidiana, offrendo ai cittadini servizi più affidabili e migliorando la qualità della vita. Tuttavia, la tecnologia da sola non è sufficiente per rendere una città intelligente; sono necessari metodi adeguati per analizzare i dati raccolti e gestirli in modo da generare informazioni utili. Alcuni esempi di servizi intelligenti sono le app che permettono di raggiungere una destinazione attraverso il percorso più breve oppure di trovare il parcheggio libero più vicino, o le app che suggeriscono i percorsi migliori per una passeggiata in base alla qualità dell'aria. Questa tesi si concentra su due aspetti delle smart city: sostenibilità e sicurezza. Il primo aspetto riguarda lo studio dell'impatto del traffico sulla qualità dell'aria attraverso lo sviluppo di una rete di sensori di traffico e qualità dell'aria e l'implementazione di una catena di modelli di simulazione. Questo lavoro fa parte del progetto TRAFAIR, cofinanziato dall'Unione Europea, il primo progetto che monitora la qualità dell'aria in tempo reale e fa previsioni su scala urbana in 6 città europee, tra cui Modena. Il progetto ha richiesto la gestione di una grande quantità di dati eterogenei e la loro integrazione su una piattaforma dati complessa e scalabile condivisa da tutti i partner del progetto. La piattaforma è un database PostgreSQL, adatto a gestire dati spazio-temporali, che contiene più di 60 tabelle e 435 GB di dati (solo per Modena). Tutti i processi della pipeline di TRAFAIR, le dashboard e le app sfruttano il database per ottenere i dati di input ed eventualmente memorizzare l'output. I modelli di simulazione, eseguiti su risorse di HPC, utilizzano i dati dei sensori e devono fornire risultati in tempo reale. Pertanto le tecniche di identificazione delle anomalie applicate ai dati dei sensori devono eseguire in tempo reale e in breve tempo. Dopo un attento studio della distribuzione dei dati dei sensori e della correlazione tra le misure, sono state implementate e applicate alcune tecniche di identificazione delle anomalie. Per i dati di traffico è stato sviluppato un nuovo approccio che utilizza un filtro di correlazione flusso-velocità, la decomposizione STL e l'analisi IQR. Per i dati di qualità dell'aria è stato creato un framework innovativo che implementa 3 algoritmi. I risultati degli esperimenti sono stati confrontati con quelli dell'Autoencoder LSTM. L'aspetto relativo alla sicurezza nella città intelligente è legato a un progetto di analisi dei crimini, i processi analitici volti a fornire informazioni tempestive e pertinenti per aiutare la polizia nella riduzione, prevenzione e valutazione del crimine. A causa della mancanza di dati ufficiali, questo progetto sfrutta le notizie pubblicate sui giornali online. L'obiettivo è quello di classificare le notizie in base alla categoria di crimine, geolocalizzare i crimini, identificare la data dell'evento, e individuare alcune caratteristiche. È stata sviluppata un'applicazione per l'analisi delle notizie, l'estrazione di informazioni semantiche attraverso l'uso di tecniche di NLP e la connessione delle entità a risorse Linked Data. La tecnologia dei Word Embedding è stata utilizzata per la categorizzazione del testo, mentre il Question Answering tramite BERT è stato utilizzato per estrarre le 5W+1H. Le notizie che si riferiscono allo stesso evento sono state identificate attraverso la cosine similarity sul testo delle notizie. Infine, è stata implementata un'interfaccia per mostrare su mappa i crimini geolocalizzati e fornire statistiche e rapporti annuali. Questo è l'unico progetto presente in Italia che partendo da notizie online cerca di fornire un'analisi sui crimini e la mette a disposizione attraverso uno strumento di visualizzazione.
A smart city is a place where technology is exploited to help public administrations make decisions. The technology can contribute to the management of multiple aspects of everyday life, offering more reliable services to citizens and improving the quality of life. However, technology alone is not enough to make a smart city; suitable methods are needed to analyze the data collected by technology and manage them in such a way as to generate useful information. Some examples of smart services are the apps that allow to reach a destination through the least busy road route or to find the nearest parking slot, or the apps that suggest better paths for a walk based on air quality. This thesis focuses on two aspects of smart cities: sustainability and safety. The first aspect concerns studying the impact of vehicular traffic on air quality through the development of a network of traffic and air quality sensors, and the implementation of a chain of simulation models. This work is part of the TRAFAIR project, co-financed by the European Union, which is the first project with the scope of monitoring in real-time and predicting air quality on an urban scale in 6 European cities, including Modena. The project required the management of a large amount of heterogeneous data and their integration on a complex and scalable data platform shared by all the partners of the project. The data platform is a PostgreSQL database, suitable for dealing with spatio-temporal data, and contains more than 60 tables and 435 GB of data (only for Modena). All the processes of the TRAFAIR pipeline, the dashboards and the mobile apps exploit the database to get the input data and, eventually, store the output, generating big data streams. The simulation models, executed on HPC resources, use the sensor data and provide results in real-time (as soon as the sensor data are stored in the database). Therefore, the anomaly detection techniques applied to sensor data need to perform in real-time in a short time. After a careful study of the distribution of the sensor data and the correlation among the measurements, several anomaly detection techniques have been implemented and applied to sensor data. A novel approach for traffic data that employs a flow-speed correlation filter, STL decomposition and IQR analysis has been developed. In addition, an innovative framework that implements 3 algorithms for anomaly detection in air quality sensor data has been created. The results of the experiments have been compared to the ones of the LSTM autoencoder, and the performances have been evaluated after the calibration process. The safety aspect in the smart city is related to a crime analysis project, the analytical processes directed at providing timely and pertinent information to assist the police in crime reduction, prevention, and evaluation. Due to the lack of official data to produce the analysis, this project exploits the news articles published in online newspapers. The goal is to categorize the news articles based on the crime category, geolocate the crime events, detect the date of the event, and identify some features (e.g. what has been stolen during the theft). A Java application has been developed for the analysis of news articles, the extraction of semantic information through the use of NLP techniques, and the connection of entities to Linked Data. The emerging technology of Word Embeddings has been employed for the text categorization, while the Question Answering through BERT has been used for extracting the 5W+1H. The news articles referring to the same event have been identified through the application of cosine similarity to the shingles of the news articles' text. Finally, a tool has been developed to show the geolocalized events and provide some statistics and annual reports. This is the only project in Italy that starting from news articles tries to provide analyses on crimes and makes them available through a visualization tool.
APA, Harvard, Vancouver, ISO, and other styles
6

AMIRI, AMIR MOHAMMAD. "An intelligent diagnostic system for screening newborns." Doctoral thesis, Università degli Studi di Cagliari, 2015. http://hdl.handle.net/11584/266593.

Full text
Abstract:
The goal of this research is to devise and develop an intelligent system for analyzing heart sound signals, able to support physicians in the diagnosis of heart diseases in newborns. Many studies have been conducted in recent years to automatically differentiate normal heart sounds from heart sounds with pathological murmurs using audio signal processing in newborns. Serious cardia pathology may exist without symp- toms. Since heart murmurs are the first signs of heart disease, we screen newborns for normal (innocent) and pathological murmurs. This thesis presents a variety of techniques in time-frequency domain such as Cepstrum, Shannon energy, Bispe trum, and Wigner Bispe trum for feature extraction. A comparison of these techniques is considered to feature selection which has been used to reduce the size of the feature vector. In the final step, different lassi ers and techniques, e.g., Multi layer perc eptron (MLP), decision tree, Classification and Regression Trees (CART) and ensemble of decision trees, are applied on data in order to a hieve highest performan e. High classifi cation accuracy, sensitivity, and specifity have been obtained on the given data by CART. The validation process has been performed on a balanced dataset of 116 heart sound signals taken from healthy and unhealthy medical cases.
APA, Harvard, Vancouver, ISO, and other styles
7

PARMIGGIANI, Nicolò. "Metodi per l’analisi e la gestione dei dati dell’astrofisica gamma in tempo reale." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239980.

Full text
Abstract:
Il contesto delle attività svolte per il Ph.D. sono l’analisi e la gestione dei dati per l’astronomia dei raggi gamma, la quale coinvolge l’osservazione dei raggi gamma, la forma più energetica di radiazione elettromagnetica. Dalle osservazioni dei raggi gamma effettuate con telescopi o satelliti, è possibile studiare eventi catastrofici generati da oggetti compatti come nane bianche, stelle di neutroni e buchi neri. Questi eventi sono chiamati transienti di raggi gamma. Per comprendere questi fenomeni, essi devono essere osservati durante la loro evoluzione. Per questa ragione, la velocità è cruciale e vengono sviluppate pipeline automatiche di analisi dei dati per identificare questi transienti e generare allerte scientifiche. L’allerta scientifica è una comunicazione immediata da un osservatorio ad altri osservatori per segnalare che un evento astrofisico interessante sta avvenendo nel cielo. La comunità astrofisica si trova in una nuova era chiamata “multi-messenger astronomy”, nella quale le sorgenti astronomiche sono osservate con strumenti che raccolgono diversi segnali: onde gravitazionali, radiazioni elettromagnetiche e neutrini. In questa multi-messenger era, i progetti astrofisici condividono le loro allerte scientifiche tramite reti di comunicazione. Il coordinamento di diversi progetti tramite le allerte scientifiche è fondamentale per capire la natura di questi fenomeni fisici. Gli osservatori devono gestire queste allerte scientifiche sviluppando software dedicato. Durante il corso del Ph.D. l’attività di ricerca è stata focalizzata sulla missione spaziale AGILE, attualmente in operazione, e sull’osservatorio Cherenkov Telescope Array, in fase di costruzione. Il follow-up di allerte scientifiche esterne ricevute dagli strumenti che identificano Gamma-Ray Bursts (GRB) e Gravitational Waves (GW) è una delle maggiori attività del Team di AGILE. Le generazioni future degli osservatori di raggi gamma come CTA o ASTRI Mini-Array possono trarre vantaggio dalle tecnologie sviluppate per AGILE. Questa ricerca ha l’obiettivo di sviluppare software per l’analisi e la gestione dei dati gamma. Il primo capitolo della tesi descrive la piattaforma web utilizzata dai ricercatori AGILE per preparare il secondo catalogo di sorgenti gamma di AGILE. Le analisi realizzate per questo catalogo sono memorizzate in un database dedicato e la piattaforma web interroga il database. Questo è stato il lavoro preparatorio per capire come gestire i risultati delle analisi di sorgenti gamma (detection e curve di luce) per la fase successiva: lo sviluppo di una pipeline scientifica per gestire in tempo reale le detection e le allerte scientifiche. Nel secondo capitolo viene presentato un framework progettato per facilitare lo sviluppo di pipeline per l’analisi scientifica in tempo reale. Il framework offre un’architettura comune e automatismi che possono essere utilizzati dagli osservatori per sviluppare le loro pipeline. Questo framework è stato usato per sviluppare le pipeline della missione spaziale AGILE e per sviluppare un prototipo per la Science Alert Generation (SAG) dell’osservatorio CTA. Il terzo capitolo descrive un nuovo metodo per identificare i GRB nei dati dello strumento AGILE-GRID utilizzando le Convolutional Neural Network. Con questa tecnologia Deep Learning è possibile migliorare la capacità di detection di AGILE. Questo metodo è anche stato inserito come tool scientifico all’interno della pipeline AGILE. L’ultimo capitolo mostra i risultati scientifici ottenuti con il software sviluppato durante le attività di ricerca del Ph.D. Parte dei risultati sono stati pubblicati su riviste scientifiche. La restante parte è stata inviata alla comunità scientifica tramite The Astronomer’s Telegram o il Gamma-ray Coordination Network.
The context of this Ph.D. is the data analysis and management for gamma-ray astronomy, which involves the observation of gamma-rays, the most energetic form of electromagnetic radiation. From the gamma-ray observations performed by telescopes or satellites, it is possible to study catastrophic events involving compact objects, such as white dwarves, neutron stars, and black holes. These events are called gamma-ray transients. To understand these phenomena, they must be observed during their evolution. For this reason, the speed is crucial, and automated data analysis pipelines are developed to detect gamma-ray transients and generate science alerts during the astrophysical observations or immediately after. A science alert is an immediate communication from one observatory to other observatories that an interesting astrophysical event is occurring in the sky. The astrophysical community is experiencing a new era called "multi-messenger astronomy", where the astronomical sources are observed by different instruments, collecting different signals: gravitational waves, electromagnetic radiation, and neutrinos. In the multi-messenger era, astrophysical projects share science alerts through different communication networks. The coordination of different projects done by sharing science alerts is mandatory to understand the nature of these physical phenomena. Observatories have to manage the follow-up of these external science alerts by developing dedicated software. During this Ph. D., the research activity had the main focus on the AGILE space mission, currently in operation, and on the Cherenkov Telescope Array Observatory (CTA), currently in the construction phase. The follow-up of external science alerts received from Gamma-Ray Bursts (GRB) and Gravitational Waves (GW) detectors is one of the AGILE Team's current major activities. Future generations of gamma-ray observatories like the CTA or the ASTRI Mini-Array can take advantage of the technologies developed for AGILE. This research aims to develop analysis and management software for gamma-ray data to fulfill the context requirements. The first chapter of this thesis describes the web platform used by AGILE researchers to prepare the Second AGILE Catalog of Gamma-ray sources. The analysis performed for this catalog is stored in a dedicated database, and the web platform queries this database. This was preparatory work to understand how to manage detections of gamma-ray sources and light curve for the subsequent phase: the development of a scientific pipeline to manage gamma-ray detection and science alerts in real-time. The second chapter presents a framework designed to facilitate the development of real-time scientific analysis pipelines. The framework provides a common pipeline architecture and automatisms that can be used by observatories to develop their own pipelines. This framework was used to develop the pipelines for the AGILE space mission and to develop a prototype of the scientific pipeline of the Science Alert Generation system of the CTA Observatory. The third chapter describes a new method to detect GRBs in the AGILE-GRID data using the Convolutional Neural Network. With this Deep Learning technology, it is possible to improve the detection capabilities of AGILE. This method was also integrated as a science tool in the AGILE pipelines. The last chapter of the thesis shows the scientific results obtained with the software developed during the Ph.D. research activities. Part of the results was published in refereed journals. The remaining part was sent to the scientific community through The Astronomer's Telegram or the Gamma-ray Coordination Network.
APA, Harvard, Vancouver, ISO, and other styles
8

PANTINI, SARA. "Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Full text
Abstract:
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
APA, Harvard, Vancouver, ISO, and other styles
9

Coppola, Fabrizio. "Le unità di controllo del supercalcolatore A.P.E." Thesis, 1987. http://eprints.bice.rm.cnr.it/3855/1/Coppola-Tesi-Fisica-Pisa-1987.pdf.

Full text
Abstract:
Secondo il modello standard, i protoni, neutroni e gli altri adroni sono costituiti da quark di diversi "sapori" e "colori" e legati dai gluoni, portatori della forza nucleare forte. La teoria che descrive le interazioni forti all'interno degli adroni è la "Cromodinamica Quantistica" (Quantum Chromo Dynamics, QCD) così chiamato dal numero quantico detto "colore" (che è un nome arbitrario che in realtà non ha relazione coi colori dell'ottica classica). I calcoli richiesti dalla QCD in regime non perturbativo sono molto complicati e non possono essere risolti analiticamente, per cui negli anni '80 alcuni gruppi di fisici hanno iniziato a progettare, costruire e programmare dei supercomputer dedicati a calcoli di teorie di gauge (compresa la QCD) su reticolo (cioè su un numero discreto di punti). Tra questi emerge il supercalcolatore APE (Array Processor Experiment) costruito dall'INFN a partire dal 1986. Questa tesi esamina le efficienze delle unità di controllo di APE operative nel 1987, proponendo un loro miglioramento ed ampliamento che successivamente porterà al progetto APE100, che nel 1991 diventerà il calcolatore più potente al mondo (in assoluto e non solo tra quelli dedicati a questo tipo di calcoli), fornendo per le masse degli adroni dei risultati sufficientemente validi e compatibili con la teoria.
APA, Harvard, Vancouver, ISO, and other styles
10

FERRI, ALESSANDRO. "Progettazione e analisi di EHR territoriali ed eterogenei per analisi socio-sanitarie." Doctoral thesis, 2021. http://hdl.handle.net/11566/291125.

Full text
Abstract:
È ormai opinione consolidata che lo stile di vita comporta risvolti e conseguenze sullo stato di salute generale di una persona. Tuttavia, meno consolidato e dimostrato è l'assunto che oltre ad uno stile di vita, rappresentato principalmente da alimentazione ed attività fisica, incidono anche variabili che si riferiscono all’ambito socio-economico. L’istruzione, la disoccupazione, il reddito, le disparità, la povertà, la criminalità, la situazione abitativa e l’intesa sociale ad esempio sono tutti elementi che possono influire sulla salute. Da questo punto di vista può risultare significativo esplorare variabili e relazioni statistiche tra lo stile di vita, il benessere e la qualità di vita della persona, fattori economici, sociali e di salute. Lo scopo è, attraverso l’applicazione di algoritmi statistici e di Machine Learning (ML), ricercare pattern, relazioni, correlazioni, causalità tra le differenti variabili socio-economiche. Nello stato dell’arte corrente algoritmi di ML permettono di identificare nuovi segnali predittivi dell’insorgenza di alcune malattie o di individuare correlazioni non ancora note fra i risultati di diversi esami clinici comunemente prescritti, patologie e farmaci somministrati. Una medicina predittiva e preventiva abilita anche ad una personalizzazione terapeutica e comportamentale. Una presa di coscienza del paziente può renderlo partecipe e consapevole nella facoltà di poter modificare la sua condotta di vita in una fase anticipatoria, o nelle fasi iniziali di malattia di condividere il processo di cura con il medico che lo assiste. L’analisi proposta deve essere effettuata, seppur in maniera sperimentale, prototipale e circostanziata, allo stato attuale del contesto sanitario italiano, delle tecnologie, delle organizzazioni e delle normative esistenti sul trattamento dei dati. Il progetto descritto da questa tesi è quello di realizzare un prototipo di sistema che permetta di predirre i fattori di rischio per la salute andando a ricercare causalità e correlazioni tra le differenti condizioni psico-fisiche e la situazione socio-economico individuale. Il raggiungimento di questo obbiettivo dipende dalla realizzazione di alcuni punti essenziali: • individuazione di una sorgente dati clinico-medica di partenza (Electronic Health Record); • organizzazione e persone; • metodi e strumenti tecnologici per la raccolta dei dati socio-economici; • pre-elaborazione e allineamento dati clinici e socio-economici; • costruzione dataset clinico e socio economico; • analisi statistica ed approcci di ML per ricercare causalità e correlazioni tra le differenti condizioni psico-fisiche e la situazione socio-economico individuale. Come primo step, la tesi mira a cogliere le difficoltà e problematiche per collezionare un dataset clinico e socio-economico. I risultati preliminari, dell’analisi statistica ed approcci di ML su questo dataset eterogeneo, possono gettare le basi allo sviluppo di un sistema clinico di supporto alle decisioni che ha come obiettivo quello di erogare una medicina preventiva. I contributi di questo lavoro rispetto allo stato dell’arte sono: • Realizzazione di un dataset intersezione di ambiti, in particolare medico-socio economico, su cui effettuare studi longitudinali. Il dataset è stato costruito estrapolando le informazioni degli EHR di medicina generale dei medici di famiglia, unite a variabili sociali, ispirate e riconducibili agli indici per il Benessere Equo e Sostenibile (BES) definiti dall'ISTAT; • Analisi statistica su variabili cliniche e socio economiche (tra lo stile di vita, il benessere e la qualità di vita della persona e fattori economici, sociali e di salute) per individuare correlazioni tra le differenti condizioni psico-fisiche e la situazione socio-economico individuale; • Stima preliminare di un sub-indice di età biologica con un modello di ML. I pre-dittori vengono ricavati dagli indicatori sullo stile di vita e dalle caratteristichecliniche dei pazienti estratte dall’EHR proposto. L'analisi ed il confronto simultaneo delle correlazioni applicato al dataset di relazione realizzato, evidenzia, per alcune variabili socio-economiche, una significativa correlazione con le variabili di tipo cliniche. I coefficienti risultano particolarmente elevati se calcolati per fasce di età, oltre i 50 anni e soprattutto nel cluster 50-60 anni. La Retta per circolo sportivo e la Soddisfazione economica hanno un’alta correlazione inversa (negativa) con la prescrizione dei farmaci: un alto numero di farmaci prescritti è correlato con l’assenza della retta per il circolo sportivo e una bassa soddisfazione economica. Più esiti di esami diagnostici prescritti corrispondono ad una bassa fiducia generalizzata nelle persone.
It is now a matter of fact that lifestyle has implications and consequences on a person's general health. However, less consolidated and proven is the assumption that in addition to a lifestyle, mainly represented by nutrition and physical activity, variables that refer to the socio-economic area also affect. Education, unemployment, income, inequalities, poverty, crime, housing and social understanding, for example, are all elements that can have health affect. From this point of view, it can be significant to explore variables and statistical relationships between a person's lifestyle, well-being and quality of life, economic, social and health factors. The purpose is, through the application of statistical algorithms and Machine Learning (ML), to search for patterns, relationships, correlations, causality between the different socio-economic variables. In the current state of the art, ML algorithms allow to identify new predictive signals of the onset of certain diseases or to identify correlations not yet known between the results of various commonly prescribed clinical tests, pathologies and drugs administered. A predictive and preventive medicine also enables a therapeutic and behavioral personalization. Awareness of the patient can make him participate and aware in the faculty of being able to change his life conduct in an anticipatory phase, or in the initial stages of illness, to share the treatment process with the doctor who assists him. The proposed analysis must be carried out, albeit in an experimental, prototype and detailed manner, in the current state of the Italian healthcare context, technologies, organizations and existing regulations on data processing. The project described by this thesis is to create a prototype of a system that allows to predict the risk factors for health by searching for causality and correlations between the different psycho-physical conditions and the individual socio-economic situation. The achievement of this goal depends on the realization of some essential points: • identification of a starting clinical-medically data source (Electronic Health Record); • organization and people; • methods and technological tools for the collection of socio-economic data; • pre-processing and alignment of clinical and socio-economic data; • construction of a clinical and socio-economic dataset; • statistical analysis and ML approaches to search for causality and correlations between the different psycho-physical conditions and the individual socio-economic situation. As a first step, the thesis aims to grasp the difficulties and problems to collect a clinical and socio-economic dataset. The preliminary results, from the statistical analysis and ML approaches on this heterogeneous dataset, can lay the foundations for the development of a clinical decision support system that aims to provide preventive medicine. The contributions of this work to the state of the art are: • Creation of an intersection dataset of areas, in particular medical-socio-economic, on which to carry out longitudinal studies. The dataset was constructed by extrapolating the information from the general medicine EHRs of family doctors, combined with social variables, inspired by and attributable to the indices for Fair and Sustainable Wellbeing (BES) defined by ISTAT; • Statistical analysis on clinical and socio-economic variables (between the lifestyle, well-being and quality of life of the person and economic, social and health factors) to identify correlations between the different psycho-physical conditions and the socio-economic situation individual; • Preliminary estimate of a biological age sub-index with an ML model. The predictors are derived from lifestyle indicators and patient clinical characteristics extracted from the proposed EHR. The simultaneous analysis and comparison of the correlations applied to the relationship dataset produced shows, for some socio-economic variables, a significant correlation with the clinical variables. The coefficients are particularly high if calculated for age groups, over 50 years and especially in the 50-60 cluster age. The attend at a sport club and economic satisfaction have a high inverse (negative) correlation with the prescription of drugs: a high number of drugs prescribed is correlated with the non attend to a sport club and low economic satisfaction. More outcomes and prescribed diagnostic tests correspond to a generalized low trust toward people.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Analisi e progettazione dei sistemi di elaborazione"

1

Magnaghi, Alberto, ed. La regola e il progetto. Florence: Firenze University Press, 2014. http://dx.doi.org/10.36253/978-88-6655-624-4.

Full text
Abstract:
Il territorio, conteso tra mille interessi conflittuali, ha sempre più bisogno di una progettazione unitaria in quanto bene comune, alla scala in cui si abita, si lavora, si consuma: una scala che comprende luoghi urbani, reti di città, fiumi, valli, zone agricole, entroterra costieri. Rispetto al progetto architettonico e urbano, il progetto di territorio ha regole disciplinari molto più episodiche e settoriali. Esito toscano di una ricerca nazionale sul “progetto di territorio”, questo volume propone il concetto di bioregione urbana come metodologia atta ad integrare analisi e progetti su: i prerequisiti ambientali dell'insediamento, la riconfigurazione di sinergie fra città e campagna, il riequilibrio policentrico dei sistemi urbani, i sistemi economici ed energetici a base locale, le forme di autogoverno per uno sviluppo locale autosostenibile a partire dalle regole per la messa in valore dei beni patrimoniali del territorio.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography