Дисертації з теми "Gestione intelligente dei dati"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Gestione intelligente dei dati.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Gestione intelligente dei dati".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Pisanò, Lorenzo. "IoT e Smart Irrigation: gestione dei Big Data attraverso un sistema di notifica intelligente." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23531/.

Повний текст джерела
Анотація:
Con questo lavoro di tesi ho potuto approfondire anche un altro tema di grande attualità collegato ad IoT, la 'Smart Irrigation', conosciuta anche come 'Irrigazione di precisione'. Considerando la necessità sempre più evidente di migliorare la gestione della distribuzione irrigua ed energetica nel campo dell'agricoltura e, tenendo presente le indicazione meteoclimatiche e, l'importanza di avere informazioni tempestive ed aggiornate per migliorare le attività in campo, la Smart Irrigation assume un ruolo rilevante nel risparmio idrico ed energentico, evitando sprechi ed usi impropri di queste preziose risorse. Il software che ho realizzato è stato sviluppato nell'ambito di un programma europeo più vasto, il progetto SWAMP (Smart WAter Management Platform), che ha come obiettivo quello di determinare una svolta decisiva nell'utilizzo moderato e privo di sprechi dell' acqua dolce ad uso irriguo, proponendo un sistema efficiente per la gestione della distribuzione di questo bene in vari contesti. L'area di competenza del progetto fa parte di quella amministrata dal Consorzio di Boni�ca dell'Emilia Centrale (CBEC), responsabile delle irrigazioni e del drenaggio d'acqua di un'area di 1200 km2 suddivisi in circa 5400 terreni proprietari. Il software di seguito descritto genera un sistema di acquisizione dati provenienti da alcuni pluviometri dislocati nel comune di Bologna. Successivamente, li elabora e classi�fica la quantità di pioggia che cade nell'area di studio in 5 differenti livelli di rischio. Queste informazioni vengono poi noti�cate all'utente attraverso la piattaforma WDA, permettendo di ovviare ad eventi di inondazione e alluvione anche nelle aree adiacenti a quelle classi�cate 'a rischio'.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Cavallin, Riccardo. "Approccio blockchain per la gestione dei dati personali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21604/.

Повний текст джерела
Анотація:
L'elaborato presenta la tecnologia blockchain nelle sue funzionalità e nei suoi limiti. In particolare sono presentate le piattaforme Ethereum, RadixDLT e IOTA. Vengono discusse le implicazioni del regolamento GDPR nei confronti di questa tecnologia per la costruzione di Data Marketplace basato su Ethereum. Dopo aver presentato l'architettura di un marketplace si analizzano le prestazioni di diversi servizi di storage online per l'archiviazione di dati personali.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

BERTOCCHI, DARIO. "Analisi dei dati per la gestione della destinazione turistica." Doctoral thesis, Università IUAV di Venezia, 2017. http://hdl.handle.net/11578/278745.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

UGLIOTTI, FRANCESCA MARIA. "BIM and Facility Management for smart data management and visualization." Doctoral thesis, Politecnico di Torino, 2017. http://hdl.handle.net/11583/2696432.

Повний текст джерела
Анотація:
Il BIM è per tutti gli edifici. Riconosciuta tra le disruptive technologies, la metodologia BIM cambia completamente il modo tradizionale di lavorare dell’industria delle costruzioni, a partire dalla fase di progettazione. In questo scenario, la sfida più interessante è quella di stabilire un framework, che riunisca metodi e strumenti per il ciclo di vita degli edifici, per la gestione del costruito. Il paradigma di Smart city si declina anche nella disponibilità di smart data, includendo, quindi, l’utilizzo intelligente delle informazioni riguardanti il patrimonio immobiliare. Il coinvolgimento proattivo del Facility Management nel processo edilizio è la chiave per garantire la disponibilità di un dataset appropriato di informazioni, supportando l’idea di un sistema di gestione della conoscenza basato sul BIM. In linea con questo approccio, un processo di management impostato a partire dal BIM è conseguibile attraverso una re-ingegnerizzazione complessiva della filiera atta a garantire l’efficacia del BIM ed a fornire servizi intelligenti di Facility 4.0.
BIM is for all buildings. As a disruptive technology, BIM completely changes the traditional way of working of the Construction Industry, starting from the design stage. However, the challenging issue is to establish a framework that brings together methods and tools for the buildings lifecycle, focusing on the existing buildings management. Smart city means smart data, including, therefore, intelligent use of Real Estate information. Involving Facility Management in the process is the key to ensure the availability of the proper dataset of information, supporting the idea of a BIM-based knowledge management system. According to this approach, BIM Management is achievable applying a reverse engineering process to guarantee the BIM effectiveness and to provide Facility 4.0 smart services.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Restuccia, Martina <1992&gt. "Le app e la politica di protezioni dei dati. Analisi della percezione degli utenti in merito alla protezione dei dati." Master's Degree Thesis, Università Ca' Foscari Venezia, 2021. http://hdl.handle.net/10579/18515.

Повний текст джерела
Анотація:
• Quale problema affronto? Il concetto di privacy non è nuovo, tuttavia, come lo intendiamo attualmente. In passato, potevamo definire i limiti della privacy nel tempo e nello spazio poiché le nostre informazioni e attività rimanevano protette nel nostro ambiente più vicino. Con l'avanzamento delle tecnologie, vi sono state grandi trasformazioni nel settore della comunicazione, che hanno prodotto una ridefinizione del modo in cui dovevamo relazionarci e comprendere i nostri legami. Il riconoscimento massivo delle informazioni, insieme alla rivoluzione che ha prodotto l'ingresso di Internet nella nostra vita quotidiana, ha portato ad una più accentuata difesa dei diritti alla privacy; le aziende, infatti, richiedono non solo dati personali come età, sesso, stato civile ... ma anche informazioni riferite alla nostra personalità e stile di vita, quindi ci rivolgono varie domande al fine di pervenire a tali notizie. Per poter utilizzare determinati servizi online o App vengono sempre richieste notizie e dati la cui diffusione preoccupano gli utenti i quali hanno maggiore consapevolezza della necessita di controllare e difendere la privacy. • Sulla base di quale letteratura? Piú che letteratura, il mio è una ricerca sul campo, sulla base principalmente dell’esperienza personale, poiché utilizzo nella mia attivita lavorativa un’applicazione posta di una societá operante nel settore farmaceutico e diretta ai consumatori, per il cui accesso vengono richiesti dati personali e relativi alla salute. • Come voglio indagarlo? Le domande generali da risolvere con questa analisi sono: o Qual è il grado di importanza che gli utenti delle app danno alle loro informazioni o private? o Come è equiparato il loro livello di preoccupazione per la privacy con l’attivitá reale nelle reti? o I consumatori si sentono a disagio all'idea di dover rilasciare le proprie informazioni personali nelle app e si preoccupano che questi vengano utilizzati per altri scopi senza preavviso o addirittura condividerli con altri soggetti senza un preavviso? o Nonostante la richiesta di dati strettamente personali gli utenti continuano facilitare la questi per utilizzare le App?
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Mazziol, Antonella <1965&gt. "La interoperabilità nella gestione dei dati della Pubblica Amministrazione: il caso dei Comuni italiani." Master's Degree Thesis, Università Ca' Foscari Venezia, 2017. http://hdl.handle.net/10579/9401.

Повний текст джерела
Анотація:
In questa tesi si analizza il catalogo delle basi di dati della pubblica amministrazione osservando in particolare i dati caricati dai Comuni italiani, per coglierne alcuni dati statistici. Si studiano inoltre alcune strutture di database realmente utilizzate in un Comune, derivandone delle ontologie, e si descrivono sia alcune tecniche per derivare ontologie da un database relazionale, sia il possibile uso delle strutture semantiche ottenute in questo modo ai fini della realizzazione della interoperabilità dei dati e degli applicativi prevista dalla Agenda Digitale italiana ed europea. In particolare, dal momento che l'alignment di ontologie nel senso di identificare le relazioni tra singoli elementi di ontologie differenti è una precondizione necessaria per realizzare la interoperabilità tra agenti o servizi che utilizzano ontologie diverse, si realizza, con strumenti free, un esempio di alignment tra ontologie diverse riferite allo stesso dominio e derivate da database in uso in Comuni diversi, e se ne esplorano le possibilità.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Basso, Andrea <1991&gt. "La gestione informatica dei dati personali nei servizi di sharing economy." Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/17907.

Повний текст джерела
Анотація:
La sharing economy risulta aver preso sempre più visibilità ed importanza negli ultimi anni, in maniera particolare dall’inizio della crisi mondiale del 2008. Tale fenomeno si è affacciato come un modello economico alternativo a quelli classici, favorendo il passaggio da un’economia di consumo ad un’economia di accesso al fine di ridurre gli sprechi, offrire più servizi ed aiutare la salvaguardia ambientale. In questo contesto si sono affacciate anche le varie amministrazioni pubbliche, le quali hanno iniziato ad investire in maniera esponenziale in progetti di sharing divenendo così sempre più smart city. Il seguente elaborato ha lo scopo di illustrare il fenomeno, con uno sguardo particolare alla PA, per analizzare la gestione informatica dei dati personali dei cittadini che usufruiscono di tali servizi. A tal scopo verranno presi in esame alcuni esempi rappresentanti più tipologie di servizi presenti in diverse realtà, al fine di svolgere un’analisi comparativa in chiave di privacy dei dati personali. Per far ciò sarà necessario studiare i vari regolamenti e le normative vigenti riguardante tale materia, come ad esempio il GDPR in vigore in Europa da maggio 2018. Nell’ultimo capitolo verrà poi presentato come caso studio un servizio di car sharing presente a Milano, città più smart d’Italia, il quale verrà analizzato in maniera più approfondita e dettagliata.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Zaccherini, Giovanni. "Innovazione e digitalizzazione a supporto dei processi di gestione dei trasporti. Il caso UNILOG." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Знайти повний текст джерела
Анотація:
La presente Tesi è stata sviluppata con scopo ultimo di ottimizzare le fasi di lavoro dell’azienda Unilog Group o eventualmente per implementarne di nuove. Nello specifico il focus è stato posto sulla digitalizzazione del core task aziendale ovvero la programmazione dei viaggi della flotta di spedizione merce e parallelamente sulla rilevazione ed ottimizzazione delle volumetrie della merce, sia in transito, sia in conto deposito. Per focalizzare i temi, sono stati in primo luogo approfonditi i servizi e le modalità di lavoro attuali adottate da Unilog e più in generale dallo stato dell’arte del settore distributivo per GDO. Successivamente sono state approfondite le soluzioni proposte di ottimizzazione dei processi.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Manzone, Francesca. "Analisi dei dati della gestione dei rifiuti urbani di alcuni Comuni campione della Regione Emilia Romagna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Знайти повний текст джерела
Анотація:
Questo elaborato nasce con l’obiettivo di trovare quali indicatori sono maggiormente indicativi delle reali performance ambientali ed economiche nella gestione dei rifiuti urbani al fine di studiare la situazione attuale e le cause che maggiormente influenzano la qualità della gestione del servizio. Il lavoro di analisi dei dati è stato diviso in quattro fasi principali. Inizialmente sono stati raccolti dati pubblici relativi ai vari Comuni della Provincia di Bologna per la successiva creazione di indicatori complessi, indispensabili sia per il confronto dei dati stessi, che delle varie categorie e delle classi create in seguito. Infine lo sviluppo dei grafici ha permesso di mettere in relazione i vari elementi in modo da fornire una chiara rappresentazione di come questi possano influire sui costi e sulle tematiche ambientali.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Leoni, Anna Giulia. "Gestione di un data lake strutturato attraverso il riconoscimento semantico dei dati acquisiti." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18048/.

Повний текст джерела
Анотація:
Negli ultimi anni si è assistito ad un incremento smisurato nella generazione di dati che ha dato vita al fenomeno dei Big Data. Le caratteristiche attribuite a questi dati hanno evidenziato la necessità di riorganizzare i processi aziendali e di sviluppare nuove soluzioni che permettessero di cogliere le opportunità dei Big Data e di controllare la complessità derivante dalla loro gestione. Per rispondere a quest'esigenza ci si è rivolti all'utilizzo di framework basati su architetture parallele ma, senza definire un'organizzazione interna al Data Lake (repository in cui i dati vengono memorizzati) ed adeguate politiche di governance, abilitate da una solida base di metadati, c'è il rischio che il valore dei dati vada perdendosi e che i dati diventino difficilmente reperibili all'interno del repository. Il prototipo di tesi è basato su un caso di studio aziendale ed è volto a predisporre i sistemi aziendali ad una corretta gestione futura dei Big Data. Il suo obiettivo è sviluppare un approccio estendibile e parametrizzabile che permetta di indicizzare, nella maniera più automatica possibile, i singoli file presenti nel Data Lake sulla base del loro tipo di evento tramite l'estrazione di metadati strutturali, di processo e semantici, che consentano e facilitino il recupero dei file quando rilevanti rispetto a determinate interrogazioni. I file che il caso di studio prende in esame sono file XML che fanno riferimento ad eventi generati in ambito sanitario. Per portare a termine quest'obiettivo viene definita un'architettura per Data Lake ed un modello per l'archiviazione di metadati, realizzato come ontologia. Le funzionalità del prototipo, come tarare i parametri del processo di estrazione e visualizzare i risultati, sono disponibili tramite un'interfaccia web.
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Lava, Gianluca <1988&gt. "Il controllo di gestione e l’analisi dei dati economici nel contesto delle PMI." Master's Degree Thesis, Università Ca' Foscari Venezia, 2013. http://hdl.handle.net/10579/3441.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

PARMIGGIANI, Nicolò. "Metodi per l’analisi e la gestione dei dati dell’astrofisica gamma in tempo reale." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239980.

Повний текст джерела
Анотація:
Il contesto delle attività svolte per il Ph.D. sono l’analisi e la gestione dei dati per l’astronomia dei raggi gamma, la quale coinvolge l’osservazione dei raggi gamma, la forma più energetica di radiazione elettromagnetica. Dalle osservazioni dei raggi gamma effettuate con telescopi o satelliti, è possibile studiare eventi catastrofici generati da oggetti compatti come nane bianche, stelle di neutroni e buchi neri. Questi eventi sono chiamati transienti di raggi gamma. Per comprendere questi fenomeni, essi devono essere osservati durante la loro evoluzione. Per questa ragione, la velocità è cruciale e vengono sviluppate pipeline automatiche di analisi dei dati per identificare questi transienti e generare allerte scientifiche. L’allerta scientifica è una comunicazione immediata da un osservatorio ad altri osservatori per segnalare che un evento astrofisico interessante sta avvenendo nel cielo. La comunità astrofisica si trova in una nuova era chiamata “multi-messenger astronomy”, nella quale le sorgenti astronomiche sono osservate con strumenti che raccolgono diversi segnali: onde gravitazionali, radiazioni elettromagnetiche e neutrini. In questa multi-messenger era, i progetti astrofisici condividono le loro allerte scientifiche tramite reti di comunicazione. Il coordinamento di diversi progetti tramite le allerte scientifiche è fondamentale per capire la natura di questi fenomeni fisici. Gli osservatori devono gestire queste allerte scientifiche sviluppando software dedicato. Durante il corso del Ph.D. l’attività di ricerca è stata focalizzata sulla missione spaziale AGILE, attualmente in operazione, e sull’osservatorio Cherenkov Telescope Array, in fase di costruzione. Il follow-up di allerte scientifiche esterne ricevute dagli strumenti che identificano Gamma-Ray Bursts (GRB) e Gravitational Waves (GW) è una delle maggiori attività del Team di AGILE. Le generazioni future degli osservatori di raggi gamma come CTA o ASTRI Mini-Array possono trarre vantaggio dalle tecnologie sviluppate per AGILE. Questa ricerca ha l’obiettivo di sviluppare software per l’analisi e la gestione dei dati gamma. Il primo capitolo della tesi descrive la piattaforma web utilizzata dai ricercatori AGILE per preparare il secondo catalogo di sorgenti gamma di AGILE. Le analisi realizzate per questo catalogo sono memorizzate in un database dedicato e la piattaforma web interroga il database. Questo è stato il lavoro preparatorio per capire come gestire i risultati delle analisi di sorgenti gamma (detection e curve di luce) per la fase successiva: lo sviluppo di una pipeline scientifica per gestire in tempo reale le detection e le allerte scientifiche. Nel secondo capitolo viene presentato un framework progettato per facilitare lo sviluppo di pipeline per l’analisi scientifica in tempo reale. Il framework offre un’architettura comune e automatismi che possono essere utilizzati dagli osservatori per sviluppare le loro pipeline. Questo framework è stato usato per sviluppare le pipeline della missione spaziale AGILE e per sviluppare un prototipo per la Science Alert Generation (SAG) dell’osservatorio CTA. Il terzo capitolo descrive un nuovo metodo per identificare i GRB nei dati dello strumento AGILE-GRID utilizzando le Convolutional Neural Network. Con questa tecnologia Deep Learning è possibile migliorare la capacità di detection di AGILE. Questo metodo è anche stato inserito come tool scientifico all’interno della pipeline AGILE. L’ultimo capitolo mostra i risultati scientifici ottenuti con il software sviluppato durante le attività di ricerca del Ph.D. Parte dei risultati sono stati pubblicati su riviste scientifiche. La restante parte è stata inviata alla comunità scientifica tramite The Astronomer’s Telegram o il Gamma-ray Coordination Network.
The context of this Ph.D. is the data analysis and management for gamma-ray astronomy, which involves the observation of gamma-rays, the most energetic form of electromagnetic radiation. From the gamma-ray observations performed by telescopes or satellites, it is possible to study catastrophic events involving compact objects, such as white dwarves, neutron stars, and black holes. These events are called gamma-ray transients. To understand these phenomena, they must be observed during their evolution. For this reason, the speed is crucial, and automated data analysis pipelines are developed to detect gamma-ray transients and generate science alerts during the astrophysical observations or immediately after. A science alert is an immediate communication from one observatory to other observatories that an interesting astrophysical event is occurring in the sky. The astrophysical community is experiencing a new era called "multi-messenger astronomy", where the astronomical sources are observed by different instruments, collecting different signals: gravitational waves, electromagnetic radiation, and neutrinos. In the multi-messenger era, astrophysical projects share science alerts through different communication networks. The coordination of different projects done by sharing science alerts is mandatory to understand the nature of these physical phenomena. Observatories have to manage the follow-up of these external science alerts by developing dedicated software. During this Ph. D., the research activity had the main focus on the AGILE space mission, currently in operation, and on the Cherenkov Telescope Array Observatory (CTA), currently in the construction phase. The follow-up of external science alerts received from Gamma-Ray Bursts (GRB) and Gravitational Waves (GW) detectors is one of the AGILE Team's current major activities. Future generations of gamma-ray observatories like the CTA or the ASTRI Mini-Array can take advantage of the technologies developed for AGILE. This research aims to develop analysis and management software for gamma-ray data to fulfill the context requirements. The first chapter of this thesis describes the web platform used by AGILE researchers to prepare the Second AGILE Catalog of Gamma-ray sources. The analysis performed for this catalog is stored in a dedicated database, and the web platform queries this database. This was preparatory work to understand how to manage detections of gamma-ray sources and light curve for the subsequent phase: the development of a scientific pipeline to manage gamma-ray detection and science alerts in real-time. The second chapter presents a framework designed to facilitate the development of real-time scientific analysis pipelines. The framework provides a common pipeline architecture and automatisms that can be used by observatories to develop their own pipelines. This framework was used to develop the pipelines for the AGILE space mission and to develop a prototype of the scientific pipeline of the Science Alert Generation system of the CTA Observatory. The third chapter describes a new method to detect GRBs in the AGILE-GRID data using the Convolutional Neural Network. With this Deep Learning technology, it is possible to improve the detection capabilities of AGILE. This method was also integrated as a science tool in the AGILE pipelines. The last chapter of the thesis shows the scientific results obtained with the software developed during the Ph.D. research activities. Part of the results was published in refereed journals. The remaining part was sent to the scientific community through The Astronomer's Telegram or the Gamma-ray Coordination Network.
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Romano, Paolo. "Progettazione e realizzazione di una web application per la gestione dei dati dei fornitori, basata sul framework Competitoor." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12936/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Gambarelli, Nicolo'. "Progettazione ed implementazione di un'applicazione mobile per la gestione dei dati di vendita aziendali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8226/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Gallo, Ilaria <1993&gt. "La gestione dei dati. Come creare un blog in Wordpress e portarlo al successo?" Master's Degree Thesis, Università Ca' Foscari Venezia, 2018. http://hdl.handle.net/10579/13427.

Повний текст джерела
Анотація:
La mia tesi focalizza l'attenzione sul mondo dei Fashion Blogger e i nuovi canali di distribuzione (Youtube, Facebook, Instgram, Twitter, etc. etc.) che i blogger utilizzano per sponsorizzare e publicizzare i prodotti, finalizzati ad essere acquisiti dagli utenti. Le nuove tendenze commerciali si basano sempre più frequentemente sulle attività svolte dagli “influencers” che operano attraverso canali virtuali e con il moltiplicatore dato dalle interazioni “ social” che possono arrivare a coinvolgere milioni di followes, friends, tweet, etc. etc. In primis ho potuto realizzare un Fashion Blog, ispirato al mio mondo, alle mie passioni, al mio lavoro e ai miei studi. Ho cercato l'idea, raccolto i dati e le informazioni e successivamente gli ho organizzati. Ho creato, tramite Wordpress, il mio website e creato e caricato contenuti in formato HTML. Su ogni contenuto caricato, ho determinato il SEO, SEM, tag, metatag, tagtitle, etc Ho individuato alcune aziende e brand più conosciuti e creato, su base di tabulazioni dati e codici, generati tramite programmi come Zanox e Trade Doubler, affiliazioni commerciali finalizzate al guadagno. Il tutto viene, da me, controllato e gestito, visualizzando, monitorando ed estraendo tabelle di dati con le relative statistiche di Google Analytics. In primis, pongo l'attenzione sulle diverse modalità di effetti misurabili, ottenibili applicando diverse startegie (Seo, news, post sui social network, etc.) e confronto i risultati con quelli resi pubblici dai gestori di blog più affermati o desumibili da strumenti di rilevazione disponibili online.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Kirschner, Paolo. "Progetto ADaM - Archeological DAta Management Progetto per la creazione di una banca dati relazionale per la gestione dei dati di scavo." Doctoral thesis, Università degli studi di Padova, 2008. http://hdl.handle.net/11577/3425584.

Повний текст джерела
Анотація:
The ADaM project stems from the need to create a database for managing all phases of archaeological excavation as free as possible from any type of coercion of a categorical-typological nature or from the rigidity of the structure of the archive itself. The idea of achieving a single and total instrument was at the same time a moment of reflection for a normalization of an excavation reality through a decomposition, or better a synthesis of the various dynamics in a series of relationships. The standards now acquired in the management of the excavation permit to apply to the various phases of archaeological work a system of procedures for storing relational data in order to speed up the collection and further processing of information. In addition to the need to catalogue and archive the material data of archaeological excavation in an effective and articulated way, it was of primary importance, not only for reasons of bureaucratic and institutional type, to be able to produce a paper outcome of such documentation. Therefore the section regarding the printed results of the archives and the export forms is very rich (PDF, XLS, WWW queries throgh PHP instructions). The choice of FileMaker as DBMS and its Advanced Server application have been fairly automatic, not only for the large potential, but also for their previous use in other systems managed by the Department of Archaeology of the University of Padua and also for the familiarity that exists to these programs in the archaeological world. To be able to manage a data-base through four communication protocols ( "fmnet", "instant web publishing", "php" and "xml / xslt") has been valued as a determining advantage. The ADaM project tries to meet all these requirements in the "apparently" simplest way by combining "proprietary" current technologies, which were considered the most practical and effective ones ("fast and easy source"), with technologies of extremely wide circulation and tested reliability typical of an open-source software sector.
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Paci, Simone <1981&gt. "Sviluppo di un'applicazione bioinformatica per la gestione dei dati di antibiotico sensibilità di isolati clinici." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4580/1/paci_simone_tesi.pdf.

Повний текст джерела
Анотація:
Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.
Drug resistance is a huge problem for healthcare and to face it a monitoring system based on collection and analysis of laboratory epidemiological data is required. The PHD project was focused on the development of a web application, which we called ResMon2, for management of such type of data (drug resistance of bacteria present in clinical isolates) useable in a hospital. A web platform associated with a relational database was created in order to have an application easy to update inserting new data without directly editing the HTML pages of the application. The open-source MySQL database was chosen since it has many assets: extremely stable, high performance, supported by a huge online community and it is free. The dynamic content of the web application is generated using a scripting-type programming language: PHP. It is an open-source language precisely developed for construction of dynamic-content web pages perfect for automation of inserting, editing, deleting and displaying functions of data. Besides, it integrates easily with MySQL database thanks to many integrated functions for dynamic data manipulation. A new database was designed creating tables and relations among them: registries, samples, isolated microorganisms and antibiogram data (sensitive, resistant, intermediate). Once defined the database the PHP and HTML code composing the main functions of the application was written. Such functions are: manual insert of single antibiogram, multiple antibiograms importing from specific instruments data files, edit/delete of previously inserted antibiograms, data analysis for trends detection of specific microorganisms species prevalence and of their drug resistance, with attached cake-type graphics and histograms. All functions were tested with real sample clinical data and were provided with specific controls, and simple and clean graphics were added to the application.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Paci, Simone <1981&gt. "Sviluppo di un'applicazione bioinformatica per la gestione dei dati di antibiotico sensibilità di isolati clinici." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4580/.

Повний текст джерела
Анотація:
Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.
Drug resistance is a huge problem for healthcare and to face it a monitoring system based on collection and analysis of laboratory epidemiological data is required. The PHD project was focused on the development of a web application, which we called ResMon2, for management of such type of data (drug resistance of bacteria present in clinical isolates) useable in a hospital. A web platform associated with a relational database was created in order to have an application easy to update inserting new data without directly editing the HTML pages of the application. The open-source MySQL database was chosen since it has many assets: extremely stable, high performance, supported by a huge online community and it is free. The dynamic content of the web application is generated using a scripting-type programming language: PHP. It is an open-source language precisely developed for construction of dynamic-content web pages perfect for automation of inserting, editing, deleting and displaying functions of data. Besides, it integrates easily with MySQL database thanks to many integrated functions for dynamic data manipulation. A new database was designed creating tables and relations among them: registries, samples, isolated microorganisms and antibiogram data (sensitive, resistant, intermediate). Once defined the database the PHP and HTML code composing the main functions of the application was written. Such functions are: manual insert of single antibiogram, multiple antibiograms importing from specific instruments data files, edit/delete of previously inserted antibiograms, data analysis for trends detection of specific microorganisms species prevalence and of their drug resistance, with attached cake-type graphics and histograms. All functions were tested with real sample clinical data and were provided with specific controls, and simple and clean graphics were added to the application.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Sansò, Federica. "Analisi di dati telerilevati ottici e radar per la gestione dei disastri: le alluvioni nel Bangladesh." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2302/.

Повний текст джерела
Анотація:
Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la validità di questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

ESPOSITO, SALVATORE. "La raccolta ragionata dei dati e delle informazioni per la gestione , l a manutenzione ed il monitoraggio dei beni culturali architettonici." Doctoral thesis, Politecnico di Torino, 2013. http://hdl.handle.net/11583/2510123.

Повний текст джерела
Анотація:
Come riportato nella citazione di Letellier, fatta nell’ambito del progetto RecorDIM2, la raccolta delle informazioni e dei dati su un bene culturale, non è un aspetto secondario del processo di conservazione e di tutela del bene, ma ne è parte integrante e fondamentale. Partendo, quindi, dal presupposto che le politiche di conservazione non si possono considerare concluse al termine dei lavori di restauro, ma devono forzatamente proseguire al fine di garantire corretti ed efficaci interventi di manutenzione e monitoraggio dei beni culturali, l’azione di raccolta ragionata dei dati e delle informazioni, diviene condizione indispensabile se si vogliono scongiurare o ritardare quanto più possibile gli interventi di restauro che, comunque sia, hanno spesso e inevitabilmente carattere invasivo. Il lavoro che segue, derivando da tali considerazioni, individua nella tecnologia informatica lo strumento necessario e più efficace per governare i processi di conoscenza e monitoraggio dei beni culturali; ed attraverso la disamina di alcune applicazioni specifiche si pone come obiettivo finale la definizione di alcune linee guida, riferite alla raccolta ed alla gestione dei dati di un bene culturale architettonico, unitamente ad un tentativo pratico di applicazione, delle regole individuate, al caso del Castello di Serralunga D’Alba (CN).
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Bova, Matteo. "Miglioramento del Sistema Gestione Qualità rivolto all’acquisizione, conservazione e ricerca dei dati di produzione e configurazione prodotto." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Знайти повний текст джерела
Анотація:
L’argomento del presente elaborato, svolto in collaborazione con l’azienda Eidos22 S.r.l., è lo studio sulla procedura per la qualità, in particolare la gestione del rischio, secondo la norma UNI EN ISO 9001:2015 – Sistemi di gestione per la Qualità; quest’ultima è destinata all’utilizzo da parte delle organizzazioni per migliorare continuamente sicurezza e affidabilità dei prodotti e dei servizi che soddisfino i requisiti di legge e regolamentari applicabili. L’elaborato descrive il metodo di gestione del rischio secondo la norma e il modo in cui è stato sviluppato da Eidos22 S.r.l. per valutare i fattori che si presentano all’interno dell’azienda; ho ripercorso lo studio fatto dall’azienda per l’elaborazione del documento della procedura per la qualità e ho approfondito, tramite le conoscenze acquisite in azienda e durante il mio corso di studi accademici, l’analisi del rischio per la digitalizzazione del foglio attrezzaggio. Il miglioramento, basato sull’innovazione tecnologica, ha consentito un notevole risparmio di denaro all’azienda, agevolando e semplificando il lavoro dell’operatore alla macchina. Inizialmente viene presentata la procedura per la qualità e il metodo di gestione del rischio secondo la norma (UNI EN ISO 9001:2015 – Sistemi di gestione per la Qualità), chiarendo con quale procedimento l’organizzazione deve stabilire, attuare, mantenere e migliorare in modo continuo. Viene, poi, trattato il metodo della procedura per la qualità sviluppato e seguito da Eidos22 S.r.l., analizzando e approfondendo tutti i passaggi che vengono mostrati e viene studiato il metodo di analisi del rischio per la digitalizzazione del foglio attrezzaggio, seguendo il metodo della procedura e mostrando i risultati ottenuti dal piano di miglioramento. Infine viene analizzato l’aspetto economico che ha portato questo cambiamento all’organizzazione.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Bellò, Alice <1995&gt. "Il museo diffuso di Asolo e il Covid-19. Un'analisi dei dati sui visitatori e della gestione." Master's Degree Thesis, Università Ca' Foscari Venezia, 2021. http://hdl.handle.net/10579/19725.

Повний текст джерела
Анотація:
Il presente elaborato intende analizzare l’andamento del numero di visitatori del museo diffuso di Asolo nell’anno 2020, a confronto con gli anni precedenti, e le strategie adottate per incentivare la partecipazione durante questo primo anno di pandemia. In una prima parte introduttiva, vengono esposte le misure di contenimento e di sostegno che hanno interessato il settore culturale italiano nel 2020 e, successivamente, la definizione di museo, le sue forme di gestione e di finanziamento e il suo pubblico. Viene poi riassunta la storia del museo diffuso di Asolo, che comprende Museo Civico, Torre Civica, Rocca, Torre Reata e Bot (acquedotto romano) ed esaminata brevemente la gestione. Infine, vengono presentati i risultati derivanti dall’elaborazione dei dati sui visitatori raccolti dal museo e gli interventi attuati nel 2020 volti ad attirare e coinvolgere maggiormente i visitatori.
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Cesaroni, Maurizio. "Armonizzazione dei dati per l’addestramento di reti neurali ricorrenti: applicazione per la gestione delle promozioni nel settore retail." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23194/.

Повний текст джерела
Анотація:
All'interno dei dati processati da un'azienda è solito trovare errori dovuti a varie motivazioni, ad esempio cattive misurazioni. Questo può comportare interpretazioni errate e di conseguenza scelte future che non portano il profitto sperato. Il processo di correzione di tali errori in letteratura viene chiamato Data Harmonization, e permette alle aziende di poter ripulire i dati sfruttando regole euristiche proprie del business di competenza. Lavorare con set di dati coerenti alle dinamiche del mercato e allo stesso tempo solidi, è fondamentale per i modelli di tipo predittivo di cui sempre più aziende fanno utilizzo. In questa tesi, dopo una panoramica della Data Harmonization e degli approcci recenti utilizzati, verrà presentato il modello di programmazione lineare mista intera implementato al fine di ripulire un set di promozioni proveniente dal settore retail. L'obiettivo è quello di migliorare il set di training e di validazione su cui la rete neurale aziendale agirà, modificando il meno possibile i dati originali e in casi particolari andandoli ad eliminare. I risultati presentati riguarderanno l'accuratezza dello strumento predittivo allenato con un set storico ripulito dal modello. Questi evidenziano come il lavoro compiuto da quest'ultimo abbia di fatto migliorato le prestazioni della rete neurale, permettendo di prevedere in maniera più accurata i valori delle vendite promozionali.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Aldini, Benedetta. "La gestione dei cambiamenti e la validazione dei sistemi computerizzati nell'industria di processo: un caso di studio." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Знайти повний текст джерела
Анотація:
La gestione dei cambiamenti nell’industria di processo risponde all’esigenza di ridurre il numero di incidenti di sicurezza e di qualità del prodotto finito, che possono essere causati da una mancata valutazione del rischio indotto dai cambiamenti stessi. Le procedure che caratterizzano la gestione dei cambiamenti sono oggi agevolate dallo sviluppo di apposite applicazioni software, che si occupano di tracciare i cambiamenti in ogni loro fase. In alcuni settori dell’industria di processo, come quello farmaceutico, sono trattati dati sottoposti a norme di legge, caratterizzati da un rischio cosiddetto “legale”. Da qui nasce il concetto di integrità dei dati, che si occupa di definire le caratteristiche dei sistemi computerizzati a supporto delle attività produttive, perché i dati trattati siano affidabili. L’importanza dell’integrità dei dati è sempre più considerata anche da altri settori dell’industria di processo, come quello della produzione dei detergenti. Il presente lavoro di tesi è stato sviluppato durante un tirocinio svolto presso uno stabilimento chimico a rischio di incidente rilevante, dove si producono prodotti detergenti. L’obiettivo del tirocinio è stato duplice: innanzitutto ha comportato l’introduzione presso lo stabilimento di un sistema digitale per la gestione dei cambiamenti, in sostituzione del sistema cartaceo precedentemente in uso; in secondo luogo, ha affrontato il problema dell’integrità dei dati dei sistemi computerizzati in uso presso il sito. Per tutte le applicazioni software che trattano dati connessi con la qualità dei prodotti, è stata effettuata la valutazione del rischio associato all’integrità dei dati; successivamente, per alcune applicazioni risultate a rischio non basso è stato definito un piano di rimedio, volto ad abbassare il rischio stesso. Infine, è stata effettuata l’implementazione del piano di rimedio, inserendo tale attività nel nuovo sistema digitale per la gestione dei cambiamenti.
Стилі APA, Harvard, Vancouver, ISO та ін.
25

LUCIDI, ALIGHIERO. "Il dato di rilievo digitale per la conoscenza, valutazione e gestione del patrimonio storico costruito ​." Doctoral thesis, Università Politecnica delle Marche, 2021. http://hdl.handle.net/11566/289599.

Повний текст джерела
Анотація:
L’evoluzione degli strumenti e delle tecniche di rilievo del patrimonio storico costruito hanno ormai raggiunto livelli tecnologici tali da permettere l’acquisizione di un enorme volume di dati in un tempo sempre più limitato. Questo rapporto inversamente proporzionale tra capacità e tempo di acquisizione pone sempre più al centro della ricerca il tema della gestione del dato di rilievo. In questa ottica il presente lavoro mira a offrire sistemi e processi in grado di ottimizzare la gestione, l’uso e l’analisi di una grande mole di dati nel campo dell’architettura storica. Nel dettaglio la problematica è stata affrontata in due ambiti distinti: alla scala urbana e alla scala dell’edificio. Alla scala urbana l’obiettivo è stato quello di implementare e migliorare un sistema di gestione esistente all’interno della azienda che ha ospitato il dottorato di ricerca. Attraverso casi studio su centri storici come Ascoli Piceno e Venezia, si sono ottimizzati strumenti, testandoli nell’ambito particolarmente sfidante della rappresentazione dell’architettura storica. In quanto alla scala dell’edificio la ricerca ha indagato la possibilità di utilizzare la nuvola di punti ai fini dell’analisi strutturale ad elementi finiti, attraverso la generazione di un processo semi-automatico che consenta di sfruttare la nuvola di punti per la generazione del modello strutturale. I casi studio, su cui la metodologia è stata studiata, si sono concentrati sulla tipologia delle torri storiche in muratura. In entrambi gli ambiti di ricerca affrontati, le soluzioni proposte sono state validate: nell’ambito urbano la piattaforma è stata testata dall’uso della stessa in ambiente professionale; mentre nell’ambito dell’edificio è stato condotto un confronto tra i risultati forniti dal modello strutturale, ottenuto attraverso la metodologia proposta, e i dati sperimentali registrati in campo. ​
The evolution of the tools and techniques of survey of the historical built heritage has reached technological levels that allow the acquisition of a huge volume of data in an increasingly limited time. This inversely proportional relationship between capability and acquisition time places the issue of managing the survey data more and more at the center of research. From this perspective, this work aims to offer systems and processes that can optimize the management, use, and analysis of a large amount of data in the field of historical architecture. In detail, the problem was addressed in two distinct areas: at the urban scale and at the scale of the building. At the urban scale, the goal was to implement and improve an existing management system within the company that hosted the PhD. Through case studies on historical centers such as Ascoli Piceno and Venice, instruments have been optimized, testing them in the particularly challenging context of the representation of historical architecture. As for the scale of the building, the research investigated the possibility of using the point cloud for the purposes of finite element structural analysis, through the generation of a semi-automatic process that allows to exploit the point cloud for the generation of the structural model. The case studies, on which the methodology was studied, focused on the typology of historic masonry towers. In both research areas addressed, the proposed solutions have been validated: in the urban environment the platform has been tested by its use in a professional environment; while in the building environment a comparison was made between the results provided by the structural model, obtained through the proposed methodology, and the experimental data recorded in the field. ​
Стилі APA, Harvard, Vancouver, ISO та ін.
26

De, Gironimo Simone. "IHE Technology Framework: un modello di ottimizzazione della gestione dei dati clinici e integrazione tra le apparecchiature mediche in ambito di Cardiologia." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3715/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Ricciardelli, Filippo. "Gestione di una base dati per la mappatura e l’ottimizzazione di processi logistici di una filiera agroalimentare." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Знайти повний текст джерела
Анотація:
La tesi si prefigge di realizzare uno studio su una filiera agroalimentare attraverso un'ampia analisi iniziale e una successivo processo di ottimizzazione. Gli obiettivi riguardano la riduzione di due elementi chiave: - i costi di trasporto inter-nodo - le emissioni si Co2eq relazionate alle food miles I metodi implementati per ottere tali risultati sono stati: -uso del Location Allocation Problem -uso di una base dati fornita dal Centro distributivo committente -interfacciamento tra la base dati e il software di modellazione Il processo si articola in una descrizione accurata del modello creato e dei vari software sfruttati, per poi virare verso una chiara e precisa presentazione dello stato attuale della catena (as-is). Qui, per le 4 tipologie di nodo indagate, vengono studiati diversi elementi. Per citarne alcuni: 1) merce movimentata 3) differenze ingressi/uscite 4) numero di interazioni 5) kg medi trasportati 6) etc. Inoltre, sempre nello stato AS-IS, si presenta uno studio sul posizionamento dei nodi attuato sfruttando la funzione MAPPE di Excel e aiutandosi con svariati grafici. Viene calcolato poi il quantitativo totale di inquinamento differenziato per categoria e il costo totale. Nello stato ottimizzato i parametri del modello vengono individuati sfruttando tecniche euristiche e metodi legati al buon senso. I vari parametri e vincoli vengono poi caricati sul software AMPL che elabora e restituisce i risultati dell'ottimizzazione. L'analisi to-be viene presentata in contrapposizione allo stato attuale della catena, evidenziando miglioramenti e riduzioni implementate. Anche in questa circostanza si sfruttano grafici e tabella per chiarificare i procedimenti svolti. Il risultato dell'analisi consiste in una forte riduzione dei costi attraverso un imponente ricollocamento dei flussi sfruttando le potenzialità già insite nel sistema. I traguardi ottenuti sulla riduzione delle emissioni sono sempre collegabili al processo di ricollocazione dei flussi.
Стилі APA, Harvard, Vancouver, ISO та ін.
28

ROLLO, FEDERICA. "Verso soluzioni di sostenibilità e sicurezza per una città intelligente." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271183.

Повний текст джерела
Анотація:
Una città intelligente è un luogo in cui la tecnologia viene sfruttata per aiutare le amministrazioni pubbliche a prendere decisioni. La tecnologia può contribuire alla gestione di numerosi aspetti della vita quotidiana, offrendo ai cittadini servizi più affidabili e migliorando la qualità della vita. Tuttavia, la tecnologia da sola non è sufficiente per rendere una città intelligente; sono necessari metodi adeguati per analizzare i dati raccolti e gestirli in modo da generare informazioni utili. Alcuni esempi di servizi intelligenti sono le app che permettono di raggiungere una destinazione attraverso il percorso più breve oppure di trovare il parcheggio libero più vicino, o le app che suggeriscono i percorsi migliori per una passeggiata in base alla qualità dell'aria. Questa tesi si concentra su due aspetti delle smart city: sostenibilità e sicurezza. Il primo aspetto riguarda lo studio dell'impatto del traffico sulla qualità dell'aria attraverso lo sviluppo di una rete di sensori di traffico e qualità dell'aria e l'implementazione di una catena di modelli di simulazione. Questo lavoro fa parte del progetto TRAFAIR, cofinanziato dall'Unione Europea, il primo progetto che monitora la qualità dell'aria in tempo reale e fa previsioni su scala urbana in 6 città europee, tra cui Modena. Il progetto ha richiesto la gestione di una grande quantità di dati eterogenei e la loro integrazione su una piattaforma dati complessa e scalabile condivisa da tutti i partner del progetto. La piattaforma è un database PostgreSQL, adatto a gestire dati spazio-temporali, che contiene più di 60 tabelle e 435 GB di dati (solo per Modena). Tutti i processi della pipeline di TRAFAIR, le dashboard e le app sfruttano il database per ottenere i dati di input ed eventualmente memorizzare l'output. I modelli di simulazione, eseguiti su risorse di HPC, utilizzano i dati dei sensori e devono fornire risultati in tempo reale. Pertanto le tecniche di identificazione delle anomalie applicate ai dati dei sensori devono eseguire in tempo reale e in breve tempo. Dopo un attento studio della distribuzione dei dati dei sensori e della correlazione tra le misure, sono state implementate e applicate alcune tecniche di identificazione delle anomalie. Per i dati di traffico è stato sviluppato un nuovo approccio che utilizza un filtro di correlazione flusso-velocità, la decomposizione STL e l'analisi IQR. Per i dati di qualità dell'aria è stato creato un framework innovativo che implementa 3 algoritmi. I risultati degli esperimenti sono stati confrontati con quelli dell'Autoencoder LSTM. L'aspetto relativo alla sicurezza nella città intelligente è legato a un progetto di analisi dei crimini, i processi analitici volti a fornire informazioni tempestive e pertinenti per aiutare la polizia nella riduzione, prevenzione e valutazione del crimine. A causa della mancanza di dati ufficiali, questo progetto sfrutta le notizie pubblicate sui giornali online. L'obiettivo è quello di classificare le notizie in base alla categoria di crimine, geolocalizzare i crimini, identificare la data dell'evento, e individuare alcune caratteristiche. È stata sviluppata un'applicazione per l'analisi delle notizie, l'estrazione di informazioni semantiche attraverso l'uso di tecniche di NLP e la connessione delle entità a risorse Linked Data. La tecnologia dei Word Embedding è stata utilizzata per la categorizzazione del testo, mentre il Question Answering tramite BERT è stato utilizzato per estrarre le 5W+1H. Le notizie che si riferiscono allo stesso evento sono state identificate attraverso la cosine similarity sul testo delle notizie. Infine, è stata implementata un'interfaccia per mostrare su mappa i crimini geolocalizzati e fornire statistiche e rapporti annuali. Questo è l'unico progetto presente in Italia che partendo da notizie online cerca di fornire un'analisi sui crimini e la mette a disposizione attraverso uno strumento di visualizzazione.
A smart city is a place where technology is exploited to help public administrations make decisions. The technology can contribute to the management of multiple aspects of everyday life, offering more reliable services to citizens and improving the quality of life. However, technology alone is not enough to make a smart city; suitable methods are needed to analyze the data collected by technology and manage them in such a way as to generate useful information. Some examples of smart services are the apps that allow to reach a destination through the least busy road route or to find the nearest parking slot, or the apps that suggest better paths for a walk based on air quality. This thesis focuses on two aspects of smart cities: sustainability and safety. The first aspect concerns studying the impact of vehicular traffic on air quality through the development of a network of traffic and air quality sensors, and the implementation of a chain of simulation models. This work is part of the TRAFAIR project, co-financed by the European Union, which is the first project with the scope of monitoring in real-time and predicting air quality on an urban scale in 6 European cities, including Modena. The project required the management of a large amount of heterogeneous data and their integration on a complex and scalable data platform shared by all the partners of the project. The data platform is a PostgreSQL database, suitable for dealing with spatio-temporal data, and contains more than 60 tables and 435 GB of data (only for Modena). All the processes of the TRAFAIR pipeline, the dashboards and the mobile apps exploit the database to get the input data and, eventually, store the output, generating big data streams. The simulation models, executed on HPC resources, use the sensor data and provide results in real-time (as soon as the sensor data are stored in the database). Therefore, the anomaly detection techniques applied to sensor data need to perform in real-time in a short time. After a careful study of the distribution of the sensor data and the correlation among the measurements, several anomaly detection techniques have been implemented and applied to sensor data. A novel approach for traffic data that employs a flow-speed correlation filter, STL decomposition and IQR analysis has been developed. In addition, an innovative framework that implements 3 algorithms for anomaly detection in air quality sensor data has been created. The results of the experiments have been compared to the ones of the LSTM autoencoder, and the performances have been evaluated after the calibration process. The safety aspect in the smart city is related to a crime analysis project, the analytical processes directed at providing timely and pertinent information to assist the police in crime reduction, prevention, and evaluation. Due to the lack of official data to produce the analysis, this project exploits the news articles published in online newspapers. The goal is to categorize the news articles based on the crime category, geolocate the crime events, detect the date of the event, and identify some features (e.g. what has been stolen during the theft). A Java application has been developed for the analysis of news articles, the extraction of semantic information through the use of NLP techniques, and the connection of entities to Linked Data. The emerging technology of Word Embeddings has been employed for the text categorization, while the Question Answering through BERT has been used for extracting the 5W+1H. The news articles referring to the same event have been identified through the application of cosine similarity to the shingles of the news articles' text. Finally, a tool has been developed to show the geolocalized events and provide some statistics and annual reports. This is the only project in Italy that starting from news articles tries to provide analyses on crimes and makes them available through a visualization tool.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

BETTIO, CINZIA. "Gestione e analisi dei dati del Registro Nazionale Italiano per la distrofia muscolare facio-scapolo-omerale e tecniche avanzate per la predizione della malattia: un passo verso un approccio clinico su misura del paziente." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1278857.

Повний текст джерела
Анотація:
Il Registro Nazionale Italiano per la FSHD (INRF), raccoglie i dati dei pazienti affetti da Distrofia Muscolare facio-scapolo-omerale (FSHD) (MIM\#158900) una rara miopatia ereditaria. Una piattaforma per la gestione dei dati, la MOMIS FSHD Web Platform, ha permesso di studiare ed integrare le informazioni derivanti da diverse fonti. Fino al 2020, l'INRF ha raccolto dati molecolari su 7485 soggetti e identificato 3396 individui portatori di un D4Z4 Reduced Allele (DRA), il marcatore genetico associato alla FSHD. I dati clinici sono raccolti attraverso protocolli di valutazione standardizzati e validati. Dal 2009 sono state raccolte sistematicamente 3574 schede cliniche che raccolgono informazioni su dati demografici, storia clinica e valutazione neurologica e consentono la descrizione dei fenotipi e loro classificazione in categorie: fenotipo classico, incompleto, soggetti asintomatici/sani e fenotipo atipico/complesso. L'integrazione di tali informazioni ha dimostrato sia l'ampia variabilità fenotipica che la penetranza incompleta della FSHD sostenendo l'idea che l'espressione e l'evoluzione della malattia siano determinate da diversi fattori. In effetti, il marcatore della FSHD è un polimorfismo comune, rilevato nel 3\% della popolazione sana. Inoltre, il 23.4\% dei portatori di DRA della nostra coorte sono asintomatici. La presente tesi si propone di sottolineare l'importanza della raccolta sistematica di dati clinici standardizzati. Questo approccio ha migliorato la comprensione dell'espressione di questa malattia rara e ha reso esplicita la sua complessità. Il capitolo 1 fornisce un'ampia panoramica della FSHD, sui registri di malattia e sull’INRF. Il capitolo 2 descrive I metodi per la diagnosi molecolare della malattia e materiale e metodi degli studi svolti nel lavoro di tesi. Gli studi, i cui risultati sono descritti nel capitolo 4 sono i seguenti: 1) INRF: analisi dati clinici e molecolari della coorte del registro, descrizione della sua struttura, della sua organizzazione e dell’inserimento nel contesto Europeo; 2) Studio di correlazione genotipo/fenotipo dei portatori di DRA con 9-10 RU: il 46.0\% dei casi indice non mostra il fenotipo classico; il 10.0\% dei parenti mostra un fenotipo classico; il 70.9\% dei parenti portatori non mostra alcuna compromissione motoria; Caratterizzazione di 125 soggetti con fenotipo incompleto (assenza di debolezza facciale). Questo fenotipo risulta significativamente più lieve rispetto al fenotipo classico. Su 33 famiglie con un probando con fenotipo incompleto, in 18 (54.5\%) il probando era l'unico che esprimeva un profilo miopatico. Il 36\% di questi 125 soggetti, non era portatore di DRA, suggerendo che altri elementi possano essere alla base di questo fenotipo; 4) Studio di fattori ambientali che possono avere un ruolo su progressione o esordio di malattia. Lo studio retrospettivo su una coorte di portatori di DRA, conferma che la pratica regolare delle attività fisiche nei giovani non è dannosa ma, al contrario, è associata a una severità clinica più lieve in età adulta; 5-6) Analisi coppie in consulenza prenatale e valutazione del rischio genetico associato alla FSHD. Con l'obiettivo di migliorare la consulenza genetica fornendo un’approccio personalizzato sulla storia familiare dei consultandi, è stato sviluppato uno strumento innovativo (classificatore) basato sulla tecnologia del Machine Learning. Esso e’ in grado di prevedere la probabilità che un neonato sviluppi un fenotipo miopatico in base alla storia familiare e ai dati molecolari, ottenendo l’80\% di sensibilità e oltre 70\% di specificità. Questo software ha il potenziale di aumentare la qualità della consulenza e diventare un alleato affidabile nella valutazione del rischio nell’ambito della medicina personalizzata.
The Italian National Registry for FSHD (INRF), collects data from patients suffering from Facioscapulohumeral Muscular Dystrophy (FSHD) (MIM\#158900) a rare hereditary myopathy. A platform for data management, the MOMIS FSHD Web Platform, has made it possible to study and integrate information from different sources. Until 2020, INRF collected molecular data on 7485 subjects and identified 3396 individuals carrying a D4Z4 Reduced Allele (DRA), the genetic marker associated with FSHD. Clinical data are collected through standardized and validated evaluation protocols. Since 2009, 3574 clinical forms have been systematically collected including information on demographic data, clinical history and neurological evaluation and allow the description of phenotypes and their classification into categories: classical phenotype, incomplete, asymptomatic/healthy subjects and atypical/complex phenotype. The integration of such information demonstrated both the wide phenotypic variability and the incomplete penetrance of FSHD supporting the idea that the expression and evolution of the disease are determined by several factors. In fact, the marker of FSHD is a common polymorphism, detected in 3\% of the healthy population. In addition, 23.4% of DRA carriers in our cohort are asymptomatic. The present thesis aims to underline the importance of the systematic collection of standardized clinical data. This approach improved the understanding of the expression of this rare disease and made its complexity explicit. Chapter 1 provides a broad overview of the FSHD, disease registries and the INRF. Chapter 2 describes the methods for molecular diagnosis of the disease and material and methods of the studies carried out in this thesis work. The results of the studies are described in Chapter 4 as follows: 1) INRF: analysis of clinical and molecular data of the registry cohort, description of its structure, its organization and its contribution in the European context; 2) genotype/phenotype correlation study of DRA carriers with 9-10 RU: 46.0\% of index cases do not show the classic FSHD phenotype; 10.0\% of relatives show a classical phenotype; 70.9\% of carrier relatives show no motor impairment. 3)Characterization of 125 subjects with incomplete phenotype (absence of facial weakness). This phenotype is significantly milder than the classical phenotype. Out of 33 families with a proband with incomplete phenotype, in 18 (54.5\%) the proband was the only one that expressed a myopathic profile. 36% of these 125 subjects were not carriers of DRA, suggesting that other elements may underlie this phenotype. 4) Study of environmental factors that may play a role in disease progression or onset. The retrospective study on a cohort of DRA carriers confirms that the regular practice of physical activities in young people is not harmful but, on the contrary, is associated with milder clinical severity in adulthood; 5-6) Evaluation of couples in prenatal counselling and assessment of the genetic risk associated with FSHD. With the aim of improving genetic counseling by providing a personalized approach to the family history of the consultants, an innovative tool (classifier) based on Machine Learning technology has been developed. The classifier is able to predict the probability that a newborn will develop a myopathic phenotype based on family history and molecular data, achieving 80\% sensitivity and over 70\% specificity. This software has the potential to increase the quality of counselling and become a reliable ally in risk assessment in personalised medicine.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Machì, Gaetano. "Nuove tecnologie e gestione del mercato del lavoro: profili giuridici." Doctoral thesis, Università di Siena, 2023. https://hdl.handle.net/11365/1226414.

Повний текст джерела
Анотація:
Le caratteristiche del mercato del lavoro rendono necessaria una sempre maggiore personalizzazione degli interventi di gestione del mercato del lavoro (formazione, orientamento, politiche passive e attive del lavoro), con l’obiettivo di soddisfare i destinatari delle misure anche considerando la loro eterogeneità e i fabbisogni emergenti anche di natura extralavorativa. Il presente elaborato ha l’obiettivo di valutare il possibile utilizzo di strumenti innovativi di gestione del mercato del lavoro nell’ambito del contesto nazionale allo scopo di soddisfare tali fabbisogni emergenti. A tal fine, è stata realizzata una ricognizione dei principali strumenti adottati, anche in fase sperimentale, per la gestione del mercato del lavoro mettendo in luce le caratteristiche comuni e definendone effetti positivi e criticità. Secondariamente, è stata effettuata un’analisi del quadro normativo di riferimento a livello nazionale e sovranazionale allo scopo di comprendere i limiti applicativi degli strumenti oggetto di studio e identificare eventuali interventi di adeguamento della normativa vigente. Sono stati presi in considerazione atti normativi europei, nazionali e in alcuni casi regionali che regolano le modalità di incontro tra domanda ed offerta di lavoro, le sentenze delle corti nazionali ed europee, le decisioni e le linee guida di autorità indipendenti, in particolare le autorità garanti per la protezione dei dati personali, e la contrattazione collettiva. Il lavoro di ricerca si è sviluppato a partire dall’analisi della letteratura scientifica nazionale ed internazionale relativa alle materie oggetto della ricerca: mercato del lavoro, informatica giuridica e governance dei dati. All’attività di analisi normativa e della letteratura di riferimento si è affiancato il dato esperienziale relativo al percorso in apprendistato, grazie al quale è stato possibile sviluppare una conoscenza approfondita dei principali strumenti utili per la gestione del mercato del lavoro. Dall’analisi effettuata è emerso che le nuove tecnologie in uso per la gestione del mercato del lavoro sono incentrate prevalentemente sull’utilizzo dei dati sotto varie forme e permettono un innalzamento della qualità dei servizi e una maggiore personalizzazione degli interventi. Esse si inseriscono all’interno di un quadro normativo complesso e multilivello, per certi versi ancora in fase embrionale, nel quale si incontrano aspetti di natura tecnica e organizzativa che solo di recente sono stati presi in considerazione dall’ordinamento europeo e successivamente dal Diritto italiano. Le priorità che emergono affinché tutti gli attori del mercato del lavoro possano beneficiare con successo delle nuove tecnologie utilizzate per la gestione del mercato del lavoro sono l’avvio di un processo di alfabetizzazione digitale diffusa e la creazione di una infrastruttura informatica e organizzativa. Il presente lavoro si inserisce all’interno di una discussione multidisciplinare in materia di sviluppo delle politiche di gestione del mercato del lavoro che mette in relazione le tematiche proprie del diritto del mercato del lavoro con quelle dell’informatica giuridica e della normativa inerente alla circolazione dei dati. La natura trasversale dell’elaborato ha permesso di dare una lettura più ampia al tema dell’utilizzo delle nuove tecnologie per la gestione del mercato del lavoro, coinvolgendo branche del diritto e discipline che in futuro saranno sempre più strettamente in relazione tra di loro.
The characteristics of the labor market require an increasing personalization of labor market management interventions (training, guidance, passive and active labor policies), with the aim of satisfying the recipients of the measures also considering their heterogeneity and emerging needs, including those of an extra-work nature. This study aims to assess the possible use of innovative labor market management tools within the national context in order to meet these emerging needs. To this end, a survey of the main instruments adopted, including experimental ones, for labor market management was conducted, highlighting their common features and defining their positive and critical effects. Secondly, an analysis of the regulatory framework of reference at the national and supranational level was carried out in order to understand the application limitations of the investigated instruments and to identify possible interventions to adapt current legislation. Consideration was given to European, national and in some cases regional regulatory acts that rule how labor supply and demand are matched, rulings of national and European courts, decisions and guidelines of independent authorities, especially data protection authorities, and collective bargaining. The thesis developed from the analysis of national and international scientific literature related to the subjects under research: labor market, IT law, and data governance. The normative and literature analysis activity was accompanied by experiential data related to the apprenticeship, thanks to which it was possible to develop an in-depth knowledge of the main tools useful for labor market management. The analysis carried out showed that the new technologies in use for labor market management focus mainly on the utilization of data in various forms and allow an increase in the quality of services and greater personalization of interventions. They fit within a complex, multilevel regulatory framework, in some ways still in its embryonic stage, where some technical and organizational aspects have only recently been taken into account by European law and subsequently by Italian law. The priorities that emerge so that all labor market actors can successfully benefit from the new technologies used to manage the labor market are the initiation of a widespread digital literacy process and the creation of an IT and organizational infrastructure. This thesis is integrated within a multi-disciplinary discussion on labor market management policy development that links issues specific to labor market law with those of legal informatics and the inherent regulation of data circulation. The cross-disciplinary nature of the paper allowed for a broader reading of the topic of the use of new technologies for labor market management, involving branches of law and disciplines that will be increasingly closely related to each other in the future.
Стилі APA, Harvard, Vancouver, ISO та ін.
31

FRATTA, ANDREA. "Nuove tecnologie applicate alla comunicazione della ricerca archeologica. Dal trattamento dei dati alla gestione efficiente per la fruizione e la condivisione su piattaforme web." Doctoral thesis, Università di Foggia, 2016. http://hdl.handle.net/11369/353975.

Повний текст джерела
Анотація:
Il progetto di ricerca iniziato nell’A.A. 2012/13 intende indagare da un lato sulle tecnologie di rilievo e acquisizione di dati spaziali sia bidimensionali che tridimensionali in archeologia e sui rispettivi processi di elaborazione, e dall’altro sulle modalità di erogazione e fruizione del potenziale informativo della documentazione grafica di scavo tramite applicazioni per il web. L’obiettivo principale è quello di colmare un vuoto nelle procedure metodologiche strutturando un workflow completo sulla gestione di dati archeologici, mirato a promuovere la condivisione di informazioni e di esperienze diverse, e dunque di diffondere conoscenza. Pertanto sono state esaminate tecniche di rilievo topografico strumentale che comprendono il laser scanning e la fotogrammetria digitale, effettuando test in contesti e su oggetti diversi: unità stratigrafiche murarie in aree di scavo archeologico, insediamenti rupestri, architetture castrensi, ma anche reperti ceramici. Sono state adottate in seguito procedure di gestione ed elaborazione dei dati in vista di una pubblicazione dei contenuti digitali su web o su altre forme di applicazioni per il grande pubblico. Una volta valutata la fattibilità dei processi di documentazione è stato scelto come caso di studio il sito archeologico di Herdonia, nei pressi dell’attuale Ordona (FG). Questa scelta è motivata da due fattori principali. Innanzitutto la presenza di imponenti rovine, fa di Herdonia il sito ideale per sperimentare le tecnologie di rilievo tridimensionale. La seconda ragione è costituita dalla ricca documentazione di scavo dell’Archivio Mertens, conservata, a partire dal 2004, presso il Dipartimento di Studi Umanistici dell’Università di Foggia. In questo archivio è depositata tutta la conoscenza e la documentazione del sito di Ordona dall’inizio delle ricerche intraprese dall’équipe belga nel 1962 fino ad oggi. Si tratta dunque di 40 anni di ricerche che hanno portato alla scoperta di uno dei siti più grandi dell’Italia meridionale, dalle fasi dell’insediamento daunio, all’installazione della città romana, fino al ridimensionamento dell’abitato in epoca medievale e al definitivo abbandono nel XV secolo. L’archivio costituisce dunque una memoria unica e contiene documenti che sono parte della storia delle ricerche archeologiche, prodotti seguendo metodologie differenti (dallo scavo per lunghe trincee e al metodo Wheeler fino allo scavo per grandi aree) e realizzati usando varie tecniche e tecnologie (dal rilievo diretto a disegni CAD e scansioni 3D). L’idea principale è dunque quella di strutturare un workflow specifico per costruire un ambiente comune all’interno del quale possano coesistere sia i legacy data di scavo che la documentazione grafica digital born. Tuttavia, il problema più grande riscontrato nell’analisi dell’archivio è costituito dalla totale assenza di digitalizzazione dei contenuti, tassello fondamentale per poter condividere dati ed informazioni su Herdonia. È stata individuata come necessità primaria la realizzazione di una mappa della città antica in cui fossero posizionate tutte le aree sottoposte ad indagine stratigrafica, strumento, tuttora assente, indispensabile per una qualsivoglia operazione futura di sistematizzazione di dati. Pertanto sono state acquisite in formato digitale tutte le planimetrie e le sezioni stratigrafiche disegnate dal 1962 fino al 19931, e collocate su base cartografica georeferenziata2 tramite un sistema GIS open source. Dopo aver ordinato e sistemato i dati topografici sono state analizzate le modalità di erogazione verso il pubblico, utilizzando tool e programmi a costo zero e provenienti dal panorama del software libero ed open source. I percorsi di erogazione delle informazioni sono essenzialmente due. Un primo percorso relativo alla fruizione delle mappe di Herdonia tramite strumenti per la pubblicazione sul web, ed un secondo costituito dalla costruzione di un ambiente virtuale in cui possano coesistere modelli fotogrammetrici 3D di resti di alcuni monumenti della città antica e ricostruzioni tridimensionali della stratigrafia individuata in fase di scavo.
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Billet, Benjamin. "Système de gestion de flux pour l'Internet des objets intelligents." Thesis, Versailles-St Quentin en Yvelines, 2015. http://www.theses.fr/2015VERS012V/document.

Повний текст джерела
Анотація:
L'Internet des objets (ou IdO) se traduit à l'heure actuelle par l'accroissement du nombre d'objets connectés, c'est-à-dire d'appareils possédant une identité propre et des capacités de calcul et de communication de plus en plus sophistiquées : téléphones, montres, appareils ménagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. Spécifiquement, l'Internet des objets pose plusieurs problèmes, notamment du fait de sa très grande échelle, de sa nature dynamique et de l'hétérogénéité des données et des systèmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractéristiques nécessitent des outils et des méthodes idoines pour la réalisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de données disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dédiées. Dans cette optique, nous défendons la thèse suivante : en raison de la nature continue des données (mesures physiques, évènements, etc.) et leur volume, il est important de considérer (i) les flux comme modèle de données de référence de l'Internet des objets et (ii) le traitement continu comme modèle de calcul privilégié pour transformer ces flux. En outre, étant donné les préoccupations croissantes relatives à la consommation énergétique et au respect de la vie privée, il est préférable de laisser les objets agir au plus près des utilisateurs, si possible de manière autonome, au lieu de déléguer systématiquement l'ensemble des tâches à de grandes entités extérieures telles que le cloud. À cette fin, notre principale contribution porte sur la réalisation d'un système distribué de gestion de flux de données pour l'Internet des objets. Nous réexaminons notamment deux aspects clés du génie logiciel et des systèmes distribués : les architectures de services et le déploiement. Ainsi, nous apportons des solutions (i) pour l'accès aux flux de données sous la forme de services et (ii) pour le déploiement automatique des traitements continus en fonction des caractéristiques des appareils. Ces travaux sont concrétisés sous la forme d'un intergiciel, Dioptase, spécifiquement conçu pour être exécuté directement sur les objets et les transformer en fournisseurs génériques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilité de notre approche, nous introduisons un prototype de Dioptase dont nous évaluons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systèmes antérieurs de capteurs et d'actionneurs déjà déployés dans l'environnement
The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Govoni, Irene. "Analisi e progettazione delle funzionalità di un software per la gestione delle competenze: sviluppo del modello di processo e del prototipo funzionale. Struttura di analisi e definizione dei dati per la gestione delle Risorse umane." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/1007/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Palaia, Gaetano. "Riqualificazione del data warehouse di una pubblica amministrazione in ambito agricolo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25073/.

Повний текст джерела
Анотація:
Quest’anno si celebra il trentesimo anniversario da quando Inmon ha introdotto, per la prima volta, il concetto di data warehouse nel 1992, influenzando considerevolmente i processi decisionali di molte organizzazioni di ogni settore. Tra fine anni ’90 e inizio millennio, le soluzioni di business intelligence hanno iniziato a diffondersi significativamente e ad imporsi come principale sistema di supporto alle decisioni. Proprio in questo contesto è stato progettato e sviluppato il data warehouse la cui riqualificazione è oggetto di questo elaborato. In particolare, il lavoro di tesi è il frutto delle attività svolte presso Iconsulting, azienda di consulenza specializzata in ambito business intelligence, per un Ente pubblico operante nel settore agricolo. Il progetto di riqualificazione nasce dall’esigenza di risolvere una serie di inefficienze nel sistema dell’Ente, causa di un considerevole aumento dei tempi di elaborazione dei dati e del numero di errori nel processo ETL. La prima parte dell’elaborato introduce in generale la business intelligence e le fasi principali che caratterizzano il ciclo di sviluppo di un data warehouse. Successivamente, dopo una breve descrizione del contesto di lavoro, si analizza nello specifico l’architettura del data warehouse dell’Ente e la sua evoluzione nel tempo rispetto al progetto iniziale. Nell’ultima parte, si analizzano nel dettaglio le problematiche che hanno portato all’avvio del progetto, si espone la metodologia messa a punto per la riqualificazione del sistema e si ripercorrono nel dettaglio le attività riguardanti la sua applicazione. Infine, vengono presentati i risultati ottenuti e i possibili sviluppi futuri.
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Radicati, Eleonora. "Efficienza energetica globale: sviluppo di uno strumento innovativo per la gestione dei dati e la definizione di possibili scenari. Il caso studio del nuovo Tecnopolo di Bologna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4815/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Osmani, Laura. "Database relazionali e applicazioni gis e webgis per la gestione, l'analisi e la comunicazione dei dati territoriali di un'area protetta. Il Parco Regionale del Conero come caso applicativo." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3637.

Повний текст джерела
Анотація:
2008/2009
Alla base del lavoro di ricerca è stato posto un impianto metodologico a carattere multidisciplinare contrassegnato da un lato da un’analisi introduttiva teorico-geografica relativa alle tematiche inerenti il governo del territorio e del paesaggio in area protetta, dall’altro, da una fase di esame (connessa ad un ambito di indagine più strettamente cartografico – digitale) tesa a fare il punto sullo stato di avanzamento -a livello comunitario e nazionale- in merito al tema della costruzione di infrastrutture di dati spaziali, pubblicazione e condivisione di servizi legati al settore del Geographical Information System, con attenzione alla comunicazione degli elementi di natura ambientale (rintracciabili anche all’interno del contesto aree protette). Entrambe le panoramiche, arricchite al loro interno dalla descrizione del quadro normativo transcalare di riferimento, risultano necessarie ai fini della contestualizzazione e impostazione del lavoro e conducono ad una fase di screening in merito al tema comunicazione dei dati territoriali in ambiente webgis da parte degli enti italiani gestori delle aree protette, nello specifico parchi nazionali e regionali. Tali elementi teorici, legislativi e conoscitivi sono stati poi presi a riferimento nel corso della fase applicativa della ricerca con lo scopo di guidare e supportare i momenti che hanno condotto alla realizzazione di applicazioni dedicate all’area Parco del Conero facenti seguito ad una fase di survey sul campo, ad un’organizzata raccolta di dati territoriali (di base e di Piano del Parco) e successive fasi di analisi spaziale. Lo scopo è quello di supportare (grazie agli applicativi realizzati) le operazioni di gestione, studio e comunicazione territoriale che un Ente responsabile di un’area protetta si trova a dover definire e implementare alla luce delle tematiche considerate nel corso della sezione teorica. I risultati tangibili si incarnano nella creazione di un’architettura che partendo dal relational database, passando per il geodatabase e giungendo alle piattaforme webgis dinamiche e interattive funga da supporto ai processi di coordinamento, analisi e diffusione di selezionati elementi territoriali relativi al comprensorio Parco del Conero e al suo principale strumento di pianificazione (Piano del Parco) agevolando e supportando così sia processi gestionali e decisionali più “consapevoli”, sia percorsi informativi e partecipativi strutturati. Il corpus definitivo dell’elaborato è stato suddiviso in due parti distinte allo scopo di scandire i momenti dello studio e consentirne una più immediata lettura. Ciascuna si articola in tre capitoli. La prima parte, a cui si è assegnato il titolo “Governo del territorio e condivisione del dato informativo e cartografico. Scenari evolutivi verso lo sviluppo di dinamiche partecipative” esplicita al suo interno il quadro teorico, normativo e conoscitivo posto alla base della ricerca. - Nel corso del primo capitolo si è ritenuto opportuno introdurre brevemente alle recenti dinamiche che hanno interessato i concetti, le definizioni e gli aspetti normativi inerenti le tematiche relative al governo del territorio e del paesaggio in area protetta, più nel dettaglio di quello dei parchi naturali regionali in Italia e forme del paesaggio da tutelare. Un excursus che ha preso in esame gli scritti geografici nazionali e internazionali sul tema, facendo emergere posizioni eterogenee, in continua evoluzione e, comunque, oggi in linea con i recenti indirizzi di contesto sviluppati e approvati in ambito comunitario e convenientemente riletti alla scala nazionale. Il tutto ha la necessità di essere supportato da un’adeguata rappresentazione cartografico-tassonomica delle diverse tipologie, unità e categorie di paesaggio e parco. Principio, quello della classificazione, che caratterizza una delle fondamentali linee di dibattito, internazionale e nazionale sull’argomento. - Il secondo, attraverso un approccio che lega il mondo del Geographical Information System e le aree protette tramite il tema della pubblicazione e condivisione dei dati spaziali e ambientali, configura brevemente lo stato dell’arte nel contesto di realizzazione di infrastrutture ad essi dedicate, di implementazioni relative alla stesura dei metadati da indicare per set e serie di elementi territoriali, nonché servizi per i medesimi. Lo sguardo viene rivolto alle direttive, ai regolamenti e alle decisioni in ambito comunitario e alle trasposizioni delle stesse all’interno del contesto nazionale. - Nel terzo si inizia ad entrare nella parte del lavoro di ricerca caratterizzata da un’impronta più conoscitiva che teorico-normativa. Ci si spinge oltre il quadro concettuale e si cerca di capire, attraverso la realizzazione di uno screening sul tema della comunicazione e diffusione (da parte dei rispettivi enti gestori) dei più rilevanti dati territoriali relativi ai parchi nazionali e regionali italiani tramite piattaforme webgis, cosa nel nostro paese è stato fatto a favore della loro divulgazione e quali possono configurarsi come margini di miglioramento futuro. L’analisi è corredata da grafici e tabelle di dettaglio in relazione alle quali si espongono commenti relativi ai risultati ricavati nel corso dell’indagine -sia in valore assoluto che in valore percentuale-. Il capitolo funge da ponte tra la sezione teorica del lavoro e quella dedicata invece al caso di studio specifico. La seconda parte “Un’applicazione territoriale: il Parco del Conero. Da un’analisi geografica di contesto ad una di dettaglio attraverso tools gis-analyst. Database Management System e Web Service Application per la gestione e la comunicazione”, memore dell’indagine teorico-conoscitiva, è dedicata alla presentazione del caso applicato all’area protetta del Conero. Nel dettaglio: - all’interno del capitolo quarto si fornisce un inquadramento territoriale dell’area oggetto di esame tramite analisi condotte grazie a tools gis-analyst (ArcGis – ArcToolbox). Tale inquadramento viene arricchito dal rilievo sul campo della rete sentieristica interna al Parco del Conero in relazione alla quale si descrivono le modalità di acquisizione dei dati e le successive fasi di post-elaborazione. Il rilievo dei sentieri (reso necessario dal fatto che la rete era stata solo digitalizzata sulla carta) ha consentito di completare il quadro di analisi relativo alla viabilità pedonale interna all’area parco, ponendo l’accento non solo sulle caratteristiche di fruibilità turistico-paesaggistica che questa possiede, ma integrando i dati raccolti con quelli del Piano del Parco già a disposizione dell’Ente al fine di giungere alla realizzazione di modelli di analisi spaziale (ESRI Model Builder) da poter applicare in successive fasi di valutazione territoriale dell’area stessa o di programmazione concernente interventi puntuali da effettuarsi sulla rete sentieristica in relazione a tratti di percorso caratterizzati da elementi di criticità. Di tali modelli si sottolineano le caratteristiche di versatilità e adattabilità a qualsiasi tipologia di territorio, protetto e non, che risulti attraversato da sentieri, percorsi e itinerari turistico - culturali o di fruibilità paesaggistica e naturalistica. Il capitolo si conclude con la descrizione delle finalità di indagine e struttura dei modelli stessi. - Nel capitolo quinto i dati alfanumerici, quelli ricavati dalle survey della rete sentieristica, quelli di piano, nonché quelli riguardanti le fonti bibliografiche vengono integrati all’interno di un database relazionale MS Access pensato ai fini della loro consultazione anche da parte di utenti non esperti GIS. Tale database consente collegamenti e interazioni sia con un personal geodatabase ESRI che con il database spatial PostgreSQL (estensione PostGIS) all’interno dei quali sono stati archiviati i dati spaziali dedicati invece ad una utenza GIS specialist. Si prosegue con la descrizione delle tipologie di dataset territoriali in essi inseriti ai fini della loro archiviazione e del loro aggiornamento. - Il sesto capitolo risulta, infine, dedicato al testing e sviluppo (localhost) di un applicativo Webgis UMN Mapserver con front-end dinamico P.Mapper contenente una selezione dei dati spaziali di cui sopra. In relazione ad esso si delineeranno le caratteristiche fondanti, le categorie e le query di interrogazione, i parametri degli strati informativi di cui si intende consentire la visualizzazione. Il tutto consapevoli che la pubblicazione web di un Sistema Informativo Territoriale trova, di fatto, il suo fine ultimo non solo nel mero passaggio da un’utenza locale a una multiutenza condivisa del dato/database spaziale, ma anche nella sua auto-identificazione a strumento atto a supportate, favorire e attivare processi di condivisione informativa e partecipazione decisionale collettiva secondo dinamiche che, alternativamente, vertano ad un andamento di tipo top - down e bottom – up. Il lavoro, dopo le note conclusive, si chiude con le consuete indicazioni bibliografiche e sitografiche e tre allegati all’interno dei quali si riportano: due tabelle sinottiche relative allo screening sui parchi nazionali e regionali presentato nel corso del terzo capitolo, l’estratto di alcuni strati informativi inseriti nel file .map di Mapserver e infine un elenco delle sigle e degli acronimi incontrati nel corso dello scritto.
XXII Ciclo
1979
Стилі APA, Harvard, Vancouver, ISO та ін.
37

FACCIA, ALESSIO. "Analisi dei dati RICA finalizzati all'approfondimento del tema della gestione del rischio in agricoltura. Misurazione delle performance finanziarie e patrimoniali delle aziende agrarie e relativa definizione di un modello di rating." Doctoral thesis, Università Politecnica delle Marche, 2012. http://hdl.handle.net/11566/242051.

Повний текст джерела
Анотація:
Il presente elaborato ha condotto alla determinazione di un algoritmo (quoziente ponderato) di rating per valutare il merito creditizio delle aziende agrarie basato su un’unica fonte informativa: l’archivio RICA. Tale fonte è stata scelta per i seguenti motivi:  semplicità di utilizzo;  attendibilità dei dati ivi contenuti;  significativa profondità di data set disponibile (6 anni di dati). Le variabili impiegate nei calcoli dell’algoritmo di rating proposto presentano alcune sostanziali differenze rispetto alle due metodologie utilizzate nei precedenti analoghi studi in ambito agricolo (Moody’s per ISMEA e EM Score di Altman). Il quoziente ponderato determinato risulta così composto: Q = (15% * A) + (30% * B) + (25% * C) + (30% * D) dove: A: Sup_TOT. B: Cap_FOND_TOT / Sup_TOT. C: Inv_FOND_NEW / Cap_FOND_TOT. D: Cap_ESE_PROP / Sup_TOT. Il quoziente può variare tra un minimo di 0,75 e un massimo di 3. Le Probabilità di Default associate alle diverse classi di rating, sono riportate nella tabella che segue. Le evidenze empiriche di carattere discreto hanno rilevato uno andamento “a campana”, ove la curva gaussiana è raffigurabile nelle frequenze di aziende concentrate principalmente nei valori centrali. Il modello di rating evidenziato è contraddistinto dall’utilizzo esclusivo di variabili quantitative in quanto sono le uniche che incorporano le seguenti caratteristiche:  oggettività di misurazione,  presenza nell’archivio RICA,  espressive di solidità, opportunità di sviluppo e potenzialità intrinseche del sistema aziendale. Piuttosto che focalizzare l’attenzione principalmente sui potenziali rischi che potrebbero determinare un’insolvenza, pur senza prescindere dall’associazione di una Probabilità di Default, ci si è proposto l’obiettivo di creare un sistema di calcolo guidato da termini positivi, ossia di opportunità di sviluppo, potenzialità intrinseche nel sistema aziendale, basate sulle risorse effettivamente disponibili. La valutazione della creazione di opportunità di sviluppo e delle potenzialità intrinseche del sistema aziendale, costituendo una evidente riduzione dei rischi di insolvenza, ha consentito un’associazione prevalentemente indiretta dei range di Probabilità di Default a ciascuna classe di rating.
This study has determined a rating algorithm (weighted ratio) to assess the creditworthiness of farms based on a single source of information: the RICA data set. This source was chosen for the following reasons: • ease of use; • reliability of the data contained therein; • significant depth of data sets available (6 years of data). The variables used in the calculations of the rating algorithm proposed have some substantial differences from the two methods used in previous similar studies in the agricultural sector (Moody's ISMEA results of Altman and EM). The weighted ratio is determined as follows: Q = (15% * A) + (30% * B) + (25% * C) + (30% * D) with: A: Sup_TOT. B: Cap_FOND_TOT / Sup_TOT. C: Inv_FOND_NEW / Cap_FOND_TOT. D: Cap_ESE_PROP / Sup_TOT. The ratio can vary between a minimum of 0.75 and a maximum of 3. The probability of default associated with the different classes of rating is shown in the table below. The discreet nature of empirical evidence has shown a trend in "bell", where the Gaussian curve is shown in the frequency of companies concentrated mainly in the central values. The rating model is characterized by the exclusive use of quantitative variables as they are the only ones that incorporate the following features:  objectivity of metering,  presence in the archive RICA  expression of strength, opportunities for development and intrinsic potential of the business system. Rather than focusing primarily on the potential risks that could cause a default, the association to a Probability of Default has been determined as an ambitious objective of creating a system of calculation guided by positive terms, ie of opportunities development potential inherent to the business system, based on available resources. The value of the creation of development opportunities and the intrinsic potential of the business system, establishing a clear reduction of risk of insolvency, has allowed an association of mainly indirect range of Probability of Default rating to each class.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Peloso, Pietro. "Riqualificazione del Data Mart della Contabilità di UniBO: mappatura concettuale e revisione della reportistica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Знайти повний текст джерела
Анотація:
Il lavoro di questo progetto di tesi si concentra sull’analisi e ricognizione dei dati contenuti nel Data Warehouse, sulla successivamente modellazione concettuale degli stessi e sulla revisione delle tecniche di analisi per interrogare ed esplorare i dati. La prima fase riguarda l’analisi e la successiva mappatura dei dati contenuti nel Data Warehouse dell’Università di Bologna, in particolar modo il data mart della contabilità finanziaria prima e il data mart della contabilità economico-patrimoniale e analitica poi, mostrando come si è evoluto il data mart della contabilità in seguito al passaggio. La seconda fase invece riguarda il rifacimento di una parte dei report utilizzati dagli utenti per effettuare le analisi sulla contabilità. L’output finale è stato generato mediante un lavoro di reverse engineering attraverso lo strumento CASE (Computer-Aided Software Engineering) Indyco Builder, mentre la reportistica, precedentemente realizzata sull’applicativo MicroStrategy, è stata effettuata tramite l’applicativo web Pentaho User Console. L’obiettivo è quello di generare una documentazione completa, aggiornata ed esaustiva relativa al nuovo data mart della contabilità realizzato e ospitato da Cineca. Questo lavoro si colloca nell’ambito di un progetto più grande che prevede l’inserimento di questo data mart all’interno del Data Warehouse di Unibo, che a sua volta è all’interno di un progetto di riqualifica dei data mart esistenti e della creazione di nuovi data mart.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Lebrun, Philippe. "Comment les "intelligences articulées" peuvent-elles améliorer la gestion des savoir-faire? : une application au supply chain management." Caen, 2015. http://www.theses.fr/2015CAEN0508.

Повний текст джерела
Анотація:
Cette recherche s'intéresse aux problématiques de création et d'amélioration de processus pour la gestion des savoir-faire. En réponse, nous avançons le concept d' "intelligences articulées" qui se fonde sur quatre principes dominants. Le premier d'entre eux repose sur une adaptation des « méthodes agiles», le deuxième décline en partie les concepts de la « recherche intervention », le troisième utilise des techniques informatiques en transposant celles de la "business intelligence" et le quatrième prend en considération l'acceptabilité des acteurs face aux changements. La « démarche » proposée est alors perceptible comme un double vecteur de management et de support à la conduite du changement. Dans cette étude, la dimension managériale est abordée de manière pragmatique, et positionne la diffusion de l'information comme élément central. En effet, en renforçant la communication et la transparence par l'utilisation d'outils de simulation et de pilotage, nous cherchons à valoriser la performance des managers. Les éléments présentés sont appliqués au cas du « Supply Chair Management » dans le secteur industriel. Pour la conduite de nos travaux, nous prenons appui sur les principes de la « recherche intervention » qui se révèlent appropriés au développement de ce type de projet. Le déroulement de la recherche s'organise selon le cheminement suivant, tout d'abord la présentation du cadre conceptuel qui est à l'origine de la démarche. Puis nous abordons la description du terrain d'expérimentation avec le développement de deux études de cas. La première concerne la conception d'un outil d'allocation de ressources humaines. Celui-ci permet d'affecter les personnels dans le cadre de la polyactivité. La seconde s'attache à la refonte d'une organisation logistique dans un atelier de fabrication industriel avec la mise en oeuvre d'un "Milkrun" pour la gestion des flux physiques du site de production. A l'issue de la présentation de ces cas, nous proposons une discussion et avec une formalisation des concepts autour des thèmes étudiés. La recherche recommande alors les éléments de mise en oeuvre de la « démarche » pour la gestion de projets d'amélioration qui valorise la dimension collaborative et l'émergence des savoir-faire
This research looks at the problems of creation and process improvement for the management of know-how. In response, we are advancing the concept of "hinged intelligences" which is based on four dominant principles. The first of these is based on an adaptation of "agile methods1", the second part declines the concepts of the "intervention research", the third uses computer techniques in transposing those "business intelligence" and the fourth takes into account the acceptability of the players face the changes. The proposed "approach" is so noticeable as a double vector management and support in the conduct of change. In this study, the managerial dimension is addressed in a pragmatic way, and positioned the dissemination of information as a central element. Indeed, by strengthening communication and transparency through the use of pilotage and simulatiod tools, we seek to enhance the performance of managers. These elements are applied to the case of the "Supply Chain Management" in the industrial sector. For the conduct of our work, we are building on the principles of the "intervention research" which prove appropriate to the development of this type of project. Conduct research is organized according to the following path, first presentation of the conceptual framework which is at the origin of the approach. Then we discuss the description of the land of experimentation with the development of two case studies. The first concerns the design of a human resource allocation tool. This allows to assign staff in the context of the actual. The second focuses on the redesign of a logistics organization in a workshop industrial with the implementation of a "Milkrun2" for the management of physical flows of the production site. At the end of the presentation of these cases, we propose a discussion with a formalization of the concepts around the themes studied. The research then recommends the elements of implementation of the "approach" for the management of improvement projects that values collaborative dimension and the emergence of the know-how
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Marinaro, Isabella. "Analisi e Progettazione del Data Mart Ricerca e Terza Missione per l'Università di Bologna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Знайти повний текст джерела
Анотація:
L'obiettivo di questo lavoro di tesi è la progettazione di un Data Mart del Datawarehouse dell'Università di Bologna, nello specifico dell'ambito "Ricerca e Terza Missione". Sono descritti le principali fasi del progetto, quali analisi dei requisiti, modellazione concettuale e logica, progettazione dell'ETL e infine la fase di testing.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Breslas, Grigore. "Riqualificazione del Data Warehouse UniBO: un dashboard per il Piano Strategico d'Ateneo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20756/.

Повний текст джерела
Анотація:
L’obiettivo del lavoro di tesi è quello di creare un dashboard per il Piano Strategico d’Ateneo, documento che viene redatto ogni tre anni. Dopo la sua redazione, annualmente vengono monitorati i Key Performance Indicators (KPI) per controllare se si stanno perseguendo gli obiettivi prefissati dal piano ed eventualmente intervenire. Ogni anno, gli indicatori vengono calcolati attraverso elaborazioni manuali su fogli di calcolo, e questo implica un elevato numero di ore annue dedicate a tale scopo. Il principale vantaggio della creazione di un dashboard è la riduzione drastica dei tempi dedicati al calcolo dei KPIs. Un altro vantaggio è quello di avere sempre dati aggiornati e certificati. Per arrivare a questo risultato, si è dovuto prima fare un’analisi del patrimonio informativo del Data Warehouse, per capire se tra i fatti che monitora ci sono anche quelli necessari per il calcolo degli indicatori del Piano Strategico. Poi, è stata fatta un’analisi approfondita dell’indicatore per capire la metrica usata per il suo calcolo. Si è usato Indyco nella fase di progettazione degli indicatori e poi MicroStrategy Desktop nella fase di implementazione degli stessi. Una volta che i KPI sono stati replicati sul Data Warehouse è stato possibile, usando MicroStrategy Web, creare il dashboard. Nell’elaborato viene inizialmente presentata brevemente la Business Intelligence mettendo al centro il Data Warehouse (DW). Poi, viene presentato il progetto di riqualificazione, con particolare enfasi sull’utilizzo del DW e sul processo di certificazione dei dati. Successivamente vengono illustrate le tecnologie che hanno consentito la realizzazione del cruscotto, per poi passare alla descrizione del processo di definizione del Piano Strategico d’Ateneo. Infine, vengono descritte le attività che hanno portato alla realizzazione del dashboard.
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Castellano, Mattia. "Business Process Management e tecniche per l'applicazione del Process Mining. Il caso Università degli Studi di Parma." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Знайти повний текст джерела
Анотація:
In un mondo in cui l'apertura di nuovi mercati e l'introduzione di nuove tecnologie genera continuamente nuove opportunità, le aziende devono sempre più imparare ad adattarsi e a gestire il cambiamento. Con la diffusione del Process Thinking le organizzazioni iniziano a rendere propri concetti quali processi, attività, eventi, flussi, cambiamento e sviluppo. E' in questo scenario che nascono discipline orientate al cambiamento organizzativo e miglioramento dei processi aziendali, come il Business Process Re-engineering (BPR) e il Business Process Management (BPM). L'aumento della tecnologia e l'era dell'Information Technology (IT), i sistemi informativi assumono un ruolo sempre più importante nella vita dell'organizzazione, supportando l'esecuzione dei processi e iniziando a produrre grandi quantità di tracce relative all'esecuzione dei task. Comincia l'era dei Big Data e del Data Mining. La ricerca arriverà a soddisfare il bisogno aziendale di estrazione di valore tangibile dai dati, o log, con le tecniche di Process Mining. Le tecniche di Process Mining, considerate una forma di Business Intelligence (BI) vengono oggi applicate in vari settori industriali, primo fra tutti il settore dei Servizi. Verrà analizzata nel dettaglio un'applicazione delle tecniche di Process Mining in un progetto commissionato dall'Università degli Studi di Parma a HSPI S.p.A, azienda di consulenza direzionale nella quale ho svolto il tirocinio per Tesi e partecipato attivamente all'analisi. Il Process Mining si conferma una valida tecnica per l'analisi dei dati offline, e la ricerca è attualmente concentrata all'implementazione del Process Mining nell'analisi dei dati real-time, al fine di affrontare la necessità di cambiamento in modo tempestivo, e trarne un vantaggio competitivo.
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Bouabdallaoui, Yassine. "Introduction de l'intelligence artificielle dans le secteur de la construction : études de cas du Facility Management." Electronic Thesis or Diss., Centrale Lille Institut, 2021. http://www.theses.fr/2021CLIL0022.

Повний текст джерела
Анотація:
L’industrie du Facility Management (FM) a connu une évolution rapide au cours des dernières décennies, ce qui a entraîne une forte expansion des activités qui y sont liées. Les organisations de FM sont passées du rôle traditionnel de fournisseur de services de maintenance à des activités complexes et interconnectées impliquant des personnes, des processus et des technologies. En conséquence de cette croissance exponentielle, les industriels de la FM sont confrontés à des défis croissants et variés allant des défis environnementaux aux défis contractuels et économiques. Le récent développement de l'Intelligence artificielle (IA) et de l’apprentissage machine a offert aux universitaires comme aux industriels un nouveau ensemble d'outils pour innover et relever les nouveaux défis de la digitalisation et de la donnée.L'IA a permis le développement des solutions multiples telles que l'automatisation et la personnalisation des services. Le secteur du Facility Management peut bénéficier de ces nouvelles techniques pour mieux gérer ses actifs et améliorer ses processus. Cependant, l'intégration de l'IA dans l'écosystème du FM est une tâche difficile qui nécessite de réduire l'écart entre les problématiques métiers et les technologies de données. Pour développer le véritable potentiel de l'analyse des données et de l'IA dans l'industrie du FM, un travail important est nécessaire pour surmonter les problèmes de qualité et de gestion des données dans le secteur du FM. L'objectif global de cette thèse est de conceptualiser la compréhension théorique et pratique de la mise en œuvre de l'intelligence artificielle et des technologies d’apprentissage machine dans les activités de Facility Management pour mieux exploiter les bâtiments. Les promesses de la mise en œuvre de l'IA ont été présentées ainsi que les défis et les obstacles qui limitent le développement de l'IA dans le secteur du Facility Management. Pour résoudre ces problématiques, un cadre de travail a été proposé pour améliorer la gestion des données et tirer parti de l'IA dans ce secteur d’activité. Plusieurs études de cas ont été sélectionnées pour aborder ce cadre de travail. Les études de cas sélectionnées couvraient les applications de maintenance prévisionnelle, d'assistant virtuel et d’automatisation de la gestion des demandes d’interventions. Les résultats de ce travail ont démontré le potentiel de l'IA pour relever les défis du FM tels que la gestion de la maintenance et la gestion des déchets. Cependant, de nombreux obstacles limitant le développement de l'IA dans le secteur du FM ont été identifiés, notamment des problèmes de disponibilité des données et de passage à grande échelle
The industry of Facility Management (FM) has known a rapid advancement through the last decades which leads to a largeexpansion of FM activities. The FM organisations have evolved from the traditional role of providing maintenance services toinclude complex and interconnected activities involving people, processes and technologies. As a consequence of thisexponential growth, facility managers are dealing with growing and varied challenges ranging from energy efficiency andenvironmental challenges to service customisation and customer satisfaction. The development of Artificial Intelligence (AI)is offering academics and practitioners a new set of tools to address these challenges. AI is enabling multiple solutions suchas automation, improving predictability and forecasting and offering services customisation. The Facility Managementindustry can benefit from these new techniques to better manage their assets and improve their processes. However, theintegration of AI into the FM ecosystem is a challenging task that needs to overcome the gap between the business driversand the AI. To unlock the full potential of data analytics and AI in the FM industry, significant work is needed to overcomethe issues of data quality and data management in the FM sector. The overall aim of this thesis is to conceptualise thetheoretical and practical understanding and implementation of artificial intelligence and data-driven technologies into FacilityManagement activities to leverage data and optimise facilities usage. Promises of AI implementations were presented alongwith the challenges and the barriers limiting the development of AI in the FM sector. To resolve these issues, a frameworkwas proposed to improve data management and leverage AI in FM. Multiple case studies were selected to address thisframework. The selected case studies covered predictive maintenance, virtual assistant and natural language processingapplications. The results of this work demonstrated the potential of AI to address FM challenges such in maintenancemanagement and waste management. However, multiple barriers limiting the development of AI in the FM sector wereidentified including data availability issues
Стилі APA, Harvard, Vancouver, ISO та ін.
44

El, Haddadi Anass. "Fouille multidimensionnelle sur les données textuelles visant à extraire les réseaux sociaux et sémantiques pour leur exploitation via la téléphonie mobile." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1378/.

Повний текст джерела
Анотація:
La concurrence est un concept fondamental de la tradition libérale et des sciences économiques qui oblige les entreprises à pratiquer l'Intelligence Economique (IE) pour bien se positionner sur le marché ou tout simplement pour survivre. Mais souvent, ce n'est pas le plus fort qui survit, ni le plus intelligent, mais celui qui est le plus sensible au changement, facteur dominant dans la société actuelle. Les changements proviennent de l'extérieur ou naissent au sein même de l'entreprise et peuvent l'affecter plus ou moins durablement. Dès lors, les entreprises sont appelées à rester constamment en veille pour guetter le moindre changement en vue d'y apporter la solution adéquate en temps réel. Cependant, pour une veille réussie, on ne doit pas se contenter uniquement de surveiller les opportunités, mais avant tout, d'anticiper les menaces. Malheureusement, cette veille se déroule en oubliant l'indispensable volet sécurité de l'IE à savoir la sécurité des données manipulées et celle des procédés suivis pour atteindre les objectifs de l'IE. Nos travaux de recherche consistent à proposer un Système d'Intelligence Economique (SIE) Généraliste et Mobile. Ce SIE intègre une approche de modélisation du contrôle d'accès aux données et aux traitements pour sécuriser toutes les informations et les flux d'interaction durant son cycle de vie. Le besoin en matière de sécurité dans un SIE provient du fait que les informations manipulées sont d'ordre stratégique ayant une valeur assez importante. Une telle sécurité ne doit pas être considérée comme une option supplémentaire qu'offre un SIE pour se distinguer d'un autre. D'autant plus que la fuite de ces informations n'est pas le fait de faiblesses inhérentes aux systèmes informatiques des entreprises, mais c'est avant tout une question organisationnelle. La mobilité présente un choix stratégique pour notre SIE ''XPlor EveryWhere'', dont le but est de permettre aux utilisateurs de nos solutions de veille de continuer à rechercher, surveiller, valider et rediffuser des informations stratégiques au cours de leurs déplacements. Ils n'ont ainsi plus besoin d'être assis face à leur ordinateur pour accéder à des données utiles dans l'instant (préparation d'une réunion, nouvel ordre du jour, information sur un interlocuteur, une technologie, un marché, demande urgente d'une analyse ou d'un focus spécifique). Il leur suffit simplement d'utiliser discrètement, et en tout sécurité, leur appareil mobile. Grâce à XPlor EveryWhere, ils sont en permanence au cœur de l'information pertinente
Competition is a fundamental concept of the liberal economy tradition that requires companies to resort to Competitive Intelligence (CI) in order to be advantageously positioned on the market, or simply to survive. Nevertheless, it is well known that it is not the strongest of the organizations that survives, nor the most intelligent, but rather, the one most adaptable to change, the dominant factor in society today. Therefore, companies are required to remain constantly on a wakeful state to watch for any change in order to make appropriate solutions in real time. However, for a successful vigil, we should not be satisfied merely to monitor the opportunities, but before all, to anticipate risks. The external risk factors have never been so many: extremely dynamic and unpredictable markets, new entrants, mergers and acquisitions, sharp price reduction, rapid changes in consumption patterns and values, fragility of brands and their reputation. To face all these challenges, our research consists in proposing a Competitive Intelligence System (CIS) designed to provide online services. Through descriptive and statistics exploratory methods of data, Xplor EveryWhere display, in a very short time, new strategic knowledge such as: the profile of the actors, their reputation, their relationships, their sites of action, their mobility, emerging issues and concepts, terminology, promising fields etc. The need for security in XPlor EveryWhere arises out of the strategic nature of information conveyed with quite a substantial value. Such security should not be considered as an additional option that a CIS can provide just in order to be distinguished from one another. Especially as the leak of this information is not the result of inherent weaknesses in corporate computer systems, but above all it is an organizational issue. With Xplor EveryWhere we completed the reporting service, especially the aspect of mobility. Lastly with this system, it's possible to: View updated information as we have access to our strategic database server in real-time, itself fed daily by watchmen. They can enter information at trade shows, customer visits or after meetings
Стилі APA, Harvard, Vancouver, ISO та ін.
45

GALLO, Giuseppe. "Architettura e second digital turn, l’evoluzione degli strumenti informatici e il progetto." Doctoral thesis, Università degli Studi di Palermo, 2021. http://hdl.handle.net/10447/514731.

Повний текст джерела
Анотація:
La condizione digitale che ha gradualmente ibridato le nostre esistenze, trasformando atomi in bit, si è oggi cementificata sulla nostra società, arricchendone la postmodernità e determinando una nuova liquidità acuitasi con l’avvento di internet. Un momento storico segnato da una nuova maturità del digitale, evidente nel nostro diverso rapporto con i dati, e nella diffusione di metodi di machine learning avanzato, che promettono una nuova capacità di comprensione della complessità contemporanea e nel frattempo contribuiscono alla propagazione dell’apparato tecnico sul mondo. Questi cambiamenti, tanto profondi da toccare la nostra cultura, stanno modificando il nostro modo di interpretare e istituire lo spazio, e quindi di abitarlo: condizioni che hanno sicuramente delle ripercussioni sul progetto di architettura nella sua qualità di attività umana rivolta all’uomo. L’incremento di complessità che ha toccato la nostra disciplina con la postmodernità ha nel frattempo trovato nuovo sostegno nella decostruzione Derridiana, in un momento storico segnato da una grande enfasi sulle opportunità degli strumenti digitali, che abbiamo accolto all’interno della nostra disciplina dapprima esclusivamente come mezzi di rappresentazione e che hanno poi determinato l’emergere di nuovi approcci basati sulle potenzialità inclusive di continuità e variazione. Nessuno tra i protagonisti della prima svolta digitale immaginava probabilmente, gli effetti che la cultura digitale produce oggi sul progetto di architettura, forte di quasi trent’anni di sperimentazioni e cambiamenti, tanto metodologici e formali quanto organizzativi e strumentali, a partire dalla ascesa del BIM sino alle nuove possibilità algoritmiche ben rappresentate dai linguaggi di programmazione visuale e dalle simulazioni numeriche. Strumenti su cui si è concentrato lo slancio verso il digitale, che intanto in architettura ha vissuto una seconda svolta, identificata da Carpo negli approcci progettuali oggi possibili grazie a una nuova disponibilità di dati. Una condizione che inevitabilmente tocca tanto la scienza quanto l’architettura, e che non è tuttavia sufficiente a descrivere una contemporaneità in cui la tecnica dispiega le ali sull’architettura, incidendo il significato del nostro ruolo all’interno della società. A partire da queste ramificate considerazioni, consapevole della complessità con cui dobbiamo dialogare nel tentativo di ricostruire una visione il più possibile neutrale, storica e organica della fase che l’architettura sta vivendo, è necessario, a mio avviso, un approccio olistico: inclusivo, capace tanto di estendersi fino ad acquisire una prospettiva filosofica, così come di scendere verso il dettaglio tecnico, operativo, metodologico, strumentale e relazionale. Un proposito che cerco di mantenere vivo all’interno di tutto il mio lavoro di tesi, condensazione di tre anni di ricerca, che nelle sue diverse fasi guarda alle mutazioni che la tecnica digitale sta producendo nella società e quindi nel progetto di architettura. Il mio percorso è arricchito da dieci interviste raccolte con importanti protagonisti dell’architettura contemporanea, che ringrazio sin da ora per la loro grande disponibilità. Queste testimonianze mi hanno permesso di toccare con mano le complessità della progettazione contemporanea e rappresentano un polo di questa tesi, ugualmente volta a fornire un’interpretazione storica delle sfide poste in essere dalla contemporaneità e quindi all’identificazione delle responsabilità che dobbiamo assumerci per mantenere l’uomo al centro del nostro fare.
The digital condition that has gradually hybridized our lives, transforming atoms into bits, has now cemented itself in our society, enriching post-modernity and determining a new form of liquidity that has sharpened with the advent of the internet. It is a historical moment marked by a new digital maturity, evident in our diverse relationship to data and in the spread of advanced machine learning methods, which both promise a new understanding of contemporary complexity as well as contribute to the propagation of the technical apparatus throughout the world. These changes, so profound as to affect our culture, are changing our way of perceiving space, and therefore of inhabiting it: conditions that undoubtedly have repercussions on architectural design in its capacity as a human activity geared towards human beings. The increased complexity that has touched our discipline with Postmodernism has meanwhile found new support in Derridian deconstruction, in a historical moment marked by great emphasis on the opportunities that digital tools offer. These are means we first welcomed into our discipline exclusively as tools for representation, and ones that then themselves determined the emergence of new approaches based on the inclusive potential of continuity and variation. None of the protagonists of the first digital turn could probably have imagined the effects that digital culture would now be having on architectural design. A digital culture that has become increasingly stronger due to almost thirty years of both methodological and formal experimentation, as well as to organizational and instrumental changes, starting with the rise of BIM to new algorithmic possibilities represented by visual programming languages and numerical simulations. These have been the primary tools of concentration in the push towards digital, a digital which today has reached a second turn in the field of architecture, identified by Carpo in new design approaches that are now possible thanks to the larger availability of data. A condition that inevitably affects both science and architectural design, but which, nevertheless, fails to fully share a contemporaneity where technology spreads its wings as far as architecture is concerned, thus affecting the meaning of our role within society. With these multifaceted considerations as a starting point, and fully aware of how complex the dialogue we must engage in in order to reconstruct a neutral, historical, and organic as possible vision of the phase that architecture is experiencing, it is my opinion a holistic approach must be established by us. One that is both inclusive and capable of expanding to the point of acquiring a philosophical perspective, as well as being able to attend to areas that cover technical, operational, methodological, instrumental, and relational details. This objective is one I have striven to keep alive throughout the three years of my doctoral research, which in its various phases looks at the mutations that digital technology is producing in society and therefore in architectural design. My research is enriched by the inclusion of ten interviews with prominent protagonists of contemporary architecture, for whose time and availability I am grateful. These testimonials allowed me to see the complexities of contemporary design up close and personal, and they represent a central part of this thesis, which equally aims to provide a historical interpretation of the challenges posed by contemporaneity and to identify the responsibilities that we must uphold for human beings to remain at the centre of our work.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Kubler, Sylvain. "Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit." Phd thesis, Université Henri Poincaré - Nancy I, 2012. http://tel.archives-ouvertes.fr/tel-00759600.

Повний текст джерела
Анотація:
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse est la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinsèquement et intégralement communicant. Le cadre de dissémination des informations offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer par l'avenir concernant le concept de matière communicante.
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Contreras, Ochando Lidia. "Towards Data Wrangling Automation through Dynamically-Selected Background Knowledge." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/160724.

Повний текст джерела
Анотація:
[ES] El proceso de ciencia de datos es esencial para extraer valor de los datos. Sin embargo, la parte más tediosa del proceso, la preparación de los datos, implica una serie de formateos, limpieza e identificación de problemas que principalmente son tareas manuales. La preparación de datos todavía se resiste a la automatización en parte porque el problema depende en gran medida de la información del dominio, que se convierte en un cuello de botella para los sistemas de última generación a medida que aumenta la diversidad de dominios, formatos y estructuras de los datos. En esta tesis nos enfocamos en generar algoritmos que aprovechen el conocimiento del dominio para la automatización de partes del proceso de preparación de datos. Mostramos la forma en que las técnicas generales de inducción de programas, en lugar de los lenguajes específicos del dominio, se pueden aplicar de manera flexible a problemas donde el conocimiento es importante, mediante el uso dinámico de conocimiento específico del dominio. De manera más general, sostenemos que una combinación de enfoques de aprendizaje dinámicos y basados en conocimiento puede conducir a buenas soluciones. Proponemos varias estrategias para seleccionar o construir automáticamente el conocimiento previo apropiado en varios escenarios de preparación de datos. La idea principal se basa en elegir las mejores primitivas especializadas de acuerdo con el contexto del problema particular a resolver. Abordamos dos escenarios. En el primero, manejamos datos personales (nombres, fechas, teléfonos, etc.) que se presentan en formatos de cadena de texto muy diferentes y deben ser transformados a un formato unificado. El problema es cómo construir una transformación compositiva a partir de un gran conjunto de primitivas en el dominio (por ejemplo, manejar meses, años, días de la semana, etc.). Desarrollamos un sistema (BK-ADAPT) que guía la búsqueda a través del conocimiento previo extrayendo varias meta-características de los ejemplos que caracterizan el dominio de la columna. En el segundo escenario, nos enfrentamos a la transformación de matrices de datos en lenguajes de programación genéricos como R, utilizando como ejemplos una matriz de entrada y algunas celdas de la matriz de salida. También desarrollamos un sistema guiado por una búsqueda basada en árboles (AUTOMAT[R]IX) que usa varias restricciones, probabilidades previas para las primitivas y sugerencias textuales, para aprender eficientemente las transformaciones. Con estos sistemas, mostramos que la combinación de programación inductiva, con la selección dinámica de las primitivas apropiadas a partir del conocimiento previo, es capaz de mejorar los resultados de otras herramientas actuales específicas para la preparación de datos.
[CA] El procés de ciència de dades és essencial per extraure valor de les dades. No obstant això, la part més tediosa del procés, la preparació de les dades, implica una sèrie de transformacions, neteja i identificació de problemes que principalment són tasques manuals. La preparació de dades encara es resisteix a l'automatització en part perquè el problema depén en gran manera de la informació del domini, que es converteix en un coll de botella per als sistemes d'última generació a mesura que augmenta la diversitat de dominis, formats i estructures de les dades. En aquesta tesi ens enfoquem a generar algorismes que aprofiten el coneixement del domini per a l'automatització de parts del procés de preparació de dades. Mostrem la forma en què les tècniques generals d'inducció de programes, en lloc dels llenguatges específics del domini, es poden aplicar de manera flexible a problemes on el coneixement és important, mitjançant l'ús dinàmic de coneixement específic del domini. De manera més general, sostenim que una combinació d'enfocaments d'aprenentatge dinàmics i basats en coneixement pot conduir a les bones solucions. Proposem diverses estratègies per seleccionar o construir automàticament el coneixement previ apropiat en diversos escenaris de preparació de dades. La idea principal es basa a triar les millors primitives especialitzades d'acord amb el context del problema particular a resoldre. Abordem dos escenaris. En el primer, manegem dades personals (noms, dates, telèfons, etc.) que es presenten en formats de cadena de text molt diferents i han de ser transformats a un format unificat. El problema és com construir una transformació compositiva a partir d'un gran conjunt de primitives en el domini (per exemple, manejar mesos, anys, dies de la setmana, etc.). Desenvolupem un sistema (BK-ADAPT) que guia la cerca a través del coneixement previ extraient diverses meta-característiques dels exemples que caracteritzen el domini de la columna. En el segon escenari, ens enfrontem a la transformació de matrius de dades en llenguatges de programació genèrics com a R, utilitzant com a exemples una matriu d'entrada i algunes dades de la matriu d'eixida. També desenvolupem un sistema guiat per una cerca basada en arbres (AUTOMAT[R]IX) que usa diverses restriccions, probabilitats prèvies per a les primitives i suggeriments textuals, per aprendre eficientment les transformacions. Amb aquests sistemes, mostrem que la combinació de programació inductiva amb la selecció dinàmica de les primitives apropiades a partir del coneixement previ, és capaç de millorar els resultats d'altres enfocaments de preparació de dades d'última generació i més específics.
[EN] Data science is essential for the extraction of value from data. However, the most tedious part of the process, data wrangling, implies a range of mostly manual formatting, identification and cleansing manipulations. Data wrangling still resists automation partly because the problem strongly depends on domain information, which becomes a bottleneck for state-of-the-art systems as the diversity of domains, formats and structures of the data increases. In this thesis we focus on generating algorithms that take advantage of the domain knowledge for the automation of parts of the data wrangling process. We illustrate the way in which general program induction techniques, instead of domain-specific languages, can be applied flexibly to problems where knowledge is important, through the dynamic use of domain-specific knowledge. More generally, we argue that a combination of knowledge-based and dynamic learning approaches leads to successful solutions. We propose several strategies to automatically select or construct the appropriate background knowledge for several data wrangling scenarios. The key idea is based on choosing the best specialised background primitives according to the context of the particular problem to solve. We address two scenarios. In the first one, we handle personal data (names, dates, telephone numbers, etc.) that are presented in very different string formats and have to be transformed into a unified format. The problem is how to build a compositional transformation from a large set of primitives in the domain (e.g., handling months, years, days of the week, etc.). We develop a system (BK-ADAPT) that guides the search through the background knowledge by extracting several meta-features from the examples characterising the column domain. In the second scenario, we face the transformation of data matrices in generic programming languages such as R, using an input matrix and some cells of the output matrix as examples. We also develop a system guided by a tree-based search (AUTOMAT[R]IX) that uses several constraints, prior primitive probabilities and textual hints to efficiently learn the transformations. With these systems, we show that the combination of inductive programming with the dynamic selection of the appropriate primitives from the background knowledge is able to improve the results of other state-of-the-art and more specific data wrangling approaches.
This research was supported by the Spanish MECD Grant FPU15/03219;and partially by the Spanish MINECO TIN2015-69175-C4-1-R (Lobass) and RTI2018-094403-B-C32-AR (FreeTech) in Spain; and by the ERC Advanced Grant Synthesising Inductive Data Models (Synth) in Belgium.
Contreras Ochando, L. (2020). Towards Data Wrangling Automation through Dynamically-Selected Background Knowledge [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160724
TESIS
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Francq, Pascal. "Structured and collaborative search: an integrated approach to share documents among users." Doctoral thesis, Universite Libre de Bruxelles, 2003. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211315.

Повний текст джерела
Анотація:

Aujourd'hui, la gestion des documents est l'un des problèmes les plus importants en informatique. L'objectif de cette thèse est de proposer un système de gestion documentaire basé sur une approche appelée recherche structurée et collaborative. Les caractéristiques essentielles sont :

  • Dès lors que les utilisateurs ont plusieurs centres d'intérêts, ils sont décrits par des profils, un profil correspondant à un centre d'intérêt particulier. C'est la partie structurée du système.

  • Pour construire une description des profils, les utilisateurs jugent des documents en fonction de leur intérêt

  • Le système regroupe les profils similaires pour former un certain nombre de communautés virtuelles

  • Une fois les communautés virtuelles définies, des documents jugés comme intéressants par certains utilisateurs d'une communauté peuvent être partagés dans toute la communauté. C'est la partie collaborative du système.

Le système a été validé sur plusieurs corpora de documents en utilisant une méthodologie précise et offre des résultats prometteurs.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

Стилі APA, Harvard, Vancouver, ISO та ін.
49

Mnie, Filali Imane. "Distribution multi-contenus sur Internet." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4068/document.

Повний текст джерела
Анотація:
Dans cette thèse, nous nous sommes intéressés aux protocoles pair-à-pair (P2P), qui représentent une solution prometteuse pour la diffusion et le partage de données à faible coût sur Internet. Nous avons mené, dans un premier temps, une étude comportementale de différents protocoles P2P pour le partage de fichier (distribution de contenus sans contrainte de temps) puis le live. Dans la première étude centréesur le partage de fichier, nous avons montré l’impact d’Hadopi sur le comportement des utilisateurs et discuté l’efficacité des protocoles en fonction du contenu et l’efficacité protocolaire, en se basant sur les choix des utilisateurs. BitTorrent s’est nettement démarqué au cours de cette étude, notamment pour les grands contenus. En ce qui concerne le live, nous nous sommes intéressés à la qualité de servicedu réseau de distribution live Sopcast, car plus de 60% des événements live diffusés en P2P le sont sur ce réseau. Notre analyse approfondie de ces deux modes de distribution nous a fait nous recentrer sur BitTorrent, qui est à la base de tous les protocoles P2P Live, et est efficace en partage de fichier et complètement open source. Dans la seconde partie de la thèse, nous avons proposé et implémenté dansun environnement contrôlé un nouveau protocole sur la base de BitTorrent avec des mécanismes protocolaires impliquant tous les pairs dans la gestion du réseau. Ces nouveaux mécanismes permettent d’augmenter l’efficacité du protocole via une meilleure diffusion, tant pour le live que le partage de fichier, de métadonnées (la pièce la plus rare) et via une méthode dite de push, par laquelle un client va envoyer du contenu aux pairs les plus dans le besoin
In this study, we focused on peer-to-peer protocols (P2P), which represent a promising solution for data dissemination and content delivery at low-cost in the Internet. We performed, initially, a behavioral study of various P2P protocols for file sharing (content distribution without time constraint) and live streaming. Concerning file sharing, we have shown the impact of Hadopi on users’ behavior and discussed the effectiveness of protocols according to content type, based on users’ choice. BitTorrent appeared as the most efficient approach during our study, especially when it comes to large content. As for streaming, we studied the quality of service of Sopcast, a live distribution network that accounts for more than 60% of P2P broadcast live events. Our in-depth analysis of these two distributionmodes led us to focus on the BitTorrent protocol because of its proven efficiency in file sharing and the fact that it is open source. In the second part of the thesis, we proposed and implemented a new protocol based on BitTorrent, in a controlled environment. The modifications that we proposed allow to increase the efficiency of the protocol through improved dissemination of metadata (the rarest piece), both for live and file sharing. An enhanced version is introduced with a push method, where nodes that lag behind receive an extra service so as to improve the overall performance
Стилі APA, Harvard, Vancouver, ISO та ін.
50

PANTINI, SARA. "Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Повний текст джерела
Анотація:
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії