Dissertations / Theses on the topic 'Informazione tecnica'

To see the other types of publications on this topic, follow the link: Informazione tecnica.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 18 dissertations / theses for your research on the topic 'Informazione tecnica.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cancellieri, Andrea. "Analisi di tecniche per l'estrazione di informazioni da documenti testuali e non strutturati." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7773/.

Full text
Abstract:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
APA, Harvard, Vancouver, ISO, and other styles
2

Martini, Francesco <1971&gt. ""Tracciature Digitali": la conoscenza nell'era informazionale." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4311/1/Martini_Francesco_tesi.pdf.

Full text
Abstract:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
The specificity of the acquisition of content through digital interfaces condemns the epistemic agent to a fragmented interaction, with respect to the huge informational bulk today available through any standard implementation of the man-computer relationship, and invalidates the applicability of the standard model of knowledge as justified true belief, by repudiating the concept of rationally founded belief, to form which would instead require the agent to be able to have precisely the conceptual resources and computational time inaccessible. Thereby the agent, bound by the ontological limitations belong to cultural interfaces, is forced to fall back on ambiguous, arbitrary and often more casual than he takes into account, selection and management information process that produce real epistemological hybrids (by Latour) made of feelings, program outputs, unfounded beliefs, bits of indirect testimonies and of a series of human-digital relationships that give rise to escape in a transcendent dimension belonging to anthropological area of the sacred. Starting from this analysis the work deals with constructing a new epistemological paradigm of propositional knowledge obtained through a digital content acquisition, based on the new concept of Digital Tracings, defined as a process of digital capture of a set of tracks , ie meta-information of a testimonial kind. This device, once recognized as a communication process of digital contents, will be based on the research and selection of meta-information, ie tracks, which allow the implementation of approaches derived from analysis of decision-making under bounded rationality, which approaches, as well to be almost never used in this context, are ontologically prepared for dealing with uncertainty such as that came into the informational hybrid and that can provide the agent on the epistemic goodness of acquired content.
APA, Harvard, Vancouver, ISO, and other styles
3

Martini, Francesco <1971&gt. ""Tracciature Digitali": la conoscenza nell'era informazionale." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4311/.

Full text
Abstract:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
The specificity of the acquisition of content through digital interfaces condemns the epistemic agent to a fragmented interaction, with respect to the huge informational bulk today available through any standard implementation of the man-computer relationship, and invalidates the applicability of the standard model of knowledge as justified true belief, by repudiating the concept of rationally founded belief, to form which would instead require the agent to be able to have precisely the conceptual resources and computational time inaccessible. Thereby the agent, bound by the ontological limitations belong to cultural interfaces, is forced to fall back on ambiguous, arbitrary and often more casual than he takes into account, selection and management information process that produce real epistemological hybrids (by Latour) made of feelings, program outputs, unfounded beliefs, bits of indirect testimonies and of a series of human-digital relationships that give rise to escape in a transcendent dimension belonging to anthropological area of the sacred. Starting from this analysis the work deals with constructing a new epistemological paradigm of propositional knowledge obtained through a digital content acquisition, based on the new concept of Digital Tracings, defined as a process of digital capture of a set of tracks , ie meta-information of a testimonial kind. This device, once recognized as a communication process of digital contents, will be based on the research and selection of meta-information, ie tracks, which allow the implementation of approaches derived from analysis of decision-making under bounded rationality, which approaches, as well to be almost never used in this context, are ontologically prepared for dealing with uncertainty such as that came into the informational hybrid and that can provide the agent on the epistemic goodness of acquired content.
APA, Harvard, Vancouver, ISO, and other styles
4

Rava, Annalisa. "Sviluppo di una piattaforma software di Content Management System per la condivisone delle informazioni tecniche: il caso Bonfiglioli Riduttori S.p.A." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
L’elaborato riporta un caso studio relativo all’azienda Bonfiglioli Riduttori S.p.A., presso cui si evince la necessità di garantire la condivisione delle informazioni di natura tecnica tra gli stabilimenti che appartengono alla Business Unit Mobility and Wind Industries. L’azienda, come tante altre nel contesto attuale, ha intrapreso una strategia di delocalizzazione delle attività produttive e, per questo motivo, è composta da plants in diversi paesi nel mondo che spesso necessitano di comunicare tra loro. L’obiettivo del progetto riguarda la creazione di una piattaforma di Content Management System che deve contenere tutte le documentazioni relative all’ingegneria di processo, con un focus sulle attività di assemblaggio. Con la realizzazione del database è possibile rimuovere alcune criticità presenti nella gestione dei documenti e ridurre i tempi dedicati a scambi informativi tra gli stabilimenti e il Global Process Engineering Department, team globale che funge da collegamento tra i plants. Le informazioni infatti sono presenti online ed è possibile consultarle in maniera autonoma, con la certezza di avere sempre accesso alla documentazione più aggiornata. Il caso studio prevede un progetto pilota avviato presso l’ headquarter dell’unità di business considerata, per poi espandere la modalità di gestione della documentazione a tutti gli altri stabilimenti. Ogni plant deve quindi creare un sito web sulla piattaforma seguendo la struttura e la procedura identificata. Il risultato è quello di avere alcune pagine online che contengono i dati e i file che si vogliono condividere con tutta la divisione, in un formato standard ed organizzati in modo che sia facile reperire l’informazione ricercata. Oltre a questo, si definisce una procedura standard di gestione della documentazione aziendale, in linea con le specifiche definite dal Quality Management System, per fare in modo che, dopo la sua creazione, la piattaforma rimanga sempre aggiornata.
APA, Harvard, Vancouver, ISO, and other styles
5

TONON, ANDREA. "Tecniche Rigorose e Scalabili per il Mining di Pattern da Dati Sequenziali." Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3445089.

Full text
Abstract:
Massive amounts of data are generated continuously in every fields, such as finance, social networks, medicine, and many others. Data mining is the task of discovering interesting patterns exploring large amounts of data, making those useful and understandable. In recent years, the data mining community has tackled and proposed a vast set of problems but many others are still open. Now more than ever, it is of crucial importance to be able to analyze and extract reliable knowledge from massive datasets. However, this fundamental task poses some challenges. The first one is to design algorithms that scale the computation to the analysis of massive datasets. In such a scenario, very often approaches that return rigorous and high quality approximations are the only viable approach. The second one is to develop strategies that extract useful knowledge providing statistical guarantees on the analysis, while filtering out spurious discoveries. Finally, the abundance of data is opening new scenarios, with a lot of sources generating data continuously, requiring analyses that take into account the sequential nature of the data. The objective of this Thesis is to design novel scalable and rigorous techniques to mine patterns from sequential data, in three scenarios. The first scenario we consider is mining frequent sequential patterns through sampling. Sequential pattern mining is a fundamental task in data mining and knowledge discovery, with applications in several areas (e.g., biology), that has been extensively studied in the literature, with the definition of several exact methods. However, for large modern sized datasets, the execution of exact methods is computationally very demanding. In such a direction, we develop an algorithm to mine rigorous approximations, defined in terms of false positives or false negatives, of the frequent sequential patterns using sampling. The second scenario we consider is mining patterns from samples from unknown probability distributions. In many real life applications (e.g., market basket analysis), the analysis of a dataset is performed to gain insight on the underlying generative process of the data. However, by analyzing only a sample, one cannot exactly solve the problem and has to resort to approximations. In this setting, we tackle two problems: the problem of mining, from a single dataset, true frequent sequential patterns, which are sequential patterns frequently generated by the underlying process generating the data; and the problem of mining statistically robust patterns from a sequence of datasets, which are patterns whose probabilities of being generated from the underlying generative processes behind the sequence of datasets follow well specified trends. For both problems, we develop novel algorithms that return rigorous approximations, defined in terms of false positives or false negatives. The last scenario we consider is mining significant patterns. In significant pattern mining, the dataset is seen as a sample from an unknown probability distribution, and the aim is to extract patterns significantly deviating from an assumed null hypothesis with rigorous guarantees in terms of statistical significance of the output, controlling the retrieval of false discoveries. In this setting, we tackle two problems: the problem of mining statistically significant sequential patterns and the problem of mining statistically significant paths in time series data from an unknown network. For both problems, we develop novel algorithms that provide rigorous guarantees in term of false discoveries, employing the statistical hypothesis testing framework and techniques based on permutation testing.
Massive amounts of data are generated continuously in every fields, such as finance, social networks, medicine, and many others. Data mining is the task of discovering interesting patterns exploring large amounts of data, making those useful and understandable. In recent years, the data mining community has tackled and proposed a vast set of problems but many others are still open. Now more than ever, it is of crucial importance to be able to analyze and extract reliable knowledge from massive datasets. However, this fundamental task poses some challenges. The first one is to design algorithms that scale the computation to the analysis of massive datasets. In such a scenario, very often approaches that return rigorous and high quality approximations are the only viable approach. The second one is to develop strategies that extract useful knowledge providing statistical guarantees on the analysis, while filtering out spurious discoveries. Finally, the abundance of data is opening new scenarios, with a lot of sources generating data continuously, requiring analyses that take into account the sequential nature of the data. The objective of this Thesis is to design novel scalable and rigorous techniques to mine patterns from sequential data, in three scenarios. The first scenario we consider is mining frequent sequential patterns through sampling. Sequential pattern mining is a fundamental task in data mining and knowledge discovery, with applications in several areas (e.g., biology), that has been extensively studied in the literature, with the definition of several exact methods. However, for large modern sized datasets, the execution of exact methods is computationally very demanding. In such a direction, we develop an algorithm to mine rigorous approximations, defined in terms of false positives or false negatives, of the frequent sequential patterns using sampling. The second scenario we consider is mining patterns from samples from unknown probability distributions. In many real life applications (e.g., market basket analysis), the analysis of a dataset is performed to gain insight on the underlying generative process of the data. However, by analyzing only a sample, one cannot exactly solve the problem and has to resort to approximations. In this setting, we tackle two problems: the problem of mining, from a single dataset, true frequent sequential patterns, which are sequential patterns frequently generated by the underlying process generating the data; and the problem of mining statistically robust patterns from a sequence of datasets, which are patterns whose probabilities of being generated from the underlying generative processes behind the sequence of datasets follow well specified trends. For both problems, we develop novel algorithms that return rigorous approximations, defined in terms of false positives or false negatives. The last scenario we consider is mining significant patterns. In significant pattern mining, the dataset is seen as a sample from an unknown probability distribution, and the aim is to extract patterns significantly deviating from an assumed null hypothesis with rigorous guarantees in terms of statistical significance of the output, controlling the retrieval of false discoveries. In this setting, we tackle two problems: the problem of mining statistically significant sequential patterns and the problem of mining statistically significant paths in time series data from an unknown network. For both problems, we develop novel algorithms that provide rigorous guarantees in term of false discoveries, employing the statistical hypothesis testing framework and techniques based on permutation testing.
APA, Harvard, Vancouver, ISO, and other styles
6

Parrinello, Angelo. "Studio e sviluppo di tecniche di password cracking targettizzato." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24315/.

Full text
Abstract:
L'autenticazione via password è il metodo più comune per accedere a servizi e dati grazie alla sua semplicità: presenta però difetti ben documentati, primo fra tutti il fattore umano. Le persone tendono ad usare termini comuni o dati anagrafici: questa caratteristica risulta una potenziale vulnerabilità in caso di attacco informatico. Lo scopo di questa tesi è quello di sviluppare e studiare tecniche di password cracking targettizzato: tali tecniche consistono nell'attaccare una password di un utente-target sfruttando i suoi dati personali. Gli esperimenti effettuati sono basati su molteplici obiettivi e non su di un singolo attacco: vengono raccolti in un unico file sia le informazioni personali sia le password di migliaia di utenti. Alcune di queste persone sono usate per allenare i modelli mentre altre sono usate come target. I sistemi valutati cercano dei pattern nei dati in ingresso generando in uscita delle regole che definiscano tali comportamenti. Dopo aver creato queste regole, univoche per ogni file in input, i tool generano ipotesi di password basate su di esse; le password generate vengono messe a loro volta in input in uno strumento che le confronterà con quelle target da recuperare. I test evidenziano che uno strumento in grado di sfruttare al meglio (ovvero in maniera efficiente e scalabile) le informazioni personali, legate ad un target, non esiste. Il tool che ha dato risultati migliori si chiama PCFG-Cracker: ha recuperato quasi il 50% di un set di password in un’ora. Il dizionario di input, che ha permesso al PCFG-Cracker di ottenere il primato, è basato su informazioni personali degli individui target oltre che su delle password. Il metodo proposto, benchè non sia risultato il migliore ha ottenuto buoni risultati e può essere ulteriormente sviluppato mediante una politica di attacchi più mirati verso pochi utenti anziché molti.
APA, Harvard, Vancouver, ISO, and other styles
7

BERGAMINI, LUCA. "Tecniche di Deep Learning applicate all'allevamento." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239977.

Full text
Abstract:
Nonostante la massiccia diffusione in ormai ogni ambito di tecniche di Deep Learning, il settore dell'allevamento animale rimane una nicchia quasi inesplorata. La distanza siderale tra gli "esperti" di Deep Learning e quelli di questo settore rende quasi impossibile l'applicazione reale di algoritmi e tecnologie. Si tratta innanzitutto di un vero e proprio problema di comunicazione (più volte sperimentato in questa tesi) e solo in seconda istanza di resistenza al cambiamento. Superati questi ostacoli, appare chiaro come anche questo settore possa trarre enorme beneficio dall'applicazione di queste nuove tecnologie. Il presente lavoro è un tentativo di permeare il settore dell'allevamento animale (e dell'intera catena di produzione) da diverse angolazioni. Questo è stato possibile grazie alla fondamentale presenza di figure che si pongono tra i due ambiti (intelligenza artificiale e allevamento animale) e permettono una comunicazione efficace al fine di individuare obbiettivi e misure del successo. Nel caso di questa tesi, la start-up Farm4Trade ha rivestito questo arduo compito. Il primo argomento trattato riguarda il riconoscimento automatico dei bovini da immagini e video. Le tecniche sviluppate sono poi state applicate con successo ad altri domini (persone e veicoli), dimostrando come le conoscenze specifiche di un settore (seppur di nicchia) possano facilmente essere rese "globali". La seconda parte si concentra su detection e tracking di maiali da allevamento, con lo scopo di studiare i comportamenti individuali all'evolvere del tempo. Nell'ultima sezione, l'indagine si sposta alla fine della catena produttiva dove tecniche di segmentazione vengono applicate a carcasse di maiali da macellazione con l'intento di individuare lesioni sulla pleura polmonare. Queste sono infatti un indicatore di patologie batteriche contratte durante l'ultimo periodo di vita dell'animale. Concludendo, alla luce dei risultati ottenuti in questa tesi, emerge quanto l'intero settore dell'allevamento possa trarre largo beneficio dall'applicazione di algoritmi di intelligenza artificiale.
Although Deep Learning (DL) is increasingly being adopted in many sectors, farming is still an almost unscathed niche. This is mainly because of the humongous distance in knowledge between the experts of DL and those of farming itself. It's first of all a communication issue, and only in a second place a matter of reluctance to changes. Tackle those issues and you will find that also this sector can greatly benefit from the application of these new technologies. This thesis if therefore a collection of applications of DL to different topics in farming. This has been made possible by the key role of figures who are placed right in the middle and act as intermediaries between the experts to identify targets and measures of success. In our case, this role is covered by the Farm4Trade startup, which is also the main funder of this PhD. The first covered topic is the automatic cattle re-identification from images and videos. We show how DL methods designed for humans can be adapted to work in a completely different setting. As a feedback loop, methods developed for cattle have been reapplied on people and vehicles with successful results. The second topic is the automatic detection and tracking of pigs in the farm. The target here is to detect and classify individual behaviours and how they change through time. A collection of state-of-the-art DL techniques has been chain together while each individual piece has been analysed on its own to ensure good final performance. Finally, we jump at the end of the production chain to study how to apply DL to slaughtered pigs' carcasses image to detect and segment lungs lesions. These are reliable indicators of a bacterial pathology affecting the animal prior to its death. Results achieved during this PhD show how the whole sector of farming can benefit from the application of artificial intelligence algorithms.
APA, Harvard, Vancouver, ISO, and other styles
8

PINI, STEFANO. "Tecniche di Visione Artificiale per l'Interazione Uomo-Veicolo." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271181.

Full text
Abstract:
Negli ultimi anni, la diffusione di dispositivi digitali in ogni aspetto della vita quotidiana ha portato a nuove opportunità nel campo dell’Interazione Uomo-Macchina. Nel campo automobilistico, dove i sistemi di infotainment sono sempre più importanti per gli utenti finali, la disponibilità di telecamere economiche e miniaturizzate ha permesso lo sviluppo di interfacce utente naturali basate sulla visione artificiale, aprendo a nuove opportunità nell’Interazione Uomo-Veicolo. In questa tesi, si propone uno studio di tecniche di visione artificiale, basate sia su luce visibile che sullo spettro non visibile, che possano formare la base per la prossima generazione di sistemi di infotainment. Come tecnologie di acquisizione, il focus è posto su dispositivi basati su luce infrarossa, come camere termiche e di profondità. Queste tipologie di sensori forniscono dati affidabili in numerose condizioni di illuminazione per cui sono particolarmente adatte al dinamico ambiente automobilistico. Usando questi dispositivi, sono acquisiti due dataset: un dataset di volti, per valutare l’impatto di qualità e risoluzione dei sensori in configurazioni di acquisizione variabile, e un dataset di gesti dinamici della mano, acquisito in un simulatore di auto con molteplici sensori sincronizzati fra loro. Come approcci di visione artificiale, si sceglie di utilizzare tecniche di deep learning stato dell’arte, focalizzandosi su reti neurali efficienti che possano essere utilizzate su dispositivi integrati a basso consumo. In questo contesto, sono esaminati diversi problemi di visione artificiale, con l’obiettivo di coprire la maggior parte delle interazioni uomo-macchina. Innanzitutto, si analizza l’utilizzo di camere di profondità per il riconoscimento facciale, focalizzandosi sull’impatto che la rappresentazione dei dati di profondità e il tipo di architettura neurale utilizzata hanno sulle capacità di riconoscimento. Inoltre, si studia il riconoscimento di gesti dinamici della mano in tempo reale, utilizzando sensori infrarosso e di profondità. Si analizza anche il corpo umano nella sua interezza, in termini di riconoscimento della postura 3D e di stima senza contatto di misure antropometriche. Infine, focalizzandosi sull’area circostante il veicolo, si affronta la ricostruzione 3D di oggetti da immagini 2D, come primo passo verso una visualizzazione 3D navigabile dell’ambiente esterno.
In recent years, the widespread adoption of digital devices in all aspects of everyday life has led to new research opportunities in the field of Human-Computer Interaction. In the automotive field, where infotainment systems are becoming more and more important to the final user, the availability of inexpensive miniaturized cameras has enabled the development of vision-based Natural User Interfaces, paving the way for novel approaches to the Human-Vehicle Interaction. In this thesis, we investigate computer vision techniques, based on both visible light and non-visible spectrum, that can form the foundation of the next generation of in-vehicle infotainment systems. As sensing technology, we focus on infrared-based devices, such as depth and thermal cameras. They provide reliable data under different illumination conditions, making them a good fit for the mutable automotive environment. Using these acquisition devices, we collect two novel datasets: a facial dataset, to investigate the impact of sensor resolution and quality in changing acquisition settings, and a dataset of dynamic hand gestures, collected with several synchronized sensors within a car simulator. As vision approaches, we adopt state-of-the-art deep learning techniques, focusing on efficient neural networks that can be easily deployed on computing devices on the edge. In this context, we study several computer vision tasks to cover the majority of human-car interactions. First, we investigate the usage of depth cameras for the face recognition task, focusing on how depth-map representations and deep neural models affect the recognition performance. Secondly, we address the problem of in-car dynamic hand gesture recognition in real-time, using depth and infrared sensors. Then, we focus on the analysis of the human body, both in terms of the 3D human pose estimation and the contact-free estimation of anthropometric measurements. Finally, focusing on the area surrounding the vehicle, we explore the 3D reconstruction of objects from 2D images, as a first step towards the 3D visualization of the external environment from controllable viewpoints.
APA, Harvard, Vancouver, ISO, and other styles
9

GAGLIARDELLI, LUCA. "Tecniche per l’Integrazione di Sorgenti Big Data in Ambienti di Calcolo Distribuito." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200610.

Full text
Abstract:
Sorgenti che forniscono grandi quantitativi di dati semi-strutturati sono disponibili sul Web in forma di tabelle, contenuti annotati (e.s. RDF) e Linked Open Data. Questi dati se debitamente manipolati e integrati tra loro o con dati proprietari, possono costituire una preziosa fonte di informazione per aziende, ricercatori e agenzie governative. Il problema principale in fase di integrazione è dato dal fatto che queste sorgenti dati sono tipicamente eterogenee e non presentano chiavi su cui poter eseguire operazioni di join per unire facilmente i record. Trovare un modo per effettuare il join senza avere le chiavi è un processo fondamentale e critico dell’integrazione dei dati. Inoltre, per molte applicazioni, il tempo di esecuzione è una componente fondamentale (e.s. nel contesto della sicurezza nazionale) e il calcolo distribuito può essere utilizzato per ridurlo sensibilmente. In questa dissertazione presento delle tecniche distribuite per l’integrazione dati che consentono di scalare su grandi volumi di dati (Big Data), in particolare: SparkER e GraphJoin. SparkER è un tool per Entity Resolution che mira ad utilizzare il calcolo distribuito per identificare record che si riferiscono alla stessa entità del mondo reale, consentendo così l’integrazione di questi record. Questo tool introduce un nuovo algoritmo per parallelizzare le tecniche di indicizzazione che sono attualmente lo stato dell’arte. SparkER è un prototipo software funzionante che ho sviluppato e utilizzato per eseguire degli esperimenti su dati reali; i risultati ottenuti mostrano che le tecniche di parallelizzazione che ho sviluppato sono più efficienti in termini di tempo di esecuzione e utilizzo di memoria rispetto a quelle già esistenti in letteratura. GraphJoin è una nuova tecnica che consente di trovare record simili applicando delle regole di join su uno o più attributi. Questa tecnica combina tecniche di join similarity pensate per lavorare su una singola regola, ottimizzandone l’esecuzione con più regole, combinando diverse misure di similarità basate sia su token che su caratteri (e.s. Jaccard Similarity e Edit Distance). Per il GraphJoin ho sviluppato un prototipo software funzionante e l’ho utilizzato per eseguire esperimenti che dimostrano che la tecnica proposta è efficace ed è più efficiente di quelle già esistenti in termini di tempo di esecuzione.
Data sources that provide a huge amount of semi-structured data are available on Web as tables, annotated contents (e.g. RDF) and Linked Open Data. These sources can constitute a valuable source of information for companies, researchers and government agencies, if properly manipulated and integrated with each other or with proprietary data. One of the main problems is that typically these sources are heterogeneous and do not come with keys to perform join operations, and effortlessly linking their records. Thus, finding a way to join data sources without keys is a fundamental and critical process of data integration. Moreover, for many applications, the execution time is a critical component (e.g., in finance of national security context) and distributed computing can be employed to significantly it. In this dissertation, I present distributed data integration techniques that allow to scale to large volumes of data (i.e., Big Data), in particular: SparkER and GraphJoin. SparkER is an Entity Resolution tool that aims to exploit the distributed computing to identify records in data sources that refer to the same real-world entity—thus enabling the integration of the records. This tool introduces a novel algorithm to parallelize the indexing techniques that are currently state-of-the-art. SparkER is a working software prototype that I developed and employed to perform experiments over real data sets; the results show that the parallelization techniques that I have developed are more efficient in terms of execution time and memory usage than those in literature. GraphJoin is a novel technique that allows to find similar records by applying joining rules on one or more attributes. This technique combines similarity join techniques designed to work on a single rule, optimizing their execution with multiple joining rules, combining different similarity measures both token- and character- based (e.g., Jaccard Similarity and Edit Distance). For GraphJoin I developed a working software prototype and I employed it to experimentally demonstrate that the proposed technique is effective and outperforms the existing ones in terms of execution time.
APA, Harvard, Vancouver, ISO, and other styles
10

RAIMONDI, ALESSIO. "La meteorologia: cammino storico-epistemologico e studio del suo stato attuale di diffusione." Doctoral thesis, Università degli Studi di Cagliari, 2011. http://hdl.handle.net/11584/266333.

Full text
Abstract:
The widespread interest in meteorology is mostly driven by the fact that weather affects our daily life, extending its influence beyond the mere economical impact. Despite this strong attention to meteorology it is seen quite differently from other scientific activities like, for instance, classical physics to which it is generally, although often unappropriately, associated. This work tries to highlight the peculiar epistemologic approach to modern meteorology, through the analysis of the phylosophical and historical paths that have brought about that approach. The perception of meteorology as an atypical science it is also due to an uncomplete, and in some cases even wrong, communication process of weather forecasts. In this study the main criticalities regarding this communication process are highlighted through two case studies: the hurricane Charley twhich hit Florida in 2004 and the intense precipitation that affected the southern part of Sardinia in 2008. The evidences drawn from the two case studies are then supported by an extensive analysis that has involved professional forecasters of 19 different public Meteorological Offices in Italy and a significant sample of italian and spanish users. The two groups were surveyed on the meaning they associate to the typical expressions used in the wetaher reports, about the comprehension of non categorical, i.e. probabilistic, forecasts and, finally, on the role of media in the communication process. The results clearly show the issues and problems still open and help to lay down some proposals to improve the quality of the communication techniques, in order to make weather forecasts more effective for the users.
APA, Harvard, Vancouver, ISO, and other styles
11

Fornaciari, B. "LA DIRETTIVA 2012/13/UE SUL DIRITTO ALL'INFORMAZIONE.LA CONOSCENZA NEL PROCESSO PENALE FRA UNIONE EUROPEA E ORDINAMENTO INTERNO." Doctoral thesis, Università degli Studi di Milano, 2016. http://hdl.handle.net/2434/369477.

Full text
Abstract:
La presente ricerca si propone di analizzare la Direttiva 2012/13/UE sul diritto all'informazione nei procedimenti penali ed il suo impatto sul sistema processuale italiano. L'analisi prende le mosse da un primo capitolo dedicato al sistema multilivello delle fonti: sul panorama nazionale e sovranazionale, infatti, la direttiva è solo l'ultima norma, in ordine di tempo, a disciplinare il diritto fondamentale alla conoscenza dell'indagato e dell'imputato. Necessario quindi apprestare una panoramica delle fonti che garantiscono la protezione multilevel dei diritti, e descrivere le loro reciproche interazioni. Imprescindibile, poi, un approfondimento sulla tutela dei diritti nello Spazio di Libertà Sicurezza e Giustizia dell'UE, con un'attenzione particolare all'era post-Lisbona ed al valore aggiunto che le direttive ex art. 82 co. 2 TFUE possono portare sul sistema multilevel. Il secondo ed il terzo capitolo sono dedicati all'analisi normativa della fonte europea. La trattazione si muove lungo le tre visuali prospettiche che la norma europea attribuisce al diritto all'informazione: diritto alla conoscenza dei propri diritti; diritto alla conoscenza dell'accusa; diritto alla conoscenza degli atti di indagine. Le disposizioni europee vengono continuamente integrate con la giurisprudenza della Corte EDU, che inietta di significato le norme della direttiva e fornisce gli standards di tutela laddove non specificati. Vengono messe in rilievo le disposizioni più innovative, che consentono alla direttiva di non essere solo “codificazione” del case law di Strasburgo, ma fonte autonoma e progredita di diritti. Il capitolo finale è infine focalizzato sull'impatto che la direttiva ha prodotto sul sistema processuale interno. La trattazione è suddivisa tra l'analisi delle modifiche apportate dalla normativa di attuazione italiana, d. lgs. 101/2014, e la disamina delle sue lacune: il legislatore ha dato luogo ad un intervento minimalista, omettendo di dare esecuzione proprio alle disposizioni europee più innovative che avrebbero permesso al nostro sistema di essere in linea con i dettami sovranazionali. Particolare attenzione è data al tema delle modifiche all'imputazione e al principio Iura novit curia, sulla scorta dei punti saldi elaborati dalla Corte EDU nel noto caso Drassich. In conclusione, vengono proposti gli scenari futuri che potrebbero conseguire all'efficacia diretta della direttiva e alla penetrazione, per il suo tramite, delle norme CEDU nell'ordinamento giuridico nazionale.
The present research examines the European Directive on the right to information in criminal proceedings (Directive 2012/13/EU, hereinafter ‘the Directive’), assessing the impact that it is likely to have on the Italian legal system. Before analyzing the legislation, the thesis provides an historical overview of the status of human rights safeguards in the EU and a description of its multi-layered system of protection. Starting from the early ECJ case law setting out a ‘human rights theory’, the research moves on to consider the Charter of Nice and the development of a European Area of Criminal Justice, until the Stockholm Program and the entry into force of the Lisbon Treaty. In addition, it addresses the question as to whether and to what extent the directives ‘of new generation’ based on art. 82 par. 2 TFEU bring an added value to the aforementioned human rights protection system. Chapters 2 and 3 of the research focus on the analysis of the legislation and on the three meanings that the Directive attaches to the right to information in criminal proceedings, namely, the right to information about rights, the right to information about accusation, and the right to information about case file. The effort is shedding some light on the most innovative prescriptions, while at the same time highlighting how much the EU legislation owes to the ECtHR case law, which is used as a yardstick for the evaluation and interpretation of the Directive. Finally, Chapter 4 addresses the Italian implementing legislation (d. lgs. 101/2014) and the impact of the Directive on our legal system. It finds that the NIM is highly unsatisfactory, as the Italian legislator has failed to comply with the most innovative EU standards. In this regard, the research illustrates the impact of EU prescriptions on the jurisdiction of national judges, in particular, the impact of the ‘new’ right to information about accusation. It concludes that Italian judges can (in)directly apply ECtHR case law standards due the direct effect of the Directive (which can be regarded as an ‘ECtHR case-law codification’).
APA, Harvard, Vancouver, ISO, and other styles
12

Dashdorj, Zolzaya. "Semantic Enrichment of Mobile Phone Data Records Exploiting Background Knowledge." Doctoral thesis, Università degli studi di Trento, 2015. https://hdl.handle.net/11572/367796.

Full text
Abstract:
Every day, billions of mobile network log data (commonly defined as Call Detailed Records, or CDRs) are generated by cell phones operators. These data provide inspiring insights about human actions and behaviors, which are essentials in the development of context aware appli- cations and services. This potential demand has fostered major research activities in a variety of domains such as social and economic development, urban planning, and health prevention. The major challenge of this thesis is to interpret CDR for human activity recognition, in the light of background knowledge of the CDR data context. Indeed each entry of the CDR is as- sociated with a context, which describes the temporal and spatial location of the user when a particular network data has been generated by his/her mobile devices. Knowing, by leveraging available Web 2.0 data sources, (e.g., Openstreetmap) this research thesis proposes to develop a novel model from combination of logical and statistical reasoning standpoints for enabling human activity inference in qualitative terms. The results aimed at compiling human behavior predictions into sets of classification tasks in the CDRs. Our research results show that Point of Interest (POI)s are a good proxy for predicting the content of human activities in an area. So the model is proven to be effective for predicting the context of human activity, when its total level could be efficiently observed from cell phone data records.
APA, Harvard, Vancouver, ISO, and other styles
13

Pisani, Federico. "Knowledge workers management. Concorrenza e invenzioni nel rapporto di lavoro subordinato: il modello statunitense." Doctoral thesis, Università degli studi di Padova, 2019. http://hdl.handle.net/11577/3425914.

Full text
Abstract:
Il presente studio affronta gli argomenti della concorrenza e delle invenzioni nel rapporto di lavoro subordinato statunitense. L’attività di ricerca è stata svolta in parte presso la School of Law della Boston University, USA, sotto la supervisione di Micheal C. Harper, professore di diritto del lavoro. L’argomento presenta una crescente rilevanza, considerato che nella nuova organizzazione produttiva, fondata in gran parte sulla conoscenza globalizzata, al lavoro dipendente si chiede ormai sempre maggiore professionalità, innovazione e creatività. La scelta di esaminare questa tematica dalla prospettiva del “laboratorio USA”, è dovuta al primato di cui tale nazione gode a livello internazionale sul piano economico, scientifico e dell’innovazione dei processi lavorativi, che fanno emergere criticità in altri Paesi probabilmente ancora non avvertite. Al fine di inquadrare gli istituti giudici menzionati nel modello statunitense, si è reso opportuno dare conto del sistema delle fonti normative negli USA, con particolare focus sul Restatement of Employment Law, cioè la raccolta di principi fondamentali elaborati negli anni dal common law in materia di rapporto di lavoro. All'esame delle fonti segue la definizione del concetto di lavoratore subordinato (employee) e lavoratore autonomo (independent contractor), necessario per l’inquadramento del campo di applicazione degli obblighi scaturenti dal rapporto di lavoro subordinato, tra cui il duty of loyalty, implicato nel rapporto fiduciario. In tale ambito, si è osservata l’evoluzione giurisprudenziale che ha condotto all'adozione dei criteri relativi alla distinzione in esame, prevalentemente concernenti il giudizio sulla rilevanza degli elementi fattuali determinanti per l’accertamento della subordinazione. Delineati i contorni della fattispecie di lavoro subordinato, il presente studio affronta la tematica della tipica forma del contratto di lavoro statunitense, il c.d. employment-at-will, cioè il rapporto a libera recedibilità. Tale peculiarità scaturisce dal principio fondamentale per cui le parti non sono vincolate ad alcun obbligo di fornire la motivazione per il licenziamento. La terza parte del lavoro ha ad oggetto la disciplina della concorrenza del lavoratore effettuata sulla base delle conoscenze acquisite, legalmente o illegalmente, durante il rapporto e le relative tecniche di tutela del datore di lavoro, a fronte della violazione del duty of loyalty, quale obbligo del lavoratore subordinato di esecuzione della prestazione lavorativa nell'interesse esclusivo dell’imprenditore e, conseguentemente, di astensione dal porre in essere condotte pregiudizievoli nei confronti di quest’ultimo. Quanto alle tecniche di tutela esperibili in caso di violazione degli obblighi esaminati, vengono illustrati i rimedi legali e equitativi che il diritto statunitense offre al datore di lavoro. La parte finale del presente studio si occupa della disciplina relativa alla titolarità dei diritti scaturenti dalle invenzioni sviluppate dai dipendenti nel corso del rapporto di lavoro. In questo senso si sono esaminate le definizioni di “invenzione” e “brevetto” ed il loro rapporto nel contesto della regolamentazione giuslavoristica; si è posta in rilievo la differenza tra invenzione come opera di ingegno e proprietà intellettuale tutelata dal diritto d’autore. Inoltre, si sono osservati i meccanismi sottesi alle norme fondamentali che regolano la materia e la loro convivenza con la libertà contrattuale delle parti e il loro potere di disporre dei suddetti diritti.
This work addresses the issues of competition and inventions in the U.S. employment relationships. The research was carried out in part at the Boston University School of Law of, under the supervision of Micheal C. Harper, professor of Labour Law. The selection of the topic is justified in the light of its importance, given that in the new production organization, based largely on globalized knowledge, employees are now increasingly being asked for professionalism, innovation and creativity. The decision to examine this issue from the perspective of the "U.S. laboratory" is due to the primacy that this nation holds at international level on the economic, scientific and innovation of work processes, which bring out critical issues that in other Countries probably have not yet been raised. In order to frame the above-mentioned topics, it has become appropriate to give an account of the system of regulatory sources in the USA, with particular focus on the Restatement of Employment Law, i.e. the collection of fundamental principles developed over the years by common law in the field of employment relationships. The examination of the sources is followed by the definition of the concept of employee and self-employed worker (independent contractor), necessary for the assessment of the application of the obligations arising from the employment relationships, including the duty of loyalty, involved in the fiduciary law. In this context, the evolution of the case law has been observed, as well as the examination of the criteria relating to the distinction between employees and independent contractors, mainly concerning the judgement on the relevance of the factual elements determining the assessment of the existence of an employment relationship. Subsequently, this study addresses the issue of the typical form of the U.S. employment contract, the so-called employment-at-will. This peculiarity is originated from the principle that the parties are not bound by any obligation to provide reasons for termination. The third part of the work has as its object the discipline of competition of the worker carried out on the basis of the knowledge acquired, legally or illegally, during the relationship and the relative legal remedies for the employer, against the violation of the duty of loyalty, intended as an obligation of the employee to perform the work in the exclusive interest of the entrepreneur and, consequently, to refrain from engaging in prejudicial conduct against the company. About the remedies available in the event of breach of the obligations examined, the legal and equitable remedies that U.S. law offers the employer have been explained. The final part of this study deals with the rules governing the ownership of rights arising from inventions developed by employees in the course of their employment. The definitions of "invention" and "patent" and their relationship in the context of employment law has been examined and the difference between invention as a work of genius and intellectual property protected by copyright has been highlighted. In addition, the mechanisms underlying the basic rules governing the subject matter and their coexistence with the contractual freedom of the parties and their power to dispose of these rights have been observed.
APA, Harvard, Vancouver, ISO, and other styles
14

PANTINI, SARA. "Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Full text
Abstract:
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
APA, Harvard, Vancouver, ISO, and other styles
15

COSTANZO, Carlo. "Tecniche di visione artificiale per l'interazione uomo-macchina in applicazioni di didattica interattiva." Doctoral thesis, 2008. http://hdl.handle.net/11570/3120447.

Full text
Abstract:
La ricerca da me svolta durante il corso di dottorato è stata orientata allo studio, allo sviluppo e alla caratterizzazione di nuove interfacce multimodali per l'interazione uomo-macchina. La emph{naturalezza} e l'emph{usabilità} di queste interfacce sono tali da renderle dei validi strumenti in molte applicazioni di didattica interattiva. Ciò che ha permesso di ottenere apprezzabili risultati, è stato, oltre che l'applicazione di innovative tecniche di visione artificiale, il dare un ruolo centrale nella progettazione al punto di vista dell'utente che ne avrebbe dovuto fare uso. Per questi motivi è stato importante conoscere la realtà nella quale le soluzioni che si pensava di proporre dovevano inserirsi; è stato quindi necessario conoscere il mondo della didattica e della scuola ed anche sapere come gli attori principali di questo mondo (docenti e studenti) esercitino le loro attività e che tipo di rapporto vivano con l'informatica e la tecnologia in generale. Riflettendo sul ruolo che la tecnologia può avere nel processo didattico ci si chiede se la tecnica e la tecnologia sono "esterne" alla didattica, cioè sono utili, la modificano ma non ne fanno parte integrante, oppure sono "connaturate" all'azione di insegnamento-apprendimento. Per definire meglio il rapporto fra la didattica e la tecnologia è necessario capire cosa si intenda per tecnologia. Da un punto di vista scientifico, la tecnica può essere definita come: emph{un'arte sistematica che applica determinate abilità e conoscenze alla produzione di oggetti}, per lo più standardizzati su vasta scala e la tecnologia come: emph{una riflessione che integra diverse tecniche su vasta base scientifica e di ricerca}. Nell'opinione comune invece la tecnica è uno strumento che serve a produrre qualcosa, mentre il termine "tecnologia" viene associato agli "strumenti tecnologici" (computer, videofonino). Se la didattica è, tradizionalmente, un movimento che comprende progettazione, azione e valutazione, un punto fondamentale che la collega alla tecnologia è la mediazione, la quale fa interagire saperi, conoscenze, insegnanti, studenti, oggetti culturali, strumenti, metodi, ecc. La risposta, allora, alla nostra questione si può ritrovare nel termine stesso "mediazione". La radice etimologica della parola non può che portarci al medium quindi ad un elemento che è in grado di trasportare, trasformare e trasdurre cite{Parmigiani2004a} informazioni in modo che diventino nozioni, conoscenze, saperi, abilità, competenze attraverso modalità individuali, relazionali o collaborative. Attorno al termine medium ruota la dinamica fra didattica e didattica tecnologica. Se il medium si riduce ad uno strumento - anche se utile al processo educativo - la didattica tecnologica è una parte dell'azione didattica e tende ad essere separata dal contesto quotidiano; se, invece, il medium non è solo uno strumento ma un oggetto culturale che modifica sostanzialmente e dall'interno l'azione didattica - il medium, cioè, non è semplicemente giustapposto ma è un organo vitale per l'azione stessa - allora la didattica tecnologica e la didattica mostrano che si sono coevolute attraverso il mutamento delle idee, delle concezioni e, ovviamente, delle strumentazioni che la tecnica ha, nel corso del tempo, offerto all'educazione. Il medium-libro è utile o funzionale in determinati contesti e impalcature didattiche così come il medium-voce, il medium-computer, il medium-videocamera digitale e così via. Forse, allora, non ha senso separare la didattica tecnologica dalla didattica tout court in sede progettuale, ha senso, piuttosto, definirne le peculiarità. Ovviamente, quando è necessario conoscere uno strumento o un software per comprenderne le proprietà e le potenzialità, è opportuno sbilanciare la propria attenzione sugli aspetti tecnici e, quindi, organizzare momenti esplicativo-esercitativi. Diventa importante, però, non isolare tali momenti ma connetterli e interfacciarli con le altre fasi della didattica in modo che si significhino a vicenda: da un lato, lo strumento fornisce informazioni o permette di elaborarle in vista di un apprendimento individuale o di gruppo, dall'altro, le azioni didattiche elevano lo strumento ad attore protagonista del processo educativo. Per fare didattica tecnologica occorre modificare la didattica stessa. Se i presupposti della didattica mediologica sono quelli di appropriarsi e fare interagire i diversi media - analogici e digitali - nel corso dell'azione didattica, la didattica monomediale non può che essere limitativa. L'utilizzo del medium-voce o del medium-libro è assolutamente valido e funzionale in molti momenti didattici; è l'irrigidimento e la reiterazione di tali media in tutti i contesti didattici che li rende ripetitivi e scarsamente motivanti. Analogamente se l'insegnante utilizzasse sempre e solo il medium-computer per organizzare l'ambiente di apprendimento rischierebbe una conseguenza similare: l'intorpidimento e l'assuefazione al medium-computer. La valorizzazione del rapporto fra la didattica e la tecnologia non dipende dalla modernità dello strumento ma dalla sua rimediazione in rapporto al contesto, agli obiettivi, ai saperi, ai partecipanti all'azione educativa, ecc. Le tecnologie possono favorire, altresì, da un lato, la personalizzazione dei percorsi apprenditivi e, dall'altro, il lavoro di gruppo attraverso la discussione cite{Cacciamani2004} La risoluzione del contrasto fra didattica e didattica tecnologica favorisce, in ultimo, l'elusione di alcuni rischi: egin{itemize} item si evita di relegare la tecnologia in angoli dedicati ad alcuni progetti ed aspetti particolari della vita scolastica. item si evitano movimenti di ritorno di avversione alla tecnologia stessa. Se le didattiche restano separate, infatti, l'opinione diffusa è che la tecnologia non ha portato i benefici che ci si aspettava per cui forse è più opportuno ritornare agli standard consueti. La consapevolezza che la didattica mediologica è connaturata di tecnologie in quanto essenzialmente mediata, porta alla valorizzazione del medium stesso, quale che sia, vecchio o nuovo, analogico o digitale, e, con esso, alla valorizzazione dei processi che provoca fra gli attori del processo apprenditivo: insegnanti, studenti, saperi, oggetti culturali e strumenti, appunto, ma non solo più strumenti. end{itemize} Il capitolo ef{tecnoledu} propone una cornice storica della applicazione di tecnologie nella didattica ripercorrendo le iniziative legislative e i progetti che, nel corso degli anni, hanno riguardato la scuola italiana per l'inserimento e l'integrazione delle TIC nel contesto scolastico. Il capitolo ef{HCI} analizza invece l'evoluzione, gli obiettivi e gli aspetti salienti dell'Interazione uomo-macchina e si conclude presentando alcune delle soluzioni tecnologiche hardware o software di HCI che sono attualmente presenti in ambito didattico. Il capitolo ef{interfacce} presenta le interfacce sviluppate e la loro caratterizzazione, descrivendone le potenzialità, gli aspetti tecnici e gli algoritmi che le governano. Nel capitolo ef{conclusioni} vengono tirate le conclusioni e sono illustrati alcuni dei possibili futuri sviluppi. La tesi è conclusa da una appendice nella quale sono fornite alcune conoscenze di base relative a tecniche e/o algoritmi adottati nella realizzazione delle interfacce.
APA, Harvard, Vancouver, ISO, and other styles
16

SALVADORI, Ivan. "Il diritto penale dell'informatica nel passaggio dal computer crime al cybercrime. Tecniche di tutela e beni giuridici tutelati in prospettiva europea ed internazionale. Le nuove forme di attacco ai sistemi di informazione commesse nel cyberspace." Doctoral thesis, 2009. http://hdl.handle.net/11562/337362.

Full text
Abstract:
La tesi dottorale ha avuto ad oggetto l’analisi delle principali minacce alla riservatezza, integrità e disponibilità dei dati e dei sistemi di informazione. In primo luogo si è evidenziato come la progressiva interconnessione tra computer abbia mutato in modo strutturale la criminalità informatica, determinando il passaggio dal concetto classico di computer crime a quello moderno di cybercrime. Si è poi proceduto all’individuazione del profilo socio-criminologico dei cd. cyber criminal, con particolare riguardo alla figura degli « hacker », dei « cracker » e dei cd. « insider ». Sono state quindi analizzate le principali tecniche utilizzate dai cyber criminal per attaccare i sistemi di informazione (utilizzo di « malware », « spam » e « botnet », attacchi « Denial of Service » « Mail-Bombing » e « Net-strike »). Dopo questa necessaria analisi empirico-criminologica, sono state analizzate le principali iniziative adottate a livello internazionale e regionale per contrastare la criminalità informatica, ed in specie le specifiche disposizioni e raccomandazioni relative alla tutela della riservatezza, integrità e disponibilità dei dati e dei sistemi informatici. Da un lato si è individuata la tecnica di formulazione normativa adottata a livello sovranazionale per coglierne gli elementi comuni o differenziali rispetto alle soluzioni legislative fatte proprie a livello nazionale. Dall’altro, si è valutato se queste autorevoli fonti abbiano favorito una armonizzazione degli ordinamenti giuridici nazionali o se, invece, abbiano soltanto portato ad una sovrapposizione di modelli, con la conseguenza di allontanare anziché ravvicinare le legislazioni penali statali. Dall’analisi delle diverse iniziative ad oggi adottate è emerso come tanto gli approcci regionali, quanto quelli internazionali, presentino dei vantaggi e degli svantaggi. E’ emerso tuttavia come soltanto attraverso l’adozione di una prospettiva internazionale, i cui vantaggi sono sicuramente maggiori rispetto a quelli derivanti dalle iniziative regionali, si potranno vincere le nuove sfide che pone la criminalità informatica, che assume sempre più un carattere transnazionale. Il richiamo dell’esperienza giuridica di alcuni significativi ordinamenti di civil law (Germania e Spagna) e di common law (Stati Uniti d’America) ha permesso di verificare l’idoneità delle tecniche di formulazione normativa adottate dal legislatore italiano con particolare riguardo alle fattispecie di accesso abusivo ad un sistema informatico e telematico (art. 615-ter c.p.), di danneggiamento di dati informatici (artt. 635-bis, 635-ter c.p.) e di danneggiamento di sistemi informatici (artt. 635-quater, 635-quinquies c.p.). L’analisi degli elementi tipici delle fattispecie ha consentito inoltre di evidenziare la peculiare struttura di reato di ciascuna fattispecie oggetto di analisi e di cogliere i rispettivi beni giuridici tutelati, oltre che offrire la possibilità, de jure condendo, di mettere in rilievo quelli che sono i nuovi interessi da proteggere nella società dell’informazione: riservatezza, integrità e disponibilità dei dati e dei sistemi informatici. In conclusione sono state formulate delle proposte di riforma delle fattispecie di accesso abusivo e danneggiamento informatico vigenti nell’ordinamento giuridico italiano, muovendo da alcuni esempi di « good practice » tratti dall’esperienza giuridica spagnola, tedesca e statunitense. Con riguardo alla fattispecie di accesso abusivo ad un sistema informatico si è auspicato che, in prospettiva de jure condendo, il legislatore nazionale preveda, quale requisito di fattispecie, che la condotta di accesso non autorizzato venga « arricchita » con la previsione, quale ulteriore elemento costitutivo della tipicità, del fine soggettivo di « ottenere dati informatici » o di « arrecare ad altri un danno », così come previsto (seppur facoltativamente) dall’art. 2, paragrafo 2, della Convenzione Cybercrime e da numerosi legislatori europei (ad es. portoghese, slovacco ed austriaco). Con riguardo alle fattispecie previste in materia di danneggiamento informatico, si è auspicato che il legislatore italiano, proceda ad una loro complessiva riformulazione per adeguarle non solo sul piano formale, ma anche e soprattutto su quello sostanziale alle prescrizioni ed ai vincoli di fonte sovranazionale, così come esplicitamente richiesto anche a livello costituzionale.
The object of the doctoral thesis involves the main menaces to the confidentiality, integrity and availability of computer data and information systems. First of all the thesis underlines how the progressive interconnection between computers has changed the high-tech crime, determining the passage from computer crime to cybercrime. Secondly it determines the socio-criminological profile of the cyber criminals, with special regard to hackers, crackers and insiders. Then it deals with the main techniques used by the cyber criminals to attack the information systems, such as the use of malware, spread out in Internet by means of spam or bulk e-mails and Botnet, the Denial of Service and Distributed Denial of Service attacks, Mail-Bombing and Net-strike. After this criminological analysis, it analyzes the main legal sources adopted at regional and international levels in the fight against cybercrime, with special regard to the provisions and recommendations concerning the confidentiality, integrity and availability. The aim of these supranational legal sources is to evaluate if these legal instruments have favoured the harmonization of the national legal systems or if they have only determined an overlapping of legal models, without an effective standardization of the national criminal legislations. The analysis of the juridical experience of some legal systems of civil law (Germany and Spain) and common law (United States) has allowed to value the legal techniques used by the Italian legislator with regard to the formulation of the offences of illegal access (art. 615-ter criminal code), and data damages (art. 635-bis and 635-ter criminal code) and computer damage (art. 635-quater, 635-quinquies criminal code). The analysis of the mens rea and actus reus elements of these offences has allowed to underline their specific normative structure and to identity the new protected legal interests such as the confidentiality, integrity and availability of computer data and systems. Finally it proposes some amendments to the illegal access and computer damage offences, moving from some examples of good practice of the Spanish, German and American legal systems.
APA, Harvard, Vancouver, ISO, and other styles
17

FRATI, GIANMARIA. "I quotidiani on-line a carattere locale: forme, sostenibilità economica e interazione con l’opinione pubblica." Doctoral thesis, 2018. http://hdl.handle.net/11573/1079165.

Full text
Abstract:
Disintermediazione, convergenza tecnologica e un rimodellamento del consumo di informazione hanno trasformato profondamente l’ecosistema dell’informazione, sia globale che locale. Mentre il mercato del lavoro giornalistico tradizionale non è più in grado di assorbire i nuovi professionisti o coloro che sono stati espulsi dalle redazioni a seguito di ristrutturazioni e crisi aziendali, le tecnologie consentono ad un costo estremamente basso di assemblare quotidiani on-line in grado di offrire contenuti di pari qualità al prodotto cartaceo. La presente ricerca mira proprio ad approfondire il tema dei quotidiani on-line, delimitandolo a quelli a carattere locale. Le forme organizzative, la sostenibilità economica e l’interazione con l’opinione pubblica sono stati i temi oggetto di indagine. Il primo capitolo è dedicato a un quadro generale sul giornalismo. Dopo una disamina della letteratura sociologica e dei journalism studies sull’evoluzione dei consumi culturali nel contesto italiano, il lavoro si focalizza su tendenze e statistiche. Seguendo la falsariga di tre studi di riferimento (Reuters’ Digital News Report, Rapporto Censis-Ucsi sulla Comunicazione e indagine Agcom sul giornalismo si sono cercati di individuare gli elementi caratterizzanti il lavoro giornalistico e l’accesso all’informazione. Tra gli aspetti approfonditi vi sono le modalità e tempi di fruizione, fasce d’età e tipologie di consumi, diffusione della pubblicità e reazione del pubblico, canali di accesso alle notizie, fruizione dei video e social network sites. Questi aspetti sono stati seguiti nella loro evoluzione triennale, fino al 2017 compreso. Agcom e Censis-Ucsi hanno offerto elementi di analisi per il contesto italiano sia da un punto di vista interno alla professione giornalistica che da quello dell’utenza finale. L’analisi dei consumi mediatici ha permesso di constatare come i tempi per una diffusione dell’informazione on-line siano ormai maturi. Prima di passare al disegno della ricerca era necessario però inquadrare la forma organizzativa del quotidiano on-line locale nelle sue specificità rispetto a quelle tradizionali. Il punto di partenza del secondo capitolo è stato un confronto tra offerta dell’informazione e sua fruizione a livello regionale e locale. Il quotidiano on-line è stato poi confrontato con gli altri attori mediali del territorio, nei suoi rapporti con le istituzioni e nelle sue routine. I modelli di funzionamento dei vari media locali e i rispettivi target hanno consentito di meglio delineare le caratteristiche strutturali del quotidiano on-line oggetto della ricerca. Il capitolo si sofferma poi sulla fidelizzazione del lettore e sugli aspetti di sostenibilità economica declinati sul piano teorico. Al momento di impostazione della ricerca erano già stati pubblicati due documenti rilevanti: la seconda edizione dell’Osservatorio sul giornalismo di Agcom e il Rapporto sul giornalismo digitale locale e Iperlocale di Anso (l’associazione di categoria). Alla luce di queste due documentazioni sarebbe stato pleonastico riproporre uno studio sugli stessi temi e agli stessi operatori, tanto più che era stato registrato un basso tasso di collaborazione. Si è scelto dunque di indagare il punto di vista di alcuni esponenti di spicco del giornalismo on-line italiano e di realizzare una serie di interviste semi-strutturate, basate su una traccia di domande aperte (Fideli, Marradi, 1996; Losito 2004; Tusini 2006; Frudà,Cannavò, 2007). Le tracce individuate sono state: “Forma organizzativa e contenuti dei quotidiani on-line locali”, “strategie per la sostenibilità economica”, “Azioni per la creazione di comunità” e “Interazione con l’opinione pubblica”. Dalle interviste è nata una quinta traccia residuale: gli elementi emersi dai colloqui non rientranti tra le prime quattro hanno creato i presupposti per “Elementi di valutazione aggiuntivi”. L’approccio non-standard, resosi in parte necessario per precedenti studi quantitativi, ha portato a raccogliere dati molto interessanti e in parte inaspettati, quali un ritorno alle origini del giornalismo analogico (reperimento delle notizie sul campo, rivalutazione delle relazioni) unito a un drastico posizionamento commerciale (orari da supermercato, estrema flessibilità). Alcune interviste mirate con esperti del settore hanno consentito di ricostruire le dinamiche di raccolta pubblicitaria attuali e di valutarne punti di forza e criticità a medio termine. La ricerca, pur non potendo fornire un format organizzativo di immediata applicazione per ciascuna delle frastagliate realtà italiane, è riuscita comunque ad individuare una serie di elementi base per la sostenibilità dei quotidiani on-line e alcune prassi (anche valoriali) per l’aggregazione di comunità e l’interazione con l’opinione pubblica.
APA, Harvard, Vancouver, ISO, and other styles
18

Triggiani, Maurizio. "Integration of machine learning techniques in chemometrics practices." Doctoral thesis, 2022. http://hdl.handle.net/11589/237998.

Full text
Abstract:
Food safety is a key objective in all the development plans of the European Union. To ensure the quality and the sustainability of the agricultural production (both intensive and extensive) a well-designed analysis strategy is needed. Climate change, precision agriculture, green revolution and industry 4.0 are areas of study that need innovative practices and approaches that aren’t possible without precise and constant process monitoring. The need for product quality assessment during the whole supply chain is paramount and cost reduction is also another constant need. Non targeted Nuclear Magnetic Resonance (NMR) analysis is still a second-choice approach for food analysis and monitoring, one of the problems of this approach is the big amount of information returned. This kind of data needs a new and improved method of handling and analysis. Classical chemometrics practices are not well suited for this new field of study. In this thesis, we approached the problem of food fingerprinting and discrimination by the means of non-targeted NMR spectroscopy combined with modern machine learning algorithms and databases meant for the correct and easy access of data. The introduction of machine learning techniques alongside the clear benefits introduces a new layer of complexity regarding the need for trusted data sources for algorithm training and integrity, if this kind of approach proves is worth in the global market, we’ll need not only to create a good dataset, but we’ll need to be prepared to defend against also more clever attacks like adversarial machine learning attacks. Comparing the machine learning results with the classic chemometric approach we’ll highlight the strengths and the weakness of both approaches, and we’ll use them to prepare the framework needed to tackle the challenges of future agricultural productions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography