Dissertations / Theses on the topic 'Informatica applicata'

To see the other types of publications on this topic, follow the link: Informatica applicata.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Informatica applicata.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lucidi, Enzo. "Realtà Aumentata applicata alla manutenzione tecnica di macchinari industriali." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
La tesi, svolta per il completamento della Laurea Magistrale in Ingegneria Informatica, tratta la realizzazione di un progetto prototipo di Computer Vision (CV) e Realtà Aumentata (RA) per la manutenzione tecnica di macchinari industriali attraverso l'utilizzo di dispositivi mobili See-Through. Lo scopo è stato, oltre lo studio dello stato dell'arte in materia, provare con mano e rendere maggiormente visibili al pubblico questi nuovi rami dell'informatica. Il prototipo creato è stato inserito in un contesto aziendale, con misurazioni e prove sul campo. Partendo da una breve introduzione sulla realtà aumentata, nel primo capitolo viene descritto il progetto sviluppato, diviso in due sottoprogetti. Il primo, svolto solamente in una fase iniziale e presentato nel secondo capitolo, espone la realizzazione di un'applicazione mobile per lo streaming video con l'aggiunta di contenuti grafici aumentati. Il secondo, progettato e sviluppato in totale autonomia, rappresenta un prototipo demo di utilizzo della RA. La realizzazione viene illustrata nei capitoli successivi. Nel terzo capitolo si introducono gli strumenti che sono stati utilizzati per lo sviluppo dell'applicazione, in particolare Unity (per il development multi-piattaforma), Vuforia (per gli algoritmi di CV) e Blender (per la realizzazione di procedure di manutenzione). Il quarto capitolo, la parte più rilevante della trattazione, descrive, passo dopo passo, la creazione dei vari componenti, riassumendo in modo conciso e attraverso l'uso di figure i punti cardine. Infine, il quinto capitolo conclude il percorso realizzato presentando i risultati raggiunti e lasciando spunto per possibili miglioramenti ed aggiunte.
APA, Harvard, Vancouver, ISO, and other styles
2

Corbi, Alessandro. "Bio-inspired Networking: analisi della letteratura applicata al modello MoK." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14788/.

Full text
Abstract:
Scopo della tesi è quello di esplorare la letteratura in cerca di alternative applicabili rispetto agli approcci tradizionali per quanto riguarda la comunicazione nei sistemi distributi, specialmente nel caso di reti p2p con network altamente dinamiche, derivate da paradigmi bio-inspired. In particolare verranno analizzati i requisiti di MoK, un modello per la coordinazione di agenti software basato sulla distribuzione di informazioni in rete, e verranno isolate delle proprietà che possiamo ritenere adatte a risolvere le problematiche attaccate da tale modello, per poi ricercare determinati algoritmi, meccanismi e processi che dispongano di tali proprietà per soddisfare i requisiti di Mok.
APA, Harvard, Vancouver, ISO, and other styles
3

Pennella, Francesco. "Sperimentazione di una Soluzione Edge Computing Applicata alla Manutenzione Predittiva su Piattaforma MindSphere." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
In questa trattazione si è interessati a studiare e analizzare quali sono le reali funzionalità messe a disposizione da MindSphere, la piattaforma cloud per l’Industrial IoT sviluppata da Siemens, e successivamente sperimentare le potenzialità della sua infrastruttura in generale. In particolare, l'obiettivo è quello di approcciarsi allo sviluppo di una soluzione Edge Computing che si possa integrare con la piattaforma stessa, in modo tale da separare l’elaborazione dei dati sul cloud da quella svolta sui dispositivi edge. Tale soluzione potrebbe applicarsi ad un caso d’uso di interesse pratico, come ad esempio quello della Manutenzione Predittiva, per poter analizzare anche quali sono le reali implicazioni, i vantaggi e i risultati ottenuti con l’adozione di una soluzione di questo tipo in ambito enterprise.
APA, Harvard, Vancouver, ISO, and other styles
4

Costagliola, Andrea Roberta. "Progettazione di un’architettura di decision making basata su smart contract e oracoli applicata al turismo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
La tecnologia blockchain, grazie alle sue caratteristiche di decentralizzazione, immutabilità, tracciabilità e sicurezza offre una serie di vantaggi e proprietà al settore turistico e dell’ospitalità, favorendone la crescita e lo sviluppo. Alcune implementazioni della tecnologia blockchain permettono l'esecuzione di smart contract, ovvero programmi eseguiti dai nodi della rete le cui operazioni sono transazioni della blockchain a tutti gli effetti. Essendo la blockchain un sistema isolato, è impossibile per uno smart contract comunicare con servizi o sistemi esterni. Si ricorre, dunque, all’utilizzano di oracoli, applicazioni che attingono informazioni da fonti affidabili e le iniettano nella blockchain. Utilizzando smart contract e oracoli si vuole studiare un sistema di decision making applicato al turismo. Lo scenario prevede che sia possibile effettuare prenotazioni nel settore alberghiero, le quali verranno confermate o rimborsate in base al meteo della zona di interesse. La logica di conferma o annullamento delle prenotazioni è in questo caso incapsulata nello smart contract, ottenendo così una validazione autonoma e non influenzabile esternamente. Analogamente, le informazioni sul meteo, utili per stabilire se un utente ha diritto o meno al rimborso, verranno fornite tramite un Oracolo per far sì che siano attendibili e disponibili allo smart contract. Verrà mostrato un esempio reale di applicazione sperimentale su piattaforma di smart tourism sul territorio nazionale.
APA, Harvard, Vancouver, ISO, and other styles
5

Pepe, Maria. "l'importanza della modellazione dei processi applicata ad un caso aziendale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11847/.

Full text
Abstract:
La pianificazione e la gestione dei processi è diventata un elemento critico a causa della crescente complessità delle attività all’interno delle organizzazioni. Nell’era dell’impresa digitale, la gestione dei processi di businesss viene coadiuvata mediante l’utilizzo di sistemi software che sono in grado di gestire una grande quantità di informazioni ovvero i sistemi BPM. Il Business Performance Management è una disciplina gestionale che si occupa di descrivere e gestire i processi di business di una organizzazione. L’obiettivo della seguente tesi è verificare se il modello del processo realizzato precedentemente all’implementazione del sistema reale possa permettere una più dettagliata analisi del sistema e anticipare relative problematiche che talvolta si evincono solamente durante il mero sviluppo. Inoltre si vuole verificare se il modello realizzato in fase di discussione di un nuovo progetto cliente possa poi migliorare anche lo scambio di informazioni nel team di sviluppo. A supporto di questa tesi è stato sviluppato un caso di studio reale in una società di gestione del risparmio specializzata in fondi di investimento immobiliare. Inizialmente si è proceduto con una prima fase di raccolta dei requisiti dell’applicativo che si è conclusa con la realizzazione dei modelli creati utilizzando due linguaggi che sono il Business Process Model and Notation (BPMN) e il Decision Model and Notation (DMN); il medesimo applicativo è stato successivamente implementato seguendo i modelli realizzati. I tempi globali di sviluppo del sistema e la migliore comprensione del modello da parte del team di sviluppo hanno fatto evincere l’utilità della modellazione a fronte di maggiori giornate uomo. Inoltre è stata riscontata maggiore manutenibilità complessiva del sistema.
APA, Harvard, Vancouver, ISO, and other styles
6

Giacomin, Alberto. "Dalla giuscibernetica all'informatica giuridica decisionale. Indagine sui fondamenti e sui limiti dell'intelligenza artificiale applicata al diritto." Doctoral thesis, Università degli studi di Padova, 2018. http://hdl.handle.net/11577/3425401.

Full text
Abstract:
This research aims at offering a survey about the historical and epistemological foundations and about the philosophical roots of juridical computer science. After the examination of the interdisciplinary birth of cybernetics, we make clear the estreme reductivism of that problematic interdisciplinary. In particolar, on the philosophical level, we aim to show the presence in cybernetics of identitary thought, i.e. of that very ancient thought which required the indifference of the entire being. On the juridical level, after examing the way in which legal reasoning is used in Expert Legal Systems, we talk about the problem of alorithmization of law, which is based on the algorithmic hypothesis of mind, according to which the mind works as an algotithm. Artificial Intelligence, the last and most important gain of cybernetics, showing itself able to translate theoretical-juridical conceptions in computational models of law, allows the measurement of juridical concepts and their structural reduction to computer science formalisms, allowing therefore the calculation of law. All this gives rise a lot of methodological problems to philosphers, and before them, to jurists.
La presente ricerca intende offrire una disamina sui fondamenti storico-epistemologici e sulle matrici filosofiche dell’informatica giuridica, in relazione alla sfida tecnologica (S. Cotta) lanciata dalla tecnologia informatica allo studio e alla risoluzione di questioni giuridiche. Ci si propone di sondare in profondità il terreno della c.d. giuscibernetica, mostrando come la forza e il fascino, ma anche le non poche criticità di quel programma epistemologico, si siano riversate nella disciplina oramai consolidata dell’informatica giuridica. Che la fruizione di strumenti informatici non sia soltanto un problema “tecnico”, ma investa prepotentemente campi propri della riflessione giuridica, è stato già ampiamente dimostrato; quello che ci si propone in questa sede di evidenziare è l’importanza, nello statuto epistemologico della giuscibernetica (e quindi della succedanea informatica giuridica decisionale) della matrice metafisica di quel pensiero in seno al quale è nata l’epistemologia algoritmica e della quale la macchina computante non è che l’ipostasi manifesta. Il prodigio elettronico è sì il risultato dell’evoluzione tecnologica della tecnica (E. Severino – N. Irti), ma è soprattutto la concreta dimostrazione della forza, tutt’altro che teorica, di un riduzionismo filosofico – tanto silente quanto non poco problematico – che ha assorbito gran parte degli sforzi teoretici e delle energie intellettuali dell’uomo moderno e postmoderno: un riduzionismo epistemologico che affonda le sue origini nel terreno della metafisica identitaria, cioè dalla metafisica del rifiuto del logos della differenza . Mi propongo dunque, sulla scorta di una ricerca che intende essere interdisciplinare, di dimostrare come la pretesa – auspicata da non pochi giuristi e suffragata dalle progressive evoluzioni dei programmi di Intelligenza Artificiale – della realizzazione di un modello cibernetico del diritto, a fronte degli immediati vantaggi in termini di legal inquiry, di judicial predicting e di judicial decision making, ponga problemi tutt’altro che trascurabili sia sul piano metodologico sia sul piano ontologico, andando a ridurre la complessità del fenomeno giuridico ad un sistema di mero calcolo. Si evidenzierà dunque come l’imperativo della razionalizzazione, evidente lascito epistemologico dell’imago mentis algoritmica, finisca per intaccare la natura del diritto e come il metodo giuridico, sempre più improntato ai canoni dell’efficienza algoritmica, finisca per essere progressivamente ridotto agli schemi delle scienze esatte. L’analisi verte quindi sui problemi posti dal sottaciuto tentativo dell’epistemologia giuridica algoritmica di ridisegnare l’ontologia del diritto, andando a configurare le nuove frontiere del diritto (P. Barcellona), ossia le frontiere del diritto artificiale (V. Frosini). Esaminata la nascita interdisciplinare della cibernetica, si fa luce sulla portata estremamente riduttivistica di quella problematica epistemologia. Viene evidenziato, in particolar modo, come la cifra ultima del programma cibernetico coincida con quella del pensiero identitario, la cui complessa trama verrà svolta, nel presente lavoro, con l’ausilio della filosofia teoretica, a partire dallo studio delle categorie metafisiche rivoluzionate e ripensate in chiave radicalmente identitaria. Ulteriormente, si affronta il problema giuscibernetico della c.d. algebrizzazione del diritto alla luce del “panlinguismo dell’identità”, ovvero alla luce di quel grandioso progetto di riforma logico-sintattico-semantica del linguaggio che, in ultima analisi, riposa sulla potentissima teoresi identitaria. Verrà quindi prestata particolare attenzione alla characteristica univeralis leibniziana, la quale costituisce un evidente paradigma protocibernetico di quel pensiero che, dall’ ars combinatoria di lulliana memoria all’algebra booleana, mira alla purificazione-formalizzazione-normalizzazione – in breve: alla “cibernetizzazione” – del linguaggio. Sul piano giuridico, dopo aver esaminato le modalità in cui si declina il legal reasoning che sta alla base dei sistemi esperti legali, si affronta la c.d. algoritmizzazione del diritto, evidenziando come l’ipotesi algoritmica della mente – secondo cui il pensiero umano si potrebbe (e secondo alcuni dovrebbe) ridurre ad algoritmo – domini il modello cibernetico del diritto. L’ I.A., l’ultimo e più lauto guadagno dell’epistemologia cibernetica, nella misura in cui si dimostra capace di tradurre le concezioni teorico-giuridiche in modelli computazionali del diritto, consente la misurazione dei concetti giuridici e la loro strutturazione in formalismi informatici, permettendo quindi il calcolo del giuridico, aspirazione di quella ragione algoritmica che affonda le proprie radici in terreni ontologici, e che pone non pochi interrogativi, in primis metodologici, ai filosofi e ancor prima ai giuristi.
APA, Harvard, Vancouver, ISO, and other styles
7

XUMERLE, Luciano. "Approccio informatico nello studio di malattie complesse per l'individuazione di possibili parentele non note tramite l'analisi del genotipo in individui non relati." Doctoral thesis, Università degli Studi di Verona, 2008. http://hdl.handle.net/11562/337603.

Full text
Abstract:
Uno studio per la ricerca di componenti genetiche di malattie complesse richiede, al giorno d’oggi, la caratterizzazione di migliaia di individui per centinaia di migliaia di marcatori. Gli studi di associazione caso-controllo necessitano della presenza di individui non imparentati tra loro per stimare correttamente la frequenza allelica. La presenza di parentele non rilevate potrebbe confondere la stima di tali frequenze in casi e/o nei controlli e portare il ricercatore a descrivere associazioni tra genotipo e fenotipo errate. Al fine di identificare se nel gruppo studiato sono presenti coppie di individui aventi un possibile grado di parentela, non identificato nella fase di raccolta del campione, abbiamo sviluppato una procedura in silico che compara la probabilit`a di parentela rispetto alla probabilit`a di non parentela tra due individui condizionata al genotipo. I casi testati sono i pi`u comuni: I grado (padre-figlio e coppia di fratelli) e II grado (zio-nipote e nonno-nipote). Lo studio mostra come il linkage disequilibrium tra i marcatori diminuisca l’informativit`a dei marcatori stessi nei test di parentela. Ad esempio, per supportare l’ipotesi di una parentela di II grado con un potere del 80% ed un rate di falsi positivi del 5% necessitano: 100 SNP indipendenti tra loro o 275 SNP organizzati a blocchi di 5 SNP in linkage disequilibrium con un r2 0:4 e fase sconosciuta. Tuttavia, ricostruire probabilisticamente la fase degli aplotipi aumenta l’informativit`a dei marcatori a disposizione. Ad esempio, per supportare l’ipotesi suddetta con aplotipi a fase ricostruita necessitano: 20 aplotipi (100 SNP a blocchi di 5 con r2 0:4) o 40 aplotipi (200 SNP a blocchi di 5 con r2 0:8).
not available
APA, Harvard, Vancouver, ISO, and other styles
8

Tebaldi, Toma. "Computational and experimental detection of uncoupling between transcriptome and translatome changes of gene expression." Doctoral thesis, Università degli studi di Trento, 2010. https://hdl.handle.net/11572/369224.

Full text
Abstract:
Transcriptome analysis by total mRNA profiling provides a measurement of the degree of variation for the amount of each single mRNA species after a physiological or pathological transition of cell state. It has become a general notion that variations in protein levels do not necessarily correlate with variations in total mRNA levels, for the presence of post-transcriptional controls which influence the fate of cytoplasmic mRNAs and affect their translational fitness. Nevertheless, the extent of this phenomenon and the rules, if any, governing it are still generally unknown. To address this issue we took advantage of a number of studies performed using polysomal mRNA profiling in combination with classical total mRNA profiling in different mammalian and yeast systems. A normalization of the raw data coming from these datasets and a statistical meta-analysis aimed at maximizing uniformity in data processing have been performed. From the comparison of the results an extensive uncoupling between transcriptome and translatome variations of mRNA levels emerges, measured by a significant difference between steady state and polysomal fold changes induced by a cellular physiological or pathological transition. It seems clear that virtually the majority of significant changes in cytoplasmic mRNA steady-state levels are subjected to a further elaboration by a post-transcriptional decision program, leading either to a widespread buffering of the cytoplasmic changes which transfers only a small fraction of them to translation, either to the creation of new changes which cannot be detected at the transcriptional level, yet capable of heavily influencing protein synthesis rates. An explanatory model characterized by a cytoplasmic mRNA storage compartments is proposed and the involvement of P-bodies and the miRNA pathway in post-transcriptional reprogramming of gene expression has been experimentally tested in the biological model of EGF induction, in order to explain how a change in translational fitness can counteract or magnify a parallel change in citoplasmic mRNA availability. To investigate the role of specific cellular mechanism in generating uncoupling between transcriptome and translatome changes, the experimental model has been altered through silencing of three key genes involved in post-transcriptional regulation pathways: 4E-T, Xrn1 and Dicer.
APA, Harvard, Vancouver, ISO, and other styles
9

Izzo, Maria Federica. "IT investments and firm performance: an analytic and empirical investigation." Doctoral thesis, Luiss Guido Carli, 2008. http://hdl.handle.net/11385/200759.

Full text
Abstract:
The very first problem: defying IT and Performance. Information systems in the firm system. Information systems and value creation. The research model. Methods. Results. Conclusions and managerial implication. Limitation of the study and further implementation.
APA, Harvard, Vancouver, ISO, and other styles
10

BRUNO, GIULIA. "Multifunctional nanostructures for intracellular delivery and sensing in electrogenic cells." Doctoral thesis, Università degli studi di Genova, 2020. http://hdl.handle.net/11567/1000593.

Full text
Abstract:
Biological studies on in vitro cell cultures are of fundamental importance for investigating cell response to external stimuli, such drugs for specific treatments, or for studying communication between cells. In the electrophysiology field, multielectrode array devices (MEA) are the gold standard for the study of large ensambles of electrogenic cells. Thus, their improvement is a central topic nowadays in neuroscience and cardiology [1]. In the last decades, thanks to the adoption of nanotechnologies, the study of physiological and pathological conditions of electro-active cells in culture have becomes increasingly accurate[2], allowing for monitoring action potentials from many cells simultaneously. In fact, nanoscale biomaterials were able to overcome the limitations of previous technologies, paving the way to the development of platforms for interfacing the electrogenic cells at unprecedented spatiotemporal scales. These devices, together with microfluidics, are starting to be used for drug screening and pharmaceutical drug development since they represent a powerful tool for monitoring cell response when cultures are stimulated by target compounds. Many pharmaceutical agents, however, including various large molecules (enzymes, proteins, antibodies) and even drug-loaded pharmaceutical nanocarriers, need to be delivered intracellularly to exercise their therapeutic action inside the cytoplasm[3]. Nanoscale electrodes offer individual cell access and non-destructive poration of the cellular membrane enabling high capability in the delivery of biomolecules. Among all the techniques, electroporation have proven encouraging potential as alternative to the carrier mediated methods for molecular delivery into cultured cells[4]. In this regard, different groups [5][6][7] exploited the integration of nanostructures with delivering capabilities with single-cell specificity and high throughput in biosensing platforms. These efforts provided powerful tools for advancing applications in therapeutics, diagnostics, and drug discovery, in order to reach an efficient and localized delivery on a chip. Despite these new tactics, there is still a critical need for the development of a functional approach that combines recording capabilities of nanostructured biosensors with intracellular delivery. The device should provide for tight contact between cells and electrode so as to enable highly localized delivery and optimal recording of action potentials in order to attain a high degree of prediction for the disease modeling and drug discovery. This “on-chip” approach will help to gain deeper insight in several bio-related studies and analyses, providing a comprehensive knowledge of the entire cellular dynamics when selectively stimulated by the desired bio-molecules. In the first part of this dissertation, a solution will be proposed in order to fill this gap and respond to this need in the biology field. In the first chapter, I will describe briefly the principles of action potentials and how neurons and cardiomyocyte are composed, together with the development of electrophysiology and the advent of multielectrode arrays. In the second chapter, more details about fabrication and cell-electrode system modelling will be explained. In the same chapter, I will explore the development of multielectrode arrays up to the present days, along with the advent of nanotechnologies and the related techniques for improving the previous platforms. The different cell poration techniques will be described in order to reach the best recording capabilities without damaging cells. Electroporation, optoporation and spontaneous poration will be presented and the chosen technique for our application (electroporation) will be reviewed more in detail. In the third chapter, different methodologies for intracellular delivery will be explained, focusing also on the electroporation technique. A small paragraph about the integration of these techniques on chip will be inserted to illustrate the state of the art of these devices. The fourth chapter will explicate in details the Microfluidic multielectrode array idea, the approach used in order to fabricate this novel platform from scratch, the experiments carried out to verify its capabilities and the associated results. In the last paragraph, I will discuss how the proposed platform could became suitable for the day to day uses in research activity by employing nanoporous materials. In fact, big efforts are carried out in order to find appropriate metamaterials as substitutes of the 3D counterparts so as to decrease the cost of device manufacturing that makes them unfitting with research activity. As a novel electrode material, nanoporous metals possess unique properties, such as a low fabrication cost, high plasmonic enhancement and large surface-volume ratio[8]. Nanoporous gold behaves like a metamaterial whose effective dielectric response can be tuned accordingly to the wanted use. These properties make the material suitable for multiple biosensing application, from a high-performance and reliable SERS (surface enhanced raman scattering) substrate [9] to an electrode in CMOS MEAs capable of intracellular recordings[10]. All these properties were explored in the last years, but it could be interesting to further study if the characteristics of this material could make it a good photoelectrical modulating material for eliciting electrogenic cells firing activity. In this way, this technology could be in principle easily implemented on commercial CMOS devices, consenting stimulation and recording at single cell level with high-resolution sensors, opening the way to new methodologies for studying electrogenic cells and tissues. Electrical stimulation of excitable cells is the basis for many implantable devices in cardiac treatment and in neurological studies for treating debilitating neurological syndromes. In order to make the technique less invasive, optical stimulation was widely investigated [11]. The non-genetic photostimulation is starting to make its way in the field since it allows to avoid changing the biological framework by using transient thermal or electrochemical outputs from synthetic materials attached to the target cells[12]. If stimulated with impinging light these materials could inject free charges into the solution resulting in an ionic current at the interface able to eliciting of neurons[13] or cardiomyocyte action potentials. Plasmonic porous materials have all the suitable properties to be considered as an appealing tools for charge injection and consequently for stimulation of electrically active cells [14]. Thus, the second part of this dissertation will exploit the capabilities of these plasmonic metamaterials, placing particular emphasis on the possibility of photoelectrochemical modulation. In particular, in the fifth and last chapter I will describe all the properties and application of the porous material and the mechanism of photoemission. In the experimental paragraphs, the free charge photoemission properties of porous gold will be explored together with plasmonic non-genetic photostimulation of the cardiac cells on commercial CMOS MEAs.
APA, Harvard, Vancouver, ISO, and other styles
11

Erla, Silvia. "Computational Methods for the Assessment of Brain Connectivity in Visuo-Motor Integration Processes." Doctoral thesis, Università degli studi di Trento, 2011. https://hdl.handle.net/11572/368448.

Full text
Abstract:
The identification of the networks connecting different brain areas, as well as the understanding of their role in executing complex behavioral tasks, are crucial issues in cognitive neurosciences. In this context, several time series analysis approaches are available for the investigation of brain connectivity from non-invasive electroencephalographic (EEG) and magnetoencephalographic (MEG) recordings. Among them, multivariate autoregressive (MVAR) models, studied in the frequency domain, allow quantitative assessment of connectivity separately for each specific brain rhythm. In spite of its widespread utilization and great potential, MVAR-based brain connectivity analysis is complicated by a number of theoretical and practical aspects. An important issue is that the MVAR model, commonly applied to neurophysiological time series, accounts only for lagged effects among the series, forsaking instantaneous (i.e., not lagged) effects. Despite this, instantaneous correlations among EEG/MEG signals are largely expected, mainly as a consequence of volume conduction, and the impact of their exclusion on frequency-domain connectivity measures has not been investigated yet. The aim of the present thesis was to introduce and validate a new methodological framework for the frequency-domain evaluation of brain connectivity during visuo-motor integration processes. To this end, we provided first a comprehensive description of the most common MVAR-based connectivity measures, enhancing their theoretical interpretation. Then, we introduced an extended MVAR (eMVAR) model representation explicitly accounting for instantaneous effects. Accordingly, new frequency-domain connectivity measures were defined, and procedures for improving model identification and significance assessment were given. The proposed approach was validated on theoretical illustrative examples, and then applied to EEG and MEG multichannel data recorded from subjects performing a visuo-motor task combining precise grip motor commands with sensory visual feedback. The theoretical validation showed that, in the presence of significant instantaneous correlations, the traditional MVAR formulation may yield misleading connectivity patterns, while the correct patterns can be detected from the new measures based on eMVAR model identification. The practical application showed that instantaneous correlations are non negligible in the considered neurophysiological recordings, strongly suggesting the necessity of using the proposed eMVAR model in place of the traditional one. Results showed that execution of the visuo-motor task evokes the activation of a specific network subserving sensorimotor integration, which involves occipito-parietal and precentral cortices. The new connectivity measures revealed connections which were peculiar of different brain rhythms. Specifically, in the alpha frequency band (8-13 Hz) we documented an enhanced driving role of the visual cortex on the left motor cortex, suggesting a relation between this rhythm and the lateralization of the visuo-motor task. In the beta band (13-30 Hz), task-induced connectivity changes were bilateral, suggesting an involvement of both hemispheres. In both alpha and beta bands, the new connectivity measures suggested an important role for the parietal cortex in mediating the information flow from visual to motor areas, confirming previous evidences from invasive studies based on intra-cranical recordings, TMS or PET examinations. This thesis was produced in collaboration with the Department of Physics of the University of Trento.
APA, Harvard, Vancouver, ISO, and other styles
12

Conconi, Michele <1979&gt. "An New Energetic Approach to the Modeling of Human Joint Kinematics: Application to the Ankle." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amsdottorato.unibo.it/2765/1/Concon_Michele_tesi.pdf.

Full text
Abstract:
The objective of this dissertation is to develop and test a predictive model for the passive kinematics of human joints based on the energy minimization principle. To pursue this goal, the tibio-talar joint is chosen as a reference joint, for the reduced number of bones involved and its simplicity, if compared with other sinovial joints such as the knee or the wrist. Starting from the knowledge of the articular surface shapes, the spatial trajectory of passive motion is obtained as the envelop of joint configurations that maximize the surfaces congruence. An increase in joint congruence corresponds to an improved capability of distributing an applied load, allowing the joint to attain a better strength with less material. Thus, joint congruence maximization is a simple geometric way to capture the idea of joint energy minimization. The results obtained are validated against in vitro measured trajectories. Preliminary comparison provide strong support for the predictions of the theoretical model.
APA, Harvard, Vancouver, ISO, and other styles
13

Conconi, Michele <1979&gt. "An New Energetic Approach to the Modeling of Human Joint Kinematics: Application to the Ankle." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amsdottorato.unibo.it/2765/.

Full text
Abstract:
The objective of this dissertation is to develop and test a predictive model for the passive kinematics of human joints based on the energy minimization principle. To pursue this goal, the tibio-talar joint is chosen as a reference joint, for the reduced number of bones involved and its simplicity, if compared with other sinovial joints such as the knee or the wrist. Starting from the knowledge of the articular surface shapes, the spatial trajectory of passive motion is obtained as the envelop of joint configurations that maximize the surfaces congruence. An increase in joint congruence corresponds to an improved capability of distributing an applied load, allowing the joint to attain a better strength with less material. Thus, joint congruence maximization is a simple geometric way to capture the idea of joint energy minimization. The results obtained are validated against in vitro measured trajectories. Preliminary comparison provide strong support for the predictions of the theoretical model.
APA, Harvard, Vancouver, ISO, and other styles
14

LEMBO, Giuseppe. "METODOLOGIE INFORMATICHE APPLICATE AGLI SCAVI ARCHEOLOGICI." Doctoral thesis, Università degli studi di Ferrara, 2015. http://hdl.handle.net/11392/2389004.

Full text
Abstract:
Informatic methods applied to archaeological excavations In the last decades the use of information technology in archaeology has opened the way to new and increasingly useful and sophisticated systems of documentation; however it is necessary the definition of an adequate theoretical basis and the discussion of the documentation methods adopted, which are specific to each archaeological context. The archiving of archaeological data constitutes an essential basis for the formulation of reconstructive hypotheses and interpretative scenarios and, at the same time, it allows the control and the verification by the scientific community, as well as the possibility of review and the formulation of new hypothesis. The aim of this thesis is to present a new methodological model applied to the palaeolithic site of Isernia La Pineta (Isernia, Italy), characterized by an extraordinary concentration of archaeological pieces and a complex depositional and post-depositional phenomena. This new model, based on the registration of archaeological data for the formalization and processing information and digital contents, has allowed the revision and the rielaboration of the traditional technical documentation. The application of this new methodological model, created ad hoc, has allowed us to fully achieve the preset objectives: the speed of data acquisition has increased along with the degree of precision and accuracy of the same and, simultaneously, it was recorded a reduction of errors in the process of documentation. Beyond the application to the specific context of Isernia La Pineta, the most interesting element of this new methodological model is the possibility of replication in other archaeological contexts. Effectively, it is a model which combines simplicity and versatility of use and it does not require large investments and even special computer knowledge and skills for its use. It also allows the visualization and updating in real time of excavation data and, guaranteeing a link between excavation area and laboratory, a control of the data, resulting in a reduction of the errors.
APA, Harvard, Vancouver, ISO, and other styles
15

Grieco, Vincenzo. "Riconoscimento gesti applicato alla Realtà Virtuale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Realizzazione di un software che utilizza la realtà virtuale unitamente al riconoscimento gesti. Si tratta nello specifico di un programma che permette all’utilizzatore, dotato di un paio di occhiali per la visione stereoscopica, la possibilità di muoversi all’interno di un mondo virtuale. Lo spostamento nell’ ambiente realizzato avviene mediante l'impiego di una cyclette, affinchè la sensazione finale per l'utente sia quella di muoversi lungo un percorso su di una bicicletta. A tale proposito viene illustata la realizzazione della pedalata rilevata attraverso un sensore in grado di registrare i movimenti della gamba. succesivamente i dati analizzati saranno impiegati per riconoscere il gesto specifico del movimento in questione, in modo tale da fornire la spinta necessaria a spostarsi nell'ambiente virtuale. L’elaborato si compone di una trattazione teorica degli argomenti, resa necessaria per la progettazione; e di una dettagliata illustrazione delle scelte effettuate nella fase di realizzazione del software. In conclusione vengono accennati i possibili sviluppi futuri, partendo dalla consapevolezza della possibilità di eventuali miglioramenti al software stesso.
APA, Harvard, Vancouver, ISO, and other styles
16

Sun, Yuqi. "Utilizzo della tecnologia blockchain applicata alle licenze software." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21849/.

Full text
Abstract:
Negli ultimi anni la blockchain ha attratto molto interesse da varie aziende e ricercatori, studiando i miglioramenti che una tecnologia come questa potrebbe avere in vari settori, da quello finanziario a quello medico o immobiliare. Abbiamo scelto una delle possibili aree di applicazione, la gestione delle licenze software, e ne abbiamo sviluppato un sistema basato sulla blockchain di Ethereum. La tesi inizierà con un’introduzione al concetto di blockchain, fornendo le conoscenze necessarie per comprendere questa tecnologia; in seguito, illustrerà il processo che ha portato alla costruzione di questo sistema e infine analizzerà i possibili vantaggi e svantaggi che la blockchain può offrire in un ambito come le licenze software.
APA, Harvard, Vancouver, ISO, and other styles
17

Conciatori, Marco. "tecniche di deep learning applicate a giochi atari." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19132/.

Full text
Abstract:
La presente tesi è incentrata sulla progettazione e sperimentazione di varianti per l'algoritmo DQN, diffusamente utilizzato per affrontare problemi di reinforcement learning con reti neurali. L'obbiettivo prefissato consiste nel migliorarne le performance, soprattutto nel caso degli ambienti a ricompense sparse. Nell'ambito di questi problemi infatti gli algoritmi di reinforcement learning, tra cui lo stesso DQN, incontrano difficoltà nel conseguimento di risultati soddisfacenti. Le modifiche apportate all'algoritmo hanno lo scopo di ottimizzarne le modalità di apprendimento, seguendo, in estrema sintesi, due principali direzioni: un miglior sfruttamento delle poche ricompense a disposizione attraverso un loro più frequente utilizzo, oppure una esplorazione più efficace, ad esempio tramite l'introduzione di scelta casuale delle mosse e/o dell'entropia. Si ottengono in questo modo diverse versioni di DQN che vengono poi confrontate fra loro e con l'algoritmo originale sulla base dei risultati ottenuti.
APA, Harvard, Vancouver, ISO, and other styles
18

Freddi, Jacopo. "Metodi di Machine Learning applicati alla classificazione degli strumenti musicali." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13225/.

Full text
Abstract:
Nell'elaborato viene valutata l’efficacia delle features a medio termine spettrali e temporali nel problema del riconoscimento degli strumenti musicali a partire dai loro toni. In particolare ne viene testata la differenza al variare della fonte di dati e la robustezza dell’analisi basata su queste in contesti in cui i campioni provengono da molteplici fonti, con differenti tecniche esecutive e di registrazione. Collateralmente vengono valutate le influenze di altre variabili sull’efficacia del riconoscimento e vengono testate alcune tecniche di analisi complementari.
APA, Harvard, Vancouver, ISO, and other styles
19

Aprigliano, Cristiano. "Hyperledger: Architettura, Struttura e Tecnologie applicate alla Blockchain." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23882/.

Full text
Abstract:
La tecnologia della Blockchain porta diversi benefici per le applicazioni aziendali, come immutabilità, trasparenza, tracciabilità, nonché la possibilità di sviluppare la propria Blockchain—mentre gli utenti finali avranno il pieno controllo dei loro dati e assets. Hyperledger è un progetto Open-Source gestito dalla Community dedicato allo sviluppo di soluzioni stabili per facilitare l’uso e l’implementazione della tecnologia Blockchain per le aziende attraverso l’uso di framework, strumenti e librerie. Al momento della stesura di questa tesi, Hyperledger conta sei framework, quattro librerie e cinque strumenti (tools). Data l’architettura modulare dei framework, ogni azienda può modellare e adattare praticamente ogni aspetto del framework scelto e implementarlo ad-hoc, per risolvere uno specifico problema. L’obiettivo di questa tesi è quello di illustrare il funzionamento, la struttura e l’architettura di una Blockchain e dei principali sei frameworks sviluppati da Hyperledger.
APA, Harvard, Vancouver, ISO, and other styles
20

Filosi, Michele. "A network medicine approach on microarray and Next generation Sequencing data." Doctoral thesis, Università degli studi di Trento, 2014. https://hdl.handle.net/11572/367599.

Full text
Abstract:
The goal of this thesis is the discovery of a bioinformatics solution for network-based predictive analysis of NGS data, in which network structures can substitute gene lists as a more rich and complex signature of disease. I have focused on methods for network stability, network inference and network comparison, as additional components of the pipeline and as methods to detects outliers in high-throughput datasets. Besides a first work on GEO datasets, the main application of my pipeline has been on original data from the FDA SEQC (Sequencing Quality Control)project. Here I will report some initial findings to which I have contributed with methods and analysis: as the corresponding papers are being submitted. My goal is to provide a comprehensive tool for network reconstruction and network comparison as an R package and user-friendly web service interface available on-line at https://renette.fbk.eu The goal of this thesis is the discovery of a bioinformatics solution for network-based predictive analysis of NGS data, in which network structures can substitute gene lists as a more rich and complex signature of disease. I have focused on methods for network stability, network inference and network comparison, as additional components of the pipeline and as methods to detects outliers in high-throughput datasets. Besides a first work on GEO datasets, the main application of my pipeline has been on original data from the FDA SEQC (Sequencing Quality Control)project. Here I will report some initial findings to which I have contributed with methods and analysis: as the corresponding papers are being submitted. My goal is to provide a comprehensive tool for network reconstruction and network comparison as an R package and user-friendly web service interface available on-line at https://renette.fbk.eu.
APA, Harvard, Vancouver, ISO, and other styles
21

Gianessi, Mattia. "Robotica e intelligenza artificiale applicate alla validazione automotive." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
Questo lavoro rappresenta il resoconto di un tirocinio svolto presso il dipartimento di sviluppo elettronico, team di Integrazione e Validazione, di Automobili Lamborghini durante il quale si è progettato e implementato un sistema autonomo, flessibile e facilmente integrabile con le tecnologie già in uso presso il dipartimento; tale sistema deve essere in grado di riconoscere e interagire con le componenti di input e output HMI (switch, pulsantiere e display touchscreen) delle vetture, permettendo di eseguire e valutare il successo, o il fallimento, di una serie di test case proposti da un utilizzatore esterno. La componente del sistema adibita al riconoscimento di oggetti è costituita da una rete neurale realizzata tramite la libreria software TensorFlow, mentre quella utilizzata per interagire con tali oggetti è un braccio robotico LBR iiwa dotato di un carrello mobile KMR. Il risultato finale ottenuto è stato poi integrato in un framework più ampio che coinvolge altri stakeholders del flusso di sviluppo e validazione prodotto di Automobili Lamborghini S.p.A.
APA, Harvard, Vancouver, ISO, and other styles
22

Barbazza, Sigfrido. "Deep-learning applicato all'identificazione automatica di frutta in immagini." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11526/.

Full text
Abstract:
Analisi delle fasi per la realizzazione di uno strumento di supporto gli agricoltori, dalla creazione di un dataset, all'addestramento e test di una rete neurale artificiale, con obiettivo la localizzazione del prodotto agricolo all'interno delle immagini.
APA, Harvard, Vancouver, ISO, and other styles
23

Acarlar, Gizem. "Factors Influencing Applicant Attraction To Job Openings." Master's thesis, METU, 2007. http://etd.lib.metu.edu.tr/upload/12608486/index.pdf.

Full text
Abstract:
The main purpose of the present study was to explore the effects of characteristics of information given in a job advertisement (amount of information and the specificity of the information) on the potential applicants&rsquo
willingness to apply to the job opening with the mediating roles of credibility of and satisfaction from the information, and attraction to the organization. In addition to that, the factors affecting the decision of the applicants to apply for the job posted such as application modes (internet, by hand in the same city the applicant lives, by hand in a different city than the applicant lives), different selection methods (interview, personality test, knowledge test), and personality characteristics (goal orientation and self-efficacy) were investigated. The study was conducted in three phases. In the first phase, one hundred and seven Middle East Technical University (METU) students were used to decide between two alternatives of goal orientation and two self-efficacy scales, which were translated into Turkish and adapted for the current study, to be used in the main study by determining the validity and reliabilities of the scales. The second phase was the manipulation check, conducted to test the clarity and meaningfulness of the newly developed job advertisements and questions related to the research hypotheses. Thirty-two METU students were used for the second phase. The final phase was the main study. One hundred and fifty four METU students from Electrical and Electronics Department were used to examine the hypotheses of the study.The students were randomly assigned to the three different versions of job advertisement. Additionally, a questionnaire package was given to each participant. The results supported most of the main hypotheses and the proposed model except for the mediating effect of satisfaction. Advertisement type affected the willingness to apply to the job of potential applicant and this relation was mediated by credibility and credibility was mediated by attractiveness to the organization. A main effect of application mode was found for change in application decision, but no interaction was found between application mode and different attraction levels. Goal orientation found to be affecting applicants&rsquo
decision change for different selection methods. Self-efficacy failed to predict decision change for application for different selection methods. Results are discussed along with the strengths and limitations of the study and suggestions for future research.
APA, Harvard, Vancouver, ISO, and other styles
24

Baldi, Timothy. "Elementi di Gamification applicati all'apprendimento della matematica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9525/.

Full text
Abstract:
L'obiettivo di questo lavoro è stato lo studio e lo sviluppo di un'applicazione mobile, che favorisca l'apprendimento scolastico tramite l'uso di tecniche di Gamification. L'app è stata creata con l'intenzione di focalizzarsi in particolare sulla matematica, ma è stata progettata in maniera modulare con diverse funzioni e costrutti parametrizzati, più facilmente gestibile e in futuro ampliabili. Il lavoro è iniziato con l'analisi delle esigenze degli studenti relative allo studio della matematica, ed in particolare si è approfondito la necessità di aiutare gli alunni nell'apprendimento di questa disciplina, attraverso esercizi mirati e con elementi di gioco gamificati.
APA, Harvard, Vancouver, ISO, and other styles
25

Pasolini, Gianluca. "Realtà aumentata applicata ai beni culturali: un caso di studio museale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23877/.

Full text
Abstract:
Negli ultimi anni, i musei vengono visitati sempre meno, in particolare quelli più piccoli e con meno beni culturali. Questo trend negativo è maggiormente peggiorato con l'avvento della pandemia che ha bloccato completamente le visite per molto tempo. Per questo motivo i musei si stanno muovendo per apportare dei cambiamenti innovativi, che possano attirare l'attenzione dei visitatori. Proprio per questi motivi abbiamo deciso di sviluppare un'applicazione mobile con alcune funzionalità innovative, utilizzando come caso di studio il Museo della Regina, situato a Cattolica. Dopo aver effettuato uno studio approfondito su vari musei, abbiamo notato che la realtà aumentata era un argomento molto interessante e non utilizzato ancora da tutti. Abbiamo provveduto ad effettuare ricerche riguardanti lo stato dell'arte attuale, gli ambiti di applicazione e i framework utilizzati per lo sviluppo di questa tecnologia. In definitiva abbiamo deciso di utilizzare React Native, framework di sviluppo per applicazioni native con unico codice. Per quanto riguarda la realtà aumentata invece, abbiamo utilizzato una libreria esterna di Wikitude SDK. L'applicazione finale risulta essere molto promettente e pronta per essere ampliata e successivamente utilizzata all'interno del museo. Infine, abbiamo provveduto ad effettuare un sondaggio preliminare con un gruppo di utenti selezionato, dal quale abbiamo ottenuto feedback positivi e un forte interesse.
APA, Harvard, Vancouver, ISO, and other styles
26

Gherdevich, Davide. "L'analisi spaziale come strumento per la ricostruzione della viabilità medievale nel Friuli Venezia Giulia." Doctoral thesis, Università degli studi di Trieste, 2009. http://hdl.handle.net/10077/3139.

Full text
Abstract:
2007/2008
La ricerca mira a dare un contributo significativo alla ricostruzione della viabilità antica, di epoca romana e soprattutto di epoca medievale. La ricostruzione della rete viaria è stata effettuata attraverso apposite applicazioni di analisi spaziale contenute nei software GIS, in particolare è stata utilizzata la Cost Surface Analysis e la Line of Sight. Spesso la ricostruzione della rete viaria e resa alquanto difficile, sopratutto in territori che sono stati soggetti a bonifiche , culture intensive o a dissesti idrogeologici, in queste zone il dato archeologico è spesso mancante o parziale, ed è in questi casi che la tecnologia GIS, e più precisamente l'analisi spaziale, può aiutare a ricostruire il tracciato viario e fornire nuovi dati che possono essere usati per ulteriori analisi o per confutare e consolidare delle tesi o delle ipotesi. Le elaborazioni spaziali sono tecniche di simulazione finalizzate a classificare, rappresentare e interpretare il paesaggio archeologico, in micro o macro scala, sulla base delle relazioni spaziali e diacroniche che intercorrono fra elementi antropici, naturali, ambientali e, in parte, secondo fattori socio politici. L’analisi spaziale fa misurazioni e ha l’obiettivo di definire un quadro di riferimento all’interno del quale realizzare osservazioni. In particolare il cost surface analysis calcola l'energia consumata da un individuo che si sposta da un punto ad un altro; questo tipo di analisi ci consente non solo di valutare le percorrenze, ma anche ricostruire le strade ed i percorsi di un paesaggio antico. L’altra analisi che abbiamo effettuato e la line of sight o anche Viewshed analysis; calcola il campo visuale umano sulla base delle caratteristiche morfologiche ed ambientali del territorio, e le relazioni spaziali tra i siti all'interno del paesaggio. Le zone da me prese in considerazione per effettuare le prime analisi sono il territorio tra Gemona, Ragogna e Spilinbergo e la provincia di Trieste. Nel primo caso, dopo una prima fase di raccolta dei dati, la nostra attenzione si è concentrata sul tentativo di ricostruire la viabilità di epoca romana e medievale nella zona di trovare il possibile punto di guado sul fiume Tagliamento ed infine verificare se i castelli avessero o meno il controllo sulla rete viaria e sul guado. Per dare una risposta a queste domande abbiamo effettuato prevalentemente due tipi di analisi: il cost surface analysis e il line of sight. Come secondo caso di studio abbiamo analizzato la viabilità, soprattutto di epoca medievale, che attraversava una particolare zona della provincia triestina: la Val Rosandra. Ci siamo riproposti di ricostruire la viabilità nella zona e di confrontarla con i dati storici ed archeologici ed inoltre di verificare se vi era la possibilità di una viabilità principale che attraversasse la valle. Infine abbiamo confrontato i risultati ottenuti con la cartografia storica ed in particolare il rilievo cartografico Giuseppino di fine ‘700. In un ultima fase abbiamo controllato numerose foto aeree, concentrandoci sulla zona comprese tra Osoppo e san Daniele, alla ricerca di possibili anomalie collegabili alla viabilità. I voli visionati sono diversi:volo GAI 1954, Volo IGM 1971, volo R.A.F. 1976 a bassa quota e ad alta quota, volo E.N.E.L. 1976, volo CGR 1986, volo CGR 1998. Una prima analisi ci ha permesso di rilevare diverse possibili anomalie nella zona ad est di Osoppo, a sud di Ragogna e presso san Daniele.
XXI Ciclo
1977
APA, Harvard, Vancouver, ISO, and other styles
27

Pannunzio, Marco. "Meccanismi di gamification applicati in ambito cultural heritage." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13064/.

Full text
Abstract:
In questo documento vengono analizzati i campi di gamification e le digital humanities nei loro aspetti sia positivi che negativi. Sono poi stati applicati i metodi di entrambi al progetto "di Piazza in Piazza" creando un percorso di contenuti digitali esplorabile dall'utente, con all'interno meccaniche di gamification per rendere l'esplorazione divertente e creare una sensazione di progressione all'interno dell'applicativo.
APA, Harvard, Vancouver, ISO, and other styles
28

Ugolini, Matilde. "Metodologie di apprendimento automatico applicate alla generazione di dati 3D." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10415/.

Full text
Abstract:
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
APA, Harvard, Vancouver, ISO, and other styles
29

Fontanella, Gregorio. "Teorie e tecniche della gamification applicate alla vita reale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8841/.

Full text
Abstract:
Gli elementi ludici aiutano a comprendere i bisogni del mondo in cui viviamo e rendono meno noiose quelle attività che normalmente non gratificano in modo sufficiente un individuo; la gamification viene definita come l'utilizzo di elementi di gioco in contesti non di gioco. In questo elaborato viene analizzato come si è evoluto il rapporto tra essere umano e gioco, come si è arrivati a definire la gamification e quali sono le parti atomiche che la compongono. Si analizzano diversi casi di successo in cui è stata implementata la gamification ed infine viene analizzato il mio progetto personale ParcheggioGratuito, in cui applico metodologie di gamification per facilitare il meccanismo di ricerca del parcheggio nella propria città.
APA, Harvard, Vancouver, ISO, and other styles
30

Bergqvist, Martin, and Jim Glansk. "Fördelar med att applicera Collaborative Filtering på Steam : En utforskande studie." Thesis, Högskolan i Borås, Akademin för bibliotek, information, pedagogik och IT, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:hb:diva-14129.

Full text
Abstract:
Rekommendationssystem används överallt. På populära plattformar såsom Netflix och Amazon får du alltid rekommendationer på vad som är nästa lämpliga film eller inköp, baserat på din personliga profil. Detta sker genom korsreferering mellan användare och produkter för att finna sannolika mönster. Syftet med studien har varit att jämföra de två prevalenta tillvägagångssätten att skapa rekommendationer, på en annorlunda datamängd, där ”best practice” inte nödvändigtvis är tillämpbart. Som följd därav, har jämförelse gjorts på effektiviteten av Content-based Filtering kontra Collaborative Filtering, på Steams spelplattform, i syfte att etablera potential för en bättre lösning. Detta angreps genom att samla in data från Steam; Bygga en Content-based Filtering motor som baslinje för att representera Steams nuvarande rekommendationssystem, samt en motsvarande Collaborative Filtering motor, baserad på en standard-implementation, att jämföra mot. Under studiens gång visade det sig att Content-based Filtering prestanda initiellt växte linjärt medan spelarbasen på ett givet spel ökade. Collaborative Filtering däremot hade en exponentiell prestationskurva för spel med få spelare, för att sedan plana ut på en nivå som prestationsmässigt överträffade jämförelsmetoden. Den praktiska signifikansen av dessa resultat torde rättfärdiga en mer utbredd implementering av Collaborative Filtering även där man normalt avstår till förmån för Content-based Filtering då det är enklare att implementera och ger acceptabla resultat. Då våra resultat visar på såpass stor avvikelse redan vid basmodeller, är det här en attityd som mycket väl kan förändras. Collaborative Filtering har varit sparsamt använt på mer mångfacetterade datamängder, men våra resultat visar på potential att överträffa Content-based Filtering med relativt liten insats även på sådana datamängder. Detta kan gynna alla inköps- och community-kombinerade plattformar, då det finns möjlighet att övervaka användandet av inköpen i realtid, vilket möjliggör för justeringar av de faktorer som kan visa sig resultera i felrepresentation.
The use of recommender systems is everywhere. On popular platforms such as Netflix and Amazon, you are always given new recommendations on what to consume next, based on your specific profiling. This is done by cross-referencing users and products to find probable patterns. The aims of this study were to compare the two main ways of generating recommendations, in an unorthodox dataset where “best practice” might not apply. Subsequently, recommendation efficiency was compared between Content Based Filtering and Collaborative Filtering, on the gaming-platform of Steam, in order to establish if there was potential for a better solution. We approached this by gathering data from Steam, building a representational baseline Content-based Filtering recommendation-engine based on what is currently used by Steam, and a competing Collaborative Filtering engine based on a standard implementation. In the course of this study, we found that while Content-based Filtering performance initially grew linearly as the player base of a game increased, Collaborative Filtering’s performance grew exponentially from a small player base, to plateau at a performance-level exceeding the comparison. The practical consequence of these findings would be the justification to apply Collaborative Filtering even on smaller, more complex sets of data than is normally done; The justification being that Content-based Filtering is easier to implement and yields decent results. With our findings showing such a big discrepancy even at basic models, this attitude might well change. The usage of Collaborative Filtering has been used scarcely on the more multifaceted datasets, but our results show that the potential to exceed Content-based Filtering is rather easily obtainable on such sets as well. This potentially benefits all purchase/community-combined platforms, as the usage of the purchase is monitorable on-line, and allows for the adjustments of misrepresentational factors as they appear.
APA, Harvard, Vancouver, ISO, and other styles
31

Lam, Wing Man Wynne <1983&gt. "Essays in Industrial Organization and Information Technology." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amsdottorato.unibo.it/6725/1/Lam_WingManWynne_tesi.pdf.

Full text
Abstract:
Chapter 1 studies how consumers’ switching costs affect the pricing and profits of firms competing in two-sided markets such as Apple and Google in the smartphone market. When two-sided markets are dynamic – rather than merely static – I show that switching costs lower the first-period price if network externalities are strong, which is in contrast to what has been found in one-sided markets. By contrast, switching costs soften price competition in the initial period if network externalities are weak and consumers are more patient than the platforms. Moreover, an increase in switching costs on one side decreases the first-period price on the other side. Chapter 2 examines firms’ incentives to invest in local and flexible resources when demand is uncertain and correlated. I find that market power of the monopolist providing flexible resources distorts investment incentives, while competition mitigates them. The extent of improvement depends critically on demand correlation and the cost of capacity: under social optimum and monopoly, if the flexible resource is cheap, the relationship between investment and correlation is positive, and if it is costly, the relationship becomes negative; under duopoly, the relationship is positive. The analysis also sheds light on some policy discussions in markets such as cloud computing. Chapter 3 develops a theory of sequential investments in cybersecurity. The regulator can use safety standards and liability rules to increase security. I show that the joint use of an optimal standard and a full liability rule leads to underinvestment ex ante and overinvestment ex post. Instead, switching to a partial liability rule can correct the inefficiencies. This suggests that to improve security, the regulator should encourage not only firms, but also consumers to invest in security.
APA, Harvard, Vancouver, ISO, and other styles
32

Lam, Wing Man Wynne <1983&gt. "Essays in Industrial Organization and Information Technology." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amsdottorato.unibo.it/6725/.

Full text
Abstract:
Chapter 1 studies how consumers’ switching costs affect the pricing and profits of firms competing in two-sided markets such as Apple and Google in the smartphone market. When two-sided markets are dynamic – rather than merely static – I show that switching costs lower the first-period price if network externalities are strong, which is in contrast to what has been found in one-sided markets. By contrast, switching costs soften price competition in the initial period if network externalities are weak and consumers are more patient than the platforms. Moreover, an increase in switching costs on one side decreases the first-period price on the other side. Chapter 2 examines firms’ incentives to invest in local and flexible resources when demand is uncertain and correlated. I find that market power of the monopolist providing flexible resources distorts investment incentives, while competition mitigates them. The extent of improvement depends critically on demand correlation and the cost of capacity: under social optimum and monopoly, if the flexible resource is cheap, the relationship between investment and correlation is positive, and if it is costly, the relationship becomes negative; under duopoly, the relationship is positive. The analysis also sheds light on some policy discussions in markets such as cloud computing. Chapter 3 develops a theory of sequential investments in cybersecurity. The regulator can use safety standards and liability rules to increase security. I show that the joint use of an optimal standard and a full liability rule leads to underinvestment ex ante and overinvestment ex post. Instead, switching to a partial liability rule can correct the inefficiencies. This suggests that to improve security, the regulator should encourage not only firms, but also consumers to invest in security.
APA, Harvard, Vancouver, ISO, and other styles
33

Avena, Anna. "Tecniche di data mining applicate alla decodifica di dati neurali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14800/.

Full text
Abstract:
Gli studi sulla decodifica dell'attività neuronale permettono di mappare gli impulsi elettrici della corteccia cerebrale in segnali da inviare a determinati dispositivi per poterli monitorare. È su questo tema che la ricerca scientifica si sta concentrando, al fine di aiutare le persone affette da gravi lesioni fisiche ad ottenere un maggiore grado di autonomia nelle piccole azioni di tutti i giorni. In questo elaborato, sono stati analizzati dati derivanti da attività neuronali raccolti da esperimenti effettuati su primati non umani, eseguiti dal gruppo di ricerca della professoressa Patrizia Fattori nel Dipartimento di Farmacia e Biotecnologie dell'Università di Bologna. Per lo svolgimento di questo esperimento, la cavia, è stata addestrata a svolgere un compito che consiste nell'afferrare gli oggetti proposti, uno alla volta, in ordine casuale. Durante l'esercizio, l'attività neuronale della cavia è stata registrata in vettori contenenti l'attività di spiking. Ciò che si cerca di fare in questa tesi è ricostruire l'informazione relativa all'attività di una popolazione di neuroni, dato il suo spike vector. Sono stati testati diversi algoritmi di classificazione e feature al fine di stabilire quale configurazione sia più affidabile per il riconoscimento dell'attività motoria svolta dalla cavia durante l'esperimento. A tal proposito, è stato implementato un processo di data mining attraverso l'utilizzo del linguaggio python e del framework Scikit-learn che permette di effettuare più classificazioni e stabilire quale fornisce una migliore performance. I risultati dell'analisi dimostrano che alcune feature forniscono alti tassi di riconoscimento e che, a seconda del dominio del problema, è più indicato un determinato tipo di preprocessing rispetto ad un altro.
APA, Harvard, Vancouver, ISO, and other styles
34

ABRARDI, LAURA. "Asimmetria informativa bilaterale in mercati assicurativi competitivi." Doctoral thesis, Università Cattolica del Sacro Cuore, 2013. http://hdl.handle.net/10280/1830.

Full text
Abstract:
Questa tesi studia un mercato assicurativo competitivo in cui gli assicurati possiedono informazione privata riguardo la loro rischiosità, e al contempo gli assicuratori, in ragione della loro superiore esperienza, hanno una maggiore abilità a valutare il rischio. Nel caso in cui il rischio sia perfettamente stimabile dagli assicuratori e tale stima rappresenti la loro informazione privata, una perfetta rivelazione dell'informazione può non avvenire ed equilibri profittevoli sono possibili, nonostante il contesto competitivo. Inoltre, l'aumento della pressione competitiva può rivelarsi inefficace ai fini di una riduzione dei prezzi assicurativi, in quanto può semplicemente comportare una riduzione dei profitti dei singoli assicuratori. Tuttavia, Il vantaggio informativo degli assicuratori può permettere soluzioni caratterizzate da una maggiore efficienza. La presenza di doppia asimmetria informativa permette anche di spiegare l'esistenza di una correlazione negativa tra rischio e copertura assicurativa in mercati competitivi. Inoltre, se la stima del rischio da parte degli assicuratori è affetta da incertezza, così che gli assicuratori differiscono gli uni dagli altri per quanto riguarda la stima del rischio, profitti nulli non sono consentiti.
This dissertation studies a competitive insurance market in which a policyholder owns private information about her own riskiness and at the same time insurers (through their higher expertise) are better able to estimate it. If insurers’ estimations are private and identical, we find that, despite the presence of competition, perfect revelation of information is not necessarily achieved and profitable outcomes are possible. Adding competitive pressure may be ineffective in driving the insurance prices downward, as it simply reduces the individual insurer’s profits. The insurers’ informative advantage, however, allows more efficient outcomes. The presence of a bilateral asymmetry can also explain why, in dispersed markets, low risk policyholders may be more insured than high risk ones. Moreover, if insurers’ private estimations are heterogeneous and suffer of some degree of uncertainty, we find that, in addition to the previous results, actuarially fair outcomes for all policyholders are never allowed, despite the presence of competition.
APA, Harvard, Vancouver, ISO, and other styles
35

ABRARDI, LAURA. "Asimmetria informativa bilaterale in mercati assicurativi competitivi." Doctoral thesis, Università Cattolica del Sacro Cuore, 2013. http://hdl.handle.net/10280/1830.

Full text
Abstract:
Questa tesi studia un mercato assicurativo competitivo in cui gli assicurati possiedono informazione privata riguardo la loro rischiosità, e al contempo gli assicuratori, in ragione della loro superiore esperienza, hanno una maggiore abilità a valutare il rischio. Nel caso in cui il rischio sia perfettamente stimabile dagli assicuratori e tale stima rappresenti la loro informazione privata, una perfetta rivelazione dell'informazione può non avvenire ed equilibri profittevoli sono possibili, nonostante il contesto competitivo. Inoltre, l'aumento della pressione competitiva può rivelarsi inefficace ai fini di una riduzione dei prezzi assicurativi, in quanto può semplicemente comportare una riduzione dei profitti dei singoli assicuratori. Tuttavia, Il vantaggio informativo degli assicuratori può permettere soluzioni caratterizzate da una maggiore efficienza. La presenza di doppia asimmetria informativa permette anche di spiegare l'esistenza di una correlazione negativa tra rischio e copertura assicurativa in mercati competitivi. Inoltre, se la stima del rischio da parte degli assicuratori è affetta da incertezza, così che gli assicuratori differiscono gli uni dagli altri per quanto riguarda la stima del rischio, profitti nulli non sono consentiti.
This dissertation studies a competitive insurance market in which a policyholder owns private information about her own riskiness and at the same time insurers (through their higher expertise) are better able to estimate it. If insurers’ estimations are private and identical, we find that, despite the presence of competition, perfect revelation of information is not necessarily achieved and profitable outcomes are possible. Adding competitive pressure may be ineffective in driving the insurance prices downward, as it simply reduces the individual insurer’s profits. The insurers’ informative advantage, however, allows more efficient outcomes. The presence of a bilateral asymmetry can also explain why, in dispersed markets, low risk policyholders may be more insured than high risk ones. Moreover, if insurers’ private estimations are heterogeneous and suffer of some degree of uncertainty, we find that, in addition to the previous results, actuarially fair outcomes for all policyholders are never allowed, despite the presence of competition.
APA, Harvard, Vancouver, ISO, and other styles
36

WANG, ZIJIAN. "Essays on Information Frictions in Macroeconomics." Doctoral thesis, Università Bocconi, 2021. http://hdl.handle.net/11565/4035704.

Full text
Abstract:
No abstract available
I explore the interaction between financial and information frictions when firms set prices under rational inattention. Facing both aggregate monetary policy shock and idiosyncratic productivity shock, firms with binding financial constraint pay weakly more attention to aggregate shock than unconstrained firms due to strategic complementarity. Using recent survey data, I find new cross-sectional facts that are consistent with the model's predictions regarding firm's attention to different Macroeconomic variables. Generally, monetary non-neutrality is decreasing with the fraction of constrained firms. I provide quantitative calibration disciplined by new survey data to show how a rational inattention model with financial heterogeneity can explain the state-dependent effectiveness of monetary policy which is consistent with recent empirical findings. During recession, increasing fraction of constrained firms will lead to less powerful monetary stimulus, which standard rational inattention model can hardly perform.
APA, Harvard, Vancouver, ISO, and other styles
37

WANG, ZIJIAN. "Essays on Information Frictions in Macroeconomics." Doctoral thesis, Università Bocconi, 2021. http://hdl.handle.net/11565/4035703.

Full text
Abstract:
No abstract available
I explore the interaction between financial and information frictions when firms set prices under rational inattention. Facing both aggregate monetary policy shock and idiosyncratic productivity shock, firms with binding financial constraint pay weakly more attention to aggregate shock than unconstrained firms due to strategic complementarity. Using recent survey data, I find new cross-sectional facts that are consistent with the model's predictions regarding firm's attention to different Macroeconomic variables. Generally, monetary non-neutrality is decreasing with the fraction of constrained firms. I provide quantitative calibration disciplined by new survey data to show how a rational inattention model with financial heterogeneity can explain the state-dependent effectiveness of monetary policy which is consistent with recent empirical findings. During recession, increasing fraction of constrained firms will lead to less powerful monetary stimulus, which standard rational inattention model can hardly perform.
APA, Harvard, Vancouver, ISO, and other styles
38

Procucci, Andrea. "Kotlin-Multiplatform applicato allo sviluppo di applicazioni Android e iOS." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23131/.

Full text
Abstract:
Questa tesi ha il compito di determinare se Kotlin-Multiplatform, per la progettazione e lo sviluppo di un’applicazione sia Android che iOS, allo stato attuale della tecnologia può portare il risultato aspettato. L’obiettivo della tesi è replicare l’applicazione Android di gestione del magazzino Warehouse preesistente utilizzando Kotlin-Multiplatform. Gli argomenti sono suddivisi nel seguente modo, un primo capitolo introduce il perchè continuano ad essere ricercati e sviluppati framework per realizzare applicazioni Android e iOS che riducano i tempi di sviluppo e di manutenzione. Con il capitolo di "Introduzione" viene presentata la tecnologia utilizzata assieme all’obiettivo della tesi e a una descrizione completa del caso di studio. Nel capitolo di "Progettazione" e in quello di "Implementazione" si argomentano le scelte di progettazione e come sono state realizzate nella pratica. Le applicazioni sviluppate sono state svolte per l’azienda TwinLogix con il fine di realizzare la versione iOS dell’applicazione Warehouse che non possedevano.
APA, Harvard, Vancouver, ISO, and other styles
39

Carano, Matteo. "Tecniche di Business Intelligence applicate al progetto "Cartella SOLE (Sanità On LinE)"." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15011/.

Full text
Abstract:
La seguente tesi ha lo scopo di presentare il lavoro svolto all'interno dell’azienda Engineering Ingegneria Informatica S.p.a durante il tirocinio formativo, della durata di circa quattro mesi. Il lavoro effettuato ha l'obiettivo di analizzare e studiare uno strumento di Business Intelligence (SpagoBI) per integrarlo nel progetto della cartella clinica informatizzata dei medici di medicina generale di base (Cartella SOLE). L'aggiunta dello strumento rende disponibile ai medici alcune funzionalità di statistica, utilizzabili al fine di semplificarne e supportarne il processo decisionale.
APA, Harvard, Vancouver, ISO, and other styles
40

Farinelli, Devid. "Apprendimento con rinforzo applicato allo scheduling dei treni per la Flatland challenge." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20487/.

Full text
Abstract:
La Flatland challenge è una competizione che ha come obiettivo incentivare la ricerca nell'ambito del reinforcement learning multi agente (MARL) applicato ai problemi di re-scheduling (RSP). Lo scopo della sfida è sviluppare soluzioni per la gestione di una flotta di treni su una vasta rete ferroviaria, in modo che gli agenti si coordinino e collaborino per raggiungere ciascuno la propria destinazione nel minor tempo possibile, anche in caso si verifichino guasti temporanei. Il rescheduling è un problema complesso già affrontato in varie forme e con vari approcci, la Flatland challenge lo ripropone fornendo un ambiente per effettuare simulazioni del traffico ferroviario, con lo scopo di incentivare lo sviluppo di nuove soluzioni basate su reinforcement learning. In questo elaborato si affrontano i problemi di navigazione e rescheduling di treni posti dalla sfida, utilizzando un approccio basato sul reinforcement learning multi-agente (MARL). Viene descritto come, attraverso l'uso di tecniche di Deep Q-learning e una rappresentazione dello stato dell'ambiente sotto forma di bitmap, siano stati ottenuti risultati promettenti.
APA, Harvard, Vancouver, ISO, and other styles
41

Marini, Daniele <1994&gt. "Pricing of Information in Financial Markets: An Agent-Based Approach." Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/14217.

Full text
Abstract:
L'elaborato finale si propone di simulare ed analizzare un sistema di investitori, i cui possono investire in un asset rischioso ed in un asset privo di rischio . Questi investitori baseranno le loro strategie sulla base dell'informazione a cui essi avranno accesso. Gli agenti sono stati dotati della possibilità di "imparare" una soluzione qualora fosse ritenuta superiore alla propria. In questa tesi si è analizzato il comportamento degli agenti presenti nel mecato e si sono osservato gli equilibri di prezzo e di domanda dell'asset rischoso.
APA, Harvard, Vancouver, ISO, and other styles
42

Ballarini, Francesco. "Principi di Data Visualization e Responsive Design applicati al Progetto Mentor." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24293/.

Full text
Abstract:
Con il processo di transizione digitale ormai in atto da diversi anni nell'economia globale, la mole di dati prodotti e, di conseguenza, da analizzare, sta crescendo sempre di più, tanto da prendere il nome di "Big Data". Al crescere della loro dimensione cresce di pari passo anche la difficoltà della loro analisi, fino a rendere imperativo l'uso di un metodo più efficiente. In questa situazione può entrare in gioco la Data Visualization, ossia la disciplina che determina il modo in cui i dati possono essere rappresentati in maniera grafica, al fine di fornirne una chiave di lettura più istantanea, chiara ed intuitiva. Lo scopo di questa Tesi consiste nello sperimentare su un caso di studio reale l'applicazione della Data Visualization ad un contesto di Industry 4.0, unito anche all'utilizzo di pratiche di design responsive per dispositivi mobile. Come caso di studio di questo volume di Tesi è stato scelto il progetto Mentor, suite di applicazioni cloud-based creata dal Gruppo Bucci, multinazionale attiva nell'industria e nell'automazione. Il progetto Mentor è stato creato con lo scopo di poter monitorare e fornire informazioni in tempo reale riguardo ai loro macchinari. Dopo un confronto con i responsabili del Mentor per individuare gli obiettivi di lavoro e del progetto di Tesi, ossia quello di migliorare la visualizzazione dei dati in formato responsive di alcune applicazioni del Mentor, si è poi proceduto a suddividere il lavoro in diverse fasi. Anzitutto si è deciso di iniziare con una fase di ricerca e analisi per comprendere meglio il funzionamento della piattaforma Mentor e le tecniche migliori di Data Visualization e Responsive Design da applicare poi in seguito. Studiato il problema, si è proceduto con una fase di design delle sue possibili soluzioni, confrontandole tra loro poi in una fase di selezione: selezionate le soluzioni vincenti, si è poi proceduto con una fase di implementazione e successivamente di presentazione dei risultati ottenuti.
APA, Harvard, Vancouver, ISO, and other styles
43

Gregori, Samuele. "La realtà aumentata applicata in ambiti televisivi. Un esempio di utilizzo in RAI." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23086/.

Full text
Abstract:
L’idea di affrontare la realtà aumentata in ambiti televisivi nasce da un’esperienza vissuta in prima persona con l’inserimento all’inizio del secondo anno nel mondo del lavoro presso la sede RAI di Ancona. Con l'aiuto del responsabile AR di Milano, ho iniziato ad approfondire l'argomento ed è nata l'idea di collaborare ad un progetto per il Giro d'Italia 2020 dove, per ovviare ai problemi dovuti al Covid, si è pensato alla trasposizione sul palco, tramite tecniche di realtà aumentata, di un ciclista, un allenatore o un ospite sportivo, posto in un luogo ”isolato” collocato poco distante dal palco; senza che fosse quindi fisicamente presente su di esso, mantenendo così una sorta di ”bolla” di distanziamento tra sportivi e giornalisti. Per fare questo ho ripercorso lo stato dell'arte sul mondo AR e VR, comprendendo lo spazio di azione e il confine tra il reale e il virtuale, approfondendo come nel settore televisivo su vasta scala internazionale queste tecnologie si collochino e applichino effettivamente e, in particolare, gli usi che Rai ne fa da pochi anni e quali strumenti, hardware e software, sono necessari. Ho compreso, inoltre, l'importanza dell'impiego dell'AR come un vero e proprio linguaggio, oltreché come strumento e mezzo, per moltiplicarne la capacità comunicativa al grande pubblico. In particolare, ho approfondito la corretta gestione delle ombre, l’influenza della luce sulla scena virtuale e reale, il posizionamento virtuale nello spazio reale, il mapping 3D e lo shading dei vertici e dei pixel per le sfumature dei materiali e le texture da applicare. Tra i vantaggi del sistema, realizzato in breve tempo, evidenzio il fatto che permette di lavorare in piena autonomia e libertà rispetto ad uno studio, è adattabile, affidabile e personalizzabile su richiesta produttiva e, basandosi su un impianto già impostato di AR, il costo è molto basso e il campo di applicazione molto ampio.
APA, Harvard, Vancouver, ISO, and other styles
44

Gardini, Lorenzo. "Studio e Sperimentazione di Algoritmi di Reinforcement Learning Applicati a Video Game." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21847/.

Full text
Abstract:
Nella prima parte del mio lavoro viene presentato uno studio di una prima soluzione "from scratch" sviluppata da Andrew Karpathy. Seguono due miei miglioramenti: il primo modificando direttamente il codice della precedente soluzione e introducendo, come obbiettivo aggiuntivo per la rete nelle prime fasi di gioco, l'intercettazione della pallina da parte della racchetta, migliorando l'addestramento iniziale; il secondo é una mia personale implementazione utilizzando algoritmi più complessi, che sono allo stato dell'arte su giochi dell'Atari, e che portano un addestramento molto più veloce della rete.
APA, Harvard, Vancouver, ISO, and other styles
45

MORETTO, MANUELA. "Caratterizzazione della connettività funzionale dinamica attraverso modelli di Markov nascosti applicati al segnale BOLD acquisito in stato di riposo." Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3450309.

Full text
Abstract:
Negli ultimi decenni, lo studio della connettività funzionale (FC) nel cervello, in condizioni sia patologiche che sane, ha suscitato sempre più interesse nel campo delle neuroscienze. La FC è definita come una dipendenza statistica tra eventi neurofisiologici remoti, ed è tipicamente valutata attraverso la correlazione tra segnali neuronali di aree cerebrali. Nel cervello, due regioni sono considerate funzionalmente connesse se esiste una relazione statistica tra le loro attività. Molte tecniche sono state introdotte in questo ambito per valutare tale relazione e, tra queste, la più utilizzata è la Risonanza Magnetica funzionale (fMRI). Attraverso l'impiego di protocolli di acquisizione fMRI in stato di riposo (rs-fMRI), questa tecnica può essere facilmente applicata nella pratica clinica, essendo poco invasiva e non richiedendo la cooperazione del paziente nell'esecuzione di compiti specifici. La connettività funzionale può essere distinta in statica o dinamica, a seconda dell’approccio che viene usato per valutarla. Gli approcci statici valutano la FC tra regioni cerebrali, basandosi su una media del segnale fMRI sull'intera scansione, solitamente di durata compresa tra i 5 e i 10 minuti. Gli approcci dinamici, invece, sono stati introdotti più recentemente e hanno lo scopo di determinare la sequenza di stati cerebrali che si susseguono nel tempo, ad intervalli di decine di secondi, caratterizzati da specifiche configurazioni di connettività. Lo studio della connettività dinamica sta diventando di fondamentale importanza in questo campo poiché permette di indagare quanto le dinamiche neurali di specifiche aree o reti cerebrali rallentino o aumentino sia in un cervello sano che in uno colpito da una specifica patologia. In questo lavoro di tesi è stato messo a punto un quadro generale per studiare la FC attraverso approcci sia statici che dinamici, usando dati rs-fMRI. Particolare enfasi è stata data all’applicazione dei modelli di Markov (HMM), modelli statistici che consentono di stimare gli stati cerebrali dinamici e che superano alcune delle limitazioni di quello che è l'approccio più usato in letteratura per l'analisi dinamica della FC. Inizialmente, per ottenere una parcellizzazione ad alta risoluzione spaziale dell'intero cervello nelle principali reti funzionali, è stata applicata un'analisi di componenti indipendenti su un ampio gruppo di soggetti sani. La parcellizzazione ottenuta è stata poi sfruttata in un'analisi di connettività statica per caratterizzare l'alterazione delle reti funzionali in pazienti con tumore cerebrale e a livello di singolo soggetto. In secondo luogo, la parcellizzazione è stata usata in un'analisi di connettività dinamica basata su HMM per studiare, in soggetti sani, gli effetti dell'invecchiamento sulla dinamica degli stati cerebrali. Dopo aver affrontato il problema di selezione del modello, abbiamo introdotto un nuovo indice per la quantificazione dell'incertezza delle stime del modello e abbiamo eseguito un'analisi basata su grafi per caratterizzare gli stati cerebrali in termini di integrazione o segregazione delle reti funzionali. Infine, usando lo schema di analisi sviluppato precedentemente, abbiamo investigato possibili alterazioni di connettività dinamica in pazienti con glioma cerebrale. I risultati ottenuti con HMM sono stati poi confrontati con quelli ottenuti attraverso l’approccio comunemente usato e hanno dimostrato che HMM sono migliori nel separare le dinamiche dei pazienti da quelle dei controlli. I contributi presentati in questa tesi hanno dimostrato che la topografia delle reti cerebrali funzionali può essere alterata e può verificarsi in aree distanti da quella affetta dal tumore, inoltre incoraggiano l'applicazione di approcci di connettività dinamica, come HMM, per catturare le transizioni temporali tra stati cerebrali a livello individuale e per caratterizzare le popolazioni cliniche.
In recent years, the neuroscience community has paid growing attention to the study of brain functional connectivity (FC) both in healthy and pathological conditions. FC is defined as a statistical dependency among remote neurophysiological events, and it is typically inferred through the correlations between neuronal activity signals. In the brain, two regions are functionally connected if exists a statistical relationship between their activity. Many techniques have been introduced in this field to assess such relationship and, among them, the functional Magnetic Resonance Imaging (fMRI) is the most used until now, especially if acquired in resting state (rs-fMRI). Indeed, rs-fMRI has a reduced invasiveness and does not require the cooperation of the patient in performing specific tasks. Two categories of approaches exist for investigating FC: static and dynamic approaches. Static approaches assess FC between brain regions after averaging the fMRI signal over the entire acquisition scan, usually lasting between 5 and 10 minutes. Dynamic approaches, on the other hand, aim to evaluate the sequence of FC patterns (i.e., brain states) that occur over time and that, typically, have a duration of a few tens of seconds. Dynamic FC is becoming of paramount importance in this field as it allows to investigate how much the neural dynamics of specific brain areas or networks slow down or up both during the disease and in a healthy brain. This thesis presents a data-driven framework for the analysis of rs-fMRI data to study FC, using both static and dynamic approaches. Particular emphasis is given to Hidden Markov Models (HMMs), a statistical approach recently introduced for inferring dynamic brain states, which overcomes some limitations of the state-of-the-art approach for dynamic FC analysis based on sliding windows and clustering. Firstly, to obtain a high spatial resolution functional parcellation of the whole brain in the major RSNs, we applied an independent component analysis on a large group of healthy subjects. This parcellation was then exploited in a static FC analysis to characterize networks alteration in patients with brain tumors at the single-subject level. Secondly, the parcellation was exploited in a dynamic FC analysis based on HMMs to study the effects of healthy aging on the dynamics of brain states. After overcoming the model selection problem, we introduced a new index for the quantification of the uncertainty of the model estimates and we performed a graph-based analysis to characterize brain states in terms of integration or segregation of the networks. Finally, using the developed dynamic analytical framework, we investigated whether brain gliomas can cause alterations in temporal properties of dynamic brain states. The results obtained with HMMs were then compared for validation with the approach based on sliding windows and clustering and showed that HMM is better in separating patients from controls. The contributions presented in this dissertation provided evidence of the existence of functional alterations in network topography that can occur away from the tumoral area in brain tumors patients and encourage the application of data-driven dynamic FC approaches, as HMMs, to better capture the transitions between brain states at the individual level and characterize clinical populations.
APA, Harvard, Vancouver, ISO, and other styles
46

La, Perna Francesco. "Strategie di Social Media Marketing delle società sportive professionistiche: un indice di esposizione applicato ai teams NBA." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8840/.

Full text
Abstract:
L’obiettivo di questo studio è analizzare in che misura e con quali modalità le società di un mercato ricco ed importante come quello della National Basketball Association stiano sfruttando i canali messi a disposizione dal Web 2.0 e dai cosiddetti nuovi media. Il progetto si propone quindi di rispondere ai seguenti tre quesiti di ricerca:
 1 Quali sono gli strumenti attualmente a disposizione delle società NBA per promuovere il loro “prodotto” relativamente all’utilizzo delle tecnologie del Web 2.0 e dei Social Media?
 2 Quali vantaggi e quali cambiamenti hanno portato queste nuove tecnologie nella comunicazione e nelle relazioni tra impresa sportiva ed i suoi fan?
 3 E' possibile individuare un indice di esposizione su Web e Social Media applicato ai teams NBA in grado di fornire una stima di quanto e come una società stia usando questi mezzi? Il progetto inizia con un’analisi dello stato dell’arte, partendo dal settore più generale del marketing e del management dello sport, passando per l’utilizzo dei Social Media nel settore sportivo fino a focalizzarsi sugli studi specifici relativi al mondo NBA. Successivamente lo studio segue tre fasi: una prima introduttiva dove sono descritti i principali mezzi disponibili per le società in termini di Social Media Marketing e gli effetti benefici che questi possono avere; una seconda fase in cui viene definito l’indice nei suoi diversi parametri, ed infine un’ultima fase in cui vengono raccolti i dati relativi ad un campione di squadre NBA ed analizzati per elaborare i risultati ottenuti. L’elaborazione dei risultati porta poi ad individuare trend comuni, punti di forza e debolezza ed eventuali migliorie future per le strategie delle società NBA.
APA, Harvard, Vancouver, ISO, and other styles
47

Engberg, Alexander. "Applicera maskininlärning på vägtrafikdata för att klassificera gatutyper i Stockholm." Thesis, Uppsala universitet, Avdelningen för systemteknik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-411469.

Full text
Abstract:
In this thesis, two different machine learning models have been applied on road traffic data from two large cities in Sweden: Gothenburg and Stockholm. The models have been evaluated with regard to classification of street types in urban environments. When planning and developing road traffic systems it is important that there is reliable knowledge about the traffic system. The amount of available traffic data from urban areas is growing and to gain insights about historical, current and future traffic patterns the data can be used for traffic analysis. By training machine learning models that are able to predict what type of street a measuring location belongs to, a classification can be made based on historical data. In this thesis, the performance of two different machine learning models are presented and evaluated when street types are predicted and classified. The algorithms used for the classification were K-Nearest Neighbor and Random Forest which were applied to different combinations of attributes. This was done in order to identify which attributes that lead to the optimal classification of street types in Gothenburg. For training the algorithms the dataset consisted of traffic data collected in Gothenburg. The final model was applied on the traffic data in Stockholm and hence the prediction of street types in that area were obtained. The results of this study show that a combination of all tested attributes leads to the highest accuracy and the model that obtained these results was Random Forest. Even though there are differences between topography and size of the two cities, the study leads to relevant insights about traffic patterns in Stockholm.
APA, Harvard, Vancouver, ISO, and other styles
48

Perlini, Lorenzo. "Machine Learning applicato al Web Semantico: Statistical Relational Learning vs Tensor Factorization." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7530/.

Full text
Abstract:
Obiettivo della tesi è analizzare e testare i principali approcci di Machine Learning applicabili in contesti semantici, partendo da algoritmi di Statistical Relational Learning, quali Relational Probability Trees, Relational Bayesian Classifiers e Relational Dependency Networks, per poi passare ad approcci basati su fattorizzazione tensori, in particolare CANDECOMP/PARAFAC, Tucker e RESCAL.
APA, Harvard, Vancouver, ISO, and other styles
49

Orsini, Simone. "From research to innovation. An information system for representing research capabilities and technological needs." Doctoral thesis, Università Politecnica delle Marche, 2010. http://hdl.handle.net/11566/242277.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Winter, Paul Arthur. "Recruitment effects : the influence of sex, job content, and information order on reactions of applicants /." The Ohio State University, 1995. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487864986611427.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography