Dissertations / Theses on the topic 'Sistema informazione'

To see the other types of publications on this topic, follow the link: Sistema informazione.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sistema informazione.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pellegrino, Giusy <1990&gt. "L’evoluzione del sistema di informazione cinese. Traduzione di alcuni articoli di attualità culturale dal Guangming ribao online." Master's Degree Thesis, Università Ca' Foscari Venezia, 2015. http://hdl.handle.net/10579/7199.

Full text
Abstract:
Il presente lavoro di tesi consiste nella presentazione del sistema d’informazione cinese e nella descrizione delle sue principali caratteristiche dalle origini fino a oggi. L’elaborato, presentato attraverso una breve introduzione generale, è diviso in due parti: una prima parte più teorica e descrittiva, in cui viene delineato il percorso evolutivo del sistema giornalistico cinese, e una seconda parte più tecnica incentrata, invece, sulla traduzione di alcuni articoli di giornale di argomento culturale e sulla definizione delle tecniche di traduzione giornalistica. La prima parte della tesi ha lo scopo di individuare le origini dell’attuale sistema giornalistico cinese, cercando di mettere in risalto le differenze e le affinità esistenti tra i periodici attuali e quelli del passato e sottolineando l’evoluzione che ha caratterizzato la figura del giornalista cinese, continuamente in lotta con il rigido controllo del Partito. La seconda parte, invece, presenta un capitolo introduttivo, la traduzione di otto articoli di attualità tratti dalla versione online del giornale nazionale Guangming ribao e il relativo commento traduttologico. L’intento è quello di cercare di definire la traduzione giornalistica, descrivendo le caratteristiche proprie degli articoli di giornale e cercando di dimostrare le difficoltà legate alla traduzione di questa particolare tipologia testuale. Gli articoli tradotti nel presente lavoro di tesi e il relativo commento traduttologico rappresentano la parte pratica e la dimostrazione effettiva di tutti i concetti esposti nei capitoli introduttivi e teorici. Concludendo, il presente elaborato ha, dunque, un duplice scopo. Da un lato, si vuole presentare il sistema giornalistico cinese come un prodotto della società continuamente influenzato dalle trasformazioni politiche, culturali, economiche e sociali, le cui caratteristiche rappresentano attualmente per la nazione un importante e decisivo terreno di scontro e incontro. Dall’altro, considerando la molteplicità e la complessità degli studi sul settore traduttologico, l’obiettivo è quello di dimostrare quanto sia effettivamente difficile definire l’ambito della traduzione giornalistica, sia perché non ci sono ancora molti studi a riguardo, sia perché gli articoli di giornale rappresentano una tipologia testuale così ricca, originale e personale da mettere il traduttore in difficoltà nella scelta della strategia traduttiva da utilizzare.
APA, Harvard, Vancouver, ISO, and other styles
2

ZAMPINO, GIUSEPPA. "Il bail in nel nuovo sistema di risoluzione delle crisi bancarie: impatto sulla tutela del risparmio." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2019. http://hdl.handle.net/10281/241195.

Full text
Abstract:
I noti eventi di crisi recenti hanno evidenziato la necessità di stabilire dispositivi adeguati a livello normativo per prevenire i fallimenti bancari e contenere sistematicamente gli effetti negativi. A tal fine, la direttiva europea BRRD (2014/59 / UE) è stata utile per preparare le procedure per risolvere il fallimento degli enti creditizi al fine di garantire l'uniformità delle norme tra gli Stati membri dell'UE. In particolare, sono presi in considerazione l'inquadramento degli interventi prodromici (piani di risanamento ed early intervention) alla risoluzione e le particolari fasi in cui quest'ultima si articola Tra le tecniche individuate, un potere significativo è assegnato ad un'autorità ad hoc per svalutare o convertire in azioni le passività della banca in crisi (in un ordine prestabilito), a condizione che alcuni requisiti siano soddisfatti. Pertanto, ci riferiamo al bail-in, un dispositivo che consente di gravare sul recupero delle banche su azionisti e creditori piuttosto che sui contribuenti. Pertanto, intendo analizzare esaminare le condizioni eccezionali in base alle quali la direttiva europea consente l'esclusione dell'applicabilità del bail-in sulle passività altrimenti consentite. La ricerca intende, quindi, analizzare il bail in, concentrandomi sui possibili effetti che la sua applicazione potrebbe avere sulle decisioni di investimento e, più in generale, sull'attività bancaria. Il bail-in pone questioni di educazione finanziaria, di correttezza delle pratiche commerciali bancarie e di adeguata informazione della clientela cui i servizi – bancari o finanziari – sono offerti. È necessaria una efficace e completa diffusione delle informazioni che vengono prima ancora dell’informativa precontrattuale che dovrebbe trovar spazio nella fase di formazione del contratto bancario o di investimento. Il presente lavoro cerca di porre una riflessione su siffatte problematiche.
The well-known recent crisis events have highlighted the need to establish suitable devices at the regulatory level to prevent bank failures, as well as systemically contain the negative effects. To this aim, the European BRRD Directive (2014/59 / EU) was adepte to prepare procedures for resolving failure of credit institutions in order to ensure uniformity of the rules among the EU member states. the classification of the prodromal interventions (restoration plans and early intervention) to the resolution and the particular phases in which the latter is articulated are taken into consideration. Among the techniques identified, a significant power is assigned to an authority ad hoc to write down or to convert in shares the liabilities of the bank in crisis (in a predetermined order), on condition that some requirement are satisfied. Therefore, we refer to bail-in, a device that allows to burden the recovery of banking on shareholders and creditors rather than on taxpayers. Therefore, we intend to examine the exceptional conditions under which the European Directive allows the exclusion of the applicability of the bail-in on liabilities otherwise permitted. The research want, then, to analyze the bail in, focusing on the possible effects that its application could have on investment decisions and, more generally, on banking. Bail-in raises issues of financial education, the correctness of banking business practices and the adequate information of customers to whom banking or financial services are offered. It is necessary an effective and complete dissemination of the information that comes even before the pre-contractual information that should find space in the phase of formation of the banking or investment contract. The present work tries to reflect on such problems.
APA, Harvard, Vancouver, ISO, and other styles
3

GENOVESE, ELEONORA. "Towards universal health coverage and health system equity. Estimating health outcomes and healthcare access in undocumented migrants. Key issues in maternal & perinatal health and the COVID-19 pandemic." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2022. http://hdl.handle.net/10281/392355.

Full text
Abstract:
Le popolazioni migranti presentano uno stato di salute carente con esiti peggiori rispetto alla popolazione generale. Vulnerabilità e diseguaglianza sono esacerbate nei migranti irregolari, i più invisibili ai sistemi sanitari. Questa sfida di salute pubblica necessita di azione per la copertura sanitaria universale e l'equità del sistema sanitario. Obiettivi: Stimare i bisogni di salute nei migranti irregolari nelle aree di salute materna & perinatale e di COVID-19; Testare metodologie di monitoraggio e valutazione sistematici. Metodi: Questa ricerca si basa su tre studi retrospettivi (coorte e trasversali ) con fonti complementari per cogliere la complessità degli esiti di salute e dell’accesso alle cure nei migranti irregolari: i flussi sanitari amministrativi nazionali/regionali, i sistemi d’informazione delle strutture sanitarie del terzo settore, e le inchieste presso un campione di strutture sanitarie. Coorte: I migranti irregolari che hanno avuto accesso a: (i) percorso nascita tramite Servizio Sanitario Nazionale/Regionale nella Regione Lombardia (Italia) dal 2016 al 2020; (ii) cure sanitarie attraverso una struttura del terzo settore a Milano (Italia) dal 24 febbraio al 24 maggio 2020; (iii) cure sanitarie tramite strutture selezionate in Svizzera (Regione di Ginevra), Stati Uniti (Città di Baltimora), Italia (Regione Lombardia), e Francia (Regione di Paris) da febbraio a maggio 2021. Risultati: (i) Lo studio sulla salute materno-perinatale ha incluso 1595 donne migranti irregolari e i loro neonati. Il 57.37% delle donne ha avuto ≥4 visite ostetriche, 68.21% la prima entro la 12a settimana di gravidanza, 63.45% ≥2 ecografie di cui la prima entro la 12a sett. di gravidanza, e 6.21% esami di laboratorio completi. I parti cesarei totali sono stati il 26.89%, le rianimazioni neonatali in urgenza per asfissia alla nascita il 2.63%, l’allattamento materno entro 2 ore dalla nascita il 49.03%. L’80.56% delle gravidanze ha avuto decorso fisiologico ma 2.26% emorragia grave (>1000ml). Il 4.76% dei feti ha riportato difetto di accrescimento, 9.28% dei neonati è nato pre-termine, 17.24% risultato piccolo per età gestazionale, 7.2% nato sotto-peso (<2.5Kg), 1.44% riportato un punteggio Apgar sfavorevole, e 3.07% malformazioni. (ii) Lo studio sulla malattia da COVID-19 ha incluso 272 migranti irregolari. I fattori di rischio sono risultati frequenti, tra cui ipertensione, immunodepressione, precedente contatto stretto con caso di COVID-19. I sintomi sono risultati peggiori rispetto a pazienti con altre patologie respiratorie. (iii) Lo studio sulla propensione alla vaccinazione contro COVID-19 ha incluso 812 migranti irregolari. Il 14.1% ha dichiarato precedente infezione da SARS-CoV-2, 29.5% fattori di rischio, 26.2% paura di sviluppare malattia grave. L’accessibilità percepita alla vaccinazione anti COVID-19 è risultata elevata (86.4%), ma la propensione a vaccinarsi scarsa (41.1%) in correlazione con età, co-morbidità, e opinioni positive sulla vaccinazione. Queste sono risultate migliori per la vaccinazione in generale (77.3%) rispetto alla vaccinazione anti COVID-19 (56.5%). Le fonti di informazione sono risultate prevalentemente i media tradizionali e sociali. Conclusioni: Gli esiti di salute e l’accesso alle cure nei migranti sono risultati carenti, indicando vulnerabilità e diseguaglianza rispetto alla popolazione generale. I fattori di rischio quali la fragilità socio-economica insieme alle barriere legali e linguistiche alle cure sanitarie necessitano interventi mirati: la promozione della salute a livello comunitario, la formazione del personale sanitario, la mediazione linguistico-culturale, e corsi di lingua funzionale. Inoltre, è necessario un sistema di monitoraggio continuo per raccogliere, integrare, e analizzare dati essenziali tramite i flussi sanitari amministrativi e le strutture del terzo settore, da complementare tramite inchieste per dati specifici.
Migrant populations experience poor health, and their outcomes tend to be poorer in comparison with the general population. Vulnerability and inequality are further exacerbated in undocumented migrants, as the most invisible to healthcare systems. This a public health challenge requiring tailored action towards universal health coverage and health system equity. Objectives: To estimate health needs among undocumented migrants in the areas of maternal & perinatal health and COVID-19; and to test a combination of methodologies for systematic monitoring and evaluation. Methods: This research is based on three retrospective studies (cohort and cross-sectional) using a combination of diverse and complementary data sources to reflect the complex nature of health outcomes and healthcare access in undocumented migrants, including: national/regional health management information systems, third sector healthcare provider health information systems, and surveys at selected healthcare facilities. Cohort: Undocumented migrants having accessed: (i) maternity healthcare through National/Regional Health Services in Lombardy Region (Italy) from 2016 to 2020; (ii) healthcare through a third sector healthcare providers in Milan (Italy) from February 24th to May 24th, 2020; (iii) healthcare through participating healthcare providers in Switzerland (Geneva Canton), USA (Baltimore City), Italy (Lombardy Region), and France (Paris Region) from February to May 2021. Results: (i) The study on maternal and perinatal health included 1595 undocumented migrant women and their neonates. 57.37% women had ≥4 antenatal visits, 68.21% the first one within 12 weeks of gestation, 63.45% at least two ultrasound tests including one within 12 weeks of gestation, and 6.21% complete laboratory tests. Total cesarean sections were 26.89%. Emergency neonatal resuscitation for birth asphyxia was conducted in 2.63% births, and 49.03% neonates initiated breastfeeding within 2 hours from birth. 80.56% pregnancies were physiological though severe hemorrhage (>1000ml) occurred in 2.26% women. Intra-uterine growth retardation affected 4.76% fetuses, 9.28% neonates were pre-term, 17.24% small for gestational age, 7.2% had a low weight at birth (<2.5Kg), 1.44% poor Apgar score, and 3.07% malformations. (ii) The study on COVID-19 illness included 272 undocumented migrants. Risk factors were frequent and included hypertension, immune depression, and prior close contact with COVID-19 cases. Presenting symptoms were worse, compared with patients with other respiratory conditions. (iii) The study on COVID-19 vaccination demand included 812 undocumented migrants. Overall, 14.1% of participants reported prior COVID-19 infection, 29.5% risk factors, and 26.2% fear of developing severe COVID-19 infection. Self-perceived accessibility of COVID-19 vaccination was high (86.4%), yet demand was low (41.1%) correlating with age, co-morbidity, and views on vaccination which were better for vaccination in general (77.3%) than vaccination against COVID-19 (56.5%) Participants mainly searched for information about vaccination in the traditional and social media. Conclusions: Health outcomes and healthcare access were poor in undocumented migrants. Socio-economic and health outcomes showed vulnerability and inequality in comparison to general population. Known risk factors including fragile socio-economic conditions along with legal and linguistic barriers to healthcare need to be addressed through tailored interventions including outreach health promotion focusing, healthcare provider training, cultural mediation, translation, and functional language learning. Furthermore, a systematic monitoring and evaluation system is needed to routinely collect, integrate, and analyze data on key indicators from both National/Regional Health Services in combination with ad hoc surveys for specific data outside routine information systems.
APA, Harvard, Vancouver, ISO, and other styles
4

Tosatto, Claudio <1974&gt. "Il passato nell’epoca della sua (ri)producibilità digitale. Torino 1943 - 45. Metodologia della ricerca con tecnologie informatiche. Sistema storico-territoriale di informazione multimediale." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/1106/1/Tesi_Tosatto_Claudio.pdf.

Full text
Abstract:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
If the job of the historian is to understand the past like it has been comprised from the people who have lived it, then is perhaps not risked to think that it is also necessary to communicate turns out you of the searches with own instruments that belong to an age and that they influence the mentality of who in that age alive. Emergent technologies, especially in the area of the multimedialità like the virtual truth, allow the historians to communicate the experience of the past in more senses. In that way the history collaborates with the computer science technologies stopping itself on the possibility to make historical reconstructions virtual, with relati examples and book reviews to you? What mainly it takes care the historians is if a reconstruction of a lived last fact through its recreation in pixels is a method of acquaintance of the history that can be considered valid. That is the emotion that navigation in a truth 3D can provoke, is means in a position to transmitting acquaintance? Or perhaps the idea that we have of the past and its study comes thin changed in the moment in which it is disclosed through the diagram 3D? For a long time but the discipline has begun to above all make the accounts with this situation, forced from the invasività of this type of average, from the show making of the past and one spreading of the partial and antiscientific past. In a literary world post it must begin to think that the visual culture in which we are dipped is changing our relationship with the past: for this the acquaintances matured until today are not false, but it is necessary to recognize that historical truth exists more than one, to times written to times visual. The computer has become one omnipresent platform for the rappresentazione and information dissimation. The methods of interaction and representation are evolving continually. And it is on these two railroads that are move the offer of the computer science technologies to the service of the history. The scope of this thesis is just that one to explore, through it uses and the computer science experimentation of various instruments and technologies, as it can effectively be told the virtual past through three-dimensional objects and atmospheres, and like, in their being characterizing elements of communication, in that way they can collaborate, in this particular case, with the historical discipline. The present search reconstructs some history lines of the main active factories to Turin during the second world war, remembering tightened relation that exists between structures and individuals and in this city in particular between factory and movement laborer, is unavoidable to penetrate in the vicissitudes of the movement Turinese laborer who in the period of the fight of Liberation in city was a political and social subject of first relief. In the city, understanding like been involved biological entity in the war, the factory (or the factories) becomes the conceptual nucleus through which to read the city: they are the factories it objects to it to you main of the strafings and is in the factories that fight one war of liberation between class laborer and authority, of factory and citizens. The factory becomes the place of "usurpation of the power" of which Weber speaks, the stage in which the various episodes of the war are kept: strikes, deportations, occupations.... The model of the city represented here is not a simple visualization but an informative system where the modeled truth is represented from objects, that they make from theatre to the development of events with a precise chronological positioning, to whose inside is possible to carry out operations of selection to render (images static), of filmati estimated (animations) and navigable scenes interactively beyond to activity of search of bibliographical sources and comments of students mainly legacies to the event in object. Objective of this job is to make to interact, through various plans, the historical disciplines and computer science, in the various technological opportunities that this introduces. The offered possibilities of reconstruction from the 3D come therefore put to service of the search, offering an integral vision in a position to approaching us the truth of the age taken in consideration and convogliando in an only espositiva platform all it turns out to you. Spreading Plan Informative Map Multimedia Turin 1945 On the practical plan the plan previews a navigable interface (Flash technology) that it represents the plant of the city of the age, through which it is possible to have a vision of the places and of the times in which the Liberation taken shape, it is to conceptual level, it is to practical level. This I interlace of coordinated in the space and in the time it not only improves the understanding of the phenomena, but it creates a greater interest on the argument through I use it of instruments disclosed you of great effectiveness (and appeal) without to lose sight the necessity of valicare the historical theses proposing itself like didactic platform. A such context demands a study deepened of the historical events to the aim to reconstruct with clarity a map of the city that is precise is topographicalally is to level of multimediale navigation. The preparation of the map must follow the standards of the moment, therefore the used computer science solutions are those supplied from Adobe Illustrator for the realization of the topography, and from Macromedia Flash for the creation of a navigation interface. The base of the data described is obviously consultabile being contained in the medium support and totally annotated in the bibliography. It is the continuous one to evolvere of the information technologies and it massiccia spread of the use of the computers that us door to a substantial change in the study and the historical learning; the academic structures and the operating economic have made the demand own that it reaches from the user (teaching, students, operating of the Cultural Assets) of one greater spread of the historical acquaintance through its computerized representation. On the didactic forehead the reconstruction of an historical truth through instruments informed to us concurs also with the not-historical to touch with hand those that are problematic of the search the which sources lacking, holes of the chronology and appraisal of the authenticity of the facts through tests. The computer science technologies allow a complete, unitary vision and exhausting of the past, convogliando all the information on an only platform, allowing also to who are not specialized to comprise immediately of what are spoken. The better book than history, for its nature, cannot make it in how much divides and organizes the news in various way. In this way to the students it comes given the opportunity to learn through a various rappresentazione regarding those to which they are accustoms to you. The premise centers them of the plan is that it turns out to you in the learning of the students can be improves to you if a concept or a content comes communicated through more channels than expression, in our case through a text, images and a multimediale object. Didactics The Fiorio Tannery is one of the place-symbol of the Turinese Resistance. The plan is one reconstruction in virtual truth of the Fiorio Tannery of Turin. The reconstruction serves to enrich the historical culture is to who produces it, through an accurate search of the sources, is to who can then have use of of, above all the young people, than, attracted from the ludic aspect of the reconstruction, they learn with more facility. The construction of manufatto in 3D supplies to the students the bases in order to recognize and to express the just relation between the model and the historical object. It is made of job through which it is joints to the reconstruction in 3D of the Tannery: a deepened historical search, based on the iconografiche, cartographic sources, that they can be documents of arches or archaeological diggings to you, sources, etc. The modellazione of the buildings on the historical basis for research work, in order to supply the poligonale geometric structure that allows three-dimensional navigation. The realization, through the instruments of the computer graphic of navigation in 3D. Unreal Technology is the name given to the used graphic motor in numerous videogames trades them. One of the fundamental characteristics of such product is that one of having a called instrument Unreal editor with which it is possible to construct virtual worlds, and that it is that one used for this plan. UnrealEd (Ued) is the software in order to create levels for Unreal and the games base to you on the motor of Unreal. E' be used the free version of the editor. The final result of the plan is a navigable virtual atmosphere representing one accurate reconstruction of the Fiorio Tannery to the times of the Resistance. The customer can visit the building and visualize specific information on some points of interest. Navigation comes carried out in first person, a process of "show" of atmospheres visits you through a furnishing consono allows to the customer one greater immersività rendering the more credible and immediately codificabile atmosphere. The Unreal architecture technology has allowed to obtain a good result in the short time, without that they were necessary participations of programming. This motor is, therefore, particularly adapted to the fast realization of prototypes of a discreet quality, the presence of a sure number of bug renders it, but, in inaffidabile part. To use a editor from videogame for this foretell reconstruction the possibility of a its employment in the didactic field, what the simulations in 3D allow in the specific case are to allow the students to experience the job of the historical reconstruction, with all the problems that the historian must face in recreating the past. This job wants to be for the historians a experience in the direction of the creation of a expressive repertorio more wide one, that it includes three-dimensional atmospheres. The risk to employ of the time in order to learn as this technology works in order to generate virtual spaces renders skeptics how many is engaged in the instruction, but the experiences of plans develop to you, above all to the foreign country, serve to understand that they are a good investment. The fact that a software house, that happening of public creates a videogame of large, includes in its product, a series of instruments that concur with the customer the creation of own worlds in which playing, it is sintomatico that the computer science schooling of the medium customers is growing more and more quickly and that I use it of a editor as Unreal Engine will be in future one activity to the capacity of a more and more immense public. This puts to us in the conditions for planning modules of instruction more immersed to you, in which the experience of the search and the reconstruction of the past they interlace with the more traditional study of the events of one sure age. The virtual worlds interatti to you often come defined like the cultural shape key of XXI the century, as the cinema it has been for the XX. The scope of this job has been that one to suggest that the objects and the acclimatizations in 3D are large opportunities for the historians employing, and that they must pick them. The fact is considered that the aesthetic one has an effect on the epistemologiy. Or at least on the shape that turns out you of the historical searches they assume in the moment in which they must be diffuse. A made historical analysis in superficial way or with presupposed wrong can however be diffuse and to have credit in numerous atmospheres if diffused with winning and modern means. Here why it does not convene to bury a good job in some library, in attended that someone discovers it. Here why the historians do not have to ignore the 3D. Our ability, like students and students, to perceive important ideas and guidelines often depends on the methods that we employ in order to represent the data and the evidence. Because the historians can obtain the benefit that 3D the door with himself, however, they must develop a search agenda turns to assess that the 3D he supports theirs objects you of teaching investigators and. An historical reconstruction can be much profit from the educational point of view is not from who the visit but, also from who it realizes it. The phase of necessary search for the reconstruction cannot make other that to increase the background cultural of the developer. Conclusions The thing more important has been the possibility to make experiences in the use of mass media of this kind in order to tell and to introduce the past. Turning upside down the cognitive paradigm that I had learned in the humanistic studies, I have tried to desumere those that we will be able to call "universal laws" from the objective data emerged from these experiments. From epistemologico point of view computer science, with its ability to manage impressive masses of data, gives to the students the possibility to formulate of the hypotheses and then to assess them or to refute them through reconstructions and simulations. My job has gone in this direction, trying to know and to use instruments it puts into effect them that in the future they will have always greater presence in the communication (also scientific) and that they are the mass media of excellence for determined bands of ages (adolescent). Wanting to push to the end the terms we can say that the challenge that today the visual culture places to the traditional methods of making history is the same one that Erodoto and contrapposero Tucidide to the narrators of myths and legends. Before Erodoto the myth existed, that it was means perfectly adapted in order to tell and to give meant to the past of one tribe or one city. In a literary world post our acquaintance of the past is thin changing in the moment in which we see it represented from pixel or when the information gush not alone, but thanks to the interattività with means. Our ability as studious and students to perceive important ideas and guidelines often depend on the methods that we employ in order to represent the data and the evidence. Because the historians can obtain the benefit sottinteso to the 3D, however, they must develop a search agenda turns to assess that the 3D he supports theirs objects you of teaching investigators and. The experiences collections in the previous pages carry to not too much think that in a future far away an instrument to us as the computer will be the only means through which transmitting acquaintances, and from the didactic point of view its interattività concurs involvement in the students like no other modern mass media.
APA, Harvard, Vancouver, ISO, and other styles
5

Tosatto, Claudio <1974&gt. "Il passato nell’epoca della sua (ri)producibilità digitale. Torino 1943 - 45. Metodologia della ricerca con tecnologie informatiche. Sistema storico-territoriale di informazione multimediale." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/1106/.

Full text
Abstract:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
If the job of the historian is to understand the past like it has been comprised from the people who have lived it, then is perhaps not risked to think that it is also necessary to communicate turns out you of the searches with own instruments that belong to an age and that they influence the mentality of who in that age alive. Emergent technologies, especially in the area of the multimedialità like the virtual truth, allow the historians to communicate the experience of the past in more senses. In that way the history collaborates with the computer science technologies stopping itself on the possibility to make historical reconstructions virtual, with relati examples and book reviews to you? What mainly it takes care the historians is if a reconstruction of a lived last fact through its recreation in pixels is a method of acquaintance of the history that can be considered valid. That is the emotion that navigation in a truth 3D can provoke, is means in a position to transmitting acquaintance? Or perhaps the idea that we have of the past and its study comes thin changed in the moment in which it is disclosed through the diagram 3D? For a long time but the discipline has begun to above all make the accounts with this situation, forced from the invasività of this type of average, from the show making of the past and one spreading of the partial and antiscientific past. In a literary world post it must begin to think that the visual culture in which we are dipped is changing our relationship with the past: for this the acquaintances matured until today are not false, but it is necessary to recognize that historical truth exists more than one, to times written to times visual. The computer has become one omnipresent platform for the rappresentazione and information dissimation. The methods of interaction and representation are evolving continually. And it is on these two railroads that are move the offer of the computer science technologies to the service of the history. The scope of this thesis is just that one to explore, through it uses and the computer science experimentation of various instruments and technologies, as it can effectively be told the virtual past through three-dimensional objects and atmospheres, and like, in their being characterizing elements of communication, in that way they can collaborate, in this particular case, with the historical discipline. The present search reconstructs some history lines of the main active factories to Turin during the second world war, remembering tightened relation that exists between structures and individuals and in this city in particular between factory and movement laborer, is unavoidable to penetrate in the vicissitudes of the movement Turinese laborer who in the period of the fight of Liberation in city was a political and social subject of first relief. In the city, understanding like been involved biological entity in the war, the factory (or the factories) becomes the conceptual nucleus through which to read the city: they are the factories it objects to it to you main of the strafings and is in the factories that fight one war of liberation between class laborer and authority, of factory and citizens. The factory becomes the place of "usurpation of the power" of which Weber speaks, the stage in which the various episodes of the war are kept: strikes, deportations, occupations.... The model of the city represented here is not a simple visualization but an informative system where the modeled truth is represented from objects, that they make from theatre to the development of events with a precise chronological positioning, to whose inside is possible to carry out operations of selection to render (images static), of filmati estimated (animations) and navigable scenes interactively beyond to activity of search of bibliographical sources and comments of students mainly legacies to the event in object. Objective of this job is to make to interact, through various plans, the historical disciplines and computer science, in the various technological opportunities that this introduces. The offered possibilities of reconstruction from the 3D come therefore put to service of the search, offering an integral vision in a position to approaching us the truth of the age taken in consideration and convogliando in an only espositiva platform all it turns out to you. Spreading Plan Informative Map Multimedia Turin 1945 On the practical plan the plan previews a navigable interface (Flash technology) that it represents the plant of the city of the age, through which it is possible to have a vision of the places and of the times in which the Liberation taken shape, it is to conceptual level, it is to practical level. This I interlace of coordinated in the space and in the time it not only improves the understanding of the phenomena, but it creates a greater interest on the argument through I use it of instruments disclosed you of great effectiveness (and appeal) without to lose sight the necessity of valicare the historical theses proposing itself like didactic platform. A such context demands a study deepened of the historical events to the aim to reconstruct with clarity a map of the city that is precise is topographicalally is to level of multimediale navigation. The preparation of the map must follow the standards of the moment, therefore the used computer science solutions are those supplied from Adobe Illustrator for the realization of the topography, and from Macromedia Flash for the creation of a navigation interface. The base of the data described is obviously consultabile being contained in the medium support and totally annotated in the bibliography. It is the continuous one to evolvere of the information technologies and it massiccia spread of the use of the computers that us door to a substantial change in the study and the historical learning; the academic structures and the operating economic have made the demand own that it reaches from the user (teaching, students, operating of the Cultural Assets) of one greater spread of the historical acquaintance through its computerized representation. On the didactic forehead the reconstruction of an historical truth through instruments informed to us concurs also with the not-historical to touch with hand those that are problematic of the search the which sources lacking, holes of the chronology and appraisal of the authenticity of the facts through tests. The computer science technologies allow a complete, unitary vision and exhausting of the past, convogliando all the information on an only platform, allowing also to who are not specialized to comprise immediately of what are spoken. The better book than history, for its nature, cannot make it in how much divides and organizes the news in various way. In this way to the students it comes given the opportunity to learn through a various rappresentazione regarding those to which they are accustoms to you. The premise centers them of the plan is that it turns out to you in the learning of the students can be improves to you if a concept or a content comes communicated through more channels than expression, in our case through a text, images and a multimediale object. Didactics The Fiorio Tannery is one of the place-symbol of the Turinese Resistance. The plan is one reconstruction in virtual truth of the Fiorio Tannery of Turin. The reconstruction serves to enrich the historical culture is to who produces it, through an accurate search of the sources, is to who can then have use of of, above all the young people, than, attracted from the ludic aspect of the reconstruction, they learn with more facility. The construction of manufatto in 3D supplies to the students the bases in order to recognize and to express the just relation between the model and the historical object. It is made of job through which it is joints to the reconstruction in 3D of the Tannery: a deepened historical search, based on the iconografiche, cartographic sources, that they can be documents of arches or archaeological diggings to you, sources, etc. The modellazione of the buildings on the historical basis for research work, in order to supply the poligonale geometric structure that allows three-dimensional navigation. The realization, through the instruments of the computer graphic of navigation in 3D. Unreal Technology is the name given to the used graphic motor in numerous videogames trades them. One of the fundamental characteristics of such product is that one of having a called instrument Unreal editor with which it is possible to construct virtual worlds, and that it is that one used for this plan. UnrealEd (Ued) is the software in order to create levels for Unreal and the games base to you on the motor of Unreal. E' be used the free version of the editor. The final result of the plan is a navigable virtual atmosphere representing one accurate reconstruction of the Fiorio Tannery to the times of the Resistance. The customer can visit the building and visualize specific information on some points of interest. Navigation comes carried out in first person, a process of "show" of atmospheres visits you through a furnishing consono allows to the customer one greater immersività rendering the more credible and immediately codificabile atmosphere. The Unreal architecture technology has allowed to obtain a good result in the short time, without that they were necessary participations of programming. This motor is, therefore, particularly adapted to the fast realization of prototypes of a discreet quality, the presence of a sure number of bug renders it, but, in inaffidabile part. To use a editor from videogame for this foretell reconstruction the possibility of a its employment in the didactic field, what the simulations in 3D allow in the specific case are to allow the students to experience the job of the historical reconstruction, with all the problems that the historian must face in recreating the past. This job wants to be for the historians a experience in the direction of the creation of a expressive repertorio more wide one, that it includes three-dimensional atmospheres. The risk to employ of the time in order to learn as this technology works in order to generate virtual spaces renders skeptics how many is engaged in the instruction, but the experiences of plans develop to you, above all to the foreign country, serve to understand that they are a good investment. The fact that a software house, that happening of public creates a videogame of large, includes in its product, a series of instruments that concur with the customer the creation of own worlds in which playing, it is sintomatico that the computer science schooling of the medium customers is growing more and more quickly and that I use it of a editor as Unreal Engine will be in future one activity to the capacity of a more and more immense public. This puts to us in the conditions for planning modules of instruction more immersed to you, in which the experience of the search and the reconstruction of the past they interlace with the more traditional study of the events of one sure age. The virtual worlds interatti to you often come defined like the cultural shape key of XXI the century, as the cinema it has been for the XX. The scope of this job has been that one to suggest that the objects and the acclimatizations in 3D are large opportunities for the historians employing, and that they must pick them. The fact is considered that the aesthetic one has an effect on the epistemologiy. Or at least on the shape that turns out you of the historical searches they assume in the moment in which they must be diffuse. A made historical analysis in superficial way or with presupposed wrong can however be diffuse and to have credit in numerous atmospheres if diffused with winning and modern means. Here why it does not convene to bury a good job in some library, in attended that someone discovers it. Here why the historians do not have to ignore the 3D. Our ability, like students and students, to perceive important ideas and guidelines often depends on the methods that we employ in order to represent the data and the evidence. Because the historians can obtain the benefit that 3D the door with himself, however, they must develop a search agenda turns to assess that the 3D he supports theirs objects you of teaching investigators and. An historical reconstruction can be much profit from the educational point of view is not from who the visit but, also from who it realizes it. The phase of necessary search for the reconstruction cannot make other that to increase the background cultural of the developer. Conclusions The thing more important has been the possibility to make experiences in the use of mass media of this kind in order to tell and to introduce the past. Turning upside down the cognitive paradigm that I had learned in the humanistic studies, I have tried to desumere those that we will be able to call "universal laws" from the objective data emerged from these experiments. From epistemologico point of view computer science, with its ability to manage impressive masses of data, gives to the students the possibility to formulate of the hypotheses and then to assess them or to refute them through reconstructions and simulations. My job has gone in this direction, trying to know and to use instruments it puts into effect them that in the future they will have always greater presence in the communication (also scientific) and that they are the mass media of excellence for determined bands of ages (adolescent). Wanting to push to the end the terms we can say that the challenge that today the visual culture places to the traditional methods of making history is the same one that Erodoto and contrapposero Tucidide to the narrators of myths and legends. Before Erodoto the myth existed, that it was means perfectly adapted in order to tell and to give meant to the past of one tribe or one city. In a literary world post our acquaintance of the past is thin changing in the moment in which we see it represented from pixel or when the information gush not alone, but thanks to the interattività with means. Our ability as studious and students to perceive important ideas and guidelines often depend on the methods that we employ in order to represent the data and the evidence. Because the historians can obtain the benefit sottinteso to the 3D, however, they must develop a search agenda turns to assess that the 3D he supports theirs objects you of teaching investigators and. The experiences collections in the previous pages carry to not too much think that in a future far away an instrument to us as the computer will be the only means through which transmitting acquaintances, and from the didactic point of view its interattività concurs involvement in the students like no other modern mass media.
APA, Harvard, Vancouver, ISO, and other styles
6

Monaco, Clara. "Co-costruzione di un sistema d informazione di indicatori di sostenibilità e qualità ibridi, per la valorizzazione della piccola pesca artigianale del Mediterraneo." Doctoral thesis, Università di Catania, 2017. http://hdl.handle.net/10761/3969.

Full text
Abstract:
La piccola pesca artigianale rappresenta un ampia porzione del settore della pesca nel Mar Mediterraneo. Da circa un decennio, questa categoria di pesca attraversa su più fronti una crisi che, senza opportuni interventi di gestione, minaccia la sopravvivenza delle comunità costiere dipendenti dall attività di pesca. Lo sviluppo della piccola pesca artigianale, attraverso la valorizzazione dei suoi prodotti, sembra poter donare un apporto positivo all intero settore della pesca, giocando un ruolo fondamentale nella rivalutazione delle zone costiere e per lo sviluppo dei mercati regionali. Al fine d intraprendere un percorso orientato alla qualità, questo studio punta allo sviluppo di un sistema d informazione adattato alla piccola pesca artigianale, composto da indicatori che giovino da supporto per la valutazione della sostenibilità delle sue flotte dai punti di vista economico, sociale, ambientale e della governance. A questo scopo, è stata avviata un indagine nell area costiera della Sicilia orientale, dove, attraverso un Approccio sistema (Lavaud, 2013) di tipo partecipativo che ha visto coinvolti i vari stakeholder della filiera ittica locale, e l adattamento del metodo Principi-Criteri-Indicatori (PCI) (Rey Valette et al., 2008), sono stati selezionati i principi, i criteri e gli indicatori utili per la stima della sostenibilità e della qualità di vari fattori caratterizzanti la piccola pesca artigianale. Il sistema d informazione così sviluppato, è capace di guidare l eventuale processo di labeling di un prodotto ittico, proveniente dalla pratica di un mestiere convenuto come piccola pesca artigianale, da riconoscere come di qualità e sostenibile. La ricerca ha richiesto un attenta indagine preliminare sulle marinerie presenti nel territorio oggetto di studio e ha sollevato molteplici problematiche che accomunano le differenti flotte artigianali del Mediterraneo, tra cui, in primo luogo, la mancanza di una definizione comune ufficiale per la categoria della piccola pesca artigianale.
APA, Harvard, Vancouver, ISO, and other styles
7

Zaccagni, Mirko. "Criteri di sviluppo del Sistema Informativo del Comune di Bellaria Igea Marina." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Questa tesi descrive il quadro normativo generale della Pubblica Amministrazione e le funzioni principali svolte dall'ufficio Sistema Informativo del Comune di Bellaria Igea Marina. Affronta gli aspetti teorici e pratici dell'organizzazione, progettazione e sviluppo del sistema informatico e dei processi operativi amministrativi e tecnici ad esso collegati.
APA, Harvard, Vancouver, ISO, and other styles
8

SALGADO, RAMIREZ CATALINA. "Sistema giuridico romanistico, unificazione del diritto e diritto dell’integrazione." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2010. http://hdl.handle.net/2108/202095.

Full text
Abstract:
Questa ricerca si svolge nel contesto di due problematiche ben precise. L'una attinente l'assenza a livello normativo nell'ordinamento giuridico colombiano di una disciplina dell'obbligo precontrattuale di informazione, categoria dogmatica che negli ultimi tempi ha attirato l'attenzione dei iusprivatisti, particolarmente influenzati dall'analisi economica del Diritto. L'altra concernente la delimitazione del contenuto del sopraccitato obbligo. Ci si trova dinanzi ad una 'lacuna' dell'ordinamento, cioè l'inesistenza a livello di diritto positivo di una norma della quale possa farne uso il giudice nel risolvere un caso concreto. Il lavoro di ricerca muove dal presupposto del riconoscimento, sia normativo che giurisprudenziale, di appartenenza dell'ordinamento giuridico colombiano al Sistema de ius Romanum: Sistema chiamato ad orientare tanto l'interpretazione quanto l'integrazione dell'ordinamento giuridico a partire da quello che, all'interno della dissertazione, viene descritto nei termini dell'interazione tra Sistema ed Ordinamento': verticale (che evoca la dimensione temporale del Sistema, che ha come perno il principium) ed orizzontale (che evoca la dimensione spaziale del sistema, la sua proiezione universale). La tesi, incentrata sul meccanismo di integrazione delle lacune per interazione verticale (che consente al giudice di rivolgersi direttamente alla fonte primaria del Sistema di ius Romanum per estrarre le soluzioni), mira a trovare principî e criterî che consentano di stabilire dei contorni dell'obbligo precontrattuale di informazione. Lontana dal tentativo di sviluppare una teoria generale del dovere precontrattuale di informazione, e vista la abbondanza delle fonti romane, esplora due campi specifici delle fonti di grande rilevanza in materia: quello della ignorantia facti et iuris, finora inesplorato al proposito, e l'altro, l'archetipo contrattuale per eccellenza, la compravendita in diritto romano. Parole chiave: Sistema de ius Romanum. Ordinamento giuridico. Lacuna del ordinamento. Obbligo precontrattuale di informazione. Ignorantia facti. Ignorantia iuris. Errore. Compravendita..
This doctoral work has the background of two main problems; one is the absence at a normative level within the Colombian legal order of a regulation of the precontractual duty of disclosure, which in recent times has caught the attention of the scholars particularly under the influence of the economic analysis of law. The second is the setting of the limits of such duty. This faces the so called 'lake' -legal gap- in order to explain the absence of a norm which the judge can reach during a concrete case. As a background to the methodology of this work is the normative and jurisdictional acknowledgement of the belonging of the Colombian legal order to the System of ius Romanum; System which is called to direct the interpretation as well as the integration of the legal order -from the point which is described in this work as the interaction between System and legal order: Vertical interaction (which brings out the temporal dimension of the System), and Horizontal interaction (which brings out the spatial dimension of the System). The thesis concentrates on the mechanism of integration of legal gaps by vertical interaction (which allows the judge direct access to the primary source of the System of ius Romanum, to integrate the legal gap) and proposes the finding of principia, standards of judgement that would enable the outlining of the precontractual duty of disclosure which a judge would be able to use to solve a concrete case. In view of the vast Roman sources this work does not pretend to create a general theory of such duty but explores two specific fields of the sources of great benefit: the one of ignorantia facti et iuris, which has not been explored so far in the body of teaching of this subject, and the already traditional model of buying and selling in Roman law. Glossary: System of ius Romanum. Legal order. Legal gaps integration. Precontractual duty of disclosure. Ignorantia facti. Ignorantia iuris. Mistake. Buying and selling.
APA, Harvard, Vancouver, ISO, and other styles
9

Landi, Eugenio. "Entropia e Informazione in Meccanica Quantistica." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19166/.

Full text
Abstract:
L'elaborato comincia con un ripasso di meccanica quantistica per poi concentrarsi sugli strumenti necessari per lo studio della teoria dell'informazione. Viene introdotto l'operatore densità e il formalismo matematico per necessario per la descrizione dei sistemi aperti. L'ultimo capitolo è dedicato allo studio di quantità come entropia di Shannon e di von Neumann, viene descritto il Principio di Landauer per poi introdurre il concetto di informazione.
APA, Harvard, Vancouver, ISO, and other styles
10

Frison, Michele <1991&gt. "Ripartire da Zero? - Sistemi informativi e paradigmi organizzativi per il rinnovato Sistema sanitario regionale Veneto." Master's Degree Thesis, Università Ca' Foscari Venezia, 2018. http://hdl.handle.net/10579/12370.

Full text
Abstract:
La legge regionale n. 19 del 25 ottobre 2016 ha riformato il servizio sanitario regionale attraverso due principali interventi: l’accorpamento delle Aziende Ulss e l’istituzione dell'ente di governance denominato "Azienda per il governo della sanità della Regione del Veneto - Azienda Zero". Entrambi gli interventi hanno lo scopo di permettere alle Aziende sanitarie, quali strutture di produzione di servizi, di razionalizzare l’uso delle risorse e di dedicarsi in modo più efficace all’erogazione dei servizi stessi. La costituzione dell'Azienda Zero, in particolare, risponde alle esigenze di operare una forte semplificazione del sistema, trasferendo dall'amministrazione regionale al nuovo ente le attività di natura gestionale, il quale assorbirà anche una quota rilevante delle attività tecnico-amministrative oggi replicate presso tutte le Aziende del SSR. In questo contesto di cambiamento e innovazione è necessario individuare: da un lato le soluzioni operative per l’integrazione dei diversi sistemi informativi tra le diverse Aziende Ulss, dall’altro i possibili paradigmi organizzativi che effettivamente l’Azienda Zero sarà chiamata ad adottare nei confronti delle Aziende Ulss sottoposte.
APA, Harvard, Vancouver, ISO, and other styles
11

Tonelli, Fabio. "Sviluppo di un sistema di change detection basato su informazioni 3D." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amslaurea.unibo.it/2964/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Donadel, Lorenzo <1996&gt. "Le informazioni non finanziarie e il D.Lgs. 254/2016 nel sistema bilancio." Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/18056.

Full text
Abstract:
E’ proprio dalla disamina storica riguardante il concetto stesso di sostenibilità e di sviluppo sostenibile, le discussioni e i trattati a livello internazionale che inizia questo lavoro, che ha come obiettivo ultimo quello di fare il punto sulla rendicontazione in ambito non finanziario all’interno del sistema bilancio, in Italia obbligatoria per alcune imprese ed gruppi di grandi dimensioni a partire dal 2017. Gli ultimi paragrafi del primo capitolo, riprendendo le priorità definite dall’ultimo importante documento pubblicato sul tema della sostenibilità rappresentato dall’Agenda 2030 e i suoi 17 Sustainable Development Goals, vuole fornire una breve panoramica sui dati odierni legati ai fondamenti dello sviluppo sostenibile e all’azioni che stanno trasformando l’ambito finanziario per aumentare l’attenzione e la consapevolezza verso le tematiche ESG (Environmental, Social and Governance). I successivi capitoli approcciano il tema andando ad approfondire a livello micro le problematiche analizzate in precedenza, individuando nelle imprese il vero motore del cambiamento, capaci con le loro azioni di spingere la politica ed i cittadini ad intraprendere più velocemente e nella maniera più concreta possibile i target previsti dall’Agenda 2030. Per potere intraprendere un processo serio di cambiamento è necessario partire dalla rendicontazione dei dati, che per quanto riguarda le tematiche di carattere non finanziario deve unire dati sia tipo quantitativa che, spesso, di tipo qualitativo. L’analisi del secondo capitolo si contrerà principalmente sull’utilizzo degli standard promossi dalla Global Reporting Iniziative e dello schema di report integrato sviluppato dall’IRCC che rappresentano i due più recenti e sviluppati modalità di rendicontazione in ambito non finanziario. Il focus di questo lavoro è rappresentato dal terzo capitolo, tramite l’introduzione e l’analisi del decreto legislativo n.254 del 30 dicembre 2016 che, recependo quanto richiesto dalla direttiva 2014/95/UE del Parlamento Europeo introduce, nel contesto italiano, l’obbligatorietà della rendicontazione sulle tematiche di carattere non finanziario e sulla diversità per alcune imprese e gruppi di grandi dimensioni. Una breve disamina sarà effettuata su come la direttiva europea sopracitata sia stata recepita all’interno del sistema legislativo spagnolo e francese, in un’ottica di integrazione dei sistemi di reporting a livello europeo. Infine, l’ultimo capitolo, vuole avere una valenza più applicativa, per capire a livello pratico come la rendicontazione obbligatoria prevista del decreto 254/2016 venga applicata dalle imprese. L’analisi ricade su quattro diverse imprese, due Società per Azioni quotate in borsa e due aziende che sono considerate Enti Pubblici di Interesse Rilevante e per questo obbligate a procedere con la rendicontazione delle informazioni di carattere non finanziario. La scelta del settore dell’energia è stata fatta poiché il tema di un’energia più pulita e rinnovabile è centrale per il raggiungimento di tutti gli obiettivi di sviluppo sostenibile previsti dall’Agenda 2030.
APA, Harvard, Vancouver, ISO, and other styles
13

Rossetto, Edoardo <1996&gt. "Le informazioni non finanziarie e il D.Lgs. 254/2016 nel sistema bilancio." Master's Degree Thesis, Università Ca' Foscari Venezia, 2021. http://hdl.handle.net/10579/20341.

Full text
Abstract:
In questo elaborato il punto di partenza è stata l'azienda nella sua accezione "classica" o economico-finanziaria e che ha influenzato i documenti contabili di bilancio e i principali metodi di valutazione. Sono state, poi, sviluppate, secondo un criterio temporale, le due maggiori "correnti" attraverso le quali si è cercato di andare oltre la prospettiva classica: la responsabilità e la sostenibilità di impresa. Sono state, quindi, definite le informazioni non finanziarie e le più importanti teorie a sostegno della loro rendicontazione. E in relazione a ciò, in un contesto di stakeholder sempre più attenti ad esse, si è posto l'accento sulla finanza sostenibile. La fonte maggiore di informazioni non finanziarie per il contesto esterno all'azienda è la dichiarazione non finanziaria. Si è approfondita la normativa in materia e mi sono soffermato sui principali aspetti del decreto che disciplinano la dichiarazione. Oggetto di ulteriore analisi è stata la relazione sulla gestione, che può contenere le informazioni oggetto della dichiarazione. Nell'ultima parte della tesi, ho voluto trattare nel loro funzionamento le due metodologie di rendicontazione non finanziaria più utilizzate, fornite dal Global Reporting Initiative (GRI) e dall'International Integrated Reporting Council (IIRC). Infine, sono stati evidenziati i principali impatti del decreto e l'avvento della nuova disciplina, sempre di derivazione comunitaria.
APA, Harvard, Vancouver, ISO, and other styles
14

Girolametto, Agnese <1995&gt. "Le Informazioni non finanziarie e il Decreto Legislativo n. 254/2016 nel sistema di bilancio." Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/15334.

Full text
Abstract:
In questa tesi vengono approfonditi i contenuti della relazione sulla gestione e della dichiarazione non finanziaria, con particolare attenzione alle informazioni sul personale e sull'ambiente. Dopo qualche nozione generale sulla relazione sulla gestione, ho approfondito i contenuti previsti dall'articolo 2428 del Codice Civile. In seguito all'emanazione del Decreto Legislativo numero 254 del 30/12/2016 (che recepisce la direttiva europea 2014/95/UE), gli enti di interesse pubblico rilevanti sono tenuti a presentare una dichiarazione non finanziaria. Ho analizzato tutti i dodici articoli di tale decreto e le disposizioni del regolamento attuativo emanato il 18/01/2018 dalla commissione nazionale per le società e la borsa. Le società sono libere di presentare la dichiarazione non finanziaria seguendo lo standard di rendicontazione che preferiscono o adottando una metodologia autonoma di rendicontazione. In questo elaborato vengono approfonditi solo gli standard emanati dal Global Reporting Initiative e dall’International Integrated Reporting Council. In seguito all'integrazione delle informazioni non finanziarie con le informazioni finanziarie contenute nel bilancio d'esercizio, ci si sta orientando sempre più verso il bilancio integrato. Nell’ultimo capitolo vengono analizzate le implicazioni dell’integrated thinking ed i vantaggi che scaturiscono dall’uso della reportistica integrata.
APA, Harvard, Vancouver, ISO, and other styles
15

Corsetti, Mauro. "Mediabuilding2. L'evoluzione degli edifici multimediali conseguente all'avanzamento delle modalità di informazione, gestione e controllo attraverso i sistemi tecnologici avanzati." Doctoral thesis, La Sapienza, 2006. http://hdl.handle.net/11573/917208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

CESARETTI, MARGHERITA. "Sistemi domotici: gestione energetica e autodiagnosi." Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242334.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Fortunato, Angela <1988&gt. "Cambiamento organizzativo, design e implementazione di un sistema informativo complesso: il caso Luxottica." Master's Degree Thesis, Università Ca' Foscari Venezia, 2013. http://hdl.handle.net/10579/2872.

Full text
Abstract:
L'elaborato tratta il cambiamento del sistema informativo Luxottica, a partire dall'esperienza vissuta in prima persona nel progetto. Si analizzano le diverse criticità, il cambiamento e l'evoluzione dell'organizzazione che si adatta al sistema SAP e come il design rigido del sistema si trasforma per assecondare le esigenze di un'azienda complessa. Dopo il go live cinese a gennaio 2012, si prepara il go live italiano per gennaio 2013.
APA, Harvard, Vancouver, ISO, and other styles
18

Gardelli, Luca <1980&gt. "Ingegneria di sistemi auto‐organizzanti con il paradigma multiagente." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/927/1/Tesi_Gardelli_Luca.pdf.

Full text
Abstract:
Self-organisation is increasingly being regarded as an effective approach to tackle modern systems complexity. The self-organisation approach allows the development of systems exhibiting complex dynamics and adapting to environmental perturbations without requiring a complete knowledge of the future surrounding conditions. However, the development of self-organising systems (SOS) is driven by different principles with respect to traditional software engineering. For instance, engineers typically design systems combining smaller elements where the composition rules depend on the reference paradigm, but typically produce predictable results. Conversely, SOS display non-linear dynamics, which can hardly be captured by deterministic models, and, although robust with respect to external perturbations, are quite sensitive to changes on inner working parameters. In this thesis, we describe methodological aspects concerning the early-design stage of SOS built relying on the Multiagent paradigm: in particular, we refer to the A&A metamodel, where MAS are composed by agents and artefacts, i.e. environmental resources. Then, we describe an architectural pattern that has been extracted from a recurrent solution in designing self-organising systems: this pattern is based on a MAS environment formed by artefacts, modelling non-proactive resources, and environmental agents acting on artefacts so as to enable self-organising mechanisms. In this context, we propose a scientific approach for the early design stage of the engineering of self-organising systems: the process is an iterative one and each cycle is articulated in four stages, modelling, simulation, formal verification, and tuning. During the modelling phase we mainly rely on the existence of a self-organising strategy observed in Nature and, hopefully encoded as a design pattern. Simulations of an abstract system model are used to drive design choices until the required quality properties are obtained, thus providing guarantees that the subsequent design steps would lead to a correct implementation. However, system analysis exclusively based on simulation results does not provide sound guarantees for the engineering of complex systems: to this purpose, we envision the application of formal verification techniques, specifically model checking, in order to exactly characterise the system behaviours. During the tuning stage parameters are tweaked in order to meet the target global dynamics and feasibility constraints. In order to evaluate the methodology, we analysed several systems: in this thesis, we only describe three of them, i.e. the most representative ones for each of the three years of PhD course. We analyse each case study using the presented method, and describe the exploited formal tools and techniques.
APA, Harvard, Vancouver, ISO, and other styles
19

Gardelli, Luca <1980&gt. "Ingegneria di sistemi auto‐organizzanti con il paradigma multiagente." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/927/.

Full text
Abstract:
Self-organisation is increasingly being regarded as an effective approach to tackle modern systems complexity. The self-organisation approach allows the development of systems exhibiting complex dynamics and adapting to environmental perturbations without requiring a complete knowledge of the future surrounding conditions. However, the development of self-organising systems (SOS) is driven by different principles with respect to traditional software engineering. For instance, engineers typically design systems combining smaller elements where the composition rules depend on the reference paradigm, but typically produce predictable results. Conversely, SOS display non-linear dynamics, which can hardly be captured by deterministic models, and, although robust with respect to external perturbations, are quite sensitive to changes on inner working parameters. In this thesis, we describe methodological aspects concerning the early-design stage of SOS built relying on the Multiagent paradigm: in particular, we refer to the A&A metamodel, where MAS are composed by agents and artefacts, i.e. environmental resources. Then, we describe an architectural pattern that has been extracted from a recurrent solution in designing self-organising systems: this pattern is based on a MAS environment formed by artefacts, modelling non-proactive resources, and environmental agents acting on artefacts so as to enable self-organising mechanisms. In this context, we propose a scientific approach for the early design stage of the engineering of self-organising systems: the process is an iterative one and each cycle is articulated in four stages, modelling, simulation, formal verification, and tuning. During the modelling phase we mainly rely on the existence of a self-organising strategy observed in Nature and, hopefully encoded as a design pattern. Simulations of an abstract system model are used to drive design choices until the required quality properties are obtained, thus providing guarantees that the subsequent design steps would lead to a correct implementation. However, system analysis exclusively based on simulation results does not provide sound guarantees for the engineering of complex systems: to this purpose, we envision the application of formal verification techniques, specifically model checking, in order to exactly characterise the system behaviours. During the tuning stage parameters are tweaked in order to meet the target global dynamics and feasibility constraints. In order to evaluate the methodology, we analysed several systems: in this thesis, we only describe three of them, i.e. the most representative ones for each of the three years of PhD course. We analyse each case study using the presented method, and describe the exploited formal tools and techniques.
APA, Harvard, Vancouver, ISO, and other styles
20

Catani, Ludovico. "Sistemi sensoriali intelligenti per il monitoraggio del traffico veicolare." Doctoral thesis, Università Politecnica delle Marche, 2012. http://hdl.handle.net/11566/242041.

Full text
Abstract:
Riassunto Negli ultimi anni (causa l'aumento del numero di veicoli in circolazione e la crescente disaffezione verso i mezzi di trasporto pubblico) il problema della congestione del traffico stradale è divenuto sempre più fonte di disagio per la collettività. Le amministrazioni locali sono spesso incapaci di arginare le situazioni più critiche: le variabili in gioco sono molteplici e troppo spesso ci si affida al buon senso piuttosto che affrontare il problema con approccio scientifico. La presente ricerca ha avuto lo scopo di definire degli strumenti e una metodologia di lavoro in grado di supportare efficacemente gli addetti ai lavori nelle scelte riguardanti l'ottimizzazione delle reti stradali. Sono state studiate tre tipologie di ambienti: un parcheggio incustodito, un’autostazione e una rete stradale. L’insieme delle soluzioni progettate per gestirli, studiate per essere moduli indipendenti, costituiscono una completa rassegna di strumenti per il trattamento delle problematiche riguardanti il traffico veicolare. La tecnologia privilegiata per il trattamento dei problemi in esame è stata la visione artificiale, che offre indubbi vantaggi: • utilizza come input dati provenienti da telecamere, tipicamente facili da installare (spesso già installate per altri scopi come la videosorveglianza) e a basso costo rispetto ad altre soluzioni di monitoraggio; • non necessita di installazione di dispositivi a bordo dei veicoli da monitorare, attività non auspicabile (soprattutto perché fonte di disagio per gli utenti) e spesso non possibile; • supponendo una buona illuminazione risulta estremamente precisa nel monitorare veicoli in movimento, caratterizzati da grandi dimensioni e geometrie conosciute e fisse. Ulteriori informazioni provengono dal monitoraggio, tramite GSP, degli autobus del trasporto pubblico locale, resi disponibili grazie alla collaborazione con l'azienda PluService s.r.l. Successivamente alla fase di raccolta dati si è passati all’utilizzo di un simulatore dedicato al traffico su rete stradale, per analizzare le modalità di eliminazione delle criticità e di ottimizzazione dei flussi veicolari.
In recent years (because of the increase in the number of registered vehicles and the growing dissatisfaction with public transport services) traffic congestion problem has been becoming source of discomfort for the community. Local governments are often unable to contain the most critical situations: variables involved are many and too often entrust on common sense rather than cope the problem with scientific approach. The present study was aimed to define the tools and a working methodology that can support experts for choices concerning road networks optimization. Three types of setting were studied : an unattended parking, a bus station and a road network. The set of solutions designed to manage them are conceived to be independent modules. They constitute a complete collection of tools for the road traffic problem treatment. The preferred technology to managing the matter has been computer vision, which offers certain gains:  it uses as input data from cameras, which are typically easy to install (often already installed for other purposes such as security surveillance) and are less expensive than other monitoring solutions;  it does not require installation of vehicle devices which is an undesirable activity (it is a source of discomfort for the users) and is not generally possible;  assuming good lighting, it is extremely accurate to monitoring moving vehicles which are characterized by large dimensions with known and fixed shapes. Additional information comes from local public transport GSP tracking that are made available thanks to the company PluService s.r.l. After the data collection phase we have used a dedicated traffic flow network simulator to optimize the traffic flow and analyse the methods to solve its problems.
APA, Harvard, Vancouver, ISO, and other styles
21

Rossi, Jessica. "Analisi del sistema di gestione della produzione in Mase Generators S.p.A." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6258/.

Full text
Abstract:
Analisi del sistema di gestione dell'azienda Mase Generators S.p.A. In particolare dopo aver introdotto l'importanza di un accurato flusso delle informazioni, si sono raccolti alcuni dati relativi alla produzione dell'impresa studiata per poter fare alcune considerazioni su valore di magazzino, livello di servizio ed ore di produzione caricate sulla commessa, al fine di individuare i punti di forza e le criticità del metodo adottato. Non esiste infatti un sistema di gestione che sappia rispondere a tutte le necesseità, ma una volta determinate le strategie esse devono essere ottimizzate e coerenti con gli obiettivi dell'azienda.
APA, Harvard, Vancouver, ISO, and other styles
22

Spagnolo, Fabio <1981&gt. "I SISTEMI INFORMATIVI NELLE GRANDI AZIENDE: LA GESTIONE DEL CICLO PASSIVO ALLA RIELLO." Master's Degree Thesis, Università Ca' Foscari Venezia, 2013. http://hdl.handle.net/10579/2636.

Full text
Abstract:
LA TESI ESPONE UNA BREVE RELAZIONE CIRCA LA CRESCENTE IMPORTANZA RICOPERTA DAI SISTEMI INFORMATIVI ALL'INTERNO DEL CONTESTO AZIENDALE. DOPO UNA INIZIALE PANORAMICA SUL CONCETTO DI SISTEMA INFORMATIVO E SUI PROCESSI GESTIONALI CHE NE VENGONO COINVOLTI, LA TESI PROSEGUE CON UNA BREVE RASSEGNA DEI SISTEMI ERP E DEI PRINCIPALI MODULI ESTESI QUALI SCM, CRM E BUSINESS INTELLIGENCE. NELLA PARTE FINALE, INFINE, VIENE EFFETTUATA UNA ANALISI, SPECIFICA E CIRCOSCRITTA, DELLA GESTIONE DEL CICLO PASSIVO ALLA RIELLO ATTRAVERSO IL SISTEMA ERP SAP.
APA, Harvard, Vancouver, ISO, and other styles
23

VANUCCI, Cristina. "Tecnologia e morfologia. Sistemi esigenziali-prestazionali e processo edilizio: l’ottimizzazione delle informazioni geometriche, descrittive, morfologiche come strumento di analisi, verifica e controllo." Doctoral thesis, Università degli studi di Ferrara, 2012. http://hdl.handle.net/11392/2389260.

Full text
Abstract:
How is the relationship between the requirements, the building process and geometric, descriptive, morphological information? From this question, the thesis analyzes the process of data mining and transmission of information in the process. The information, measurement, geometry, morphology, may be subject to change due to banal reasons, for example an unordered data storage, or an incorrect data mining or an inaccurate data base. So first goal of the thesis is developing a methodology of data storage and data mining. The information must be consistent with the levels of precision required, versatile compared to other segments of the process and focused exclusively on information that you need to know to carry out the project development. Enucleated the problem, the thesis is developed in a series of case studies that deal with separate commissions. The case studies are located in different segments of the building process with relative accuracy constraints to be respected. The variety of case studies is to show the transversality of this scientific problem in the building process and how the information derived from the techniques of representation will constitute an essential support occurs at different steps of the process. Show the process applicability need a check with the variables of the process itself: the segment of the building process respect to which the case study is located, the requirements defined by the client and the delta of accuracy defined for the validation of information extracted. From case studies some opportunities for innovation in extracting information are identified, they are then coagulated together according to the objectives identified at the start of research to form the future scenarios: these scenarios take over part of the know-how of case studies and industry profiles are addressed to the final clotting knowledge and skills and can develop the industrial scenario sketched.
APA, Harvard, Vancouver, ISO, and other styles
24

Baldacci, Lorenzo <1976&gt. "Estrazione e rappresentazione della conoscenza nella bioinformatica." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/139/1/Tesi_baldacci.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Baldacci, Lorenzo <1976&gt. "Estrazione e rappresentazione della conoscenza nella bioinformatica." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/139/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Diamanti, Tiziano <1974&gt. "Programmazione per la fruizione del progetto NUME attraverso Internet." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/243/1/tesi_dottorato.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Diamanti, Tiziano <1974&gt. "Programmazione per la fruizione del progetto NUME attraverso Internet." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/243/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Chesani, Federico <1975&gt. "Specification, execution and verification of interaction protocols: an approach based on computational logic." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/392/1/FedericoChesani-phd-2007.pdf.

Full text
Abstract:
Interaction protocols establish how different computational entities can interact with each other. The interaction can be finalized to the exchange of data, as in 'communication protocols', or can be oriented to achieve some result, as in 'application protocols'. Moreover, with the increasing complexity of modern distributed systems, protocols are used also to control such a complexity, and to ensure that the system as a whole evolves with certain features. However, the extensive use of protocols has raised some issues, from the language for specifying them to the several verification aspects. Computational Logic provides models, languages and tools that can be effectively adopted to address such issues: its declarative nature can be exploited for a protocol specification language, while its operational counterpart can be used to reason upon such specifications. In this thesis we propose a proof-theoretic framework, called SCIFF, together with its extensions. SCIFF is based on Abductive Logic Programming, and provides a formal specification language with a clear declarative semantics (based on abduction). The operational counterpart is given by a proof procedure, that allows to reason upon the specifications and to test the conformance of given interactions w.r.t. a defined protocol. Moreover, by suitably adapting the SCIFF Framework, we propose solutions for addressing (1) the protocol properties verification (g-SCIFF Framework), and (2) the a-priori conformance verification of peers w.r.t. the given protocol (AlLoWS Framework). We introduce also an agent based architecture, the SCIFF Agent Platform, where the same protocol specification can be used to program and to ease the implementation task of the interacting peers.
APA, Harvard, Vancouver, ISO, and other styles
29

Chesani, Federico <1975&gt. "Specification, execution and verification of interaction protocols: an approach based on computational logic." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/392/.

Full text
Abstract:
Interaction protocols establish how different computational entities can interact with each other. The interaction can be finalized to the exchange of data, as in 'communication protocols', or can be oriented to achieve some result, as in 'application protocols'. Moreover, with the increasing complexity of modern distributed systems, protocols are used also to control such a complexity, and to ensure that the system as a whole evolves with certain features. However, the extensive use of protocols has raised some issues, from the language for specifying them to the several verification aspects. Computational Logic provides models, languages and tools that can be effectively adopted to address such issues: its declarative nature can be exploited for a protocol specification language, while its operational counterpart can be used to reason upon such specifications. In this thesis we propose a proof-theoretic framework, called SCIFF, together with its extensions. SCIFF is based on Abductive Logic Programming, and provides a formal specification language with a clear declarative semantics (based on abduction). The operational counterpart is given by a proof procedure, that allows to reason upon the specifications and to test the conformance of given interactions w.r.t. a defined protocol. Moreover, by suitably adapting the SCIFF Framework, we propose solutions for addressing (1) the protocol properties verification (g-SCIFF Framework), and (2) the a-priori conformance verification of peers w.r.t. the given protocol (AlLoWS Framework). We introduce also an agent based architecture, the SCIFF Agent Platform, where the same protocol specification can be used to program and to ease the implementation task of the interacting peers.
APA, Harvard, Vancouver, ISO, and other styles
30

Foschini, Luca <1978&gt. "Support infrastructures for multimedia services with guaranteed continuity and QoS." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/393/1/phdThesis_Foschini_final.pdf.

Full text
Abstract:
Advances in wireless networking and content delivery systems are enabling new challenging provisioning scenarios where a growing number of users access multimedia services, e.g., audio/video streaming, while moving among different points of attachment to the Internet, possibly with different connectivity technologies, e.g., Wi-Fi, Bluetooth, and cellular 3G. That calls for novel middlewares capable of dynamically personalizing service provisioning to the characteristics of client environments, in particular to discontinuities in wireless resource availability due to handoffs. This dissertation proposes a novel middleware solution, called MUM, that performs effective and context-aware handoff management to transparently avoid service interruptions during both horizontal and vertical handoffs. To achieve the goal, MUM exploits the full visibility of wireless connections available in client localities and their handoff implementations (handoff awareness), of service quality requirements and handoff-related quality degradations (QoS awareness), and of network topology and resources available in current/future localities (location awareness). The design and implementation of the all main MUM components along with extensive on the field trials of the realized middleware architecture confirmed the validity of the proposed full context-aware handoff management approach. In particular, the reported experimental results demonstrate that MUM can effectively maintain service continuity for a wide range of different multimedia services by exploiting handoff prediction mechanisms, adaptive buffering and pre-fetching techniques, and proactive re-addressing/re-binding.
APA, Harvard, Vancouver, ISO, and other styles
31

Foschini, Luca <1978&gt. "Support infrastructures for multimedia services with guaranteed continuity and QoS." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/393/.

Full text
Abstract:
Advances in wireless networking and content delivery systems are enabling new challenging provisioning scenarios where a growing number of users access multimedia services, e.g., audio/video streaming, while moving among different points of attachment to the Internet, possibly with different connectivity technologies, e.g., Wi-Fi, Bluetooth, and cellular 3G. That calls for novel middlewares capable of dynamically personalizing service provisioning to the characteristics of client environments, in particular to discontinuities in wireless resource availability due to handoffs. This dissertation proposes a novel middleware solution, called MUM, that performs effective and context-aware handoff management to transparently avoid service interruptions during both horizontal and vertical handoffs. To achieve the goal, MUM exploits the full visibility of wireless connections available in client localities and their handoff implementations (handoff awareness), of service quality requirements and handoff-related quality degradations (QoS awareness), and of network topology and resources available in current/future localities (location awareness). The design and implementation of the all main MUM components along with extensive on the field trials of the realized middleware architecture confirmed the validity of the proposed full context-aware handoff management approach. In particular, the reported experimental results demonstrate that MUM can effectively maintain service continuity for a wide range of different multimedia services by exploiting handoff prediction mechanisms, adaptive buffering and pre-fetching techniques, and proactive re-addressing/re-binding.
APA, Harvard, Vancouver, ISO, and other styles
32

Guerri, Alessio <1976&gt. "Structural analysis of combinatorial optimization problem characteristics and their resolution using hybrid approaches." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/396/1/Guerri_Alessio.pdf.

Full text
Abstract:
Many combinatorial problems coming from the real world may not have a clear and well defined structure, typically being dirtied by side constraints, or being composed of two or more sub-problems, usually not disjoint. Such problems are not suitable to be solved with pure approaches based on a single programming paradigm, because a paradigm that can effectively face a problem characteristic may behave inefficiently when facing other characteristics. In these cases, modelling the problem using different programming techniques, trying to ”take the best” from each technique, can produce solvers that largely dominate pure approaches. We demonstrate the effectiveness of hybridization and we discuss about different hybridization techniques by analyzing two classes of problems with particular structures, exploiting Constraint Programming and Integer Linear Programming solving tools and Algorithm Portfolios and Logic Based Benders Decomposition as integration and hybridization frameworks.
APA, Harvard, Vancouver, ISO, and other styles
33

Guerri, Alessio <1976&gt. "Structural analysis of combinatorial optimization problem characteristics and their resolution using hybrid approaches." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/396/.

Full text
Abstract:
Many combinatorial problems coming from the real world may not have a clear and well defined structure, typically being dirtied by side constraints, or being composed of two or more sub-problems, usually not disjoint. Such problems are not suitable to be solved with pure approaches based on a single programming paradigm, because a paradigm that can effectively face a problem characteristic may behave inefficiently when facing other characteristics. In these cases, modelling the problem using different programming techniques, trying to ”take the best” from each technique, can produce solvers that largely dominate pure approaches. We demonstrate the effectiveness of hybridization and we discuss about different hybridization techniques by analyzing two classes of problems with particular structures, exploiting Constraint Programming and Integer Linear Programming solving tools and Algorithm Portfolios and Logic Based Benders Decomposition as integration and hybridization frameworks.
APA, Harvard, Vancouver, ISO, and other styles
34

Linari, Alessandro <1977&gt. "Models and techniques for approximate similarity search in large databases." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/398/1/PhD_Alessandro_Linari.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Linari, Alessandro <1977&gt. "Models and techniques for approximate similarity search in large databases." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/398/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Magistretti, Eugenio <1978&gt. "Dynamic services in mobile ad hoc networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/399/1/EugenioMagistrettiPhDThesis.pdf.

Full text
Abstract:
The increasing diffusion of wireless-enabled portable devices is pushing toward the design of novel service scenarios, promoting temporary and opportunistic interactions in infrastructure-less environments. Mobile Ad Hoc Networks (MANET) are the general model of these higly dynamic networks that can be specialized, depending on application cases, in more specific and refined models such as Vehicular Ad Hoc Networks and Wireless Sensor Networks. Two interesting deployment cases are of increasing relevance: resource diffusion among users equipped with portable devices, such as laptops, smart phones or PDAs in crowded areas (termed dense MANET) and dissemination/indexing of monitoring information collected in Vehicular Sensor Networks. The extreme dynamicity of these scenarios calls for novel distributed protocols and services facilitating application development. To this aim we have designed middleware solutions supporting these challenging tasks. REDMAN manages, retrieves, and disseminates replicas of software resources in dense MANET; it implements novel lightweight protocols to maintain a desired replication degree despite participants mobility, and efficiently perform resource retrieval. REDMAN exploits the high-density assumption to achieve scalability and limited network overhead. Sensed data gathering and distributed indexing in Vehicular Networks raise similar issues: we propose a specific middleware support, called MobEyes, exploiting node mobility to opportunistically diffuse data summaries among neighbor vehicles. MobEyes creates a low-cost opportunistic distributed index to query the distributed storage and to determine the location of needed information. Extensive validation and testing of REDMAN and MobEyes prove the effectiveness of our original solutions in limiting communication overhead while maintaining the required accuracy of replication degree and indexing completeness, and demonstrates the feasibility of the middleware approach.
APA, Harvard, Vancouver, ISO, and other styles
37

Magistretti, Eugenio <1978&gt. "Dynamic services in mobile ad hoc networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/399/.

Full text
Abstract:
The increasing diffusion of wireless-enabled portable devices is pushing toward the design of novel service scenarios, promoting temporary and opportunistic interactions in infrastructure-less environments. Mobile Ad Hoc Networks (MANET) are the general model of these higly dynamic networks that can be specialized, depending on application cases, in more specific and refined models such as Vehicular Ad Hoc Networks and Wireless Sensor Networks. Two interesting deployment cases are of increasing relevance: resource diffusion among users equipped with portable devices, such as laptops, smart phones or PDAs in crowded areas (termed dense MANET) and dissemination/indexing of monitoring information collected in Vehicular Sensor Networks. The extreme dynamicity of these scenarios calls for novel distributed protocols and services facilitating application development. To this aim we have designed middleware solutions supporting these challenging tasks. REDMAN manages, retrieves, and disseminates replicas of software resources in dense MANET; it implements novel lightweight protocols to maintain a desired replication degree despite participants mobility, and efficiently perform resource retrieval. REDMAN exploits the high-density assumption to achieve scalability and limited network overhead. Sensed data gathering and distributed indexing in Vehicular Networks raise similar issues: we propose a specific middleware support, called MobEyes, exploiting node mobility to opportunistically diffuse data summaries among neighbor vehicles. MobEyes creates a low-cost opportunistic distributed index to query the distributed storage and to determine the location of needed information. Extensive validation and testing of REDMAN and MobEyes prove the effectiveness of our original solutions in limiting communication overhead while maintaining the required accuracy of replication degree and indexing completeness, and demonstrates the feasibility of the middleware approach.
APA, Harvard, Vancouver, ISO, and other styles
38

Lanza, Alessandro <1973&gt. "Detecting changes in video sequences." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/466/1/main.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Lanza, Alessandro <1973&gt. "Detecting changes in video sequences." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/466/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Oliva, Enrico <1976&gt. "Argumentation and artifacts for intelligent multi-agent systems." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/919/1/Tesi_Oliva_Enrico.pdf.

Full text
Abstract:
Reasoning under uncertainty is a human capacity that in software system is necessary and often hidden. Argumentation theory and logic make explicit non-monotonic information in order to enable automatic forms of reasoning under uncertainty. In human organization Distributed Cognition and Activity Theory explain how artifacts are fundamental in all cognitive process. Then, in this thesis we search to understand the use of cognitive artifacts in an new argumentation framework for an agent-based artificial society.
APA, Harvard, Vancouver, ISO, and other styles
41

Oliva, Enrico <1976&gt. "Argumentation and artifacts for intelligent multi-agent systems." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/919/.

Full text
Abstract:
Reasoning under uncertainty is a human capacity that in software system is necessary and often hidden. Argumentation theory and logic make explicit non-monotonic information in order to enable automatic forms of reasoning under uncertainty. In human organization Distributed Cognition and Activity Theory explain how artifacts are fundamental in all cognitive process. Then, in this thesis we search to understand the use of cognitive artifacts in an new argumentation framework for an agent-based artificial society.
APA, Harvard, Vancouver, ISO, and other styles
42

Trombetti, Gabriele Antonio <1977&gt. "Enabling computationally intensive bioinformatics applications on the Grid platform." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/922/1/Tesi_Trombetti_Gabriele.pdf.

Full text
Abstract:
Bioinformatics is a recent and emerging discipline which aims at studying biological problems through computational approaches. Most branches of bioinformatics such as Genomics, Proteomics and Molecular Dynamics are particularly computationally intensive, requiring huge amount of computational resources for running algorithms of everincreasing complexity over data of everincreasing size. In the search for computational power, the EGEE Grid platform, world's largest community of interconnected clusters load balanced as a whole, seems particularly promising and is considered the new hope for satisfying the everincreasing computational requirements of bioinformatics, as well as physics and other computational sciences. The EGEE platform, however, is rather new and not yet free of problems. In addition, specific requirements of bioinformatics need to be addressed in order to use this new platform effectively for bioinformatics tasks. In my three years' Ph.D. work I addressed numerous aspects of this Grid platform, with particular attention to those needed by the bioinformatics domain. I hence created three major frameworks, Vnas, GridDBManager and SETest, plus an additional smaller standalone solution, to enhance the support for bioinformatics applications in the Grid environment and to reduce the effort needed to create new applications, additionally addressing numerous existing Grid issues and performing a series of optimizations. The Vnas framework is an advanced system for the submission and monitoring of Grid jobs that provides an abstraction with reliability over the Grid platform. In addition, Vnas greatly simplifies the development of new Grid applications by providing a callback system to simplify the creation of arbitrarily complex multistage computational pipelines and provides an abstracted virtual sandbox which bypasses Grid limitations. Vnas also reduces the usage of Grid bandwidth and storage resources by transparently detecting equality of virtual sandbox files based on content, across different submissions, even when performed by different users. BGBlast, evolution of the earlier project GridBlast, now provides a Grid Database Manager (GridDBManager) component for managing and automatically updating biological flatfile databases in the Grid environment. GridDBManager sports very novel features such as an adaptive replication algorithm that constantly optimizes the number of replicas of the managed databases in the Grid environment, balancing between response times (performances) and storage costs according to a programmed cost formula. GridDBManager also provides a very optimized automated management for older versions of the databases based on reverse delta files, which reduces the storage costs required to keep such older versions available in the Grid environment by two orders of magnitude. The SETest framework provides a way to the user to test and regressiontest Python applications completely scattered with side effects (this is a common case with Grid computational pipelines), which could not easily be tested using the more standard methods of unit testing or test cases. The technique is based on a new concept of datasets containing invocations and results of filtered calls. The framework hence significantly accelerates the development of new applications and computational pipelines for the Grid environment, and the efforts required for maintenance. An analysis of the impact of these solutions will be provided in this thesis. This Ph.D. work originated various publications in journals and conference proceedings as reported in the Appendix. Also, I orally presented my work at numerous international conferences related to Grid and bioinformatics.
APA, Harvard, Vancouver, ISO, and other styles
43

Trombetti, Gabriele Antonio <1977&gt. "Enabling computationally intensive bioinformatics applications on the Grid platform." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/922/.

Full text
Abstract:
Bioinformatics is a recent and emerging discipline which aims at studying biological problems through computational approaches. Most branches of bioinformatics such as Genomics, Proteomics and Molecular Dynamics are particularly computationally intensive, requiring huge amount of computational resources for running algorithms of everincreasing complexity over data of everincreasing size. In the search for computational power, the EGEE Grid platform, world's largest community of interconnected clusters load balanced as a whole, seems particularly promising and is considered the new hope for satisfying the everincreasing computational requirements of bioinformatics, as well as physics and other computational sciences. The EGEE platform, however, is rather new and not yet free of problems. In addition, specific requirements of bioinformatics need to be addressed in order to use this new platform effectively for bioinformatics tasks. In my three years' Ph.D. work I addressed numerous aspects of this Grid platform, with particular attention to those needed by the bioinformatics domain. I hence created three major frameworks, Vnas, GridDBManager and SETest, plus an additional smaller standalone solution, to enhance the support for bioinformatics applications in the Grid environment and to reduce the effort needed to create new applications, additionally addressing numerous existing Grid issues and performing a series of optimizations. The Vnas framework is an advanced system for the submission and monitoring of Grid jobs that provides an abstraction with reliability over the Grid platform. In addition, Vnas greatly simplifies the development of new Grid applications by providing a callback system to simplify the creation of arbitrarily complex multistage computational pipelines and provides an abstracted virtual sandbox which bypasses Grid limitations. Vnas also reduces the usage of Grid bandwidth and storage resources by transparently detecting equality of virtual sandbox files based on content, across different submissions, even when performed by different users. BGBlast, evolution of the earlier project GridBlast, now provides a Grid Database Manager (GridDBManager) component for managing and automatically updating biological flatfile databases in the Grid environment. GridDBManager sports very novel features such as an adaptive replication algorithm that constantly optimizes the number of replicas of the managed databases in the Grid environment, balancing between response times (performances) and storage costs according to a programmed cost formula. GridDBManager also provides a very optimized automated management for older versions of the databases based on reverse delta files, which reduces the storage costs required to keep such older versions available in the Grid environment by two orders of magnitude. The SETest framework provides a way to the user to test and regressiontest Python applications completely scattered with side effects (this is a common case with Grid computational pipelines), which could not easily be tested using the more standard methods of unit testing or test cases. The technique is based on a new concept of datasets containing invocations and results of filtered calls. The framework hence significantly accelerates the development of new applications and computational pipelines for the Grid environment, and the efforts required for maintenance. An analysis of the impact of these solutions will be provided in this thesis. This Ph.D. work originated various publications in journals and conference proceedings as reported in the Appendix. Also, I orally presented my work at numerous international conferences related to Grid and bioinformatics.
APA, Harvard, Vancouver, ISO, and other styles
44

Toninelli, Alessandra <1979&gt. "Semantic-based middleware solutions to support context-aware service provisioning in pervasive environments." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/923/1/Tesi_Toninelli_Alessandra.pdf.

Full text
Abstract:
The dynamicity and heterogeneity that characterize pervasive environments raise new challenges in the design of mobile middleware. Pervasive environments are characterized by a significant degree of heterogeneity, variability, and dynamicity that conventional middleware solutions are not able to adequately manage. Originally designed for use in a relatively static context, such middleware systems tend to hide low-level details to provide applications with a transparent view on the underlying execution platform. In mobile environments, however, the context is extremely dynamic and cannot be managed by a priori assumptions. Novel middleware should therefore support mobile computing applications in the task of adapting their behavior to frequent changes in the execution context, that is, it should become context-aware. In particular, this thesis has identified the following key requirements for novel context-aware middleware that existing solutions do not fulfil yet. (i) Middleware solutions should support interoperability between possibly unknown entities by providing expressive representation models that allow to describe interacting entities, their operating conditions and the surrounding world, i.e., their context, according to an unambiguous semantics. (ii) Middleware solutions should support distributed applications in the task of reconfiguring and adapting their behavior/results to ongoing context changes. (iii) Context-aware middleware support should be deployed on heterogeneous devices under variable operating conditions, such as different user needs, application requirements, available connectivity and device computational capabilities, as well as changing environmental conditions. Our main claim is that the adoption of semantic metadata to represent context information and context-dependent adaptation strategies allows to build context-aware middleware suitable for all dynamically available portable devices. Semantic metadata provide powerful knowledge representation means to model even complex context information, and allow to perform automated reasoning to infer additional and/or more complex knowledge from available context data. In addition, we suggest that, by adopting proper configuration and deployment strategies, semantic support features can be provided to differentiated users and devices according to their specific needs and current context. This thesis has investigated novel design guidelines and implementation options for semantic-based context-aware middleware solutions targeted to pervasive environments. These guidelines have been applied to different application areas within pervasive computing that would particularly benefit from the exploitation of context. Common to all applications is the key role of context in enabling mobile users to personalize applications based on their needs and current situation. The main contributions of this thesis are (i) the definition of a metadata model to represent and reason about context, (ii) the definition of a model for the design and development of context-aware middleware based on semantic metadata, (iii) the design of three novel middleware architectures and the development of a prototypal implementation for each of these architectures, and (iv) the proposal of a viable approach to portability issues raised by the adoption of semantic support services in pervasive applications.
APA, Harvard, Vancouver, ISO, and other styles
45

Toninelli, Alessandra <1979&gt. "Semantic-based middleware solutions to support context-aware service provisioning in pervasive environments." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/923/.

Full text
Abstract:
The dynamicity and heterogeneity that characterize pervasive environments raise new challenges in the design of mobile middleware. Pervasive environments are characterized by a significant degree of heterogeneity, variability, and dynamicity that conventional middleware solutions are not able to adequately manage. Originally designed for use in a relatively static context, such middleware systems tend to hide low-level details to provide applications with a transparent view on the underlying execution platform. In mobile environments, however, the context is extremely dynamic and cannot be managed by a priori assumptions. Novel middleware should therefore support mobile computing applications in the task of adapting their behavior to frequent changes in the execution context, that is, it should become context-aware. In particular, this thesis has identified the following key requirements for novel context-aware middleware that existing solutions do not fulfil yet. (i) Middleware solutions should support interoperability between possibly unknown entities by providing expressive representation models that allow to describe interacting entities, their operating conditions and the surrounding world, i.e., their context, according to an unambiguous semantics. (ii) Middleware solutions should support distributed applications in the task of reconfiguring and adapting their behavior/results to ongoing context changes. (iii) Context-aware middleware support should be deployed on heterogeneous devices under variable operating conditions, such as different user needs, application requirements, available connectivity and device computational capabilities, as well as changing environmental conditions. Our main claim is that the adoption of semantic metadata to represent context information and context-dependent adaptation strategies allows to build context-aware middleware suitable for all dynamically available portable devices. Semantic metadata provide powerful knowledge representation means to model even complex context information, and allow to perform automated reasoning to infer additional and/or more complex knowledge from available context data. In addition, we suggest that, by adopting proper configuration and deployment strategies, semantic support features can be provided to differentiated users and devices according to their specific needs and current context. This thesis has investigated novel design guidelines and implementation options for semantic-based context-aware middleware solutions targeted to pervasive environments. These guidelines have been applied to different application areas within pervasive computing that would particularly benefit from the exploitation of context. Common to all applications is the key role of context in enabling mobile users to personalize applications based on their needs and current situation. The main contributions of this thesis are (i) the definition of a metadata model to represent and reason about context, (ii) the definition of a model for the design and development of context-aware middleware based on semantic metadata, (iii) the design of three novel middleware architectures and the development of a prototypal implementation for each of these architectures, and (iv) the proposal of a viable approach to portability issues raised by the adoption of semantic support services in pervasive applications.
APA, Harvard, Vancouver, ISO, and other styles
46

Giannelli, Carlo <1979&gt. "Middleware per la gestione di interfacce di comunicazione e di sorgenti di contesto in ambienti wireless eterogenei." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/925/1/Tesi_Giannelli_Carlo.pdf.

Full text
Abstract:
The full exploitation of multi-hop multi-path connectivity opportunities offered by heterogeneous wireless interfaces could enable innovative Always Best Served (ABS) deployment scenarios where mobile clients dynamically self-organize to offer/exploit Internet connectivity at best. Only novel middleware solutions based on heterogeneous context information can seamlessly enable this scenario: middleware solutions should i) provide a translucent access to low-level components, to achieve both fully aware and simplified pre-configured interactions, ii) permit to fully exploit communication interface capabilities, i.e., not only getting but also providing connectivity in a peer-to-peer fashion, thus relieving final users and application developers from the burden of directly managing wireless interface heterogeneity, and iii) consider user mobility as crucial context information evaluating at provision time the suitability of available Internet points of access differently when the mobile client is still or in motion. The novelty of this research work resides in three primary points. First of all, it proposes a novel model and taxonomy providing a common vocabulary to easily describe and position solutions in the area of context-aware autonomic management of preferred network opportunities. Secondly, it presents PoSIM, a context-aware middleware for the synergic exploitation and control of heterogeneous positioning systems that facilitates the development and portability of location-based services. PoSIM is translucent, i.e., it can provide application developers with differentiated visibility of data characteristics and control possibilities of available positioning solutions, thus dynamically adapting to application-specific deployment requirements and enabling cross-layer management decisions. Finally, it provides the MMHC solution for the self-organization of multi-hop multi-path heterogeneous connectivity. MMHC considers a limited set of practical indicators on node mobility and wireless network characteristics for a coarsegrained estimation of expected reliability/quality of multi-hop paths available at runtime. In particular, MMHC manages the durability/throughput-aware formation and selection of different multi-hop paths simultaneously. Furthermore, MMHC provides a novel solution based on adaptive buffers, proactively managed based on handover prediction, to support continuous services, especially by pre-fetching multimedia contents to avoid streaming interruptions.
APA, Harvard, Vancouver, ISO, and other styles
47

Giannelli, Carlo <1979&gt. "Middleware per la gestione di interfacce di comunicazione e di sorgenti di contesto in ambienti wireless eterogenei." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/925/.

Full text
Abstract:
The full exploitation of multi-hop multi-path connectivity opportunities offered by heterogeneous wireless interfaces could enable innovative Always Best Served (ABS) deployment scenarios where mobile clients dynamically self-organize to offer/exploit Internet connectivity at best. Only novel middleware solutions based on heterogeneous context information can seamlessly enable this scenario: middleware solutions should i) provide a translucent access to low-level components, to achieve both fully aware and simplified pre-configured interactions, ii) permit to fully exploit communication interface capabilities, i.e., not only getting but also providing connectivity in a peer-to-peer fashion, thus relieving final users and application developers from the burden of directly managing wireless interface heterogeneity, and iii) consider user mobility as crucial context information evaluating at provision time the suitability of available Internet points of access differently when the mobile client is still or in motion. The novelty of this research work resides in three primary points. First of all, it proposes a novel model and taxonomy providing a common vocabulary to easily describe and position solutions in the area of context-aware autonomic management of preferred network opportunities. Secondly, it presents PoSIM, a context-aware middleware for the synergic exploitation and control of heterogeneous positioning systems that facilitates the development and portability of location-based services. PoSIM is translucent, i.e., it can provide application developers with differentiated visibility of data characteristics and control possibilities of available positioning solutions, thus dynamically adapting to application-specific deployment requirements and enabling cross-layer management decisions. Finally, it provides the MMHC solution for the self-organization of multi-hop multi-path heterogeneous connectivity. MMHC considers a limited set of practical indicators on node mobility and wireless network characteristics for a coarsegrained estimation of expected reliability/quality of multi-hop paths available at runtime. In particular, MMHC manages the durability/throughput-aware formation and selection of different multi-hop paths simultaneously. Furthermore, MMHC provides a novel solution based on adaptive buffers, proactively managed based on handover prediction, to support continuous services, especially by pre-fetching multimedia contents to avoid streaming interruptions.
APA, Harvard, Vancouver, ISO, and other styles
48

Monti, Gabriele <1978&gt. "Management and routing algorithms for ad-hoc and sensor networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/928/1/Tesi_Monti_Gabriele.pdf.

Full text
Abstract:
Large scale wireless adhoc networks of computers, sensors, PDAs etc. (i.e. nodes) are revolutionizing connectivity and leading to a paradigm shift from centralized systems to highly distributed and dynamic environments. An example of adhoc networks are sensor networks, which are usually composed by small units able to sense and transmit to a sink elementary data which are successively processed by an external machine. Recent improvements in the memory and computational power of sensors, together with the reduction of energy consumptions, are rapidly changing the potential of such systems, moving the attention towards datacentric sensor networks. A plethora of routing and data management algorithms have been proposed for the network path discovery ranging from broadcasting/floodingbased approaches to those using global positioning systems (GPS). We studied WGrid, a novel decentralized infrastructure that organizes wireless devices in an adhoc manner, where each node has one or more virtual coordinates through which both message routing and data management occur without reliance on either flooding/broadcasting operations or GPS. The resulting adhoc network does not suffer from the deadend problem, which happens in geographicbased routing when a node is unable to locate a neighbor closer to the destination than itself. WGrid allow multidimensional data management capability since nodes' virtual coordinates can act as a distributed database without needing neither special implementation or reorganization. Any kind of data (both single and multidimensional) can be distributed, stored and managed. We will show how a location service can be easily implemented so that any search is reduced to a simple query, like for any other data type. WGrid has then been extended by adopting a replication methodology. We called the resulting algorithm WRGrid. Just like WGrid, WRGrid acts as a distributed database without needing neither special implementation nor reorganization and any kind of data can be distributed, stored and managed. We have evaluated the benefits of replication on data management, finding out, from experimental results, that it can halve the average number of hops in the network. The direct consequence of this fact are a significant improvement on energy consumption and a workload balancing among sensors (number of messages routed by each node). Finally, thanks to the replications, whose number can be arbitrarily chosen, the resulting sensor network can face sensors disconnections/connections, due to failures of sensors, without data loss. Another extension to {WGrid} is {W*Grid} which extends it by strongly improving network recovery performance from link and/or device failures that may happen due to crashes or battery exhaustion of devices or to temporary obstacles. W*Grid guarantees, by construction, at least two disjoint paths between each couple of nodes. This implies that the recovery in W*Grid occurs without broadcasting transmissions and guaranteeing robustness while drastically reducing the energy consumption. An extensive number of simulations shows the efficiency, robustness and traffic road of resulting networks under several scenarios of device density and of number of coordinates. Performance analysis have been compared to existent algorithms in order to validate the results.
APA, Harvard, Vancouver, ISO, and other styles
49

Monti, Gabriele <1978&gt. "Management and routing algorithms for ad-hoc and sensor networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/928/.

Full text
Abstract:
Large scale wireless adhoc networks of computers, sensors, PDAs etc. (i.e. nodes) are revolutionizing connectivity and leading to a paradigm shift from centralized systems to highly distributed and dynamic environments. An example of adhoc networks are sensor networks, which are usually composed by small units able to sense and transmit to a sink elementary data which are successively processed by an external machine. Recent improvements in the memory and computational power of sensors, together with the reduction of energy consumptions, are rapidly changing the potential of such systems, moving the attention towards datacentric sensor networks. A plethora of routing and data management algorithms have been proposed for the network path discovery ranging from broadcasting/floodingbased approaches to those using global positioning systems (GPS). We studied WGrid, a novel decentralized infrastructure that organizes wireless devices in an adhoc manner, where each node has one or more virtual coordinates through which both message routing and data management occur without reliance on either flooding/broadcasting operations or GPS. The resulting adhoc network does not suffer from the deadend problem, which happens in geographicbased routing when a node is unable to locate a neighbor closer to the destination than itself. WGrid allow multidimensional data management capability since nodes' virtual coordinates can act as a distributed database without needing neither special implementation or reorganization. Any kind of data (both single and multidimensional) can be distributed, stored and managed. We will show how a location service can be easily implemented so that any search is reduced to a simple query, like for any other data type. WGrid has then been extended by adopting a replication methodology. We called the resulting algorithm WRGrid. Just like WGrid, WRGrid acts as a distributed database without needing neither special implementation nor reorganization and any kind of data can be distributed, stored and managed. We have evaluated the benefits of replication on data management, finding out, from experimental results, that it can halve the average number of hops in the network. The direct consequence of this fact are a significant improvement on energy consumption and a workload balancing among sensors (number of messages routed by each node). Finally, thanks to the replications, whose number can be arbitrarily chosen, the resulting sensor network can face sensors disconnections/connections, due to failures of sensors, without data loss. Another extension to {WGrid} is {W*Grid} which extends it by strongly improving network recovery performance from link and/or device failures that may happen due to crashes or battery exhaustion of devices or to temporary obstacles. W*Grid guarantees, by construction, at least two disjoint paths between each couple of nodes. This implies that the recovery in W*Grid occurs without broadcasting transmissions and guaranteeing robustness while drastically reducing the energy consumption. An extensive number of simulations shows the efficiency, robustness and traffic road of resulting networks under several scenarios of device density and of number of coordinates. Performance analysis have been compared to existent algorithms in order to validate the results.
APA, Harvard, Vancouver, ISO, and other styles
50

Molesini, Ambra <1980&gt. "Meta-models, environment and layers: agent-oriented engineering of complex systems." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/930/1/Tesi_Molesini_Ambra.pdf.

Full text
Abstract:
Traditional software engineering approaches and metaphors fall short when applied to areas of growing relevance such as electronic commerce, enterprise resource planning, and mobile computing: such areas, in fact, generally call for open architectures that may evolve dynamically over time so as to accommodate new components and meet new requirements. This is probably one of the main reasons that the agent metaphor and the agent-oriented paradigm are gaining momentum in these areas. This thesis deals with the engineering of complex software systems in terms of the agent paradigm. This paradigm is based on the notions of agent and systems of interacting agents as fundamental abstractions for designing, developing and managing at runtime typically distributed software systems. However, today the engineer often works with technologies that do not support the abstractions used in the design of the systems. For this reason the research on methodologies becomes the basic point in the scientific activity. Currently most agent-oriented methodologies are supported by small teams of academic researchers, and as a result, most of them are in an early stage and still in the first context of mostly \academic" approaches for agent-oriented systems development. Moreover, such methodologies are not well documented and very often defined and presented only by focusing on specific aspects of the methodology. The role played by meta- models becomes fundamental for comparing and evaluating the methodologies. In fact a meta-model specifies the concepts, rules and relationships used to define methodologies. Although it is possible to describe a methodology without an explicit meta-model, formalising the underpinning ideas of the methodology in question is valuable when checking its consistency or planning extensions or modifications. A good meta-model must address all the different aspects of a methodology, i.e. the process to be followed, the work products to be generated and those responsible for making all this happen. In turn, specifying the work products that must be developed implies dening the basic modelling building blocks from which they are built. As a building block, the agent abstraction alone is not enough to fully model all the aspects related to multi-agent systems in a natural way. In particular, different perspectives exist on the role that environment plays within agent systems: however, it is clear at least that all non-agent elements of a multi-agent system are typically considered to be part of the multi-agent system environment. The key role of environment as a first-class abstraction in the engineering of multi-agent system is today generally acknowledged in the multi-agent system community, so environment should be explicitly accounted for in the engineering of multi-agent system, working as a new design dimension for agent-oriented methodologies. At least two main ingredients shape the environment: environment abstractions - entities of the environment encapsulating some functions -, and topology abstractions - entities of environment that represent the (either logical or physical) spatial structure. In addition, the engineering of non-trivial multi-agent systems requires principles and mechanisms for supporting the management of the system representation complexity. These principles lead to the adoption of a multi-layered description, which could be used by designers to provide different levels of abstraction over multi-agent systems. The research in these fields has lead to the formulation of a new version of the SODA methodology where environment abstractions and layering principles are exploited for en- gineering multi-agent systems.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography