Academic literature on the topic 'Flusso di informazione'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Flusso di informazione.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Flusso di informazione"

1

Cartolari, R., S. Boni, L. Perugini, L. Vocino, and G. B. Scarfò. "La Tomografia Computerizzata Tridimensionale (3D-TC) nella patologia vascolare intracranica." Rivista di Neuroradiologia 7, no. 5 (October 1994): 745–57. http://dx.doi.org/10.1177/197140099400700504.

Full text
Abstract:
È stata valutata l'utilità diagnostica del rendering tridimensionale di esami TC (3D-TC) nelle malformazioni artero-venose e negli aneurismi del poligono di Willis. Particolare attenzione è stata posta sulla scelta dei valori di soglia di campionamento delle tessere, da cui dipendono sia la qualità che il significato diagnostico dell'imagine 3D ottenuta. Il rendering 3D concentra in poche immagini significative una considerevole quantità di informazioni con passaggio di un elevato flusso informativo dal radiologo al clinico. In particolari situazioni di diagnostica differenziale la scelta di corretti valori di soglia («segno dell a soglia») può fornire informazioni diagnostiche originali.
APA, Harvard, Vancouver, ISO, and other styles
2

Manzalini, Antonio. "Campo e Potenziale Quantistico della Coscienza." Scienze Biofisiche 1, no. 3 (September 2022): 1–11. http://dx.doi.org/10.48274/ibi16.

Full text
Abstract:
Gli organismi viventi, dal punto di vista termodinamico, sono simili a dei sistemi aperti, che operano lontano dall’equilibrio. Infatti, i processi metabolici della vita si basano su continui flussi interni e scambi di energia, materia e informazioni degli organismi con l’ambiente circostante. Ad un livello fisico più profondo, tuttavia, questi scambi sono mediati da oscillazioni quantistiche ondulatorie che comprendono, ad esempio: oscillazioni meccaniche, elettromagnetiche, nucleari e termiche. Anche il vuoto, secondo la Teoria Quantistica dei Campi (Quantum Field Theory – QFT), è sede di inarrestabili fluttuazioni quantistiche. Alla luce di questo, è ragionevole sostenere che gli organismi viventi sono sistemi aperti lontani non solo dall’equilibrio termodinamico, ma anche dall’equilibrio quantistico. Questo determina ed influenza anche i diversi livelli di coscienza degli organismi viventi. L’articolo propone un modello della coscienza degli organismi viventi, basato su un approccio più ampio rispetto a quello della Meccanica Quantistica e della QFT: questo nuovo approccio si propone infatti di considerare i processi della coscienza, oltre l’equilibrio quantistico, caratteristica fondamentale della vita. Il modello di coscienza proposto fa leva sulla teoria di de Broglie-Bohm che ha portato alla definizione del campo e potenziale quantistico: in particolare, la coscienza viene definita come un campo quantistico, il cui potenziale associato viene elaborato dall’organismo vivente, come informazione attiva. In analogia con il campo quantistico della teoria di de Broglie-Bohm per la materia inanimata, anche il campo quantistico della coscienza della materia vivente non ha sorgenti e la sua forma o curvatura ha più importanza fisica dell’ampiezza: in particolare, si propone che tale curvatura sia associata a condensazioni dei bosoni di Nambu Goldstone (come previsto dalla QFT) a seguito di rotture di simmetria di tale campo.
APA, Harvard, Vancouver, ISO, and other styles
3

Mignella Calvosa, Fiammetta. "Politiche per la mobilitŕ sostenibile." SOCIOLOGIA URBANA E RURALE, no. 94 (April 2011): 30–42. http://dx.doi.org/10.3280/sur2011-094004.

Full text
Abstract:
La cittŕ contemporanea č sempre piů definita dalle pratiche di mobilitŕ e dalle intersezioni dei flussi di persone, beni, informazioni che vanno a ridefinire le relazioni e le connessioni sociali tra gli individui. Le diseguaglianze di mobilitŕ costituiscono, allo stesso tempo, causa ed effetto di differenti disponibilitŕ di risorse materiali e di maggiore o minore libertŕ di gestione del tempo a propria disposizione, ma anche di disparitŕ nella possibilitŕ di accesso alle funzioni urbane. L'accresciuta mobilitŕ, in particolare quella legata all'utilizzo del mezzo privato, pone come centrale il tema del suo governo sia in termini ambientali che sociali. L'elaborazione di forme di autorganizzazione e autoregolazione diventa cruciale per far fronte alle pressioni ambientali e ai flussi crescenti di merci e persone. Dopo essersi soffermato su alcune esperienze di mobilitŕ sostenibile in cittŕ europee (Londra, Parigi, Barcellona, Munster), l'autore si concentra sul caso romano.
APA, Harvard, Vancouver, ISO, and other styles
4

Marelli, Federica, and Luca Persani. "Zebrafish come modello per lo studio di malattie della tiroide." L'Endocrinologo 22, no. 1 (February 2021): 42–49. http://dx.doi.org/10.1007/s40619-021-00833-4.

Full text
Abstract:
SommarioLe tecniche di sequenziamento di nuova generazione hanno rivoluzionato l’identificazione dei geni-malattia, accelerando la scoperta di nuove mutazioni e nuovi geni candidati per le malattie della tiroide. Per far fronte a questo flusso di nuove informazioni genetiche è importante disporre di modelli animali adeguati per studiare i meccanismi che regolano lo sviluppo della tiroide, la biodisponibilità e l’azione degli ormoni tiroidei. Zebrafish (Danio rerio), con il suo rapido sviluppo embrionale esterno, è stato ampiamente utilizzato in biologia dello sviluppo. Ad oggi, quasi tutti i componenti dell’asse tiroideo zebrafish sono stati caratterizzati e sono strutturalmente e funzionalmente paragonabili a quelli dei vertebrati superiori. La disponibilità di linee transgeniche di zebrafish fluorescenti consente l’analisi in tempo reale dell’organogenesi tiroidea e delle sue alterazioni. Il knockdown transitorio ottenuto con l’uso del morfolino permette di silenziare l’espressione di un gene di interesse e ottenere prontamente informazioni sul suo contributo durante lo sviluppo dell’asse tiroideo in zebrafish. Gli strumenti recentemente disponibili per il knockout genico stabile (es. CRISPR/Cas9) hanno ulteriormente aumentato il valore di zebrafish nello studio della patologia tiroidea. Entrambi i modelli di malattia possono essere inoltre utili per lo screening di nuovi farmaci e molecole che potranno essere utili per pianificare i successivi studi clinici.
APA, Harvard, Vancouver, ISO, and other styles
5

Crivelli, Benedetta. "Ridurre le distanze: flussi di informazioni nell'organizzazione del commercio transoceanico nella prima età moderna." CHEIRON, no. 1 (January 2022): 226–49. http://dx.doi.org/10.3280/che2020-011.

Full text
Abstract:
Nel corso del XVI secolo l'espansione dei regni iberici verso il Nuovo Mondo aveva favorito l'azione di reti di commercio, che erano in grado di operare attraverso ampie distanze grazie anche alla disponibilità e alla rapidità dei flussi di informazione. La penisola iberica fu un'area privilegiata di interscambio culturale in cui agivano istituzioni informali, le quali basavano le loro interazioni su relazioni personali; estensione e densità delle reti sociali erano diretta conseguenza del processo di costruzione dell'impero che le Monarchie iberiche realizzarono attraverso il monopolio delle rotte commerciali. La quantità e qualità delle comunicazioni da un lato definivano le strategie messe in atto dalle istituzioni imperiali per esercitare il controllo sui domini d'oltremare, dall'altro consentivano agli agenti economici di eludere le rigide regole del commercio internazionale. Il saggio si propone di ricostruire, attraverso la corrispondenza mercantile, l'azione di queste reti sociali che furono in grado di organizzare lo scambio di prodotti dall'Europa all'Asia, e all'America, e viceversa, entrando spesso in conflitto con le istituzioni della monarchia.
APA, Harvard, Vancouver, ISO, and other styles
6

Razavi, I. Shariat, F. Piovesana, Z. Tarjan, F. Pozzi Mucelli, S. Magnaldi, and R. Pozzi Mucelli. "Ricostruzione tridimensionale dei vasi del collo." Rivista di Neuroradiologia 9, no. 2_suppl (November 1996): 131–38. http://dx.doi.org/10.1177/19714009960090s217.

Full text
Abstract:
L'obiettivo di questo lavoro è stato quello di valutare l'efficacia della Angiografia tridimensionale TC (3D-TCA) in pazienti con patologia a carico del distretto carotideo extracranico. Sono stati esaminati 15 pazienti con stenosi di natura arteriosclerotica (14 casi) o arteritica (1 caso) a livello della biforcazione carotidea. Tutti i casi erano stati precedentemente indagati con arteriografia che è stata considerata il test di confronto. Le immagini tridimensionali, presentano una qualità molto valida e sono paragonabili a quelle angiografiche nella maggioranza dei casi. La tecnica 3D-TCA presenta a suo favore alcuni vantaggi: scarsa invasività; semplicità e rapidità di esecuzione; buona dimostrazione delle placche calcifiche che possono essere rimosse mediante software. I limiti attuali sono rappresentati da: necessità di una adeguata concentrazione di mezzo di contrasto nei vasi: possibili artefatti da calcificazioni e strutture ossee: mancanza di informazioni sul flusso dei vasi; difficile separazione tra arterie e vene in alcuni distretti; scarsa panoramicità rispetto alla angiografia.
APA, Harvard, Vancouver, ISO, and other styles
7

Vellar, Agnese. ""Addicted to Passion". Performance spettatoriali nei pubblici connessi italiani." SOCIOLOGIA DELLA COMUNICAZIONE, no. 40 (June 2010): 167–80. http://dx.doi.org/10.3280/sc2009-040013.

Full text
Abstract:
"Addicted to passion". Performance spettatoriali nei pubblici connessi italiani di Agnese Vellar Nell'ultimo decennio Internet si č evoluto in una piattaforma multimediale e il Web ha raggiunto la massa critica. Da queste trasformazioni emergono nuove pratiche di consumo, di autorappresentazione e di interazione sociale, con protagoniste le giovani generazioni. All'interno dei "pubblici connessi" i fan di prodotti mediali condividono informazioni relative al proprio culto e costruiscono insieme "audience di pratica", recentemente evolutesi in un "collettivismo di rete". L'autrice propone di interpretare le culture di fan come starring systems: reti di performance spettatoriali multimediali e multisituate. Nello starring system i fan collaborano e competono per acquisire capitale sociale e culturale e dunque raggiungere visibilitŕ. Da tali attivitŕ emerge un flusso di produzioni creative che rifiniscono la relazione tra autori e spettatori. In questo articolo si descrive un'indagine sul fandom telefilmico italiano attraverso il caso di studio di "Italian Subs Addicted", una comunitŕ di fansubbing. Intepretando il fandom come uno starring system, l'autrice descrive l'emergere di un collettivismo di rete ironico e competente. I fan si autodefiniscono ironicamente "addicted", in quanto, essendo cresciuti guardando serie televisive, hanno acquisito la "dipendenza" ma anche la "passione" e il capitale subculturale che consente loro una decodifica critica e una produzione creativa.
APA, Harvard, Vancouver, ISO, and other styles
8

Coscia, Cristina. "Paesaggi elettrici e nuove economie: valori, patrimoni, responsabilità sociali e management." Labor e Engenho 11, no. 4 (December 26, 2017): 436. http://dx.doi.org/10.20396/labore.v11i4.8651197.

Full text
Abstract:
A fronte di imponenti operazioni di ristrutturazione industriale -in particolare di ripensamento di tutto il processo economico di produzione dell’energia- che coinvolgono molte aree dell’Occidente (e non solo), una questione emergente è quella dei patrimoni “elettrici” dismessi e della riqualificazione dei contesti su cui sono localizzati. Il percorso della valorizzazione –di fatto consolidato disciplinarmente- per questo comparto offre suggestioni di ricerca e di dibattito con alcuni elementi di innovazione: 1) una reinterpretazione della teoria del valore e delle sue componenti classiche; 2) la sinergia tra interventi architettonici e interventi economici strutturali; 3) l’urgenza di operazioni di censimento, di costruzione di conoscenza attraverso banche dati e nuovi flussi di informazioni; 4) il control management dei processi. Il contributo ha l’intento di ripercorrere lo stato dell’arte sul tema e di rileggerlo alla luce dei nuovi approcci di valorizzazione uniti ad un’ottica ambientale e di economia circolare. Fanno da supporto a tale analisi critica, la lettura di casi nazionali italiani (a partire dalle operazioni condotte da Enel) ed internazionali, dove si stanno già generando esternalità, intangibile e benefici attesi oltre che plusvalori economici.
APA, Harvard, Vancouver, ISO, and other styles
9

Bernardi, L. "La risonanza magnetica nella patologia maxillo-facciale." Rivista di Neuroradiologia 4, no. 3_suppl (December 1991): 141–46. http://dx.doi.org/10.1177/19714009910040s325.

Full text
Abstract:
La RM ha avuto un forte impatto nella diagnosi, nel trattamento e nel follow-up (post-chirurgico, post-radioterapico) delle neoplasie del massiccio facciale. Infatti mentre l'aspetto delle strutture anatomiche alla TC, anche con mdc, dipende da un solo parametro fisico, la densità, l'intensità di segnale dei tessuti alla RM dipende da almeno quattro caratteristiche fisiche: i tempi di rilassamento T1 e T2, la densità protonica ed il flusso. La superiore risoluzione di contrasto della RM rispetto alla TC deriva dalla sua capacità di individuare ed evidenziare queste varie proprietà fisiche. La capacità multiplanare della RM è particolarmente vantaggiosa nel massiccio facciale. La RM permette inoltre la diretta visualizzazione, senza l'uso di mdc, di strutture vasali ed è quindi in grado di dimostrare l'aumentata vascolarizzazione tumorale. La maggiore deficienza diagnostica della RM nel massiccio facciale è la sua insufficienza nell'evidenziare le calcificazioni e le sottili alterazioni ossee (erosione, iperostosi). Per quanto concerne la tecnica, le sequenze T1 pesate, a causa del loro alto rapporto segnale-rumore, sono le migliori per lo studio dell'anatomia ed evidenziano in modo ottimale l'interfaccia tumore-grasso. Le sequenze T2 pesate invece sono le più adatte per evidenziare l'interfaccia tumore-muscolo. Le sequenze DP rappresentano una combinazione di informazioni T1 e T2 pesate.
APA, Harvard, Vancouver, ISO, and other styles
10

Presutti, Michelle, Giorgio Soro, Giulia Cnapich, and Sara Giordano. "SENSEMAKING E CURA DEL DIABETE: MAPPE COGNITIVE DI MEDICI E PAZIENTI A CONFRONTO." International Journal of Developmental and Educational Psychology. Revista INFAD de Psicología. 2, no. 1 (June 25, 2016): 323. http://dx.doi.org/10.17060/ijodaep.2015.n1.v2.262.

Full text
Abstract:
Karl Weick, esponente del cognitivismo costruttivista, considera il sensemaking come un insieme di processi cognitivi in continua costruzione, a posteriori, di significati e di senso della realtà in cui viviamo.Il sensemaking è un processo continuo di creazione di senso quotidiano: le persone percepiscono selettivamente le informazioni su sé stessi e sull’ambiente in cui vivono, tali informazioni vengono elaborate cognitivamente attraverso un processo di selezione e ritenzione in memoria delle mappe cognitive costruite.Pertanto il sensemaking costituisce un’appropriata chiave di lettura dei fenomeni comportamentali in cui sono in gioco le rappresentazioni di un problema, soprattutto quando è di estrema necessità trovare punti di contatto in merito ai rapporti causali tra gli elementi che costituiscono le diverse mappe cognitive degli individui che ne prendono parte. L’analisi delle mappe cognitive può essere utile soprattutto al fine di individuare e condividere con maggiore chiarezza quali potrebbero essere le strade per un corretto ed efficace intervento risolutivo o di trattamento del problema.Dare senso alla malattia significa, sia per il medico che per il paziente, organizzare una mappa cognitiva (connessioni causali di elementi di significato) della realtà (della malattia) in un processo continuo di esperienza.Un flusso continuo che a partire da una percezione soggettivamente selettiva degli elementi disponibili (conoscenze, esperienze, eventi,etc.), organizza tali elementi in una mappa e li traduce in uno schema operativo di comportamento. Secondo Weick la realtà individuale si costruisce, mentre l’ambiente, il contesto, sono costruiti a priori.Le mappe cognitive che gli individui costruiscono influenzeranno le successive esperienze che si troveranno a dover fronteggiare nell’ambito dello stesso problema, in questo caso inerenti alla malattia diabetica.L’utilizzo del sensemaking applicato all’analisi dei processi di cura, pertanto, può diventare utile in particolare nei contesti di trattamento in cui la compliance e l’aderenza alle cure costituisce un fattore determinante nella gestione della patologia cronica, che prevede un modello di rapporto medico- paziente protratto nel tempo e centrato sulla possibilità di confronto rispetto alle modalità di cura e riuscita della stessa.La ricerca si è proposta pertanto di indagare attarverso la somminisrazione di interviste a medici e pazienti e attarverso al successiva analisi del testo e delle ricorrenze lingusitiche elaborate attraverso appositi software di ricostruire e mettere a confronto le rispettive mappe cognitive che stanno alla base delle rappresentazioni della malattia e della sua gestione e quindi dei comportamenti conseguenti di chi cura e di chi è curato.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Flusso di informazione"

1

KILINC, GORKEM. "Formal Notions of Non-interference and Liveness for Distributed Systems." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2016. http://hdl.handle.net/10281/102363.

Full text
Abstract:
La tesi propone una cornice formale per la vivezza e la sicurezza di sistemi distribuiti, e nuovi approcci per definire sistemi sicuri e 'serviceable'. Discute inoltre i relativi metodi di model-checking. Nel modellare sistemi distribuiti, classifichiamo i componenti di un sistema come 'service provider' o 'utenti'. Le azioni che occorrono sono osservabili dagli utenti o interne e nascoste. Un service provider deve garantire agli utenti un servizio affidabile e la protezione delle informazioni riservate. Per quanto riguarda la serviceability, la tesi esamina sistemi distribuiti nei quali un attaccante cerca di interrompere il funzionamento del sistema, e propone una nuova nozione di vivezza, detta 'vivezza osservabile', che garantisce che il server continui a erogare il servizio richiesto agli utenti. In tale contesto supponiamo che l'utente controlli alcune azioni osservabili. Intuitivamente, un sistema distribuito è osservabilmente vivo se da qualunque stato un utente può guidare il sistema, per mezzo delle azioni controllabili, fino a ricevere il servizio richiesto. Questa nozione è formalizzata per mezzo delle reti di Petri '1-safe'; se ne studiano le proprietà, e la si confronta con la nozione tradizionale di vivezza. La tesi discute l'applicazione di giochi infiniti su grafi finiti per verificare la vivezza osservabile. Per quanto riguarda a sicurezza, la tesi considera il flusso di informazione e la non-interferenza. Si danno diverse nuove nozioni di non-interferenza per le reti di Petri, e le si confrontano con quelle presenti nella letteratura. In questo approccio, le transizioni di una rete di Petri sono ripartite in due insiemi: transizioni 'basse' (osservabili) e transizioni 'alte' (nascoste). L'attaccante conosce la struttura del sistema e cerca di dedurre informazioni sulle transizioni alte dall'osservazione delle transizioni basse. Una rete di Petri è 'sicura', o 'libera da interferenza' se non è possibile inferire informazioni sull'occorrenza di una transizione alta, a partire dall'osservazione dell'occorrenza di una o più transizioni basse. Le nuove nozioni di non-interferenza poggiano sull''unfolding' di una rete e su due famiglie di relazioni fra transizioni, dette 'rivela' e 'esclude'. La tesi discute due metodi per verificare la non-interferenza. Il primo si basa sul tradurre in LTL le relazioni rivela e esclude, e sui metodi noti di model-checking per LTL. Il secondo si basa sulla computazione di rivela e esclude in prefissi finiti dell'unfolding
The thesis provides a formal framework for liveness and security of distributed systems. It proposes new approaches for defining secure and serviceable systems, and discusses associated model-checking methods. In modeling distributed systems, we assume that components are classified as either 'service provider' or 'user'. The actions performed in the system are either observable by the users or hidden internal actions. A service provider is responsible for providing a reliable service to the users and protection of sensitive information. Regarding the serviceability, the thesis examines distributed systems in which an attacker can try to break down the system and provides a novel notion of liveness called 'observable liveness' which guarantees that the service provider will continue to give the requested services to the users. In the observable liveness setting, we give the control of some observable actions to the user. Intuitively, a distributed system is observably live if, whatever state is reached, a user can force the system to get the requested service by using the controllable actions. This notion is formalized with '1-safe' Petri nets, its properties are studied and it is compared with the classical liveness notion. The thesis also discusses a possible application of infinite games on finite graphs for checking observable liveness. On the security side, the thesis considers information flow and non-interference. It provides several new notions of non-interference for Petri nets, and compares them with notions already proposed in the literature. In the considered setting, the transitions of a Petri net are partitioned into two disjoint sets: the 'low' (observable) and the 'high' (unobservable/hidden) transitions. The attacker knows the structure of the system and tries to deduce information about the high transitions by observing the low transitions. A Petri net is considered 'secure', or 'free from interference', if, from the observation of the occurrence of a low transition, or a set of low transitions, it is not possible to infer information on the occurrence of a high transition. The new non-interference notions rely on net unfolding and on two new relation families among transitions called 'reveals' and 'excludes'. The thesis discusses two methods for checking non-interference. The first method is based on translating the underlying relations, reveals and excludes, into LTL and applying LTL model-checking methods. The second method is based on computing the reveals and the excludes relations on finite prefixes of unfoldings.
APA, Harvard, Vancouver, ISO, and other styles
2

Rossi, Jessica. "Analisi del sistema di gestione della produzione in Mase Generators S.p.A." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6258/.

Full text
Abstract:
Analisi del sistema di gestione dell'azienda Mase Generators S.p.A. In particolare dopo aver introdotto l'importanza di un accurato flusso delle informazioni, si sono raccolti alcuni dati relativi alla produzione dell'impresa studiata per poter fare alcune considerazioni su valore di magazzino, livello di servizio ed ore di produzione caricate sulla commessa, al fine di individuare i punti di forza e le criticità del metodo adottato. Non esiste infatti un sistema di gestione che sappia rispondere a tutte le necesseità, ma una volta determinate le strategie esse devono essere ottimizzate e coerenti con gli obiettivi dell'azienda.
APA, Harvard, Vancouver, ISO, and other styles
3

Castellani, Giovanni. "Data capturing: studio di fattibilità per l’acquisizione automatizzata delle informazioni lungo la catena produttiva." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Il processo di Data Entry manuale non solo è oneroso dal punto di vista temporale ed economico, lo è ancor di più poiché rappresenta una fonte di errore: per questi motivi, l’acquisizione automatizzata delle informazioni lungo la catena produttiva è un obiettivo fortemente desiderato dal Gruppo per migliorare i propri business. Le tecnologie analizzate, ormai diffuse e standardizzate in ampia scala come barcode, etichette logistiche, terminali in radiofrequenza, possono apportare grandi benefici ai processi aziendali, ancor più integrandole su misura agli ERP aziendali, permettendo una registrazione rapida e corretta delle informazioni e la diffusione immediata delle stesse all’intera organizzazione. L’analisi dei processi e dei flussi hanno evidenziato le criticità e permesso di capire dove e quando intervenire con una progettazione che risultasse quanto più la best suite possibile. Il lancio dei fabbisogni, l’entrata, la mappatura e la movimentazione merci in Magazzino, lo stato di produzione, lo scarico componenti ed il carico di produzione in Confezionamento e Semilavorazione, l’istituzione di un magazzino di interscambio Dogana, un flusso di tracciabilità preciso e rapido, sono tutti eventi che modificheranno i processi aziendali, snellendoli e svincolando risorse che potranno essere reinvestite in operatività a valore aggiunto superiore. I risultati potenzialmente ottenibili, comprovati anche dalle esperienze esterne di fornitori e consulenza, hanno generato le condizioni necessarie ad un rapido studio e start dei lavori: il Gruppo è entusiasta ed impaziente di portare a termine quanto prima il progetto e di andare a regime con la nuova modalità operativa, snellita ed ottimizzata.
APA, Harvard, Vancouver, ISO, and other styles
4

PANTINI, SARA. "Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Full text
Abstract:
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
APA, Harvard, Vancouver, ISO, and other styles
5

BATTISTI, Alessandra. "Natura dinamica degli ecoinsediamenti. L'ambiente urbano come sistema aperto di gestione dei flussi di informazione." Doctoral thesis, 1999. http://hdl.handle.net/11573/394311.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Terrosi, Giulia. "Guidelines for BIM information management at design stage." Master's thesis, 2020. http://hdl.handle.net/1822/74855.

Full text
Abstract:
Dissertação de mestrado em European Master in Building Information Modelling
Information Management in Building Information Modelling (BIM) deals with the quality and efficiency on the retrieval, storage, use and sharing of information throughout the project lifecycle. The detailed planning, definition of roles and responsibilities, assessment of capabilities, and stating requirements should be established since the very beginning of the project to achieve an effective management of the information of the whole process. However, even if many companies are using BIM tools, lots of them have still not implemented standardised information processes. This work created a framework to support companies in BIM projects, specifically during the Design Stage, to lead them to a structured management of the information generated during this stage and to prepare its handover. To do so, in-depth research was conducted on published papers and articles, BIM guides and applicable Standards to gather the best practices in the field and propose guidelines to support a structured BIM adoption in a company´s project. It was created a specific workflow based on the Integrated Project Delivery methodology to support companies in BIM adoption. From there, several tools were proposed to assist the BIM Manager in establishing protocols during the project Design Stage. The proposed framework may be used to support companies in assessing and selecting the right team members capabilities, in collecting information requirements efficiently, in stablishing a proper BIM Execution Plan and evaluating CDE platforms. This work was developed in collaboration with a BIM consulting company, allowing for a parallel validation process of this workflow and documents throughout the way. These tools and the designed workflow are intended to help companies to accelerate their BIM processes, foster collaboration between all the stakeholders, assuring enhanced information management and therefore contributing to the quality of the output and general performance of the organisation.
Para o Building Information Modelling (BIM) a Gestão da Informação representa qualidade e eficiência na recuperação, armazenamento, utilização e partilha da informação ao longo do ciclo de vida do projeto. O planeamento detalhado, a definição dos papéis e responsabilidades, a avaliação das capacidades, e a declaração de requisitos devem ser estabelecidos desde o início do projeto para se conseguir uma gestão eficaz da informação de todo o processo. Contudo, mesmo que muitas empresas estejam a utilizar ferramentas BIM, muitas delas ainda não implementaram processos de informação normalizados. Este trabalho criou um enquadramento para apoiar as empresas na gestão do BIM, especificamente durante a fase de projeto e levá-las a uma gestão estruturada da informação gerada durante esta fase preparando a sua passagem para as fases subsequentes. Para tal, foi realizada uma pesquisa aprofundada sobre artigos publicados, guias e Normas aplicáveis para reunir as melhores práticas nesta área e propor diretrizes para apoiar uma adoção estruturada do BIM no projeto de uma empresa. Foi criado um fluxo de trabalho específico baseado na metodologia de Integrated Project Delivery para apoiar empresas na adoção do BIM. A partir daí, foram propostas várias ferramentas para ajudar o BIM Manager a estabelecer protocolos durante a fase de conceção do projeto. O quadro proposto poderia apoiar as empresas na avaliação e seleção das capacidades dos membros da equipa certa, na recolha eficiente de requisitos de informação, na elaboração de um Plano de Execução BIM adequado e na avaliação das plataformas comuns de dados CDE. Este trabalho foi desenvolvido em colaboração com uma empresa de consultoria BIM, permitindo a validação paralela deste fluxo de trabalho e documentos ao longo de todo o processo. Estas ferramentas e o fluxo de trabalho concebido destinam-se a ajudar as empresas a acelerar os seus processos BIM, fomentar a colaboração entre todos os interessados, assegurando uma melhor gestão da informação, contribuindo assim para a qualidade dos resultados e desempenho geral da organização.
La gestione delle informazioni all’interno del Building Information Modelling (BIM) si basa sull’efficienza nel recupero, conservazione uso e condivisione delle informazioni attraverso l’intero svolgimento di un progetto. Al fine di ottenere un’efficace gestione delle informazioni dell’intero processo, è necessario stabilire fin dal principio del progetto stesso un piano d’azione dettagliato, fissare i ruoli e i loro compiti, valutare ed asseverarne le competenze ed esplicarne i requisiti richiesti. Tuttavia, nonostante molte compagnie utilizzino già molti strumenti del BIM, mancano ancora di processi standardizzati per la gestione delle informazioni da esso generate e in esso contenute. Lo scopo di questo lavoro è stato quello di creare di una struttura di supporto alle compagnie nella gestione dei progetti in BIM, nello specifico riguardo alla fase della progettazione e guidarle verso una gestione organizzata delle informazioni generate nel corso di questa fase e nella preparazione del passaggio di consegna di queste per la fase successiva. Al fine di conseguire ciò, è stata eseguita un’accurata ricerca attraverso la consultazione di articoli e saggi pubblicati, manuali sul BIM e Standard vigenti al fine di acquisire le migliori tecniche e proporre delle linee guida che siano di supporto all’introduzione del BIM in un progetto da parte di una compagnia. Allo stesso scopo, è stato sviluppato uno specifico flusso di lavoro da seguire basato sulla metodologia dell’Integrated Project Delivery. In aggiunta sono stati sviluppati e proposti altri strumenti per agevolare il lavoro del BIM Manager nello stabilire protocolli per la fase di progettazione. Allo stesso tempo, la struttura di lavoro proposta, può anche avere la funzione di aiutare le compagnie nella valutazione e selezione dei più adatti componenti di un team di lavoro e delle loro competenze, di assisterle in un efficace reperimento delle informazioni necessarie, nella realizzazione di un adeguato ‘BIM Execution Plan’ e nella valutazione delle piattaforme per il CDE. Questo lavoro è stato sviluppato in collaborazione con una compagnia di consulenza per il BIM, permettendo una convalidazione in parallelo del flusso di lavoro sviluppato e i documenti a supporto di esso durante tutto il periodo di lavoro. Lo scopo della creazione del flusso di lavoro e degli strumenti a suo supporto è quello di aiutare le compagnie ad accelerare i loro processi nell’utilizzo del BIM, promuovere la collaborazione tra i soggetti interessati, assicurare l’ottimizzazione della gestione delle informazioni e, conseguentemente, contribuire alla qualità dei risultati e le generali prestazioni dell’organizzazione.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Flusso di informazione"

1

Guercio, Maria Rosaria. Informazione e impresa: Flussi informativi e gestione della documentazione nelle imprese edili (Istituto di studi sulla ricerca e documentazione scientifica CNR). F. Angeli, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography