Academic literature on the topic 'Informazione tecnica'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Informazione tecnica.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Informazione tecnica"

1

Finelli, Roberto. "NUOVE TECNOLOGIE, SOCIETÀ DELLA CONOSCENZA E “MENTE ORIZZONTALE”." Revista Dialectus - Revista de Filosofia, no. 18 (October 25, 2020): 350–64. http://dx.doi.org/10.30611/2020n18id61190.

Full text
Abstract:
La tesi di fondo è che le nuove tecnologie rappresentano un enorme sviluppo dell‟umanità sul piano della trasmissione e dell‟elaborazione delle informazioni. Ma questa gigantesca innovazione, per la cornice dell‟accumulazione capitalistica in cui viene svolta e sviluppata, dà luogo ad una antropologia e ad una formazione della soggettività umana in cui il “conoscere” prevale e domina sul “sentire”. La natura astratta della ricchezza del capitale, e la sua accumulazione, richiedono un individuo parimenti astratto, in cui la conoscenza diventa sempre più informazione. Questa fallace identificazione della conoscenza con l‟informazione è basata su una epocale distorsione del sentire, per la quale il senso del conoscere non proviene più dal corpo emozionale e interiore del soggetto umano ma dall‟esterno, secondo programmi e definizioni di senso in qualche modo già predefiniti e precompilati. In questo ambito di problemi il saggio utilizza una distinzione profonda di significato tra il lemma “tecnica” e il lemma “tecnologia”, a partire da sollecitazioni presenti nelle pagine del Marx maturo, per mettere in discussione una contestualizzazione “umana” e non “capitalistica” della tecnologia. Nello stesso tempo l‟autore svolge una critica profonda della concezione heideggeriana e della tecnica e del modo in cui le filosofie della postmodernità, soprattutto quelle della cosiddetta French Theory, sotto la guida di Nietzsche e di Heidegger, hanno registrato solo la superficializzazione del mondo messa in atto dalla nuova tipologia “flessibile” dell‟accumulazione capitalistica. La liquidazione di ogni forma di soggettività operata dai pensatori francesi, se ha avuto il merito di criticare giustamente forme troppo identitarie e dogmatiche di soggettività, ha nello stesso tempo del tutto liquidato l‟ipotesi marxiana del capitale come vero soggetto della società moderna e contemporanea, con la sua necessità intrinseca di creare un mondo sempre più omogeneo alla sua espansione e universalizzazione.
APA, Harvard, Vancouver, ISO, and other styles
2

Macrì, Saverio. "“Frange” del concetto di informazione: natura e tecnica in Merleau-Ponty e in Simondon." Chiasmi International 22 (2020): 281–95. http://dx.doi.org/10.5840/chiasmi20202228.

Full text
Abstract:
This paper investigates how Merleau-Ponty and Simondon conceived the theory of information and, in particular, assessed its validity as an instrument of analysis in multiple fields of knowledge. Specifically, the comparison will analyze the relationship between organism and environment, which is central both to Merleau-Ponty’s philosophy of nature and to Simondon’s theory of individuation. For both authors, the analysis of processes of interaction between organism and environment is characterized by the search for a type of causality that distinguishes itself from mechanism, which reduces these interactions to a sum of independent parts occasionally tied by a causally determined relation. However, while Merleau-Ponty views the categories introduced by the theory of information as a mere reconstruction of the mechanistic perspective, Simondon revises these categories to overcome mechanism and move towards the construction of a model of experience based on relation.
APA, Harvard, Vancouver, ISO, and other styles
3

Farina, Claudio, and Antonio Goglio. "Mass-media e AIDS a Bergamo." Medicina e Morale 42, no. 4 (August 31, 1993): 767–81. http://dx.doi.org/10.4081/mem.1993.1051.

Full text
Abstract:
A dieci anni dalla segnalazione del primo caso di infezione da HIV si è ritenuto opportuno compiere un'analisi retrospettiva su quanto è stato ''scritto" sull'argomento AIDs in Provincia di Bergamo dal1981 al 1990. Scopo di questa riflessione è verificare le modalità dell'intervento informativo sulla probiematica dell'AIDS, allo scopo di registrame l'impatto sulla popolazione e sugli "addetti ai lavori", tenendo conto che la popolazione, pur avendo a disposizione anche altri mezzi di informazione, "legge", specie in periferia, prevalentemente i quotidiani locali. Sono stati valutati 180 testi, di cui 71 di impostazione cattolica e 109 laica. Gli editoriali riservati al tema AIDS appaiono essere scarsamente rappresentati e scarso è l'interesse dimostrato dai lettori ad instaurare un pubblico dibattito sull'argomento. Tale dato risulta costante per tutte le testate analizzate che riferiscono per lo più notizie di interesse locale. Le fonti di informazione si riferiscono in modo largamente maggioritario al pubblico vario cui fa seguito l'interesse per il parere dei politici che prevale su quello espresso dai medici. La stampa di impostazione cattolica è pressoché stabile nel tempo dal punto di vista quantitativo mentre per la stampa "laica" è possibile rilevare che nell 1987 è stato pubblicato il 54% del totale degli articoli. L'analisi testuale mostra il prevalere delle notizie di interesse sociale e di prevenzione nonché delle graduatorie dei casi di infezione. L'impatto suscitato dalla notizia tale da indurre un'impressione favorevole (superiore al 50% a far corso dal 1985 per la stampa cattolica e dal 1987 per quella laica) rispetto a quella emotivamente negativa precedentemente caratterizzante la maggior parte delle informazioni. L'analisi permette di evidenziare la facilità per il divulgatore di accedere al materiale scientifico, talora favorita da atteggiamenti presenzialisti dell'autorità tecnica nonché la tendenza a considerare i "fatti di cronaca" talora in modo sensazionalistico piuttosto che problematico.
APA, Harvard, Vancouver, ISO, and other styles
4

Caletti, Chiara. "Trapianto Renale Da Donatore Vivente: Il Giovane Nefrologo Lo Consiglia Al Giovane Paziente Nefropatico." Giornale di Clinica Nefrologica e Dialisi 26, no. 1 (February 13, 2014): 88–89. http://dx.doi.org/10.33393/gcnd.2014.870.

Full text
Abstract:
Il trapianto renale è sicuramente la migliore tecnica di sostituzione della funzione renale nei pazienti con insufficienza renale cronica avanzata e, in particolare, il trapianto renale da donatore vivente rappresenta un’ottima opzione terapeutica per i pazienti giovani. È, infatti, ampiamente dimostrato che evitare il trattamento dialitico riduce sensibilmente le comorbidità e migliora la sopravvivenza. Allo stato attuale, il trapianto da donatore vivente occupa un posto di secondo piano rispetto al trapianto da donatore cadavere. I motivi di tale discrepanza sono da attribuire soprattutto all’assenza di una rete di ambulatori predialisi organizzata ed efficiente e alla mancanza di un’esaustiva informazione al paziente circa il programma di trapianto in Italia (in particolar modo, il trapianto pre-emptive). Io credo, quindi, che sia necessario promuovere un approccio metodologico, in cui il paziente sia gestito non solo dal punto di vista clinico, ma anche da quello socio-assistenziale e psicologico, in modo da ottimizzare la valutazione clinica pre-trapianto, riducendo tempi e costi. Penso che sia fondamentale la promozione di progetti regionali e nazionali volti a incrementare la donazione da vivente.
APA, Harvard, Vancouver, ISO, and other styles
5

Grigio, Monica. "L'esperienza di psicologia clinica perinatale in una maternitŕ ospedaliera." INTERAZIONI, no. 1 (July 2012): 100–118. http://dx.doi.org/10.3280/int2012-001008.

Full text
Abstract:
Verrŕ illustrata la casistica del lavoro clinico svolto dal Servizio di Psicologia Clinica dell'U.O. di Ostetricia e Ginecologia dell'Ospedale V. Buzzi'. L'attivitŕ del Servizio prevede interventi sia a livello preventivo che di presa in carico psicoterapeutica in caso di psicopatologia e si articola in diversi ambiti (conduzione dei Corsi di accompagnamento alla nascita e al puerperio, assistenza psicologica nei reparti, attivitŕ psicoterapeutica ambulatoriale, assistenza psicologica in Diagnosi Prenatale, formazione psicologica per gli operatori che operano in ambito perinatale, attivitŕ di ricerca, ecc). L'intervento terapeutico in ambito perinatale in ospedale richiede un contatto emotivo molto intenso e una tecnica che sia in grado di sostenere anche le situazioni piů acute o in emergenza. La psicologa perinatale deve saper modulare in maniera flessibile il classico setting terapeutico: alla consuetudine di uno studio chiuso deve saper contrapporre il colloquio al letto della donna o in piedi davanti all'incubatrice del bambino, deve poter favorire e accompagnare cambiamenti rapidi, alternare occasioni di sostegno psicologico ad interventi di clinica classica, prestarsi ad un ascolto analitico come anche a momenti di semplice informazione, confrontarsi da sola con la donna o con il futuro padre, o dover intervenire in una dinamica di coppia o, ancora, nella relazione della madre con il neonato che magari richiede di essere allattato o cambiato durante la seduta.
APA, Harvard, Vancouver, ISO, and other styles
6

Di Pietro, Maria Luisa, and Roberta Minacori. "Qual è il rischio delle tecniche di fecondazione artificiale?" Medicina e Morale 47, no. 3 (June 30, 1998): 465–97. http://dx.doi.org/10.4081/mem.1998.832.

Full text
Abstract:
L’articolo mette a fuoco i rischi che, o per l’imperizia dell’operatore, o per le procedure previste dalla tecnica di fecondazione, sono responsabili della morbilità e mortalità della donna e/o del nascituro. Uno dei rischi per la donna è legato alla stimolazione ovarica che si attua con una induzione farmacologica e che provoca la cosiddetta “iperstimolazione ovarica” e tumori della mammella e dell’ovaio. Altri rischi sono legati alle complicanze delle procedure di fecondazione artificiale e che riguardano soprattutto la fase di recupero delle ovocellule, la coltura in vitro, il trasferimento dei gameti e degli embrioni nelle vie genitali della donna. Il prelievo degli ovociti viene eseguito sotto controllo ecografico con rischio di dolori pelvici o addominali, infezioni ed emorragie, mentre il trasferimento dei gameti si esegue con la laparoscopia con complicanze legate all’anestesia. Il primo rischio per l’embrione è che non arrivi a vita autonoma per mancato trasferimento nelle vie genitali della donna, il mancato attecchimento nell’utero, l’aborto spontaneo o provocato, la maggiore incidenza di morbilità o di mortalità perinatale. Altri fattori negativi sono dovuti alla micromanipolazione dei gameti. Inoltre, dall’analisi della letteratura si evince che i nati da fecondazione artificiale presentano maggiori malformazioni congenite e una più elevata incidenza di prematurità. A tutti questi problemi si aggiunge l’inadeguata informazione fornita alle coppie che ricorrono alla fecondazione artificiale sui rischi, sugli effetti collaterali, sulle percentuali di successo.
APA, Harvard, Vancouver, ISO, and other styles
7

Bignamini, Bignamini. "Il consenso di chi non può consentire in sperimentazione clinica: etica e GCP a confronto." Medicina e Morale 48, no. 6 (December 31, 1999): 1087–105. http://dx.doi.org/10.4081/mem.1999.790.

Full text
Abstract:
In sperimentazione, il consenso di chi non può consentire costituisce l’incrocio di quattro condizioni alternativamente su base reale o formale: a) posizione etica o legalmente corretta; b) informazione e consenso, o documentazione del consenso; c) impossibilità fisica o tecnica; d) atti che non implicano o implicano utilità diretta per il paziente. Le incapacità previste dalla GCP sono: 1. non sa (o non può) leggere e scrivere; 2. minore o legalmente incapace ma con capacità reale; 3. minore o legalmente incapace senza capacità reale, o incosciente, con rappresentate legalmente accettabile; 4. minore o legalmente incapace senza capacità reale, o incosciente, senza rappresentante legalmente accettabile. Per queste condizioni la GCP prevede procedure precise che però possono porsi in contrasto con l’accettabilità etica e produrre conflitti con i comitati di etica, anche perché la GCP considera equivalenti il soggetto e il suo rappresentante, posizione accettabile in studi terapeutici ma non accettabile per studi non terapeutici. Quando l’incapacità al consenso è formale non c’è sostanzialmente contrasto fra GCP ed etica, purché l’informazione sia data in maniera completa e vi sia la possibilità reale di consentire liberamente. Su questi aspetti si concentrerà il comitato di etica. Quando l’impossibilità a consentire è reale, il comitato di etica ed il medico sperimentatore, vincolati ad operare sotto le condizioni specifiche degli interventi medici straordinari in emergenza, aventi come condizione irrinunciabile il presumibile beneficio per il soggetto stesso, potrebbero respingere su base vincolante etica e deontologica, anche protocolli formalmente conformi alla GCP.
APA, Harvard, Vancouver, ISO, and other styles
8

Popolizio, T., G. Calabrese, T. Scarabino, M. Germano, R. Mingarelli, P. L. Ciritella, and U. Salvolini. "Spettroscopia protonica RM a volume singolo con programma automatico “Probe”." Rivista di Neuroradiologia 10, no. 1 (February 1997): 29–39. http://dx.doi.org/10.1177/197140099701000103.

Full text
Abstract:
La Spettroscopia Protonica a Risonanza Magnetica (MRS) è una tecnica non invasiva che permette di misurare in vivo i livelli di sostanze chimiche differenti fornendo informazioni chimico-metaboliche sulla struttura tissutale. La recente diffusione di tale tecnica e la disponibilità ed il perfezionamento di programmi computerizzati di facile impiego ne rendono possibile l'applicazione su ampia scala permettendo l'attuazione di sofisticati studi di ricerca. L'impiego nella pratica clinica è tuttavia ancora piuttosto scarso sia per limiti tecnici legati alla difficoltà di ottenere risoluzione spaziale e rapporto segnale-rumore ottimali, sia per i lunghi tempi di esame che la maggior parte dei programmi in uso impongono al paziente. Nel nostro studio abbiamo utilizzato il programma PROBE (Single-voxel Proton Brain Exam), con cui è possibile acquisire spettri da singoli volumi di interesse in modo automatico, cosicché il tempo complessivo dell'esame di MRS è di circa 9 minuti, con massima tollerabilità anche da parte di piccoli pazienti sottoposti a studio in narcosi.
APA, Harvard, Vancouver, ISO, and other styles
9

Fabbroni, Roberto, and Erika Calcei. "Cancro al seno: la TB-Tecnica Bioenergetica secondo il Metodo Summa Aurea® come supporto nella Terapia del Dolore e gestione dell’umore." Scienze Biofisiche 2, no. 1 (June 2021): 1–10. http://dx.doi.org/10.48274/ibi9.

Full text
Abstract:
Lo scopo di questo articolo è quello di segnalare casi di interesse specifico che avvalorano l’utilizzo di tecniche o discipline Bionaturali che rientrano in quella che è definita la Medicina Integrativa Informazionale (MII) e nello specifico come la TB-Tecnica Bioenergetica secondo il Metodo Summa Aurea® può essere di aiuto in ambito oncologico. Tale Metodo sposta l’attenzione dalla malattia al paziente e alle sue necessità complessive di Benessere, in una visione unitaria che lo vede nell’insieme delle sue parti: corpo, mente e spirito (Energia-Informata).
APA, Harvard, Vancouver, ISO, and other styles
10

Trevisan, C., and M. Spagnoli. "La RM dei tumori vertebro-midollari." Rivista di Neuroradiologia 1, no. 1_suppl (April 1988): 59–65. http://dx.doi.org/10.1177/19714009880010s107.

Full text
Abstract:
La RM ha enormemente facilitato la diagnosi delle lesioni tumorali vertebro- midollari soppiantando completamente la mielografia e riducendo di molto l'impiego della TC. Questa può essere considerata un'indagine complementare volta a studiare soprattutto il coinvolgimento osseo da parte di neoformazioni primitive o secondarie a partenza dalle componenti ossee o nervose. La tecnica di indagine è la stessa in uso per ogni altra affezione del sistema nervoso centrale: immagini pesate in T1 ottenute con sequenze spin-echo brevi per lo studio morfologico ed immagini pesate in T2 ottenute con sequenze spin-echo lunghe o con tecniche veloci per ottenere informazioni circa il comportamento dell'intensità del segnale dei tessuti patologici.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Informazione tecnica"

1

Cancellieri, Andrea. "Analisi di tecniche per l'estrazione di informazioni da documenti testuali e non strutturati." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7773/.

Full text
Abstract:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
APA, Harvard, Vancouver, ISO, and other styles
2

Martini, Francesco <1971&gt. ""Tracciature Digitali": la conoscenza nell'era informazionale." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4311/1/Martini_Francesco_tesi.pdf.

Full text
Abstract:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
The specificity of the acquisition of content through digital interfaces condemns the epistemic agent to a fragmented interaction, with respect to the huge informational bulk today available through any standard implementation of the man-computer relationship, and invalidates the applicability of the standard model of knowledge as justified true belief, by repudiating the concept of rationally founded belief, to form which would instead require the agent to be able to have precisely the conceptual resources and computational time inaccessible. Thereby the agent, bound by the ontological limitations belong to cultural interfaces, is forced to fall back on ambiguous, arbitrary and often more casual than he takes into account, selection and management information process that produce real epistemological hybrids (by Latour) made of feelings, program outputs, unfounded beliefs, bits of indirect testimonies and of a series of human-digital relationships that give rise to escape in a transcendent dimension belonging to anthropological area of the sacred. Starting from this analysis the work deals with constructing a new epistemological paradigm of propositional knowledge obtained through a digital content acquisition, based on the new concept of Digital Tracings, defined as a process of digital capture of a set of tracks , ie meta-information of a testimonial kind. This device, once recognized as a communication process of digital contents, will be based on the research and selection of meta-information, ie tracks, which allow the implementation of approaches derived from analysis of decision-making under bounded rationality, which approaches, as well to be almost never used in this context, are ontologically prepared for dealing with uncertainty such as that came into the informational hybrid and that can provide the agent on the epistemic goodness of acquired content.
APA, Harvard, Vancouver, ISO, and other styles
3

Martini, Francesco <1971&gt. ""Tracciature Digitali": la conoscenza nell'era informazionale." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4311/.

Full text
Abstract:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
The specificity of the acquisition of content through digital interfaces condemns the epistemic agent to a fragmented interaction, with respect to the huge informational bulk today available through any standard implementation of the man-computer relationship, and invalidates the applicability of the standard model of knowledge as justified true belief, by repudiating the concept of rationally founded belief, to form which would instead require the agent to be able to have precisely the conceptual resources and computational time inaccessible. Thereby the agent, bound by the ontological limitations belong to cultural interfaces, is forced to fall back on ambiguous, arbitrary and often more casual than he takes into account, selection and management information process that produce real epistemological hybrids (by Latour) made of feelings, program outputs, unfounded beliefs, bits of indirect testimonies and of a series of human-digital relationships that give rise to escape in a transcendent dimension belonging to anthropological area of the sacred. Starting from this analysis the work deals with constructing a new epistemological paradigm of propositional knowledge obtained through a digital content acquisition, based on the new concept of Digital Tracings, defined as a process of digital capture of a set of tracks , ie meta-information of a testimonial kind. This device, once recognized as a communication process of digital contents, will be based on the research and selection of meta-information, ie tracks, which allow the implementation of approaches derived from analysis of decision-making under bounded rationality, which approaches, as well to be almost never used in this context, are ontologically prepared for dealing with uncertainty such as that came into the informational hybrid and that can provide the agent on the epistemic goodness of acquired content.
APA, Harvard, Vancouver, ISO, and other styles
4

Rava, Annalisa. "Sviluppo di una piattaforma software di Content Management System per la condivisone delle informazioni tecniche: il caso Bonfiglioli Riduttori S.p.A." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
L’elaborato riporta un caso studio relativo all’azienda Bonfiglioli Riduttori S.p.A., presso cui si evince la necessità di garantire la condivisione delle informazioni di natura tecnica tra gli stabilimenti che appartengono alla Business Unit Mobility and Wind Industries. L’azienda, come tante altre nel contesto attuale, ha intrapreso una strategia di delocalizzazione delle attività produttive e, per questo motivo, è composta da plants in diversi paesi nel mondo che spesso necessitano di comunicare tra loro. L’obiettivo del progetto riguarda la creazione di una piattaforma di Content Management System che deve contenere tutte le documentazioni relative all’ingegneria di processo, con un focus sulle attività di assemblaggio. Con la realizzazione del database è possibile rimuovere alcune criticità presenti nella gestione dei documenti e ridurre i tempi dedicati a scambi informativi tra gli stabilimenti e il Global Process Engineering Department, team globale che funge da collegamento tra i plants. Le informazioni infatti sono presenti online ed è possibile consultarle in maniera autonoma, con la certezza di avere sempre accesso alla documentazione più aggiornata. Il caso studio prevede un progetto pilota avviato presso l’ headquarter dell’unità di business considerata, per poi espandere la modalità di gestione della documentazione a tutti gli altri stabilimenti. Ogni plant deve quindi creare un sito web sulla piattaforma seguendo la struttura e la procedura identificata. Il risultato è quello di avere alcune pagine online che contengono i dati e i file che si vogliono condividere con tutta la divisione, in un formato standard ed organizzati in modo che sia facile reperire l’informazione ricercata. Oltre a questo, si definisce una procedura standard di gestione della documentazione aziendale, in linea con le specifiche definite dal Quality Management System, per fare in modo che, dopo la sua creazione, la piattaforma rimanga sempre aggiornata.
APA, Harvard, Vancouver, ISO, and other styles
5

TONON, ANDREA. "Tecniche Rigorose e Scalabili per il Mining di Pattern da Dati Sequenziali." Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3445089.

Full text
Abstract:
Massive amounts of data are generated continuously in every fields, such as finance, social networks, medicine, and many others. Data mining is the task of discovering interesting patterns exploring large amounts of data, making those useful and understandable. In recent years, the data mining community has tackled and proposed a vast set of problems but many others are still open. Now more than ever, it is of crucial importance to be able to analyze and extract reliable knowledge from massive datasets. However, this fundamental task poses some challenges. The first one is to design algorithms that scale the computation to the analysis of massive datasets. In such a scenario, very often approaches that return rigorous and high quality approximations are the only viable approach. The second one is to develop strategies that extract useful knowledge providing statistical guarantees on the analysis, while filtering out spurious discoveries. Finally, the abundance of data is opening new scenarios, with a lot of sources generating data continuously, requiring analyses that take into account the sequential nature of the data. The objective of this Thesis is to design novel scalable and rigorous techniques to mine patterns from sequential data, in three scenarios. The first scenario we consider is mining frequent sequential patterns through sampling. Sequential pattern mining is a fundamental task in data mining and knowledge discovery, with applications in several areas (e.g., biology), that has been extensively studied in the literature, with the definition of several exact methods. However, for large modern sized datasets, the execution of exact methods is computationally very demanding. In such a direction, we develop an algorithm to mine rigorous approximations, defined in terms of false positives or false negatives, of the frequent sequential patterns using sampling. The second scenario we consider is mining patterns from samples from unknown probability distributions. In many real life applications (e.g., market basket analysis), the analysis of a dataset is performed to gain insight on the underlying generative process of the data. However, by analyzing only a sample, one cannot exactly solve the problem and has to resort to approximations. In this setting, we tackle two problems: the problem of mining, from a single dataset, true frequent sequential patterns, which are sequential patterns frequently generated by the underlying process generating the data; and the problem of mining statistically robust patterns from a sequence of datasets, which are patterns whose probabilities of being generated from the underlying generative processes behind the sequence of datasets follow well specified trends. For both problems, we develop novel algorithms that return rigorous approximations, defined in terms of false positives or false negatives. The last scenario we consider is mining significant patterns. In significant pattern mining, the dataset is seen as a sample from an unknown probability distribution, and the aim is to extract patterns significantly deviating from an assumed null hypothesis with rigorous guarantees in terms of statistical significance of the output, controlling the retrieval of false discoveries. In this setting, we tackle two problems: the problem of mining statistically significant sequential patterns and the problem of mining statistically significant paths in time series data from an unknown network. For both problems, we develop novel algorithms that provide rigorous guarantees in term of false discoveries, employing the statistical hypothesis testing framework and techniques based on permutation testing.
Massive amounts of data are generated continuously in every fields, such as finance, social networks, medicine, and many others. Data mining is the task of discovering interesting patterns exploring large amounts of data, making those useful and understandable. In recent years, the data mining community has tackled and proposed a vast set of problems but many others are still open. Now more than ever, it is of crucial importance to be able to analyze and extract reliable knowledge from massive datasets. However, this fundamental task poses some challenges. The first one is to design algorithms that scale the computation to the analysis of massive datasets. In such a scenario, very often approaches that return rigorous and high quality approximations are the only viable approach. The second one is to develop strategies that extract useful knowledge providing statistical guarantees on the analysis, while filtering out spurious discoveries. Finally, the abundance of data is opening new scenarios, with a lot of sources generating data continuously, requiring analyses that take into account the sequential nature of the data. The objective of this Thesis is to design novel scalable and rigorous techniques to mine patterns from sequential data, in three scenarios. The first scenario we consider is mining frequent sequential patterns through sampling. Sequential pattern mining is a fundamental task in data mining and knowledge discovery, with applications in several areas (e.g., biology), that has been extensively studied in the literature, with the definition of several exact methods. However, for large modern sized datasets, the execution of exact methods is computationally very demanding. In such a direction, we develop an algorithm to mine rigorous approximations, defined in terms of false positives or false negatives, of the frequent sequential patterns using sampling. The second scenario we consider is mining patterns from samples from unknown probability distributions. In many real life applications (e.g., market basket analysis), the analysis of a dataset is performed to gain insight on the underlying generative process of the data. However, by analyzing only a sample, one cannot exactly solve the problem and has to resort to approximations. In this setting, we tackle two problems: the problem of mining, from a single dataset, true frequent sequential patterns, which are sequential patterns frequently generated by the underlying process generating the data; and the problem of mining statistically robust patterns from a sequence of datasets, which are patterns whose probabilities of being generated from the underlying generative processes behind the sequence of datasets follow well specified trends. For both problems, we develop novel algorithms that return rigorous approximations, defined in terms of false positives or false negatives. The last scenario we consider is mining significant patterns. In significant pattern mining, the dataset is seen as a sample from an unknown probability distribution, and the aim is to extract patterns significantly deviating from an assumed null hypothesis with rigorous guarantees in terms of statistical significance of the output, controlling the retrieval of false discoveries. In this setting, we tackle two problems: the problem of mining statistically significant sequential patterns and the problem of mining statistically significant paths in time series data from an unknown network. For both problems, we develop novel algorithms that provide rigorous guarantees in term of false discoveries, employing the statistical hypothesis testing framework and techniques based on permutation testing.
APA, Harvard, Vancouver, ISO, and other styles
6

Parrinello, Angelo. "Studio e sviluppo di tecniche di password cracking targettizzato." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24315/.

Full text
Abstract:
L'autenticazione via password è il metodo più comune per accedere a servizi e dati grazie alla sua semplicità: presenta però difetti ben documentati, primo fra tutti il fattore umano. Le persone tendono ad usare termini comuni o dati anagrafici: questa caratteristica risulta una potenziale vulnerabilità in caso di attacco informatico. Lo scopo di questa tesi è quello di sviluppare e studiare tecniche di password cracking targettizzato: tali tecniche consistono nell'attaccare una password di un utente-target sfruttando i suoi dati personali. Gli esperimenti effettuati sono basati su molteplici obiettivi e non su di un singolo attacco: vengono raccolti in un unico file sia le informazioni personali sia le password di migliaia di utenti. Alcune di queste persone sono usate per allenare i modelli mentre altre sono usate come target. I sistemi valutati cercano dei pattern nei dati in ingresso generando in uscita delle regole che definiscano tali comportamenti. Dopo aver creato queste regole, univoche per ogni file in input, i tool generano ipotesi di password basate su di esse; le password generate vengono messe a loro volta in input in uno strumento che le confronterà con quelle target da recuperare. I test evidenziano che uno strumento in grado di sfruttare al meglio (ovvero in maniera efficiente e scalabile) le informazioni personali, legate ad un target, non esiste. Il tool che ha dato risultati migliori si chiama PCFG-Cracker: ha recuperato quasi il 50% di un set di password in un’ora. Il dizionario di input, che ha permesso al PCFG-Cracker di ottenere il primato, è basato su informazioni personali degli individui target oltre che su delle password. Il metodo proposto, benchè non sia risultato il migliore ha ottenuto buoni risultati e può essere ulteriormente sviluppato mediante una politica di attacchi più mirati verso pochi utenti anziché molti.
APA, Harvard, Vancouver, ISO, and other styles
7

BERGAMINI, LUCA. "Tecniche di Deep Learning applicate all'allevamento." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239977.

Full text
Abstract:
Nonostante la massiccia diffusione in ormai ogni ambito di tecniche di Deep Learning, il settore dell'allevamento animale rimane una nicchia quasi inesplorata. La distanza siderale tra gli "esperti" di Deep Learning e quelli di questo settore rende quasi impossibile l'applicazione reale di algoritmi e tecnologie. Si tratta innanzitutto di un vero e proprio problema di comunicazione (più volte sperimentato in questa tesi) e solo in seconda istanza di resistenza al cambiamento. Superati questi ostacoli, appare chiaro come anche questo settore possa trarre enorme beneficio dall'applicazione di queste nuove tecnologie. Il presente lavoro è un tentativo di permeare il settore dell'allevamento animale (e dell'intera catena di produzione) da diverse angolazioni. Questo è stato possibile grazie alla fondamentale presenza di figure che si pongono tra i due ambiti (intelligenza artificiale e allevamento animale) e permettono una comunicazione efficace al fine di individuare obbiettivi e misure del successo. Nel caso di questa tesi, la start-up Farm4Trade ha rivestito questo arduo compito. Il primo argomento trattato riguarda il riconoscimento automatico dei bovini da immagini e video. Le tecniche sviluppate sono poi state applicate con successo ad altri domini (persone e veicoli), dimostrando come le conoscenze specifiche di un settore (seppur di nicchia) possano facilmente essere rese "globali". La seconda parte si concentra su detection e tracking di maiali da allevamento, con lo scopo di studiare i comportamenti individuali all'evolvere del tempo. Nell'ultima sezione, l'indagine si sposta alla fine della catena produttiva dove tecniche di segmentazione vengono applicate a carcasse di maiali da macellazione con l'intento di individuare lesioni sulla pleura polmonare. Queste sono infatti un indicatore di patologie batteriche contratte durante l'ultimo periodo di vita dell'animale. Concludendo, alla luce dei risultati ottenuti in questa tesi, emerge quanto l'intero settore dell'allevamento possa trarre largo beneficio dall'applicazione di algoritmi di intelligenza artificiale.
Although Deep Learning (DL) is increasingly being adopted in many sectors, farming is still an almost unscathed niche. This is mainly because of the humongous distance in knowledge between the experts of DL and those of farming itself. It's first of all a communication issue, and only in a second place a matter of reluctance to changes. Tackle those issues and you will find that also this sector can greatly benefit from the application of these new technologies. This thesis if therefore a collection of applications of DL to different topics in farming. This has been made possible by the key role of figures who are placed right in the middle and act as intermediaries between the experts to identify targets and measures of success. In our case, this role is covered by the Farm4Trade startup, which is also the main funder of this PhD. The first covered topic is the automatic cattle re-identification from images and videos. We show how DL methods designed for humans can be adapted to work in a completely different setting. As a feedback loop, methods developed for cattle have been reapplied on people and vehicles with successful results. The second topic is the automatic detection and tracking of pigs in the farm. The target here is to detect and classify individual behaviours and how they change through time. A collection of state-of-the-art DL techniques has been chain together while each individual piece has been analysed on its own to ensure good final performance. Finally, we jump at the end of the production chain to study how to apply DL to slaughtered pigs' carcasses image to detect and segment lungs lesions. These are reliable indicators of a bacterial pathology affecting the animal prior to its death. Results achieved during this PhD show how the whole sector of farming can benefit from the application of artificial intelligence algorithms.
APA, Harvard, Vancouver, ISO, and other styles
8

PINI, STEFANO. "Tecniche di Visione Artificiale per l'Interazione Uomo-Veicolo." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271181.

Full text
Abstract:
Negli ultimi anni, la diffusione di dispositivi digitali in ogni aspetto della vita quotidiana ha portato a nuove opportunità nel campo dell’Interazione Uomo-Macchina. Nel campo automobilistico, dove i sistemi di infotainment sono sempre più importanti per gli utenti finali, la disponibilità di telecamere economiche e miniaturizzate ha permesso lo sviluppo di interfacce utente naturali basate sulla visione artificiale, aprendo a nuove opportunità nell’Interazione Uomo-Veicolo. In questa tesi, si propone uno studio di tecniche di visione artificiale, basate sia su luce visibile che sullo spettro non visibile, che possano formare la base per la prossima generazione di sistemi di infotainment. Come tecnologie di acquisizione, il focus è posto su dispositivi basati su luce infrarossa, come camere termiche e di profondità. Queste tipologie di sensori forniscono dati affidabili in numerose condizioni di illuminazione per cui sono particolarmente adatte al dinamico ambiente automobilistico. Usando questi dispositivi, sono acquisiti due dataset: un dataset di volti, per valutare l’impatto di qualità e risoluzione dei sensori in configurazioni di acquisizione variabile, e un dataset di gesti dinamici della mano, acquisito in un simulatore di auto con molteplici sensori sincronizzati fra loro. Come approcci di visione artificiale, si sceglie di utilizzare tecniche di deep learning stato dell’arte, focalizzandosi su reti neurali efficienti che possano essere utilizzate su dispositivi integrati a basso consumo. In questo contesto, sono esaminati diversi problemi di visione artificiale, con l’obiettivo di coprire la maggior parte delle interazioni uomo-macchina. Innanzitutto, si analizza l’utilizzo di camere di profondità per il riconoscimento facciale, focalizzandosi sull’impatto che la rappresentazione dei dati di profondità e il tipo di architettura neurale utilizzata hanno sulle capacità di riconoscimento. Inoltre, si studia il riconoscimento di gesti dinamici della mano in tempo reale, utilizzando sensori infrarosso e di profondità. Si analizza anche il corpo umano nella sua interezza, in termini di riconoscimento della postura 3D e di stima senza contatto di misure antropometriche. Infine, focalizzandosi sull’area circostante il veicolo, si affronta la ricostruzione 3D di oggetti da immagini 2D, come primo passo verso una visualizzazione 3D navigabile dell’ambiente esterno.
In recent years, the widespread adoption of digital devices in all aspects of everyday life has led to new research opportunities in the field of Human-Computer Interaction. In the automotive field, where infotainment systems are becoming more and more important to the final user, the availability of inexpensive miniaturized cameras has enabled the development of vision-based Natural User Interfaces, paving the way for novel approaches to the Human-Vehicle Interaction. In this thesis, we investigate computer vision techniques, based on both visible light and non-visible spectrum, that can form the foundation of the next generation of in-vehicle infotainment systems. As sensing technology, we focus on infrared-based devices, such as depth and thermal cameras. They provide reliable data under different illumination conditions, making them a good fit for the mutable automotive environment. Using these acquisition devices, we collect two novel datasets: a facial dataset, to investigate the impact of sensor resolution and quality in changing acquisition settings, and a dataset of dynamic hand gestures, collected with several synchronized sensors within a car simulator. As vision approaches, we adopt state-of-the-art deep learning techniques, focusing on efficient neural networks that can be easily deployed on computing devices on the edge. In this context, we study several computer vision tasks to cover the majority of human-car interactions. First, we investigate the usage of depth cameras for the face recognition task, focusing on how depth-map representations and deep neural models affect the recognition performance. Secondly, we address the problem of in-car dynamic hand gesture recognition in real-time, using depth and infrared sensors. Then, we focus on the analysis of the human body, both in terms of the 3D human pose estimation and the contact-free estimation of anthropometric measurements. Finally, focusing on the area surrounding the vehicle, we explore the 3D reconstruction of objects from 2D images, as a first step towards the 3D visualization of the external environment from controllable viewpoints.
APA, Harvard, Vancouver, ISO, and other styles
9

GAGLIARDELLI, LUCA. "Tecniche per l’Integrazione di Sorgenti Big Data in Ambienti di Calcolo Distribuito." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200610.

Full text
Abstract:
Sorgenti che forniscono grandi quantitativi di dati semi-strutturati sono disponibili sul Web in forma di tabelle, contenuti annotati (e.s. RDF) e Linked Open Data. Questi dati se debitamente manipolati e integrati tra loro o con dati proprietari, possono costituire una preziosa fonte di informazione per aziende, ricercatori e agenzie governative. Il problema principale in fase di integrazione è dato dal fatto che queste sorgenti dati sono tipicamente eterogenee e non presentano chiavi su cui poter eseguire operazioni di join per unire facilmente i record. Trovare un modo per effettuare il join senza avere le chiavi è un processo fondamentale e critico dell’integrazione dei dati. Inoltre, per molte applicazioni, il tempo di esecuzione è una componente fondamentale (e.s. nel contesto della sicurezza nazionale) e il calcolo distribuito può essere utilizzato per ridurlo sensibilmente. In questa dissertazione presento delle tecniche distribuite per l’integrazione dati che consentono di scalare su grandi volumi di dati (Big Data), in particolare: SparkER e GraphJoin. SparkER è un tool per Entity Resolution che mira ad utilizzare il calcolo distribuito per identificare record che si riferiscono alla stessa entità del mondo reale, consentendo così l’integrazione di questi record. Questo tool introduce un nuovo algoritmo per parallelizzare le tecniche di indicizzazione che sono attualmente lo stato dell’arte. SparkER è un prototipo software funzionante che ho sviluppato e utilizzato per eseguire degli esperimenti su dati reali; i risultati ottenuti mostrano che le tecniche di parallelizzazione che ho sviluppato sono più efficienti in termini di tempo di esecuzione e utilizzo di memoria rispetto a quelle già esistenti in letteratura. GraphJoin è una nuova tecnica che consente di trovare record simili applicando delle regole di join su uno o più attributi. Questa tecnica combina tecniche di join similarity pensate per lavorare su una singola regola, ottimizzandone l’esecuzione con più regole, combinando diverse misure di similarità basate sia su token che su caratteri (e.s. Jaccard Similarity e Edit Distance). Per il GraphJoin ho sviluppato un prototipo software funzionante e l’ho utilizzato per eseguire esperimenti che dimostrano che la tecnica proposta è efficace ed è più efficiente di quelle già esistenti in termini di tempo di esecuzione.
Data sources that provide a huge amount of semi-structured data are available on Web as tables, annotated contents (e.g. RDF) and Linked Open Data. These sources can constitute a valuable source of information for companies, researchers and government agencies, if properly manipulated and integrated with each other or with proprietary data. One of the main problems is that typically these sources are heterogeneous and do not come with keys to perform join operations, and effortlessly linking their records. Thus, finding a way to join data sources without keys is a fundamental and critical process of data integration. Moreover, for many applications, the execution time is a critical component (e.g., in finance of national security context) and distributed computing can be employed to significantly it. In this dissertation, I present distributed data integration techniques that allow to scale to large volumes of data (i.e., Big Data), in particular: SparkER and GraphJoin. SparkER is an Entity Resolution tool that aims to exploit the distributed computing to identify records in data sources that refer to the same real-world entity—thus enabling the integration of the records. This tool introduces a novel algorithm to parallelize the indexing techniques that are currently state-of-the-art. SparkER is a working software prototype that I developed and employed to perform experiments over real data sets; the results show that the parallelization techniques that I have developed are more efficient in terms of execution time and memory usage than those in literature. GraphJoin is a novel technique that allows to find similar records by applying joining rules on one or more attributes. This technique combines similarity join techniques designed to work on a single rule, optimizing their execution with multiple joining rules, combining different similarity measures both token- and character- based (e.g., Jaccard Similarity and Edit Distance). For GraphJoin I developed a working software prototype and I employed it to experimentally demonstrate that the proposed technique is effective and outperforms the existing ones in terms of execution time.
APA, Harvard, Vancouver, ISO, and other styles
10

RAIMONDI, ALESSIO. "La meteorologia: cammino storico-epistemologico e studio del suo stato attuale di diffusione." Doctoral thesis, Università degli Studi di Cagliari, 2011. http://hdl.handle.net/11584/266333.

Full text
Abstract:
The widespread interest in meteorology is mostly driven by the fact that weather affects our daily life, extending its influence beyond the mere economical impact. Despite this strong attention to meteorology it is seen quite differently from other scientific activities like, for instance, classical physics to which it is generally, although often unappropriately, associated. This work tries to highlight the peculiar epistemologic approach to modern meteorology, through the analysis of the phylosophical and historical paths that have brought about that approach. The perception of meteorology as an atypical science it is also due to an uncomplete, and in some cases even wrong, communication process of weather forecasts. In this study the main criticalities regarding this communication process are highlighted through two case studies: the hurricane Charley twhich hit Florida in 2004 and the intense precipitation that affected the southern part of Sardinia in 2008. The evidences drawn from the two case studies are then supported by an extensive analysis that has involved professional forecasters of 19 different public Meteorological Offices in Italy and a significant sample of italian and spanish users. The two groups were surveyed on the meaning they associate to the typical expressions used in the wetaher reports, about the comprehension of non categorical, i.e. probabilistic, forecasts and, finally, on the role of media in the communication process. The results clearly show the issues and problems still open and help to lay down some proposals to improve the quality of the communication techniques, in order to make weather forecasts more effective for the users.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Informazione tecnica"

1

Informazione e progetto: L'evoluzione dell'informazione tecnica e l'indotto delle costruzioni. Udine: Forum, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Lodovisi, Achille. Cartografia e informazione geografica: Storia e tecniche. 2nd ed. Bologna: Pàtron, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Luisa, Franconi, Seri Giovanni, and Istituto nazionale di statistica (Italy), eds. Metodologie e tecniche di tutela della riservatezza nel rilascio di informazione statistica. Roma: Istituto nazionale di statistica, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

C, Nencioni M., Olivieri D, and Seroglia G, eds. Le schede tecnico-economiche delle attività produttive agricole: Aspetti metodologici e trattamento delle informazioni. [Roma]: Istituto nazionale di economia agraria, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Guerrini, Mauro. De bibliothecariis. Edited by Tiziana Stagi. Florence: Firenze University Press, 2017. http://dx.doi.org/10.36253/978-88-6453-559-3.

Full text
Abstract:
Nell’attività del bibliotecario la dimensione tecnica, essenziale per lavorare con competenza, non può prescindere o separarsi dall’impegno, dall’attenzione ai diritti civili e al modo in cui questi vengono vissuti e praticati nell’ambito della comunità di appartenenza. Garantire l’accesso alle informazioni non può essere limitato alla ‘nostra’ biblioteca, ma dev’essere una responsabilità che riguarda il territorio dove viviamo e dove operiamo, guardando ai nostri colleghi che possono trovarsi in situazioni più difficili della nostra e soprattutto alle persone che si trovano in difficoltà nell’esercitare i propri diritti. L’auspicio è che la trasmissione della conoscenza registrata contribuisca sempre più alla libertà, ai diritti, al benessere di tutti. Quando si capirà che investire in biblioteche significa investire per la democrazia, lo sviluppo economico e la qualità della vita? Il quadro di riferimento per comprendere e interpretare le problematiche delle biblioteche è, come sempre, quello del confronto con le tradizioni bibliotecarie internazionali, a partire dal continente europeo, proprio perché la professione ha oggi un impianto teorico e una dimensione operativa di valore globale.
APA, Harvard, Vancouver, ISO, and other styles
6

Grasso, Mario. Glossario di information technology: Parole chiave, tecniche, date e protagonisti delle tecnologie per il trattamento delle informazioni. 3rd ed. Milano, Italy: F. Angeli, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Glossario di information technology: Parole chiave, tecniche, date e protagonisti delle tecnologie per il trattamento delle informazioni. Milano, Italy: F. Angeli, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Simone, Secchi, and Busa Lucia, eds. La protezione acustica degli edifici: Soluzioni tecniche e informazioni progettuali per il rispetto del DPCM 5/12/97. Firenze: Alinea, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Nesi, Attilio. Progettare con l'informazione: Percorsi e gestione delle informazioni tecniche per la promozione e il controllo dell'innovazione nei materiali e nel progetto di architettura. Roma: Gangemi, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Dal manuale al web: Cultura tecnica, informazione tecnica e produzione edilizia per il progetto di architettura. Roma: Officina, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Informazione tecnica"

1

Albissini, Piero, Antonio Catizzone, Laura De Carlo, Laura Carlevaris, Vittorio Di Stefano, and Alessandro Micucci. "Le trasformazioni dello spazio urbano: la quarta dimensione nella georeferenziazione dell’iconografia storica di Rome." In International Conference Virtual City and Territory. Barcelona: Centre de Política de Sòl i Valoracions, 2009. http://dx.doi.org/10.5821/ctv.7549.

Full text
Abstract:
Se si considera la componente fisica del sistema città come espressione materiale dell’insieme dei fenomeni evolutivi dei luoghi, appare evidente come la sua rappresentazione possa essere considerata come sistema di conoscenza generale in grado di manifestare una convergenza di informazioni di natura altamente eterogenea. Le vaste trasformazioni che hanno interessato le città nella storia hanno determinato una evoluzione non solo nelle modifiche morfologiche degli assetti territoriali e nella stratificazione architettonica delle strutture urbane, ma anche nella percezione e fruizione degli spazi urbani. Se si considera l’organizzazione dello spazio urbano come ambito di relazione tra gli uomini, i contributi che provengono dalle fonti bibliografiche, iconografiche e cartografiche in particolare possono consentire la ricostruzione diacronica dei tessuti urbani. Questa ricostruzione è resa possibile dalla lettura delle diverse rappresentazioni che della città sono state date nel tempo, come rappresentazioni iconografiche o pittoriche, talvolta simboliche se non addirittura metaforiche, che consentono di acquisire conoscenze dei luoghi, anche quando presentano uno scarso grado di attendibilità. L’introduzione dell’informatica nel rilevamento e nella rappresentazione cartografica e la realizzazione dei sistemi informativi territoriali hanno aperto nuove possibilità non solo nella realizzazione di database collegati e georeferenziati, che possono contenere una notevole quantità di informazioni di diversa natura progressivamente incrementabili, ma soprattutto rendendo agevoli sia le molteplici interrogazioni sia le successive elaborazioni. Lo sviluppo della cartografia digitale dalla quale si possono derivare direttamente modelli tridimensionali, si pone quindi come punto di partenza per una corretta rappresentazione della complessità del fenomeno urbano e per un ripensamento dello spazio non più sulla base di esplorazioni planimetriche, ma tramite la creazione di modelli virtuali generati in maniera più o meno automatica a partire dalla cartografia stessa. In questo senso, il modello di derivazione cartografica costituisce l’aspetto metrico-quantitativo della rappresentazione della città, aspetto che risulta tanto più esatto, obiettivo e verificabile in quanto ottenuto con strumenti che rendono le misurazioni sufficientemente attendibili. Si tratta dunque di esplorare la cartografia tridimensionale cogliendone le peculiarità e la ricchezza nella restituzione dello spazio urbano, caratteristiche, queste, che suggeriscono immediatamente di tentare di ricostruire con la stessa vivacità rappresentativa anche tutti i trascorsi storici della città o, quanto meno, di alcuni dei suoi momenti topici, con particolare attenzione alle trasformazioni di natura orografica ed edilizia. In questo quadro emergono due distinti aspetti di natura metodologica, l’uno concernente la generazione del modello urbano e le implicazioni tecniche che questo comporta (implementazione di dati, automatismi, studi tipo-morfologici, scala del modello, …), l’altro relativo all’evoluzione della città attraverso il confronto tra modelli cartografici diversi (bi e tridimensionali). La realizzazione di un modello virtuale basato sulla cartografia digitale 3D, che fotografa lo stato attuale della struttura urbana, può rappresentare la griglia tridimensionale di riferimento per una visualizzazione delle trasformazioni spaziali attuata con una procedura che ripercorre a ritroso il cammino della storia. Si tratta di riferire a questa griglia orientata sulla base di capisaldi topografici certi i dati cartografici e iconografici provenienti dalla ricerca storico-documentaria, sulla base della individuazione di elementi invarianti della struttura urbana, come assetti orografici, vuoti urbani o edifici esistenti, etc., che non hanno mutato la loro localizzazione e le loro caratteristiche morfologiche. Così concepito, il modello tridimensionale di derivazione cartografica si caratterizza per la capacità di recepire e valorizzare documenti molto diversi e non necessariamente “scientifici” ai fini di una visualizzazione interattiva della storia del singolo brano di città o del singolo edificio per valutarne le trasformazioni sul piano morfologico e dimensionale, ma anche percettivo.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography