Dissertations / Theses on the topic 'SCUOLA DI DOTTORATO DI RICERCA IN SCIENZE DELL'UOMO'

To see the other types of publications on this topic, follow the link: SCUOLA DI DOTTORATO DI RICERCA IN SCIENZE DELL'UOMO.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'SCUOLA DI DOTTORATO DI RICERCA IN SCIENZE DELL'UOMO.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Marzaro, Mattia. "Idea/Processo/Architettura. Fenomenologia di un procedere pratico nella progettazione architettonica." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7412.

Full text
Abstract:
2010/2011
Nel corso del XXI secolo, nel progetto di architettura si sono sviluppate attitudini volte a rispondere alle esigenze dettate dall’evoluzione tecnica, sociale, economica, ambientale, artistica e culturale, che hanno permeato fortemente l’evoluzione del pensiero del Novecento. Gli sviluppi di questa rivoluzione permanente hanno condotto ad uno svolgimento sperimentale del fare architettura, spostando la visione del progetto verso approcci legati al divenire e non come metodi legati a una prassi. L’uomo, e quindi l’architetto, vive quello che Agamben definisce lo stato di eccezione, in cui la logica e la prassi non si determinano. Un’assenza di pensiero pretende di attuare un enunciato senza riferimenti alla realtà, o meglio giungendoci in un secondo momento, a posteriori, a volte inconsciamente. In questo quadro d’incoscienza ciò che ne deriva è un modo diverso di stare al mondo, o meglio la nascita di modi e visioni individuali, personalistiche. Si assiste così alla fine delle certezze e quindi alla fine della univocità di dati sui quali fondare ogni possibile concatenamento, ogni possibile continuità. Questo disordine generale, questo quadro d’incertezza, costituisce la nascita di quelle che nel corso della tesi andranno a definirsi come le processualità; esse costituiscono la necessaria volontà di definire in modo determinato ciò che in realtà è espresso dall’infinita varietà e possibilità dello spazio. Assumiamo come inizio della ricerca questo dualismo tra realtà instabile e infinita, da un lato, e necessaria determinazione di elementi concatenati dall’altro, che reggano i principi su cui fondare lo sviluppo progettuale nell’intento di stabilire dei principi di verità. Un sistema in questo senso processuale che garantisca di volta in volta nella prefigurazione dell’idea il controllo della forma, nell’intento di affermarla nel tutto reale, e non rendendola fine a se stessa e quindi in grado di smentirsi. Necessariamente il discorso si muove su diversi ambiti, tra i quali quello filosofico, perché in esso si fonda il pensiero dell’uomo, quello architettonico, artistico e tecnico, perché in essi vi sono le più alte forme di espressione e di linguaggio. In particolare, rispetto alla questione progettuale, nello scorso secolo la ricerca si è mossa tra forma, struttura, contenuto, previsione, ideazione, composizione; e ancora tra standard, economicità, velocità di produzione. Aspetti che hanno assunto all’interno del progetto di architettura un valore del tutto differente da prima, determinandone le condizioni stesse. L’architetto, pertanto, ha dovuto cambiare la sua prospettiva nelle procedure creative e compositive, affrontando la necessaria convivenza all’interno del progetto di una pluralità di attori, e mettendo da parte la sua attitudine progettuale individuale, perdendo la propria innocenza. In assenza di precedenti, nascono autonomie progettuali in grado di controllare e coordinare tutti o alcuni dei fattori culturali e tecnici di innovazione interni al progettare, e di coordinare i diversi attori che concorrono alla realizzazione dell’opera. Tale evoluzione non ha tuttavia tralasciato la parte più intima della composizione architettonica e del suo linguaggio, che ha dovuto adeguarsi con una serie di declinazioni e mutazioni, destinate a esplorare anche il campo dell’informe. In questa complessità d’azione diviene necessaria la costruzione di sistemi processuali di sviluppo progettuale; la composizione svolge in questo quadro del dubbio un ruolo chiave di chiarificazione e di verificazione, in quanto una parte dell’atto compositivo è legata alla ragione e una parte al mondo dell’intuizione, dell’istinto, del sensibile, anche se quest’ultima in un secondo momento viene posta nel dubbio. In tal senso questa tesi ha lo scopo di porre in evidenza alcune problematiche della progettazione, che oggi si manifesta attraverso quello che definiamo processo. La composizione, a differenza di quanto può apparire, ancora conserva un valore all’interno del progetto; essa ha solamente cambiato aspetto e diversificato i sui fattori operativi, in un certo senso si è evoluta. La composizione assume il ruolo di esperienza dell’indeterminazione progettuale, di medium, di strumento di ricerca di un senso tra ciò che determina relazioni tra soggetti e figure e le sue brusche rotture. Anche in architettura si assiste a un fenomeno simile a quello che riguarda i fenomeni linguistici, che nel tempo mutano a causa di influenze esterne di carattere sociale, storico, o di contaminazioni. Il progetto e il suo linguaggio necessariamente sono in un continuo divenire, in mutamento, nel senso di questa tesi, in processo. Riconosciamo il principio di mutazione a partire dalla nascita del Movimento Moderno, e in particolare dalla nascita di due scuole di pensiero, l’una facente capo alle sperimentazioni in ambito europeo e l’altra alla scuola americana, entrambe legate da un quadro culturale fondato sulla ricerca delle regole nell’intento di coniugare, attraverso la razionalità tecnica, il particolare con l’universale, lo standard con l’unico, il caos con l’ordine. Le sperimentazioni del moderno hanno giocato un ruolo cardine d’influenza e di propulsione introducendo il concetto di standard funzionale nel metodo e scardinando le teorie consolidate legate agli stili, in funzione di una maggiore libertà progettuale, legata ai materiali, al processo di produzione dell’architettura e alla ricerca dell’unità minima di vita. Quest’ultimo aspetto ha generato una specifica formulazione teorica e progettuale indirizzata alla risoluzione delle problematiche inerenti la questione funzionalista. Questo ha comportato una sovrapposizione di visioni rispetto alla questione della standardizzazione e la ricerca di un’unità universale di misura. Assistiamo così alla nascita di una diversa posizione linguistica nell’atto progettuale, attribuendo al termine standard non solamente la sua declinazione produttiva, ma la ricerca di regole valide atte a sostenere e verificare il progetto moderno, ricondotte all’uomo, alla sua dimensione biologica. L’attenzione è quindi posta sul pro-getto, sulle modalità del procedere, momento in cui la ricerca si fa espressione della propria tesi, configurandosi essa stessa quale progetto di esperienza. In un certo senso il processo è parte della visione, “e la visione è ciò che il linguaggio scientifico chiama verificazione o falsificazione della previsione. (…) Proprio perché il divenire è l’incominciare ad esistere, il divenire è l’irruzione dell’inatteso e dell’inaudito, ossia di ciò che per la sua radicale novità e imprevedibilità minaccia ogni cosa esistente. (…) Per salvarsi è necessario arginare la minaccia del divenire, cioè controllarla, sottoporla ad una legge e quindi dominarla.” In questo senso, l’atto progettuale s’identifica e si determina con il processo creativo. Assume il ruolo di elemento della formulazione, dalla visione nel controllo di uno spazio certo, entro il quale sia possibile cadere in una verificazione o meglio in un processo di verificazione. I movimenti artistici e le avanguardie hanno contribuito a scardinare l’esplorazione figurativa, portando a paralleli sviluppi in campo architettonico l’assunzione di sistemi compositivi e di prefigurazione innovativi grazie alla trasposizione in arte dei concetti di temporalità e di serialità. Il rapporto tra arte e architettura trova una nuova dimensione attraverso l’acquisizione di sistemi espressivi e di ricerca figurativa del tutto simili. La progettazione in questo quadro evolutivo ha dovuto appropriarsi di apposti strumenti, utili allo svolgimento processuale. S’introducono così nell’atto progettuale una serie di strumenti specifici, tra i quali possiamo individuare la geometria, i diagrammi, il modello. Questi strumenti, non nuovi al campo progettuale, assumono nella questione processuale specifiche manifestazioni. La geometria si è evoluta grazie all’uso del computer, che ha permesso un più radicale controllo del progetto architettonico e delle esplorazioni delle sue nuove forme. I modelli figurativi e prefigurativi hanno assunto una duplice funzionalità: come fonti di astrazione e concettualizzazione dei principi compositivi, e come vere e proprie manifestazioni della verifica e della composizione diretta e “materiale”. Il diagramma diventa fonte di sintesi funzionale, distributiva, d’interazione fra le parti e sistema per la figurazione dell’opera, assumendo addirittura il ruolo di “arbitro determinante” di una nuova definizione compositiva. La manifestazione processuale s’instaura in quanto “abbiamo cominciato a intendere che modellare il nostro ambiente fisico non significa applicarvi uno schema formale fisso, ma vale piuttosto un continuo, interno sviluppo, una convinzione che va continuamente ricercando il vero, al servizio dell’umanità.” D’altro canto, la sperimentazione si spinge verso una chiave di lettura del progetto architettonico e del suo processo creativo inteso come sistema processuale generalizzabile e sempre valido. Il luogo dell’analisi è costituito dai fenomeni evolutivi che hanno accompagnato la progettazione nel corso del XX secolo, dalla posizione del Movimento Moderno alla contemporaneità. Fasi queste in cui il processo è continua mutazione e i cui fattori creativi subiscono un continuo riposizionamento rispetto all’idea architettonica. Di fronte a fenomeni progettuali sempre più sconnessi da teorie, frutto di elaborazioni pluri-disciplinari, la produzione letteraria critica tende a descriverne i risultati anziché analizzarne in profondità i contenuti processuali. A noi interessa, invece, capirne i meccanismi di formulazione e le diverse manifestazioni. In luogo di un’analisi di tipo storico, cercheremo di leggere alcuni progetti significativi concentrandoci sugli aspetti funzionali alla tesi, con particolare attenzione ai processi di verificazione e controllo. Si tratta, in altre parole, di individuare una lingua e un suo ordine strutturale, che utilizzi le evoluzioni geometriche come punti assoluti, e l’uso dei diagrammi e dei modelli come fonti esplorative. Attraverso l’esposizione di atteggiamenti progettuali, si cercherà di chiarire il rapporto tra architettura, forma, funzione, e da tale analisi istituire un catalogo di processualità progettuali attraverso una fenomenologia definita. La nostra analisi, d’altra parte, non vuole diventare la ricerca di una teoria o di un metodo attraverso il quale accedere alla formulazione di un progetto. Diversamente, essa cerca di mettere in luce la chiara e incontrollabile capacità evolutiva e rigeneratrice del sistema delle idee, della prefigurazione e della creazione. Ci interessa l’analisi degli strumenti che costituiscono il processo architettonico contemporaneo e le sue declinazioni, attraverso lo studio di casi particolari classificati per tipologia di approccio processuale, secondo quello che possiamo definire processo lineare, processo continuo e processo stocastico o probabilistico. Quello che si cercherà di fare è di fotografare una situazione in continuo divenire, studiandone i sistemi principali e cercando di capirne i fenomeni scatenanti, il luogo in cui l’architettura si tramuta nella risoluzione di un problema, metafora presa dalla matematica, attraverso quello che possiamo definire “processo risolutivo”.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
2

Millo, Giovanni. "Some economic aspects of insurance." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3505.

Full text
Abstract:
2008/2009
This dissertation is based on three papers concerning aspects of insurance market development, analyzed in the light of the economic function of insurance and with the methodological tools of Econometrics and based on evidence from Italy. The first deals with the development of the non-life market, the second analyzes the life market and the third a particular facet of, again, non-life: the influence of the legal environment. The abstracts for the three papers follow. In the first, we analyze the consumption of non-life insurance across 103 Italian provinces in 1998-2002 in order to assess its determinants, in the light of the empirical literature. Using sub-regional data we overcome an important limitation of cross-country analyses, i.e. the systemic heterogeneity due to country-specific characteristics. Individual heterogeneity is accounted for through panel data techniques. However, considering spatial units within a single market raises issues of cross-sectional or spatial dependence, either due to common nation-wide and/or regional factors or to spatial proximity. We carefully assess spatial dependence, employing recent diagnostic tests, finding out that the regressors included in our specification successfully account for spatial dependence. Insurance turns out to depend on income, wealth and some demographics, as already established, but also on trust, judicial efficiency and borrowing conditions. This finding helps in explaining the gap between Central-Northern Italy and the South of the country. In the second we analyze the consumption of life insurance across 103 Italian provinces in 1996-2002. Cross-country analyses of insurance development have suffered from the presence of too many idiosyncratic country-level determinants (like legal system, social security, taxation or inflation history). Panel studies in the field suffer from the curse of dimensionality as well. A regional analysis of Italy, a notoriously very diverse country, provides an environment with less unobserved heterogeneity while retaining a fair amount of variance in income, demographics etc.. An- other limitation of cross-country studies of life insurance, the difficulty of observing prices, may be overcome as average policy loadings tend to be uniform across regions. On the converse, a regional study raises issues of cross-sectional dependence, either due to common nationwide factors or to spatial proximity. We control for unobserved heterogeneity through macroregional and time fixed effects. We develop a new spatial random effects model including both spatial lags of the dependent variable and spatial and serial correlation in the errors; we estimate it by maximum likelihood through an algorythm implemented in the R language. Life insurance turns out to depend on economic development, savings and some demographics, as expected, but also on the general level of trust and the density of the distribution network. Life insurance is negatively correlated with education, supporting the view that better education fosters financial risk taking. In the third, we start from the consideration that civil trials take far too long in Italy compared to other countries. Inefficiency of civil law in enforcing property rights is recognized as a limiting factor for economic development at large and for that of financial markets in particular. Of the three main elements of judicial inefficiency: unfair judgment, costly procedures and lengthy procedures, we concentrate on the third analyzing its relevance for the insurance contract. We contend that the duration of civil trials is an important obstacle to non-life insurance, because it reduces the present value of the contingent claim held by the insured in case of litigation. Thus we expect non-life insurance consumption to be lower, all other things being equal, where judicial procedures are slower. We test our hypothesis on two datasets: a provincial panel dataset for the years 1998-2002 and a household survey comprising three waves for the years 1989, 1991 and 1993. We estimate a number of alternative specifications on the aggregate data, and probit and tobit models on household data, finding significant negative effects of judicial inefficiency on insurance consumption in both settings. We conclude that the excessive length of civil trials is a depressing factor for the development of the Italian non-life insurance market.
Questa tesi si basa su tre articoli riguardanti aspetti dello svilupo del mercato assicurativo, analizzato alla luce della funzione economica dell’assicurazione e con gli strumenti metodologici dell’Econometria, sulla base di dati italiani. Il primo si occupa dello sviluppo del mercato non-vita, il secondo analizza il mercato vita e il terzo un particolare aspetto del non-vita: l’influsso dell’ambiente legale. Nel primo articolo analizziamo il consumo di assicurazione non-vita in 103 province italiane nel 1998-2002 allo scopo di stabilirne le determinanti, alla luce della letteratura empirica. Usando dati provinciali superiamo un’importante limite degli studi sui paesi:l’eterogeneità sistemica. Teniamo conto di quella individuale tramite tecniche per dati panel. Comunque, considerare unità spaziali entro un singolomercato dà luogo a problemi di dipendenza sezionale o spaziale, dovuta a fattori comuni o alla prossimità nello spazio. Controlliamo la dipendenza spaziale per mezzo di recenti test diagnostici, scoprendo che i regressori da noi inclusi nella specificazione cntrollano efficacemente la dipendenza spaziale. Ne risulta che l’assicurazione dipende dal reddito, dalla ricchezza e da variabili demografiche, come già noto, ma anche dal livello di fiducia nel prossimo, dall’efficienza del sistema giudiziario e dalle condizioni del mercato del credito. Questi risultati aiutano a spiegare il divario tra il Centro-Nord e il Sud del paese. Nel secondo lavoro analizziamo il consumo di assicurazione vita in 103 province italiane nel 1996-2001. Le analisi sezionali su paesi dello sviluppo assicurativo hanno sofferto della presenza di troppi elementi idiosincratici (il sistema legale, quello di sicurezza sociale, quello fiscale o la storia inflazionistica). Anche le analisi panel soffrono del problema delle variabili incidentali. Un’analisi regionale dell’Italia, paese notoriamente vario, offre un ambiente con meno eterogeneità mantenendo una buona variabilità nelle caratteristiche osservabili. Un’ulteriore limitazione degli studi sui paesi, la difficoltà nel definire e nell’osservare i prezzi, viene superata constatando che gli stessi sono uniformi a livello nazionale. D’altra parte, uno studio regionale pone prob- lemi di dipendenza sezionale dovuta a fattori comuni o alla prossimità nello spazio. Controlliamo per l’eterogeneità non osservabile mediante effetti fissi macroregionali e temporali. Sviluppiamo un nuovo modello a effetti random comprendente sia ritardi spaziali della variabile dipendente che correlazione seriale e spaziale negli errori. Lo stimiamo a massima verosimiglianza tramite un algoritmo implementato nel linguaggio R. L’assicurazione vita risulta dipendere dallo sviluppo economico, dal risparmio e da alcune variabili demografiche, come ci si attendeva, ma anche dal livello generale di fiducia e dalla densità della rete agenziale. L’assicurazione vita è negativamente correlata con il livello di educazione, supportando l’ipotesi che una maggiore educazione aumenti la propensione al rischio finanziario. Nel terzo partiamo dalla constatazione che i processi civili sono troppo lunghi in Italia rispetto agli altri paesi. L’inefficienza della giustizia civile nel far valere i diritti di proprietà è riconosciuta come un fattore limitante per lo sviluppo economico in generale e per quello finanziario in particolare. Dei tre elementi del’inefficienza giuridica: giustizia, costo e tempo dei procedimenti, ci concentriamo sul terzo analizzando la sua rilevanza per il contratto assicurativo. Sosteniamo che la durata dei processi civili è un importante ostacolo per l’assicurazione non-vita, in quanto riduce il valore attuale del diritto condizionato detenuto dall’assicurato nel caso si vada in giudizio. Pertanto ci aspettiamo che a parità di altre condizioni il consumo di assicurazione sia minore dove le procedure giudiziarie sono più lente. Testiamo la nostra ipotesi su due basi dati: una provinciale relativa agli anni 1998-2002 e un’indagine campionaria sulle famiglie comprendente le tre ondate 1989,1991 e 1993. Stimiamo varie specificazioni alternative sui dati aggregati e modelli probit e tobit sui dati micro, trovando un significativo effetto negativo dell’ineficienza giudiziaria sul consumo di assicurazione in entrambi i casi. Ne concludiamo che l’eccessiva lunghezza dei processi civili deprime lo sviluppo del mercato assicurativo non-vita in Italia.
XXII Ciclo
1970
APA, Harvard, Vancouver, ISO, and other styles
3

Zanetti, Michelangelo. "Architetture di scarto. Riciclaggio e progetto da drop city a lot-ek." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3493.

Full text
Abstract:
2008/2009
La pratica del riciclaggio, inteso come lavoro volto alla reinterpretazione creativa del già costruito nella composizione, occupa oggi un ruolo di primo piano, in ragione del rilievo che assume la questione della cosiddetta sostenibilità. Il fenomeno del “riciclaggio”, che negli ultimi anni ha interessato altri ambiti disciplinari oltre l’ecologia, costituisce una stimolante opportunità per ripensare il progetto di architettura a tutte le scale, da quella del singolo manufatto a quella del paesaggio. L’esplorazione, condotta su un campione di progetti esemplificativo delle varie esperienze che ho considerato, è circoscritta all’Occidente industrializzato; nel settore delle costruzioni del Terzo e Quarto mondo, infatti, il riciclaggio, prassi ampiamente consolidata, determinata essenzialmente da fattori economici, si distingue nettamente da pratiche analoghe condotte nei paesi più sviluppati, in cui sono presenti ulteriori istanze di natura etica o estetica. Attraverso esplorazioni teoriche di progetti e opere realizzate, la ricerca intende verificare quelle che sono le possibilità e gli eventuali vantaggi offerti dal ricorso alla pratica del riciclaggio nell’architettura della città e del paesaggio – relativamente ai contesti europeo e nord-americano e nell’arco di tempo degli ultimi quarant’anni (1968 – 2008).
XXII Ciclo
1974
APA, Harvard, Vancouver, ISO, and other styles
4

Verri, Marko. "Puntualizzazioni monumentali: elementi decorativi e piccole architetture nell'opera di Jože Plečnik." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4518.

Full text
Abstract:
2009/2010
Nel 2007 ricorreva il cinquantenario della morte dell’architetto sloveno Jože Plečnik (1872 - 1957), figura discussa e controversa all’interno di un panorama architettonico e culturale in rapido e radicale mutamento. Si tratta di un artista attorno alla cui presa di posizione nei confronti dell’architettura si è spesso discusso, e proprio in questi anni si è tornato a discuterne in occasione della ricorrenza dell’anniversario della sua morte. Soprattutto in Slovenia, dove il 2007 è stato eletto ad “anno di Plečnik”, sono stati organizzati dibattiti e convegni e sono state edite alcune nuove pubblicazioni sull’architetto e la sua opera. L’opinione pubblica ha accettato Plečnik come il maggiore architetto sloveno di tutti i tempi, ma tuttavia “la teoretica e la storia dell’architettura non riescono ancora a inquadrarne in maniera coerente l’operato”1. Geniale interprete di forme antiche, rappresenta comunque con i suoi lavori, sviluppati soprattutto attorno alle città di Vienna, Praga e Lubiana, un personaggio di assoluto rilievo nel panorama architettonico e culturale sloveno ed europeo. Le sue ferme convinzioni in merito al ruolo dell’architetto e della sua arte, hanno portato a interpretazioni differenti riguardo la sua opera e spaziano dalla sfera mistica a quella di origine formalista, da quella storicista a quella classicista, da quella espressionismta2 a quella del modernismo. Non è obiettivo della presente tesi risolvere tale questione, piuttosto si è interessati alla lettura dell’opera dell’architetto sloveno in relazione a una parte del suo lavoro meno nota e meno indagata. Molto del materiale bibliografico inerente la sua opera riguarda infatti analisi e studi sul tema delle sue grandi architetture monumentali e del loro ruolo rivestito all’interno di un’ottica di trasformazione urbana ad esse legata o delle varie innovative varianti sul tema dell’architettura sacra. La bibliografia attorno all’opera di Plečnik è sufficientemente ricca per quanto riguarda questi argomenti, benché la maggior parte degli scritti sia edita in lingua slovena o ceca. Il materiale tradotto in altre lingue non è molto. inoltre va specificato che non esiste ancora un “opera omnia” sull’opera di Plečnik che contenga non solo la ingente quantità di architetture realizzate, ma anche le moltissime idee progettuali per soluzioni a temi mai realizzati. Nel corso della sua vita infatti, l’architetto sloveno progetta instancabilmente, riesce a seguire la realizzazione dei lavori e continuamente riflette su nuove soluzioni possibili e su nuove interpretazioni delle forme classiche, disegnando spesso ciò che gli viene in mente. Particolarmente ricca è infatti la collezione dei suoi disegni presso l’archivio del Museo di architettura e design di Lubiana. La mancanza di una pubblicazione che ne raccolga il prezioso materiale, è indice di quanto l’opera dell’architetto sloveno sia in parte relegata a un ambito marginale rispetto al panorama europeo, limitandosi a rivestire un ruolo quasi meramente locale. Ciò pare andare in contrasto con quanto invece è quello che Plečnik persegue attraverso l’architettura, ovvero qualcosa che è molto di più e va ben oltre la ricerca di un’architettura che sia meramente “locale” o “regionale”. Egli, di fatto, persegue l’idea di un’architettura o meglio di un metodo progettuale “universale”, ma non intessa come ricerca di uno stile o di un determinato materiale, bensì conseguita attraverso la volontà di creare una particolare “atmosfera”, un particolare “effetto” che ogni luogo è in grado di assumere attraverso l’architettura. Per conseguire tale fine egli è convinto della necessità del dover partire da elementi originari dell’architettura che non siano stati ancora “contaminati” o naturalizzati, perché solo attraverso essi sarà possibile reinventarli in una nuova condizione estetica che riesca a dar forma a una particolare atmosfera. Egli trova tali elementi primari nell’architettura classica e antica ed è proprio da qui che hanno origine le sue riflessioni attorno alle possibili reinterpretazioni delle forme e degli elementi antichi. Tali riflessioni vengono trasposte su carta in forma di schizzi e disegni. Plečnik infatti non scrive alcun trattato teorico e ritiene che le questioni teoriche debbano essere chiarite e presentate attraverso il progetto e la realizzazione, attraverso l’architettura. Le uniche frasi scritte di su pugno sono presenti all’interno della sua corrispondenza con amici, parenti e collaboratori. Il fatto, però, che non esista ancora un’opera completa riguardo l’ingente quantità di progetti, realizzati e non, dall’architetto sloveno, né tantomeno una completa edizione di tutta la sua corrispondenza, rappresenta in modo evidente il fatto che vi sia ancora molto da studiare attorno alla figura di Plečnik Obiettivo del presente lavoro vuole essere infatti quello di andare ad aggiungere un contributo all’analisi e alla presentazione di alcuni progetti dell’opera di Plečnik mai particolarmente approfondita. Si tratta infatti di una raccolta delle piccole architetture realizzate e progettate dal maestro sloveno che sono parte integrante del suo operato. Plečnik è infatti particolarmente legato al tema del “piccolo”, del “minuto” e se ne occupa infatti costantemente nel corso della sua vita. In ogni progetto egli cura anche il minimo dettaglio, compresi gli elementi d’arredo, per una progettazione che spazia “dal cucchiaio alla città”. Parallelamente alla progettazione dei grandi edifici pubblici o privati, egli progetta infatti anche un’ingente quantità di architetture “in scala ridotta”. Nella maggior parte dei casi si tratta di opere dall’importante significato simbolico e monumentale come ad esempio i monumenti ai caduti o opere di architettura sepolcrale, in altri casi invece, si tratta di piccole architetture urbane, al cui importanza all’interno dello spazio urbano stesso si rivela strategica. Vista la grande quantità di opere realizzate dal maestro sloveno, il campo di ricerca si limita a una parte delle piccole opere progettate. Trascurando gli elementi propri dell’architettura interna, i quali di per sé rappresentano un capitolo a sé grazie al vastissimo repertorio di oggetti prodotti da Plečnik e che indubbiamente necessiterebbero di un approfondimento specifico, la ricerca prende in considerazione tutti quegli elementi che fanno parte della sfera architettonica “non abitabile”, a partire dagli elementi primari dell’architettura, quali la colonna o il pilastro, per arrivare a quelle architetture che rappresentano il limite ultimo del tema di ricerca, ovverosia le architetture composte da una solo vano, ma senza offrire una vera e propria condizione “abitabile”, quali piccole edicole o cappelle. A corollario della presentazione della piccole architetture realizzate, vengono presentati anche alcuni disegni originali tratti dall’archivio del Museo di architettura e design di Lubiana, nonché due interviste con due dei massimi studiosi dell'opera di Plečnik.
XXII Ciclo
1976
APA, Harvard, Vancouver, ISO, and other styles
5

Kruml, Christina. "La seduzione dell'INvisibile: considerazioni sull'abitare attraverso l'architettura di Josef Frank." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4517.

Full text
Abstract:
2009/2010
La seduzione dell’INvisibile è una ricerca che affronta il tema dell’Abitare secondo un approccio antropologico-filosofico per riflettere e ridefinire questioni attorno al rapporto tra spazio architettonico e corpo umano, ma anche tra intimità domestica e spettacolarità urbana.
Attraverso la poetica degli spazi amati descritti dal filosofo francese Gaston Bachelard - luoghi piccoli e raccolti in cui viene voglia di rannicchiarsi perché «solo chi ha saputo rannicchiarsi sa abitare con intensità” - la casa viene paragonata ad un utero materno che avvolge e protegge il suo abitante e il cui involucro al tempo stesso è una membrana osmotica che permette una comunicazione trasversale tra esterno ed interno, tra pubblico e privato, tra socializzazione ed intimità. Da qui deriva l’intendere la parete come Ge-wand, come sovrapposizione di veli che crea un effetto di trasparenza fenomenica, di profondità spaziale, spessore.
Secondo questo punto di vista dispute come quelle tra ornamento e delitto, forma e funzione, modernità e tradizione, virtuale e reale, trovano qui una riconciliazione: al posto di teorie esclusive si vuole lasciare spazio all’INclusione, alla molti-plica-zione delle relazioni e possibilità tra i vari termini che si oppongono, dove non esiste l’uno senza l’altro e sono anzi proprio gli intricati intrecci di trama e ordito, i nodi e le piegature, i simboli e gli archetipi, a rendere l’architettura così seducente.
L’applicazione pratica di questi concetti è stata analizzata nell’opera di Josef Frank, architetto viennese vissuto tra il 1885 e il 1967 e figura di primo piano nel panorama internazionale a cavallo tra le due guerre mondiali.
In un mondo incentrato sulla grande dimensione, sull’immagine di effetto e alla moda, a una prima vista l’architettura umile e modesta di Frank non colpisce. Eppure c’è qualcosa che ci incuriosisce, che ci fa pensare che dietro all’apparenza, al visibile, si nasconda un significato più profondo, un INvisibile che fa parte dell’intimità domestica, del valore simbolico dell’abitare. La sua architettura ci invita alla riflessione.
La tesi si compone di due volumi, di cui il secondo costituisce un compendio biografico sull’architetto Josef Frank.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
6

Vedovato, Donatella. "Gli impatti attesi derivanti dall'applicazione di una soluzione ICT per i trasporti e la logistica sull'efficenza delle imprese: il caso dell'intelligent cargo." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/5366.

Full text
Abstract:
2009/2010
Il presente lavoro si inserisce all’interno dello scenario socio-economico attuale in cui l’informazione, a partire dagli anni Settanta del secolo scorso, inizia a diventare sempre più accessibile e diffusa. Questo ha segnato l’inizio di una nuova era che studiosi e ricercatori definiscono “information society”. Il cambiamento è stato reso possibile grazie alla rapida espansione dell’Information and Communication Technology (ICT) che permette la veloce creazione, raccolta, elaborazione e diffusione delle informazioni (Duncombe e Heeks, 1999). L’economia non rimane immune da questo cambiamento ma, anzi, la knowledge economy diventa la controparte economica dell’information society. L’informazione diviene ancora più importante in ambito economico in quanto, nello stesso periodo, avviene un altro mutamento: una forte disintegrazione della produzione e la necessità di un altrettanto forte integrazione del commercio globale. Le imprese sono quindi chiamate a gestire delle catene globali del valore che diventano sempre più lunghe e tese. Il numero di attori all’interno della rete logistica diventa cospicuo: essi sono chiamati a condividere e a scambiare un elevato numero di informazioni relative ad unico oggetto, ovvero la merce. E’ in questo contesto che l’ICT inizia ad essere utilizzata in modo diffuso nel settore dei trasporti e della logistica merci. L’ICT permette l’aumento della produttività delle imprese, il miglioramento della qualità dei servizi e l’integrazione tra diverse modalità di trasporto con il fine ultimo di aumentare la crescita e lo sviluppo economico. La portata del fenomeno è talmente ampia da sensibilizzare anche le istituzione europee: la Commissione Europea inizia ad intervenire, soprattutto a partire dagli anni Ottanta del secolo scorso, per promuovere l’utilizzo dell’ICT nel settore dei trasporti e della logistica. In particolare, negli ultimi anni l’ICT applicata a questo settore diventa sempre più integrata, web-based, intelligente e trasversale a tutte le modalità di trasporto. Tra i progetti di ricerca applicata promossi dalla Commissione Europea in quest’ambito, una best practice è rappresentata dal progetto appartenente al Settimo Programma Quadro del bando ICT per i trasporti e la logistica, EURIDICE (EURopen Inter-Disciplinary research on Intelligent Cargo for Efficient, safe and environment-friendly logistics). Considerato “star project” da parte della Commissione Europea, il progetto ha l’obiettivo di sviluppare l’”Intelligent Cargo” (IC). Si tratta di un sistema ICT che permette di raccogliere, elaborare e trasmettere informazioni legate al cargo ai diversi players della filiera logistica per tutte le modalità di trasporto. Con l’utilizzo dei sistemi attuali l’informazione è gestita ed elaborata da sistemi proprietari collegati a mezzi di trasporto o alle infrastrutture (es. magazzino) facendo si che spesso flusso fisico ed informativo risultino disgiunti. Le relative informazioni, quando presenti, devono essere trasformate e tradotte per essere accessibili a terzi. Nel caso dell’Intelligent Cargo, invece, le informazioni “viaggiano” con il cargo: è in quest’ottica che un nuovo approccio alla gestione delle informazioni, definito “cargo-centrico” porta benefici sostanziali in grado di superare i limiti citati. Questo è l’aspetto innovativo dell’Intelligent Cargo. Alla data della scrittura della tesi si è sviluppato il prototipo e si è nella fase tecnica di deployment presso otto casi pilota, partner del progetto. E’ in questo quadro socio-economico che si inserisce l’obiettivo della tesi: lo studio degli impatti attesi derivanti da una soluzione ICT per i trasporti e la logistica sull’efficienza delle imprese utilizzatrici. La soluzione ICT è l’Intelligent Cargo sviluppato nel progetto EURIDICE. La motivazione che spinge questo studio è duplice. Da un lato, esso offre informazioni utili sui benefici attesi che serviranno all’impresa innovatrice nella fase di commercializzazione dell’Intelligent Cargo affinchè essa possa appropriarsi dei benefici economici derivanti dalla commercializzazione del prodotto (teoria Profiting From Innovation (PFI), Teece 1986). Il carattere innovativo della soluzione ICT fa si che si possano presentare alcuni rischi in una futura fase di distribuzione. E’ noto anche in letteratura che molte idee brillanti non trovano o non creano un mercato: molte imprese innovatrici non riescono ad appropriarsi dei benefici economici derivanti dalla vendita. Dall’altro, l’esplicitazione dei benefici attesi permetterà alla potenziale impresa utilizzatrice di ridurre l’incertezza sulle conseguenze attese (benefici e rischi) derivanti dall’adozione dell’innovazione (teoria Diffusion of Innovation, Rogers, 2003) e contribuirà quindi nella scelta della sua adozione. Inoltre, l’individuazione dei benefici attesi permetterà di realizzare un benchmark futuro tra essi e i benefici reali realizzando quindi un’analisi dell’investimento ICT ex-post (Paradosso della Produttività; Brynjolfsson, 1993 e Brynjolfsson e Yang, 1996). Per raggiungere l’obiettivo della tesi, si sono indagati i principali indicatori di performance e gli approcci metodologici tradizionalmente utilizzati per valutare l’impatto di un’innovazione ICT per i trasporti e la logistica sull’efficienza delle imprese. Dalla disamina della letteratura sul tema sono emerse due domande di ricerca aperte a cui la tesi intende dare una risposta. Da un lato la letteratura prevalente segnala la mancanza di studi empirici relativi alla valutazione degli impatti derivanti dall’applicazione di un’innovazione ICT per i trasporti e al logistica (Banister e Stead, 2003; Auramo et al. 2005; Pokharel, 2005; Feng e Yuan, 2006). Dall’altro, mancano dei modelli specifici per la valutazione dell’impatto di un’innovazione ICT per i trasporti e la logistica sull’efficienza delle imprese. Eccezione fatta per l’”Intelligent Cargo System Study” condotto nel 2009 da Planung Transport Verkehr AG (PTV) e ECORY che presenta tuttavia, alcune carenze. Appare invece cospicua la letteratura sui modelli di valutazione delle applicazioni ICT anche non innovative a cui si è fatto riferimento nella tesi (letteratura di Logistics management e di Management Information System) ma anche essa dimostra alcuni punti deboli come di seguito spiegato. Dalla disamina di questa letteratura emergono due tipologie di modelli: “Input-Output” e “Input-Process-Output”. La prima tipologia include l’analisi costi-benefici e quella microeconomica: secondo tali modelli un’applicazione ICT determina dei benefici per un’impresa se nel confronto tra input (costi dell’ICT) e output (obiettivi di carattere economico come costi e ricavi), gli output sono superiori agli input. Questi modelli, oltre a non chiarire esattamente che cosa si intenda per input e per output, presentano una visione piuttosto ristretta sulla tipologia di impatti che derivano dall’applicazione dell’ICT. Essi infatti tralasciano tutti quei benefici che l’ICT determina a livello di processo, ovvero ad un livello intermedio tra input ed output. Inoltre, se gli input sono superiori agli output, per questi modelli significa che l’applicazione ICT non è profittevole per l’impresa. Questa conclusione potrebbe non essere veritiera in quanto l’applicazione ICT potrebbe determinare un impatto positivo sui processi ma gli output potrebbero essere influenzati da elementi esterni esogeni all’ICT. Non indagando i processi, i modelli non forniscono gli strumenti necessari per capire se le cause di un andamento negativo degli output sono legate o meno all’applicazione dell’ICT. La seconda tipologia di modelli seguono uno schema logico definito “Input-Process-Output”. A differenza della tipologia precedente, questi modelli esaminano gli impatti delle applicazioni ICT anche a livello di processo. All’interno di questa tipologia si individuano due approcci così definiti: “per singoli impatti” e “con impatti a catena”. Il primo esamina gli impatti, intesi come benefici e barriere, sia a livello di processo che a livello di output. Tuttavia, pone sullo stesso piano impatti di processo e di output e non li lega tra di loro con rapporti di causa-effetto anche quando essi sono chiaramente presenti. Da qui emerge lo svantaggio nell’utilizzare questo approccio: non indica l’esistenza di legami di tipo “causa-effetto” tra impatti di processo e obiettivi dell’impresa anche quando essi sono presenti. Questa criticità è superata nell’approccio “con impatti a catena”. Rientra in questo modello l’approccio seguito nello studio ICSS (2009) in cui si individuano una serie di singoli impatti sia di processo che di output legati tra di loro da rapporti di causa-effetto. Tuttavia, nel modello non sono esplicitate le linee guida da utilizzare per individuare i legami di causa-effetto tra gli impatti: essi sono presentati come una successione estesa di impatti “a cascata”. Il punto critico del modello consiste quindi nella mancanza di linee guida per individuare la logica dei legami di causa-effetto tra gli impatti. Tale mancanza è superata nella letteratura MIS (Management Information System) e, in particolare, dalla metodologia Six Sigma e, nello specifico, da un’applicazione della metodologia nella logistica interna, definita “Metric Linkage Model” di Kapadia et al. (2003). Il modello stabilisce chiaramente le linee guida da seguire per individuare i legami di causa-effetto tra diversi impatti. In particolare, secondo il modello, un qualsiasi input determina dei cambiamenti nei processi interni all’impresa definiti “Working Processes”. Questi mutamenti condizionano i processi che determinano la soddisfazione del cliente, i “Customer Satisfaction Processes” e quindi le relative performance. I cambiamenti in questi processi influenzano il raggiungimento degli obiettivi dell’impresa (output). Questi legami formano la spina dorsale di tutti i progetti Six Sigma (Kapadia et al., 2003). Tuttavia, questo modello non è stato ancora applicato al settore dei trasporti e della logistica esterna e in relazione ad una specifica applicazione ICT di tipo innovativo. Visto che questo modello supera le mancanze degli approcci metodologici precedentemente indicati, esso è stato adattato per la valutazione degli impatti dell’Intelligent Cargo sull’efficienza delle imprese. Il modello proposto nella tesi è stato definito “Three Pillars’ Model”. Secondo il modello una soluzione ICT innovativa provoca un impatto sui processi interni dell’impresa determinando dei miglioramenti di tipo “operativo” (es. tempo necessario per ottenere un’informazione). Essi causano delle conseguenze di tipo “tattico” (es. servizio al cliente) che si traducono in ritorni economici per l’impresa (es. costi/ricavi). A questi tre “passaggi” logici corrispondono tre tipologie di indicatori di performance legati tra di loro da rapporti di causa-effetto e così definiti: “Parametri di Processo”, “Performance di Processo” ed “Effetti di Business”. Da qui deriva il nome del modello, “Three Pillars’ Model”: le tre tipologie di indicatori rappresentano i “pilastri” della metodologia di valutazione dell’impatto. Il “Parametro di Processo” è un indicatore di performance di tipo operativo direttamente impattato dall’utilizzo dell’Intelligent Cargo. Il cambiamento del Parametro di Processo determina una variazione sul secondo pilastro, le “Performance di Processo”. Esse si distinguono dai Parametri di Processo in quanto non sono direttamente impattate dall’utilizzo dell’Intelligent Cargo, sono l’effetto dell’applicazione di uno o più Parametri di Processo e possono essere condizionate anche da elementi esterni all’applicazione dell’Intelligent Cargo. Esse rappresentano quindi le conseguenze dei Parametri di Processo e indicano un livello di impatto “tattico”. A loro volta, mutamenti nelle Performance di Processo determinano dei cambiamenti nei costi e nei ricavi. Questi sono definiti “Effetti di Business”. Il primo vantaggio nell’utilizzare il “Three Pillars’ Model”, rispetto a quelli precedentemente descritti, consiste nella capacità del modello di individuare gli impatti sia a livello di processo che a livello di output (costi/ricavi). In questo modo non sono tralasciati importanti benefici che si ottengono con l’applicazione ICT nel processo che, invece, uno schema “input-output” non considera. Inoltre, in questo modo è possibile capire se il mancato o parziale raggiungimento degli obiettivi economici dell’impresa (gli Effetti di Business) dipenda da cambiamenti dei processi derivanti dall’utilizzo dell’ICT o da cause esterne ed esogene. Il terzo vantaggio consiste nella possibilità di utilizzare anche solo alcune “parti” del modello, ovvero l’utilizzatore può scegliere ed escludere alcuni indicatori di performance proposti per ogni pilastro. Oltre a ciò, l’utilizzatore può decidere di aggiungere alcuni indicatori di performance che non sono proposti dal modello. Si tratta quindi di un modello “modulare” e flessibile. Inoltre, i legami di causa-effetto sono decisi a discrezione dell’utilizzatore in quanto gli stessi indicatori di performance possono avere legami diversi. Si lascia così ampia libertà e flessibilità nell’individuare i rapporti di causa-effetto. Una serie di vantaggi derivano anche dalla precisione e dalla chiarezza con la quale sono indicate le linee guida da seguire per applicare il modello. In particolare, la chiarezza abbinata alla semplicità del modello contribuiscono alla facile comprensione e alla sua veloce applicazione in casi reali. Il modello è stato applicato in otto casi pilota: si sono definiti i singoli indicatori di performance afferenti ai tre pilastri, le formule per il loro calcolo e i legami di causa-effetto. I casi pilota hanno individuato, complessivamente, 71 indicatori di performance impattati dall’utilizzo dell’Intelligent Cargo. Per ognuno di essi hanno misurato: - Valore attuale; - Valore atteso (con l’implementazione dell’IC); - Miglioramento atteso. Si sono raccolte, in totale, 197 osservazioni di cui 183 espresse in modo quantitativo e 14 in modo qualitativo. L’analisi dei dati ha permesso di giungere a delle conclusioni di tipo qualitativo e quantitativo. I risultati qualitativi indicano la tipologia di impatto che le imprese si attendono di ottenere con l’applicazione dell’Intelligent Cargo in relazione ai tre pilastri mentre quelli quantitativi stimano i valori dei miglioramenti attesi. Dall’analisi qualitativa emerge che gli impatti nei processi interni (Parametri di Processo) che le imprese si attendono sono relativi alla maggiore velocità con la quale le informazioni di loro interesse sono disponibili e nella migliore affidabilità (assenza di errori). Tali informazioni hanno per oggetto: 1. L’identificazione del cargo (es. tipologia, quantità). 2. Il controllo delle condizioni del cargo (es. temperatura). 3. Il monitoraggio del percorso (es. deviazione dall’itinerario stabilito). 4. Il monitoraggio dello status del cargo (es. arrivato, partito). Si precisa che le imprese hanno dichiarato di attendersi un impatto nella rapidità di invio di tutte le queste tipologie di informazioni fornite dall’Intelligent Cargo mentre l’affidabilità riguarda solamente l’identificazione del cargo e la corretta stima dell’orario di arrivo. Sembra quindi che le imprese abbiano già le informazioni di cui necessitano in modo preciso ed affidabile ma non veloce. Di conseguenza i Parametri di Processo individuati dalle imprese misurano il tempo necessario a ricevere l’informazione e la sua precisione. L’impatto dell’utilizzo dell’Intelligent Cargo sulla rapidità e affidabilità dell’informazione scambiata determina una serie di conseguenze a livello “tattico”, ovvero sulle Performance di Processo. I casi pilota si attendono un miglioramento su queste categorie di impatto: 1. Gestione degli asset, ovvero nella gestione delle scorte (rotazione delle scorte e quantità di prodotto finito stoccato a magazzino), dei mezzi di trasporto (viaggi addizionali per errata consegna e fattore di riempimento dei mezzi), dell’infrastruttura (ottimizzazione dell’utilizzo della capacità dell'infrastruttura) e delle risorse umane (pianificazione dell’utilizzo delle risorse umane). 2. Servizio al cliente, ovvero nell’evasione corretta degli ordini e nei tempi di risposta al cliente. 3. Tempo necessario per svolgere un’attività. 4. Gestione della security (diminuzione di furti). I miglioramenti attesi nelle Performance di Processo determinano degli impatti in questi “Effetti di Business”: 1. Costi relativi agli asset (costo del magazzino, del trasporto e delle scorte), al lavoro (costo per il dispatching, per il re-scheduling, per la risoluzione delle problematiche sulla temperatura, per la chiusura di un ordine di prenotazione e per la gestione dei controlli di sicurezza), costi finanziari (interessi bancari passivi), dei resi e assicurativi. 2. Ricavi; rientrano in questa categoria i ricavi di vendita, l’aumento della quota di mercato e il miglioramento del servizio al cliente. Gli impatti sopra descritti sono stati individuati complessivamente dai casi pilota i quali rappresentano i tipici attori di una supply chain, ovvero: imprese di produzione e di distribuzione, operatori logistici (trasportatori, imprese di logistica e di warehousing) e autorità pubbliche. Ciò detto, si può quindi affermare che l’analisi cross-pilot ha permesso di individuare i benefici apportati da una soluzione innovativa ICT alla filiera logistico-trasportistica, nel suo complesso. Si sono inoltre individuati gli impatti attesi comuni a più casi pilota. Da un punto di vista quantitativo, è emerso che le imprese hanno importanti aspettative nei confronti dell’applicazione dell’Intelligent Cargo. Relativamente ai Parametri di Processo, il valore massimo atteso di quasi tutti gli indicatori di performance riferiti alla “rapidità” con cui è trasmessa l’informazione è pari al 100%: questo significa che le imprese si attendono di eliminare i tempi di attesa per ricevere l’informazione grazie alle comunicazioni in real time fornite dall’Intelligent Cargo. In relazione alle Performance di Processo e agli Effetti di Business non si riscontrano delle tendenze omogenee di miglioramento all’interno delle categorie individuate date le specificità dei processi delle imprese e dei relativi obiettivi a livello di impresa. Tuttavia, vi è una certa tendenza, nelle Performance di Processo, a considerare dei possibili miglioramenti soprattutto nella categoria “Tempo per svolgere un’attività”. Negli Effetti di Business tale tendenza è relativa soprattutto nella riduzione dei valori dell’indicatore “Costo del lavoro”. In conclusione, la tesi ha apportato un contributo innovativo alla ricerca in quanto ha risposto a due importanti domande di ricerca aperte relative allo studio degli impatti delle applicazioni innovative ICT per i trasporti e la logistica: - la definizione di un modello per valutarne gli impatti; - la realizzazione di uno studio empirico che quantificasse i benefici. Un nuovo modello definito “Three Pillars’ Model” in grado di superare i limiti dei precedenti approcci metodologici è stato proposto ed applicato con successo. Lo studio empirico è stato condotto in relazione ad un’innovazione ICT per i trasporti e la logistica, ovvero l’Intelligent Cargo. Lo studio potrà continuare confrontando i benefici attesi individuati con quelli reali e commisurandoli anche con il prezzo di mercato dell’innovazione. Nel lungo periodo, si potrebbero individuare in modo più approfondito gli impatti anche a livello di Business Process Reengineering per individuare eventuali cambiamenti nei Business Model delle imprese. L’indagine potrebbe essere estesa anche ad altre tipologie di impatti come quella sull’ambiente, sulla sostenibilità, su safety e security. Inoltre, si potrebbe approfondire anche l’analisi dell’Intelligent Cargo come innovazione indagandone la forma di mercato, le barriere all’entrata e la domanda attesa per riuscire a catturare valore dall’innovazione in modo che essa non rimanga solamente un’idea.
XXIII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
7

Della, Puppa Marco. "I driver del Global logistics network design nel legame economia, trasporti e logistica - aspetti teorici e casi applicativi." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/6001.

Full text
Abstract:
2009/2010
La tesi di dottorato si sviluppa avendo come punto di partenza un filone secondo il quale la ricerca scientifica nelle discipline del logistics management e dell’economia spaziale procede autonomamente facendo si che i due ambiti di ricerca risultano essere slegati pur essendovi alcuni elementi che li accomunano; per questo motivo viene proposta una agenda di ricerca finalizzata all’integrazione delle due al fine di creare un nuovo sistema di supporto alle decisioni per le politiche logistico/trasportistiche in capo al pianificatore pubblico. Più in particolare è posto l’accento principalmente su due specifici problemi di ricerca aperti dei quali il primo può essere considerato funzionale al secondo. In quest’ottica se il primo è volto all’ulteriore approfondimento dei principali driver firm level che stanno alla base delle configurazioni oggi assunte dalle reti logistiche globali (global logistics network design), l’altro filone è finalizzato allo sviluppo di nuovi modelli interpretativi dei legami tra la logistica in un’ottica aggregata (che supera quindi la visione puramente micro a favore dei livelli meta e macro) e l'economia regionale/spaziale. In altre parole essendo il logistics management focalizzato sulle dinamiche dell’impresa, la sfida proposta consiste nel capire ancora meglio le dinamiche logistico-trasportistiche micro indotte dai recenti fenomeni di globalizzazione in modo da poter elaborare, in step successivi, modelli logistici aggregati (meta e macro appunto, quali possono essere ad esempio quelli distrettuale/locale e regionale) che possano essere utili a meglio comprendere quale è il ruolo della logistica (e del logistics network design più precisamente), come evoluzione del trasporto, nell’ambito delle relazioni economiche a livello spaziale e quindi nella spatial economics. La tesi si è inserita all'interno del primo dei due ambiti di ricerca individuati, ossia quello finalizzato all'ulteriore approfondimento delle tematiche attinenti i trasporti e la logistica facendo particolare riferimento ai driver, cioè alle forze che determinano l'evoluzone globale della logistica, nonchè ai connessi aspetti decisionali e comportamentali che stanno alla base delle attuali configurazioni di logistics network design. Più in particolare obiettivo specifico della tesi è verificare, attraverso l'analisi di una serie di casi studio, quali sono i driver sottostanti i processi decisionali e comportamentali che hanno portano al (ri)disegno dei network logistici considerati. Dal punto di vista metodologico il lavoro si articola in quattro parti. Nella prima parte, muovendo da un’analisi della letteratura scientifica, sarà preso in esame il legame trasporti, logistica ed economia ed esplicitato perchè è opportuno progredire nella sua conoscenza sia a fini positivi che normativi. Per quanto riguarda la finalità positiva di approfondimento della conoscenza del legame, partendo dalla disamina di ciò che accomuna i trasporti e la logistica (come evoluzione del trasporto) con l'economia regionale/spaziale, sono analizzati i processi di evoluzione dei trasporti con particolare riferimento all'evoluzione del concetto di "costo del trasporto" ed esplicitati i punti di vista (gli approcci) dai quali il legame può essere analizzato. In relazione alla seconda, quella normativa, si va invece a verificare come una più approfondita conoscenza del legame economia-trasporti-logistica oltre alla finalità di arricchimento scientifico ha anche un risvolto normativo, ossia si configura quale elemento utile ai soggetti chiamati a pianificare le reti logistico-trasportistiche a livello territoriale. Nella seconda parte ci si concentra a livello micro e si entra nella c.d. black box della logistica prendendo in esame la letteratura sul logistics management. Più in particolare si va a vedere quali sono le principali problematiche logistico-trasportistiche generate dai recenti fenomeni di globalizzazione dell'economia, quali sono le forze (i driver) alla base dell'attuale evoluzione globale della logistica e più specificamente della (ri)configurazione globale dei network logistici. Nella terza parte del lavoro, ricorrendo ad un framework analitico che si basa su pecifiche metodologie proposte dal logistics management, vengono analizzati una serie di case study appartenenti sia al versante domanda che a quello dell'offerta logistico-trasportistica. Il framework applicato si sviluppa attorno due “sotto-metodologie” complementari che intendono descrivere i casi ponendosi in una prospettiva che abbraccia tanto le strategie e le soluzioni adottate in passato quanto quelle attuali in modo da evidenziare i processi di evoluzione delle configurazioni di network design implementate in risposta ai driver evolutivi. Più nello specifico la prima delle due “sotto-metodologie” si concretizza in uno schema di analisi dei processi e delle attività logistiche finalizzata alla ricostruzione della catena logistico-produttiva/supply chain nelle sue diverse componenti approvvigionamento, produzione e distribuzione; la seconda è invece finalizzata ad identificare le strategie, i modelli operativi e le pratiche operative (logistico-trasportistiche) contestualizzate rispetto l’ambiente in cui le imprese sono calate. Le evidenze emerse nella terza parte sono oggetto di elaborazione all'interno della quarta, quella il cui obiettivo (che è anche obiettivo della tesi) è fornire un contributo alla comprensione delle forze (cioè dei driver) che hanno determinato i processi di (ri)disegno delle reti logistiche globali. In altre parole ciò che si vuole ottenere è una maggiore chiarezza di quali sono i motivi che, in chiave del mantenimento o dell'accrescimento della competitività globale, hanno indotto una serie di imprese ad intraprendere dei percorsi di (ri)disegno delle proprie reti logistico-trasportistiche e di capire altresì quali sono le soluzioni logistico-trasportistiche concretamente implementate in risposta a tali forze.
XXII Ciclo
1975
APA, Harvard, Vancouver, ISO, and other styles
8

Salera, Antonio. "Policy evaluation e policy learning nella regione FVG: indicazioni dall' applicazione dell'approccio controfattuale alle politiche di sviluppo nel settore turistico della montagna marginale." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3628.

Full text
Abstract:
2008/2009
Il tema centrale del progetto di ricerca riguarda la valutazione delle politiche pubbliche regionali di sviluppo mediante l’introduzione di un approccio di tipo quantitativo; la valutazione è intesa come un processo di policy learning in grado non solo di stimare se e quanto un set di interventi sia stato efficace, ma anche di restituire capacità cognitiva ai soggetti interessati in vista di applicazioni future. In particolare, si vuole valutare l’applicabilità di metodologie statistiche consolidate in ambito valutativo, quali quelle afferenti al cosiddetto “approccio controfattuale” su tematiche scelte in coerenza con il Piano Unitario di Valutazione (PUV) della Regione FVG. Tale approccio ha il pregio di fornire stime robuste senza dover esplicitare la forma funzionale utilizzata, come accade, invece, nel caso di metodologie che si basano su modelli di stima parametrica - ad esempio, i modelli di regressione. Il lavoro, attraverso una ricognizione della letteratura esistente in materia, espone, innanzitutto, le motivazioni che spingono le pubbliche amministrazioni a dotarsi di sistemi di valutazione e pone in evidenza come, a livello di Unione Europea, soggetto istituzionale che ha spinto le Regioni a dotarsi di un piano di valutazione unitario per la politica regionale di sviluppo, non ci sia una visione univoca del concetto di valutazione. La “confusione concettuale” che ne deriva comporta distorsioni nella portata e nella fruizione delle evidenze che emergono dai singoli rapporti di valutazione generalmente realizzati nel caso di programmi di politica regionale di sviluppo. Tra tutti gli interventi pubblici oggetto di ricognizione la ricerca prende in esame il Docup Ob2, asse 4, misura 3: la misura consiste in un set di interventi (contributi, compartecipazione al costo) per la valorizzazione turistica del territorio alpino della cosiddetta “montagna marginale”. Essendo la partecipazione al programma su base volontaria, esiste un’elevata probabilità di autoselezione dei partecipanti. Di conseguenza, la metodologia scelta per la valutazione è il Difference in Difference design con assunto di parallelismo nei trend. L’analisi viene condotta sui 59 Comuni della montagna marginale del FVG, di cui 33 beneficiari di almeno uno degli interventi previsti dalla misura e 26 non partecipanti. La domanda valutativa a cui si cerca risposta è se e in che misura aver beneficiato dei contributi previsti abbia avuto un effetto sui flussi turistici nei comuni beneficiari, ovviamente in ottica controfattuale. Le variabili outcome oggetto di analisi sono la variazione annuale del flusso degli arrivi, delle presenze e la permanenza media. Dall’analisi emerge che l’aver partecipato al programma ha contribuito in modo significativo al contenimento del calo dei flussi turistici registrati dal 2000 al 2006. Infatti, sia per quanto riguarda gli arrivi turistici che le presenze turistiche e la permanenza media si osserva, nonostante il calo generalizzato che ha colpito il settore turistico regionale nel periodo in analisi, una riduzione significativa dei differenziali esistenti tra i Comuni che hanno beneficiato degli interventi e quelli che non hanno partecipato alla politica. Tuttavia, i risultati più importanti non riguardano soltanto le evidenze empiriche; l’analisi consente, infatti, di porre in evidenza quali siano i diversi limiti organizzativi e operativi che riducono l’efficacia della valutazione di policy in ambito regionale. I problemi attengono al coordinamento tra i diversi attori, alla frammentazione, incompletezza e instabilità dei sistemi di monitoraggio ed alla assenza di integrabilità tra fonti dirette e fonti indirette di dati. Nelle conclusioni si sottolinea come la valutazione d’impatto potrà essere significativamente applicata in futuro a condizione che: ­ l’Amministrazione Regionale sia in grado di configurare la valutazione come una fase del processo di programmazione; ­ a livello organizzativo, il committente e i gestori delle informazioni riescano a condividere l’obiettivo valutativo e ad impostare un percorso di armonizzazione delle banche dati esistenti e di predisposizione di sistemi di raccolta dati ad hoc, anche prendendo spunto dalla letteratura in materia. La Regione FVG, attraverso il Piano di Valutazione Unitario e il Piano di Monitoraggio Unitario, sembra dare una risposta che va in questa direzione.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
9

Bisiani, Thomas. "Archigrafia,tra architettura e parola." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3492.

Full text
Abstract:
2008/2009
La tesi indaga il rapporto originario tra architettura e parola attraverso una riflessione sulla scrittura archigrafica, ricollocata nel paesaggio della comunicazione contemporanea. In questo scenario eterogeneo e cacofonico, dominato dalla sistematica sovrapposizione di segni, linguaggi e significati, l’archigrafia grazie alle sue caratteristiche strutturali di concretezza e permanenza viene riscoperta prima, e verificata poi, ricomponendo a posteriori una geografia di contributi sia scritti che costruiti. Il percorso di ricerca è diviso in due parti: l’indagine si articola a partire dalle sperimentazioni delle avanguardie artistiche del ‘900 per comporre uno scenario teorico-critico che, stabilendo una possibile distinzione tra architettura e design, attribuisce all’archigrafia, nel percorso che porta dal moderno al contemporaneo, una dimensione progettuale autonoma. La seconda parte della tesi ricompone un atlante, che raccoglie e cataloga le esperienze significative in questo campo, individuando come area di indagine un corpus di progetti esemplari realizzati negli ultimi vent’anni.
XXII Ciclo
1974
APA, Harvard, Vancouver, ISO, and other styles
10

Riillo, Cesare Antonio Fabio. "Why do companies choose to be ISO 9000 certified and what is the relationship between certification and innovation? An empirical analysis for Luxembourg." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7422.

Full text
Abstract:
2010/2011
Quality is one important characteristic of products and services, but customers can find some difficulties in evaluating it. If information is not uniformly distributed (e.g. sellers have more information than buyers), trade can be difficult (Akerlof 1970). Certification, defined as the assurance that certain requirements are respected, is a possible mechanism to mitigate the asymmetric information. A typical example of certification is the university degree that assures of the fulfillment of academic requirements. This thesis focuses on the ISO 9000 certification, which assures that the quality management system respects the requirements of the ISO 9000 standards family. Having been adopted by more than 1.000.000 organizations in the world, ISO 9000 is a well-known family of standards based on Total Quality Management, a managerial approach aimed to improve quality and organization performance. Several studies investigated ISO 9000 focusing mainly on the manufacturing sector where ISO 9000 originated. However, over the last years, ISO 9000 has being increasingly adopted in service sector. The current study contributes to this research stream taking on both qualitative and quantitative methods to investigate the adoption and the impact of ISO 9000 certification in services. More precisely, the thesis focuses on two main research questions: Why do companies choose to be ISO 9000 certified? What is the relationship between ISO 9000 and innovation? The two research questions are investigated through the lens of the signaling model of education (Spence 1973, Weiss 1995). According to this framework, education can benefit the employee directly by increasing his expertise of an employee and by indirectly signaling his unobserved but relevant abilities (e.g. persistence). Similarly to education, ISO 9000 can improve organization performances and ISO 9000 certification can signal unobservable abilities of better companies. Some implications are drawn from this theoretical framework and they are tested using a dedicated dataset obtained by combining firm-level data from the Community Innovation Survey (CIS 2006) with the list of ISO 9000 certified companies from Mouvement Luxembourgeois pour la Qualité (MLQ). In the quantitative analysis, the decision of ISO 9000 certification is modeled within a discrete choice model. The quantitative analysis is integrated by a multiple-case study that considers both manufacturing and service companies rigorously selected with the Coarsened Exact Matching method. Addressing the first research question, the study focuses on the signaling effect of ISO 9000 certification. Results shows that companies seek for certification in order to signal to the market unobserved abilities only in specific contexts (e.g. when operating in international market). In addition, it appears that large companies are more likely to be certified than smaller companies. The quantitative analysis shows that the main motivation for certification is the requirements of business customers suggesting that certification is more effective in business to business market that than business to consumers. From a signaling point of view, it can be concluded that qualitative and quantitative findings are not in contrast but the hypothesis that ISO 9000 certification acts as signal is only partially supported. Addressing the second research question, the study suggests that management of quality and management of innovation are not conflicting. Even if distinguishing between organizational benefits and the signaling effect can be difficult, qualitative results shows that ISO 9000 certified companies are more likely to successfully introduce new products and services or new organization and marketing techniques. ISO 9000 certification is correlated with technological innovation (product and process) of manufacturing companies and with innovation of service sector companies when non-technological innovation is considered (organizational and marketing). The qualitative results suggest that ISO 9000 especially in recent versions is not hindering innovation. Reading together the results for both research questions, it appears that ISO 9000 could be a tool for policy-makers willing to improve innovation performance targeting specific groups of companies. Practitioners can better understand the features of firms for which the certification provides the best potential, also in terms of innovation. In this respect, management standards can be an effective tool to diffuse organizational skills among companies especially to companies that have less access to external managerial skills, like small companies. Additionally, the findings of the research can be interpreted as an example of the positive impact that standardization can have on innovation, in line with the policies of European Union that recognize standardization as a potential catalyst for innovation.
La qualità è una caratteristica importante di prodotti e servizi, ma gli acquirenti possono trovare alcune difficoltà nella sua valutazione. Nei caso che l’ informazione non sia uniformemente distribuita (ad esempio, chi vende ha più informazioni di chi compra), le transazioni possono essere difficili da realizzarsi (Akerlof 1970).La certificazione, definita come la garanzia che determinati requisiti sono rispettati, è un possibile meccanismo per mitigare l'asimmetria informativa. Ad esempio, la laurea é un tipico esempio di certificazione che assicura il rispetto dei requisiti accademici. Partendo da queste premesse, questa tesi studia la certificazione ISO 9000, che assicura che il sistema di gestione della qualità rispetti i requisiti della famiglia di standard ISO 9000. L’ ISO 9000, che trova origine nel Total Quality Management, un approccio manageriale volto a migliorare la qualità e le performances dell'organizzazione, è la piú nota famiglia di standards al mondo ed è adottata da più di 1.000.000 organizzazioni. Molte ricerche hanno studiato l’ ISO 9000, concentrandosi principalmente sul settore manifatturiero, ove l’ ISO 9000 ha avuto origine. Tuttavia, negli ultimi anni, ISO 9000 è sempre più adottato nel settore dei servizi. Il presente studio contribuisce a questo linea di ricerca adottando metodologie qualitative e quantitative per indagare l'adozione e l'impatto della certificazione ISO 9000 nel settore dei servizi. Più precisamente, la tesi si focalizza su i due seguenti quesiti: Perché le aziende scelgono di essere certificate ISO 9000? Qual è il rapporto tra ISO 9000 e l'innovazione? Le due domande sono studiate attraverso la lenti del modello di segnale sviluppato originariamente nella ambito degli studi sull’ istruzione (Spence 1973, Weiss 1995). In base a questo approccio teorico, l'istruzione può beneficiare il lavoratore sia aumentandone il capitale umano sia segnalando abilità inosservate, ma rilevanti (es. persistenza). Si ipotizza che in maniera simile all’ istruzione, l‘ ISO 9000 può migliorare le prestazioni aziendali di per sé e la certificazione ISO 9000 sia in grado di segnalare abilità inosservabili delle aziende. Alcune implicazioni tratte da questo quadro teorico sono state verificate su un set di dati ottenuto combinando i dati lussemburghesi a livello di impresa della Community Innovation Survey (CIS 2006) e l'elenco delle aziende certificate ISO 9000 del Mouvement Luxembourgeois pour la Qualité (MLQ). La decisione di certificazione è modellata quantitivamente in un modello a scelta discreta. L'analisi quantitativa è poi integrata dallo studio di casi indagando alcune imprese manifatturiere e di servizi opportunamente selezionate sulla base del Coarsened Exact Matching. Affrontando il primo quesito, la tesi si concentra sugli effetti di segnale della certificazione ISO 9000. I risultati quantitativi suggeriscono che le aziende si certificano al fine di segnalare al mercato capacità difficilmente osservabili in contesti specifici (ad esempio, quando opera sui mercati internazionali). Inoltre, lo studio quantitativo mostra che le imprese piú grandi hanno maggiore probabilità di essere certificate rispetto alle aziende più piccole. Lo studio di casi mostra che le aspettative della clientela sono il motivo principale per certificarsi e che le aziende sono più sensibili alla certificazione ISO 9000 rispetto a consumatori suggerendo che la certificazione è più efficace nel mercato Business to Business. In una ottica di segnale, si può concludere che i risultati quantitativi e qualititativi non sono in contrasto ma l'ipotesi che la certificazione ISO 9000 agisca da segnale è solo parzialmente supportata. Riguardo al seconda quesito, i risultati della tesi sembrano suggerire che la gestione della qualità e gestione dell'innovazione non sono in conflitto. Anche se distinguere tra effetto organizzativo e effetto di segnale non è agevole, i risultati qualitativi mostrano che le aziende certificate sono ,generalmente più propense a introdurre con successo nuovi prodotti e servizi o nuovi tipi di organizzazione e tecniche di marketing. Piú precisamente, la certificazione ISO 9000 è correlata con l'innovazione tecnologica (di prodotto e di processo) delle aziende manifatturiere e con l'innovazione delle imprese del settore dei servizi, quando l'innovazione non tecnologica è considerato (organizzative e di marketing). I risultati qualitativi suggeriscono che l’ ISO 9000, soprattutto nelle versioni più recenti, non è ostacola l'innovazione. Complessivamente, appare che ISO 9000 può essere un valido strumento per i policy makers che desiderano migliorare l' innovazione di specifici tipi di aziende. Inoltre, gli operatori del settore possono comprendere meglio le caratteristiche di imprese per le quali la certificazione fornisce il miglior potenziale, anche in termini di innovazione. In questo senso, standards di gestione possono essere uno strumento efficace per diffondere capacità organizzative tra le imprese, in particolare tra le aziende che hanno meno accesso a competenze manageriali esterne, come le piccole e imprese. Complessivamente, i risultati presentati nella tesi possono essere interpretati come un esempio di impatto positivo che la standardizazione può avere sull'innovazione, in linea con le politiche dell'Unione Europea che riconoscono la standardizzazione come potenziale catalizzatore per l'innovazione.
XXIII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
11

Saule, Francesca Romana. "Infrastrutture, prezzi e regolamentazione dei mercati del gas naturale." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4562.

Full text
Abstract:
2009/2010
Lo scopo della presente ricerca è quello di investigare le interdipendenze di prezzo tra i diversi mercati, con particolare attenzione agli impatti che le infrastrutture fisiche e il loro funzionamento hanno avuto sulla struttura di dipendenza della dinamica dei prezzi relativamente al caso Transitgas. A partire dall’analisi dei Day Ahead Prices sulle principali Borse Europee impattate dalla chiusura del gasdotto (APX-Olanda, EEX-Germania e PSV- Italia), e dalle simulazioni di possibili scenari di aumento di capacità gas per il PSV, sono state tracciate le principali problematiche del Sistema Gas Nazionale nell’ambito di organizzazione, regolamentazione e pricing, proponendo nel contempo alcune direttrici ed azioni di intervento per risolvere le principali criticità, attraverso: 1).la presentazione di un quadro completo e sistemico della letteratura; 2). la valutazione degli aspetti più importanti della regolamentazione del settore identificandone le principali fonti di rischio presenti nel mercato (AEEG, 2008); 3). l’analisi dei modelli esistenti della liberalizzazione nel mercato del gas (Fiorenzani, 2009) ed il relativo studio dei meccanismi di funzionamento dell’industria del gas naturale; 4). la comprensione delle modalità di determinazione delle tariffe e dei meccanismi di pricing all’interno della business supply chain del gas naturale (Portatadino, 2004); 5). l’individuazione e la scelta delle soluzioni idonee a dare liquidità, competitività e flessibilità al mercato scegliendo quale modalità di trasporto sia più efficiente ed efficace (AIEE, 2006). Sono state individuate alcune previsioni e prospettive sul mercato del gas Italia (possibili scenari e trend) per orientare gli investimenti e sapere come devono muoversi gli operatori per evidenziare quali sono gli elementi necessari per sviluppare il mercato, brevemente: a). presenza di un hub che sia in grado di concentrare la liquidità commerciale; b). presenza di una borsa del Gas Italiana (P-Gas) per aumentare la liquidità, la flessibilità di sistema e ridurre i prezzi; c). presenza di maggiori infrastrutture (potenziamento gasdotti o GNL); d). evoluzione dello stoccaggio strategico. Sono state formulate inoltre ipotesi di linee guida per operare con successo e sfruttare tutte le opportunità all’interno della complessa filiera gas: riduzione contratti take or pay con diversificazione delle fonti di approvvigionamento; assetto di mercato favorevole alla concorrenza; gas release pluriennali che inducano un comportamento di offerta concorrenziale condizione fondamentale perché la futura Borsa Gas possa produrre suoi benefici effetti.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
12

Grion, Anna. "Martiani Capellae De Nuptiis Philosopiae et Mercurii liber VII. Introduzione, traduzione e commento." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/9141.

Full text
Abstract:
2011/2012
La tesi verte sul settimo libro del De Nuptiis Philologiae et Mercurii del cartaginese Marziano Capella, dedicato all'aritmetica. Il lavoro presenta il testo latino, stabilito sulla base delle edizioni critiche esistenti, la traduzione e puntuali note di commento di tipo filologico e contenutistico. L'introduzione fornisce un inquadramento del libro all'interno dell'opera e presenta le fonti e i caratteri dell'Aritmetica di Marziano.
XXV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
13

Visentini, Sara. "Problemi di trasmissione e ricezione della letteratura greca nei 'papiri scolastici' di età ellenistica e romana." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10008.

Full text
Abstract:
2012/2013
Questo lavoro si concentra sull’analisi dei papiri di età ellenistica e romana nei quali ho individuato ‘libri di scuola’, che contengono passi di letteratura greca e che sono riconducibili all’istruzione superiore. I ritrovamenti papiracei e i più recenti contributi nei congressi di papirologia (Cassino nel 1996 e nel 2004, Salamanca nel 2008) dimostrano come nella comunità scientifica il tema dell’istruzione sia sempre vivo. Gli studi di Guglielmo Cavallo sulla readership, gli apporti di Lucio Del Corso sulle pratiche didattiche antiche e gli studi sulla scuola condotti da Raffaella Cribiore hanno avuto il merito di provocare nuovi spunti di riflessione su temi di grande interesse per la ricostruzione della cultura dei milieux di livello medio-alto nell’Egitto greco e romano. Come testimoniato dai papiri, l’aumento dell’alfabetizzazione e del commercio librario in epoca romana nelle aree urbane, ma non solo, provano che qualche forma di letteratura veniva diffusa a scuola e circolava anche al di fuori di essa. Lo studio del testi di scuola di livello superiore offre un contributo considerevole alla nostra conoscenza sul pubblico dei lettori e dei redattori di questi sussidi per lo studio. Il dossier dei ‘libri di scuola’ raccoglie i frammenti che contengono differenti tipologie di passi letterari più o meno brevi. La raccolta si compone di 158 papiri.
XXVI Ciclo
1972
APA, Harvard, Vancouver, ISO, and other styles
14

Montagner, Emanuele. "Il culto di Apollo Carneo." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3496.

Full text
Abstract:
2008/2009
L'importanza e l'interesse dell’argomento di questa tesi di dottorato discendono dalla centralità che il culto di Apollo Carneo aveva nell'ambito della religione e della società spartana, esemplificata dal modo in cui la festività ad esso connessa poteva incidere sull’andamento di alcuni eventi bellici fondamentali nella storia greca. Il culto di Apollo Carneo, infatti, era diffuso nella maggior parte delle poleis greche doriche ed era particolarmente sentito a Sparta. Esso comportava l’astenersi dalle guerre per tutta la durata della festa. Si possono individuare le conseguenze di tale divieto in alcuni passi di Erodoto e di Tucidide: gli Spartani non giunsero in aiuto degli Ateniesi nella battaglia di Maratona perché dovevano attendere la fine delle celebrazioni delle Carnee prima di partire (Hdt. VI 106,3); gli Spartani inviarono alle Termopili un piccolo contingente agli ordini di Leonida proprio perché in quel periodo si svolgevano le Carnee e non poteva essere inviato tutto l’esercito (Hdt. VII 206); nel corso della guerra del Peloponneso gli Spartani interrompevano l’attività bellica durante la celebrazione delle Carnee, mentre gli Argivi cercarono, con un artificio nel computo dei giorni, di rimandare l’inizio del mese Carneo, mese sacro ai Dori secondo Tucidide, per poter concludere un’incursione nel territorio di Epidauro (Thuc. V 54; V 75; V 76,1). Da questi esempi si evince chiaramente come lo studio del culto di Apollo Carneo non possa essere considerato come un mero studio di erudizione sulle peculiarità della religione greca, ma investa invece gli aspetti fondamentali della società spartana (oltre che della colonia di Thera, della sub-colonia di Cirene e delle altre città interessate dal culto), al punto che numerosi studiosi si sono cimentati nell’interpretazione del significato delle Carnee. Adler, però, conclude la voce Karneios della Real Encyclopedie der Classischen Altertumswissenschaft in modo piuttosto sconsolato: “Jedenfalls liegt die Ausbreitungsgeschichte des Kultes nach dem Erscheinen des neuen Materials mehr im Dunkel als vorher”. In seguito sono stati pubblicati numerosi studi importanti ed illuminanti, ma il quadro complessivo della festa rimane ancora incerto e contraddittorio. Il presente progetto di ricerca, pertanto, intende sì offrire una raccolta completa delle testimonianze sul culto di Apollo Carneo, comprese le più recenti acquisizioni epigrafiche, numismatiche ed archeologiche, ma intende soprattutto trattare l’argomento da un punto di vista diverso. L’impostazione sottesa alla tesi, infatti, non prevede l’utilizzo indistinto di tutte le testimonianze, di qualsiasi periodo, per tracciare un quadro generale ed onnicomprensivo del culto, valido per tutte le epoche, bensì contempla un approccio diacronico che consenta di riconoscere gli influssi e i cambiamenti che di volta in volta il contesto politico, sociale e culturale ha imposto. Il tentativo, insomma, è di tracciare un quadro dell’evoluzione storica di questa festività, adottando, ove possibile, un criterio ‘stratigrafico’ nell’analisi dei testi sulle Carnee. Il primo capitolo comprende una rassegna delle numerose interpretazioni del culto: esse considerano Apollo Carneo un’originaria divinità della vendemmia oppure un dio-ariete, legato ad una festa di pastori; pongono un più marcato accento sui riti di purificazione ed espiazione e sul collegamento con la caccia e con la preparazione per la guerra o sottolineano la prevalenza del carattere iniziatico della festa. Per la maggior parte degli studiosi nella festa si può individuare uno strato più antico, che riguarda il culto della natura per pastori e contadini, e uno strato più recente, in cui prevale l’aspetto militare, introdotto dai Dori. Le posizioni emerse negli ultimi anni tendono a valorizzare maggiormente l’aspetto militare del culto, il legame con la migrazione e la conquista dorica. Nel secondo capitolo le tradizioni sulle origini delle Carnee sono catalogate secondo due criteri: quello cronologico e quello tematico. Nella prima parte sono analizzate in ordine cronologico tutte le fonti letterarie che si riferiscono al mito eziologico delle Carnee. La testimonianza più antica risale al VII secolo a.C., ad Alcmane, a cui lo scolio 83a all’Idillio V di Teocrito attribuisce un frammento in cui viene citato Karnos, mentre gli autori più tardi sono Nonno ed Esichio. Il dato più significativo è costituito proprio dall’ampio arco cronologico (si va dal VII secolo a.C. al V-VI d.C.) e dall’estrema varietà delle informazioni desumibili dalle fonti: in taluni casi risulta difficile combinare in un unico contesto festivo e cultuale tutti i dati a nostra disposizione. Si è deciso, perciò, di adottare nella prima parte del secondo capitolo un criterio ‘stratigrafico’, ovvero un approccio diacronico che consenta di riconoscere gli influssi del contesto politico, sociale e culturale sull’evoluzione storica di questa festività. Tale modo di accostarsi al problema delle fonti, inoltre, ben si accorda con l’immagine, ormai unanimemente accettata negli studi specialistici, di una Sparta che muta nel corso del tempo e non rimane sempre uguale a se stessa. La seconda parte del capitolo, invece, prende in considerazione le medesime fonti seguendo un criterio tematico, in modo da definire chiaramente i tre nuclei tematici intorno ai quali raggruppare le testimonianze. Il primo spiega l’origine del culto di Apollo Carneo richiamandosi all’ambito della spedizione di Troia (Alcmane, Demetrio di Scepsi, Pausania e lo scolio a Teocrito V 83 d); il secondo si rifà al cosiddetto ritorno degli Eraclidi (Teopompo, Conone, Pseudo-Apollodoro, Pausania, scoli a Teocrito V 83c-d e scoli a Callimaco, Inno ad Apollo 71); il terzo fa discendere Karnos da Zeus ed Europa (Prassilla, Pausania ed Esichio). Il terzo capitolo, sulle manifestazioni locali del culto, costituisce il nucleo centrale della tesi. Nella prima sezione vengono trattati gli aspetti del culto per i quali non si può individuare una provenienza locale ben definita: l’iconografia e la collocazione della festa nel calendario. Nel paragrafo sull’iconografia viene evidenziato il legame con il culto del Carneo di alcune erme laconiche che raffigurano un ariete e di una stele alla cui sommità è scolpito in bassorilievo un paio di corna di ariete. Allo stesso tempo, però, viene messa in dubbio la possibilità che il tipo monetale che ritrae una testa giovanile con corna e, talvolta, orecchie di ariete rappresenti Apollo Carneo. Tali monete provengono da numerosi centri della madrepatria e delle colonie greche, tra i quali – ciò che più conta ai fini dell’interpretazione – molte località non doriche (ad esempio Metaponto, Tenos, Aphytis, ecc.). Tra le altre identificazioni proposte dagli studiosi, la più plausibile sembra essere quella con Zeus Ammone. La parte più ponderosa del terzo capitolo riguarda l’analisi delle manifestazioni del culto a Sparta, Tera, Cirene e Cnido, da cui proviene una quantità di dati sufficiente ad analizzare con una certa sistematicità le testimonianze relative al Carneo. In ogni capitolo vengono esaminati l’eventuale localizzazione topografica dei santuari di Apollo Carneo, le attestazioni di agoni (musicali e/o atletici) all’interno delle Carnee, i riti connessi al culto, l’esistenza di sacerdozi del Carneo. Per molti aspetti la scarsità e la natura eterogenea della documentazione, sia tra una città e l’altra sia all’interno di una stessa città, rendono difficile proporre un’interpretazione complessiva del culto. L’esempio di Cirene è emblematico: le fonti letterarie attestano con certezza l’esistenza e l’importanza del culto di Apollo Carneo, soprattutto in relazione alla fondazione della città, mentre la documentazione archeologica, che pure è singolarmente abbondante per Cirene, non ci consente di localizzare gli eventuali santuari del dio all’interno della città. Il quarto capitolo raccoglie le altre testimonianze del culto che ne attestano la diffusione in ambito dorico. Le località per le quali possediamo una documentazione sufficientemente consistente sono Cos, Lindo e Camiro, Messene e Andania. In conclusione, se sembra difficile proporre un’interpretazione totalizzante, che colleghi tutti gli elementi del culto in un sistema “où tout se tient”, si possono, però, individuare alcuni caratteri comuni alle diverse manifestazioni del culto. Innanzitutto le associazioni del Carneo con determinate divinità (Era, Ilizia, Artemide, i Dioscuri) connesse all’educazione dei giovani e il rito della staphylodromia fanno intravedere un ruolo del dio nella formazione e nell’inserimento dei giovani tra i cittadini a pieno titolo, ma non, a mio parere, un inquadramento strutturale del culto nel sistema iniziatico spartano. In secondo luogo il culto e la festa avevano una forte caratterizzazione ‘politica’, in cui tutti gli elementi costitutivi dell’identità e dell’ideologia del gruppo – soprattutto, da un certo momento in poi, l’elemento dorico – erano enfatizzati.
XXII Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
15

D'Amelio, Diego. "Ritratto di un'élite dirigente. I democristiani di Trieste 1949-1966." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/30670.

Full text
Abstract:
2009/2010
Questa tesi di dottorato si pone l’obiettivo di ricostruire la vicenda e il profilo del ceto dirigente politico-amministrativo espresso dalla Democrazia cristiana di Trieste, dal dopoguerra alla metà degli anni Sessanta. L’élite democristiana viene qui assunta come caso di studio: l’attenzione alla dimensione locale punta a contribuire, più generalmente, all’analisi storiografica rivolta negli ultimi anni alle classi dirigenti repubblicane; al ruolo dei partiti nella transizione tra fascismo e democrazia; al funzionamento dei meccanismi di rappresentanza e di integrazione fra centro e periferia. La tesi presenta linee interpretative e spunti metodologici innovativi, resi possibili da un approccio interdisciplinare che unisce storia e scienze sociali (statistica e sociologia). Il testo è diviso in due sezioni: la prima ripercorre la parabola della DC e del movimento cattolico politico di Trieste, la fase di formazione dei suoi protagonisti, le ragioni del consenso e il progetto di fondo perseguito. La seconda parte definisce in termini sociologici il profilo dell’élite – età, provenienza, studi e professione – considerando nel contempo estrazione sociale, preparazione, canali di reclutamento, fattori di legittimazione, risultati elettorali, schieramenti correntizi, ruolo degli istriani (insieme bacino di consenso e serbatoio di classe dirigente), processi di occupazione del «potere», ricambio politico-generazionale e sviluppo delle carriere. Informazioni dettagliate sono state raccolte su un campione di circa 200 persone, ovvero su coloro i quali diedero forma alla classe dirigente cattolica nell’arco cronologico prescelto. Questi elementi ricoprirono ruoli decisionali – con gradi di responsabilità diversi – nello scudo crociato, nelle realtà elettive e in quelle di nomina politica: la ricerca ha permesso di ricostruirne fisionomia socio-anagrafica, presenze negli enti locali e negli organi di partito, schieramento correntizio e reticoli collaterali. Sui detentori degli incarichi più rilevanti, circa 70 persone, è stata inoltre avviata una più approfondita analisi delle biografie e delle carriere. Le fonti utilizzate sono numerose: archivio provinciale del partito (recentemente messo a disposizione dall’Istituto Sturzo e mai utilizzato sistematicamente prima d’ora), stampa, anagrafe, archivio comunale e diocesano, fondi personali, memorialistica e interviste. La codifica e l’esame dei dati ha consentito di realizzare a supporto dell’esposizione circa 20 tabelle e oltre 70 biografie, contenute in due appendici poste alla fine del volume. Il testo mette in luce il quadro d’insieme del ceto democristiano: la composizione degli organismi elettivi e di partito, le caratteristiche individuali e di gruppo dell’élite, il rapporto tra militanza e ruoli pubblici, il profilo delle correnti e le proporzioni della geografia politica interna, il seguito elettorale, le forme di collateralismo (Azione cattolica, ACLI, sindacato e associazionismo istriano), le biografie e il processo di costruzione della nuova leadership. Particolare attenzione è stata prestata agli aspetti generazionali e correntizi: ciò ha consentito di mettere in connessione età, formazione e progetto politico; valutare il peso specifico delle singole correnti nel partito e negli enti; analizzare i criteri di suddivisione dei vari incarichi e i processi di ricollocamento prodotti dalla nascita di nuove tendenze. Si tratta di un approccio in parte inedito, generalmente non utilizzato in lavori simili a questo, ma allo stesso tempo fondamentale per fornire nuove chiavi di lettura alla storia politica e per avvicinarsi con rigore a un’organizzazione strutturata come la Democrazia cristiana. Il lavoro ha cercato infine, quando possibile, di assumere una prospettiva comparativa, per paragonare il contesto locale ai meccanismi funzionanti a livello nazionale e in altre aree del paese, individuando così uniformità e sfasamenti generazionali e politici. Il metodo utilizzato in questa sede è ormai affinato e potrebbe essere applicato alla DC triestina degli anni successivi, ai diversi partiti del teatro giuliano, a gruppi dirigenti cattolici di altre città oppure al livello nazionale dello scudo crociato e delle istituzioni, su cui le informazioni sono peraltro ben più abbondanti. Il sistema messo a punto permetterebbe infine di essere utilizzato – con gli adattamenti del caso – anche sulle più recenti generazioni politiche. I vantaggi che questi sviluppi promettono per un approccio comparativo sono evidenti. In conclusione, la tesi ricostruisce le vicende e le caratteristiche di un’élite periferica, affermatasi in assenza di una tradizione politico-culturale precedentemente radicata e capace di governare Trieste dal dopoguerra alla fine degli anni Settanta. Il testo prende in esame la formazione, l’affermazione, i progetti, le scelte e le linee politiche di due differenti generazioni di cattolici, influenzate inevitabilmente dalla peculiare situazione del confine orientale e dalla necessità di ripensare la dimensione del confine, dopo la stagione liberal-nazionale e il fascismo. In un primo momento la Democrazia cristiana si assicurò il consenso, assumendo la responsabilità della «difesa dell’italianità» e dell’anticomunismo, in un territorio sottratto alla sovranità dello Stato, sottoposto ad amministrazione anglo-americana e oggetto di una dura contesa ideologica e statuale. Dopo il 1954 una nuova leva sostituì il ceto dirigente degasperiano, impegnandosi nel superamento dell’emergenza e nella «normalizzazione» della politica, dell’amministrazione, dell’economia e dei rapporti fra italiani e sloveni, nell’ambito del centro-sinistra. La DC giuliana propose insomma una strategia in due tempi, riassunta dalla storiografia con la formula di «cattolicesimo di frontiera»: esso fu impostato nel dopoguerra, venne radicalmente aggiornato dopo il ritorno all’Italia e si concluse alla fine degli anni Settanta, davanti alle reazioni suscitate dal trattato di Osimo. Tale periodo corrispose a importanti evoluzioni del quadro nazionale, con il superamento del centrismo e la maturazione dei fermenti di rinnovamento all’interno del mondo cattolico italiano. L’analisi dei nodi descritti è accompagnata dall’indagine sulle concrete ricadute della svolta politica e generazionale, avvenuta nel 1957, prima nel partito e di riflesso nell’ambito elettivo. L’ascesa della corrente di Iniziativa democratica e poi dell’area «doro-morotea» produssero infatti significative modifiche della linea e del personale politico, che corrisposero peraltro alla costruzione dell’egemonia democristiana nello spazio pubblico, grazie al definitivo controllo degli enti locali, della Regione autonoma a Statuto speciale e all’elezione dei primi deputati nel 1958. L’esame dei meccanismi di occupazione dei principali gangli dell’amministrazione è supportata dai dati statistici raccolti, i quali ben evidenziano le caratteristiche socio-anagrafiche, le reti di relazione e le dinamiche di potere che contraddistinsero il ceto politico democristiano di Trieste.
Introduzione Il panorama 9 Il dialogo fra storia e scienze sociali 14 Costruire le basi per una biografia collettiva 17 Le motivazioni di una proposta metodologica 22 Ringraziamenti 29 Sezione 1 Difesa nazionale e «normalizzazione». Il ceto dirigente cattolico nel dopoguerra triestino Antonio Santin, Edoardo Marzari e la «vecchia guardia»: la preparazione del domani 31 La difesa dell’italianità e la costruzione del consenso 56 Uomini nuovi: «normalizzazione» ed egemonia democristiana 77 Il progetto della terza generazione 104 Sezione 2 Correnti, generazioni e potere nella Democrazia cristiana di Trieste (1949-1966) La Democrazia cristiana, gli altri partiti e la prova del voto 126 Il nuovo corso della DC. Il «cambio della guardia» del maggio 195 140 Le correnti. Composizione e assetto del motore politico democristiano 158 Il Comune e la Provincia. Le ricadute istituzionali del «cambio della guardia» 176 L’«imprenditore politico». La Regione e il parlamento 195 La costruzione dell’egemonia. Gli enti di secondo grado 201 La creazione di un’élite. I processi di ricambio e le carriere 211 Conclusioni 253 Appendice A - Le tabelle 276 Appendice B - Le biografie 300 Abbreviazioni 464
XXII Ciclo
APA, Harvard, Vancouver, ISO, and other styles
16

Girardelli, Martina, and Martina Girardelli. "Ricerca di nuove varianti geniche associate alle malattie infiammatorie croniche intestinali." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10849.

Full text
Abstract:
2013/2014
2013/2014
Le malattie infiammatorie croniche intestinali (MICI), sono un gruppo di malattie eterogenee ad eziologia multifattoriale. Sono caratterizzate da uno stato infiammatorio a carico della mucosa del tratto gastrointestinale e comprendono il Morbo di Crohn (MC), la Rettocolite ulcerosa (RCU) e la Colite indeterminata (CI) i cui quadri istopatologici differiscono tra loro per tipo di lesione, localizzazione della malattia e complicanze associate. Le MICI insorgono tipicamente durante l’adolescenza o in età adulta come il risultato della combinazione di tutti i fattori predisponenti che concorrono in egual misura nella determinazione della malattia. L’insorgenza delle MICI può avvenire anche in età molto precoce, entro i 10 anni ma anche entro i 2 anni e in maniera ancora più grave. In questi casi di esordio precoce si ipotizza che il peso maggiore sia da attribuire alla componente genetica piuttosto che a fattori ambientali e microbici. Solitamente i pazienti con esordio precoce sono caratterizzati da un fenotipo malattia più severo e difficilmente controllabile con le terapie convenzionali. Per gli aspetti differenti che si osservano in termini di predisposizione, caratteristiche fenotipiche, fattori coinvolgenti e geni interessati, le MICI possono essere contestualizzate da una parte come malattie multifattoriali e dall’altra come patologie “monogeniche". Nel contesto della multifattorialità, i numerosi studi di associazione son stati importantissimi in quanto hanno individuato numerosi geni relativi a distinte pathway (barriera intestinale, regolazione dell’immunità innata dell’epitelio, autofagia, sistema fagocitario e stress) coinvolte nella patogenesi delle MICI (ad oggi 163 loci). Nel lavoro di dottorato l’attenzione e l’interesse si è focalizzato sullo studio delle MICI ad insorgenza precoce e uno dei primi obiettivi della tesi è stato quello di indagare in 36 pazienti pediatrici, geni noti dalla letteratura per essere associati alla malattia (NOD2, ATG16L1, IL23R, IL10, IL10RA, IL10RB e XIAP), con il fine di identificare una possibile correlazione genotipo-fenotipo. Anche se non è stato possibile identificare un unico filo conduttore che ci ha permesso di correlare il fenotipo dei pazienti ai genotipi individuati, sono state identificate nuove varianti missenso e introniche. Tutte le varianti individuate sono state analizzate da un punto di vista bioinformatico per valutare la predizione di patogenicità: in base alle predizioni ottenute l’attenzione si è focalizzata su due varianti nel gene NOD2 sulle quali sono stati allestiti saggi funzionali per valutare il loro impatto sulla corretta sintesi e funzionamento della proteina. Un importante dato che emerge sempre più spesso dalla letteratura è l’evidenza che lesioni infiammatorie a carico del tratto gastrointestinale e il fenotipo tipico delle MICI, possono presentarsi molto precocemente (entro i 2 anni di vita) come prime o a volte anche come uniche manifestazioni cliniche in un contesto patologico più ampio che sottende allo sviluppo di gravi immunodeficienze (MICI-like). In questi casi le mutazioni a carico del gene malattia sono molto rare e generalmente considerate come mutazioni “private” e causative del fenotipo malattia che si osserva. Nell’ambito delle MICI in un contesto che possiamo definire monogenico, sono stati analizzati pazienti pediatrici con una sintomatologia MICI-like mediante analisi di sequenza di nuova generazione “Whole Exome Sequencing (WES)”. Sono state ricercate specificamente mutazioni in un determinato set di geni accuratamente selezionati (60 geni) in quanto responsabili di patologie monogeniche che presentano, all’esordio della malattia, una sintomatologia MICI-like. L’obiettivo è quello di riuscire ad effettuare in tempi rapidi l’identificazione di mutazioni in specifici geni malattia, per permettere al clinico di diagnosticare altrettanto rapidamente la malattia e poter intraprendere la terapia più adeguata e specifica per ciascun paziente. Così come sono state individuate numerose varianti presenti nei database e note per la loro associazione alle MICI, sono state identificate anche nuove varianti, mai descritte prima in letteratura. Alcune varianti sono state analizzate con saggi funzionali in vitro in modo da poter comprendere il rispettivo effetto sulla proteina. Per testare l’effetto della variante intronica rs104895421 (c.74-7T>A), situata a monte dell’esone 2 del gene NOD2, è stato allestito il saggio del minigene ibrido. L’esperimento ha messo in evidenza che tale sostituzione nucleotidica altera il corretto funzionamento del meccanismo di splicing, provocando, anche se non con una efficienza del 100% l’esclusione dell’esone. Nel contesto di MICI come malattie monogeniche, sono state individuate due importanti mutazioni, in due pazienti con sintomatologia MICI-like ad esordio molto precoce. La prima è una mutazione, ovvero una delezione di due nucleotidi, identificata nel gene XIAP (c.1021_1022delAA fs p.N341fsX7). Questa delezione determina la sintesi di una proteina tronca provocando un’alterazione strutturale della proteina che ne la funzionalità. Il risultato di tale lavoro ha permesso al clinico di fare finalmente la corretta diagnosi e il paziente è stato curato grazie ad un trapianto di midollo. La seconda mutazione degna di interesse è una mutazione missenso identificata in omozigozi nel gene NOD2 (c.G1277A p.R426H), in seguito all’analisi dell’esoma. Dalle indagini funzionali si evince che tale mutazione altera il normale funzionamento del recettore intracellulare NOD2, e quindi potrebbe spiegare il fenotipo malattia osservato nel giovane paziente (“gain of function”). In questo caso, il confronto con il clinico, in base alle evidenze ottenute dai test eseguiti, deve ancora avere luogo ma sarà di fondamentale importanza per fare una diagnosi e iniziare la terapia idonea. Questa tesi ha incrementato, seppur con piccoli tasselli, le conoscenze riguardo alcuni varianti in geni conosciuti dalla letteratura per la loro associazione con le MICI. I risultati ottenuti hanno avuto inoltre un impatto traslazionale molto importante permettendo ai clinici di fare la corretta diagnosi e iniziare la terapia idonea per migliorare la qualità e l’aspettativa di vita del paziente.
XXVII Ciclo
XXVII Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
17

Jarmolowska, Joanna. "Nuovi sistemi per la comunicazione alternativa basati su Brain Computer Interface." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10149.

Full text
Abstract:
2011/2012
La comunicazione alternativa attraverso le BCIs può risultare uno strumento per agevolare le condizioni di vita di pazienti affetti dai disturbi neurologici. La comunicazione via BCI è ancora molto più lenta rispetto alla comunicazione con il linguaggio naturale. L’obiettivo di questo lavoro di tesi si inserisce in tale ambito, consistendo nello sviluppo di nuove applicazioni in grado di migliorare la velocità di comunicazione con utilizzo delle BCIs. Sono stati sviluppati due sistemi di comunicazione alternativa basati sulla componente P300. Il primo sistema chiamato ‘Multimenu’ permette una selezione veloce di messaggi e di comandi impostati in una struttura gerarchica. Il secondo sistema di tipo predittivo, denominato PolyMorph, grazie ad algoritmi appositamente sviluppati, predice i caratteri e/o le parole successivi a quelli già selezionati in precedenza.
XXV Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
18

Padovese, Elena. "Effetti di strutturazione di materiali a base di ossidi inorganici di tipo "aerogel-like" per applicazioni nel campo di catalisi e di isolanti ad alta efficienza." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3607.

Full text
Abstract:
2008/2009
La nanotecnolgia rappresenta un approccio innovativo nella produzione industriale, e riflette la generale tendenza alla miniaturizzazione ed alla riduzione di scala che prevale in tutte le discipline tecnologiche. Da qui il crescente interesse nei confronti nei nanomateriali e dei materiali nanostrutturati, per lo sviluppo di nuovi prodotti innovativi e tecnologicamente avanzati, che trovino applicazione in molteplici campi. La presente tesi di dottorato si focalizza sulla strutturazione di nanomateriali a base di ossidi metallici, per applicazione come isolanti termici ad alta efficienza o come fotocatalizzatori per l’abbattimento dei contaminanti da acque reflue. Nel campo dell’isolamento termico l’attenzione è stata focalizzata su Al2O3, che, grazie alle sue uniche proprietà di tessitura, ottenute attraverso una scelta accurata delle condizioni di sintesi, ed all’elevata stabilità termica, è un materiale di forte interesse in questo settore. Lo studio della capacità di termoisolamento di materiali a base di Al2O3 ha rivelato una diretta dipendenza della diffusività e conducibilità termica dalle caratteristiche di tessitura e di struttura dell’ossido, e dalle modalità di agglomerazione. I risultati più rilevanti riscontrati nell’ambito di questa parte del lavoro hanno dato chiare indicazioni su come disegnare la strutturazione di un isolante termico: 1. Effetto del tipo di porosità presente (macro vs meso): l’aumento del contenuto di macropori determina una diminuzione del valore di conducibilità, ed un aumento di diffusività, per cui il materiale è un isolante termico; al contrario, la presenza di mesopori favorisce la riduzione di entrambe conducibilità e diffusività, per cui il materiale presenta proprietà di termoisolamento ed antifiamma; 2. Effetto del diametro dei mesopori: la modulazione del diametro dei pori a parità di porosità nella regione meso, non incide sul valore di diffusività e conducibilità, con il vantaggio che, aumentando le dimensioni, aumentano anche la resistenza meccanica e la stabilità termica dell’ossido; 3. Effetto della morfologia di assemblaggio del materiale: incide pesantemente sul trasferimento dell’energia termica, poiché, in presenza di un agglomerato hard, la conducibilità e la diffusività aumentano di un ordine di grandezza. Ne consegue che un materiale termoisolante deve avere una struttura mesoporosa ed una morfologia di tipo aggregato soft. È necessario evitare la sinterizzazione massimizzando la stabilità termica (es. mesopori di “grandi” dimensioni). L’analisi dei parametri di sintesi ha rilevato degli effetti sui processi di aggregazione nel gel-precursore di aerogel, che indirizzano in modo critico le proprietà di tessitura del prodotto finale. Il lavoro di ottimizzazione di tali parametri ha permesso di realizzare lo scale up del processo su scala industriale, da 200 ml a 25 L. La seconda parte del lavoro di ricerca è stata focalizzata sull’abbattimento di contaminanti da percolato di discarica ed acque reflue industriali per via fotocatalitica mediante processi di tipo APO. L’APO, ed in particolare la fotocatalisi con TiO2, si è rivelato un metodo di trattamento di efficiente e versatile, rendendo possibile la decontaminazione di reflui di diversa natura, dalle acque industriali al più complesso percolato di discarica. Lo studio dei parametri di processo ha evidenziato, infatti, la possibilità di semplificare il trattamento, a seconda della complessità del refluo. Mentre nel caso del percolato di discarica è necessario un trattamento con il sistema TiO2/H2O2/UV, in quanto, in virtù del sinergismo H2O2/UV, il contenuto di COD può essere portato a livelli sufficientemente bassi da permettere il completamento della decomposizione per via fotocatalitica, il refluo proveniente dall’industria del sughero può essere depurato anche in presenza del solo agente ossidante, o per effetto della sola fotocatalisi, in tempi ragionevolmente brevi rispetto a quelli richiesti per la decontaminazione del percolato (8 ore). In entrambi i casi è probabilmente possibile aumentare l’efficienza del processo mediante un’alimentazione in continuo dell’agente ossidante. In particolare, con l’approfondimento dello studio del trattamento delle acque industriali nel prototipo di reattore pilota, e la modellizzazione matematica dell’abbattimento dei contaminanti, è stato possibile parametrizzare il processo sulla base delle dimensioni dell’impianto, confermandone la fattibilità ed applicabilità su scala industriale.
XXII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
19

Sorcaburu, Cigliero Solange. "Identificazione di linee guida per l'analisi genetico-forense mediante utilizzo di DNA degradati in vitro." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10857.

Full text
Abstract:
2013/2014
Nel corso di questo lavoro e stato ottimizzato un metodo per ottenere –mediante idrolisi acquosa- campioni di DNA danneggiati in maniera controllata (r2= 0.997). Uno di questi campioni, denominato trial sample (TS), veniva sottoposto ad un esperimento interlaboratorio (n=25) nel corso del quale ogni partecipante doveva fornire dati relativi alla quantificazione del campione ed al suo l’assetto genotipico. L’impiego della qPCR ha dimostrato che, in campioni danneggiati, e possibile fornire solo una indicazione che e relativa (ed inversamente proporzionale) alla lunghezza (r2=0.891) della regione target. Circa i genotipi forniti, veniva osservato che, a causa di un’elevata frequenza di artefatti di PCR, l’esecuzione di un basso numero di tre repliche(≤ 3)puo portare ad errori(n=4. Lo sviluppo del metodo “consensus TSPV", invece,eliminava tali errori di genotipizzazione. L’utilizzo di tale metodo di “consensus” ha dimostrato che, per campioni degradati ed in condizione di Low Copy Number (≤ 96 pg/PCR), neanche l’esecuzione di sette repliche mette totalmente al riparo da errori di genotipizzazioni.Anche la tecnologia Illumina di Next Generation Sequencing e stata testata mediante un set di campioni danneggiati. Pure la fedeltà di questa tecnologia e stata molto influenzata dalla qualità del templato. Il“consensus TSPV”, inoltre, evidenziava che errori di genotipizzazione possono emergere quando vengono eseguite due sole repliche. Il maggiore limite dell’analisi forense sembra derivare proprio dall’elevatissima sensibilità analitica oggi ottenibile.
In the course of this work has been optimized a method to obtain -by hydrolysis in water- damaged DNA samples in a controlled manner (r2=0.997). One of these samples, called trial sample (TS), was subjected to an inter-laboratory experiment (n=25)during which each participant had to provide data on the quantification of the sample and its trim genotype. The use of the qPCR showed that, in damaged samples, it is possible to provide only an indication that is relative (and inversely proportional) to the length (r2=0891)of the target region. About the genotypes provided, was observed that, due to a high frequency of PCR artifacts, the execution of a low number of three replicates (≤3)may lead to errors (n=4). Method development "consensus TSPV", instead, eliminated these errors genotyping. The use of this method "consensus" has shown that, for degraded samples and under Low Copy Number conditions (≤96pg/PCR),even the execution of seven replicas puts totally immune from errors in genotyping. Even Illumina technology of Next Generation Sequencing was tested using a set of damaged samples. Even the fidelity of this technology has been very influenced by the quality of the template. The "consensus TSPV" also showed that genotyping errors can arise when running only two replicas. The major limitation of the forensic analysis seems to derive just by the very high analytical sensitivity obtainable today.
XXVII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
20

Cordani, Violetta. "La cronologia del regno di Shuppiluliuma I." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3498.

Full text
Abstract:
2008/2009
Oggetto del presente studio è la cronologia del regno di Šuppiluliuma I, sovrano ittita vissuto intorno alla metà del XIV sec. a.C. Il lavoro si pone come primo obiettivo la definizione, in termini di cronologia sia relativa che assoluta, delle campagne condotte da Šuppiluliuma in Siria; inoltre, esso si propone di riprendere in esame le diverse ipotesi ricostruttive avanzate dagli studiosi, anche in considerazione dell'assenza, ad oggi, di una monografia aggiornata sull'argomento.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
21

Tamburini, Giorgia. "Il biofeedback di secondo ordine per la regolazione del battito cardiaco e del respiro." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10076.

Full text
Abstract:
2012/2013
In questo elaborato viene presentato un percorso di ricerca in cui ci siamo posti l’obiettivo di andare a studiare come la presentazione di un modello acustico, rappresentativo di una determinata funzione fisiologica (nello specifico riferito al battito cardiaco o alla frequenza respiratoria) possa influenzare il sistema di autoregolazione dell’individuo a cui viene presentato andando ad agire da rinforzo. In questo percorso abbiamo sviluppato parallelamente due linee di ricerca: con la prima siamo andati ad indagare l’effetto dell’utilizzo del biofeedback cardiaco di secondo ordine sui parametri cardiaci e la differenza nella percezione del proprio battito cardiaco nelle persone con diagnosi di disturbo di panico. Con la seconda, invece, abbiamo condotto degli studi per indagare l’effetto dell’utilizzo del biofeedback respiratorio di secondo ordine sulla standardizzazione degli atti respiratori, mettendolo a confronto con un biofeedback di secondo ordine con tracce di natura artificiale e con un compito cognitivo. Dalle prime ricerche è emerso che le persone con diagnosi di disturbo di panico mostrano una miglior percezione del loro battito cardiaco sia in termini di precisione che di accuratezza, ovvero riescono con maggior facilità a riconoscere una traccia acustica rappresentativa della loro frequenza cardiaca. Nel secondo filone di ricerca, mediante l’utilizzo del biofeedback di secondo ordine, abbiamo messo a confronto suoni naturali rappresentativi della frequenza respiratoria del soggetto con suoni artificiali (ascendenti –inspirazione- e discendenti –espirazione-) basati sui suoi parametri fisiologici. I risultati mettono in evidenza come solo mediante l’utilizzo dei suoni naturali vi sia una riduzione della variabilità respiratoria e quindi una standardizzazione del respiro. Allo stesso modo la condizione che utilizza i suoni naturali è stata messa a confronto con una condizione in cui è stato chiesto al soggetto di svolgere un compito cognitivo di controllo del respiro, essendo questa una delle strategie che più spesso viene insegnata per raggiungere uno stato di rilassamento; anche in questo caso però, il biofeedback respiratorio di secondo ordine è risultato più efficace nella standardizzazione dell’attività respiratoria del soggetto. Le ricerche presentate hanno dimostrato che quando le tracce somministrate al partecipante vengono costruite sulla base di un suono naturale della funzione fisiologica da studiare, il soggetto può riconoscere la traccia presentata come self-related e come appartenente alla propria esperienza percettiva. Essendo la componente ritmica una caratteristica dei sistemi di autoregolazione, questi possono essere influenzati dalla traccia acustica presentata. In considerazione di quanto sopra possiamo dunque ipotizzare che l’utilizzo di una traccia acustica riesca influenzare le risposte fisiologiche del soggetto. Concludendo, si può affermare che è possibile migliorare la propria autoregolazione fisiologica senza alcun tipo di training poiché la tecnica presentata in questo elaborato non richiede nessun tipo di insegnamento né di monitoraggio online.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
22

Delogu, Giulia. "Trieste «di tesori e virtù sede gioconda» Dall’Arcadia Romano-Sonziaca alla Società di Minerva: una storia poetica." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Muroni, Alessandro Franco. "FUNZIONI COGNITIVE E COMPORTAMENTO DI GUIDA: EFFETTI DELLA DEPRIVAZIONE DI SONNO, DEL CONSUMO DI ALCOLICI E DELLA CAFFEINA." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10070.

Full text
Abstract:
2012/2013
Il presente lavoro nasce da una riflessione in merito ad un problema di forte attualità: gli incidenti sonno e alcol correlati. Deprivazione di sonno e consumo di alcolici rappresentano una combinazione abbastanza comune, specialmente tra i giovani automobilisti (Banks et al., 2004). Diversi ricercatori, con lo scopo di dare un contributo alla soluzione di questo problema, hanno focalizzato il loro interesse nel settore della sicurezza stradale. Numerose ricerche (Brown, 1994) (Marcus et al., 1996) (Horne et al., 1995) (Horne et al., 1999) (Connor et al., 2001) si sono occupate di studiare la relazione tra deprivazione di sonno e prestazione di guida ed è ormai universalmente riconosciuto che questa variabile rappresenta un fattore di rischio per la sicurezza stradale. Così come gli effetti negativi indotti dalla deprivazione di sonno sulla prestazione di guida, anche quelli dell’alcol sono universalmente riconosciuti e anch’esso è considerato un fattore di rischio per la sicurezza stradale (Liguori et al., 1999) (Lenne et al., 1999) (Shults et al., 2001). Diversi altri ricercatori (Roehrs et al., 1994) (Arnedt et al., 2000) (Horne et al., 2003) (Banks et al., 2004) (Barret et al., 2004) (Barret et al., 2005) (Vakulin et al., 2007) (Howard et al., 2007) si sono invece focalizzati oltre che sullo studio dei singoli effetti di questi fattori anche sul loro effetto combinato, trovando generalmente che sia la deprivazione di sonno che l’alcol, singolarmente, producono un peggioramento della prestazione di guida e che il loro effetto combinato sembra causare un più importante peggioramento. La guida è un comportamento complesso e multifattoriale che richiede il possesso di numerose abilità, alcune delle quali si svolgono coscientemente ed altre attraverso processi automatici; nell’esecuzione di questo comportamento i processi cognitivi giocano un ruolo centrale (Weaver et al., 2009). Poche ricerche si sono occupate di valutare gli effetti combinati di questi due fattori sugli aspetti cognitivi sottostanti al comportamento di guida. Partendo da tale background, nel presente lavoro si è ritenuto potesse essere interessante approfondire questo aspetto. Ci si è posti quindi come primo obiettivo quello di valutare gli effetti, singoli e combinati, della deprivazione di sonno e del consumo di alcolici sull’attenzione e sui processi di inibizione, due variabili considerate di estrema importanza per esecuzione del comportamento di guida (Brown, 1994). In merito al concetto di attenzione, tra i tanti modelli che lo hanno teorizzato si è scelto di fare riferimento a quello di Posner (Posner e Raichle, 1994); in merito al concetto di inibizione si è scelto invece di fare riferimento al modello di Logan (Logan e Cowan,1984a). Oltre a questi aspetti oggettivi si è scelto di valutare l’effetto di questi fattori anche su alcuni aspetti soggettivi, in particolare sul vigore, sull’umore e sulla sonnolenza percepita. Oltre a ciò, tenendo in considerazione che alcuni studi presenti in letteratura (Horne et al., 1996) (Reyner et al., 2000) (De Valk et al., 2000) (Horne et al., 2001) (Reyner et al., 2002) (Biggs et al., 2007) (Gershon et al., 2009) (Mets et al., 2011) suggeriscono che gli energy drink, o la caffeina in essi contenuta, sembrano essere una buona contromisura per contrastare gli effetti della deprivazione di sonno sulla prestazione al simulatore di guida e su alcuni indici dell’attenzione, nel presente lavoro ci si è posti come secondo obiettivo quello di valutare se questa sostanza può essere una valida contromisura anche per contrastare gli effetti singoli e combinati di questi due fattori, sulla prestazione attentiva e sui processi di inibizione. Si è scelto di studiare questi aspetti cognitivi in determinate fasce orarie, considerate potenzialmente rappresentative di alcune situazioni reali. Nello specifico, si è scelto di studiare la prestazione cognitiva alle 5:00 del mattino, orario di chiusura delle discoteche invernali, e alle 9:00 del mattino, orario di chiusura delle discoteche estive. Inoltre si è scelto di valutare la performance cognitiva alle 12:30, orario dell’aperitivo precedente al pranzo, e alle 20:00, orario dell’aperitivo precedente alla cena. In estrema sintesi i risultati sembrano indicare un’influenza selettiva della deprivazione di sonno e del consumo di alcolici, sia singolarmente che in forma combinata, sulle componenti cognitive indagate. Le componenti di Alerting fasico e Orienting sembrano non risentire, o risentire minimamente, degli effetti di questi fattori. A differenza, sembrerebbe che lo stato di allerta e il controllo esecutivo siano le componenti cognitive maggiormente influenzate negativamente da questi fattori, sia singolarmente che in associazione. Un aspetto interessante, che merita di essere enfatizzato, è che l’associazione tra deprivazione di sonno, sia parziale che totale, ed un tasso alcolemico superiore a quello consentito dalla legge per poter guidare sembra avere un effetto, o in alcuni casi una tendenza, che porta a sovrastimare i livelli di vigore percepiti soggettivamente, facendoli percepire superiori a quelli realmente osservati. Considerata da questo punto di vista, l’associazione tra deprivazione di sonno e consumo di alcolici risulta essere ancora più preoccupante. Infatti sembrerebbe che, durante una nottata insonne, consumare alcolici fino a superare il limite legale consentito per poter guidare potrebbe essere alla base della scelta di mettersi comunque alla guida di un veicolo, pur non avendo uno stato psicofisico adatto per poterlo fare in sicurezza. Relativamente all’assunzione di caffeina quale contromisura per contrastare gli effetti della deprivazione di sonno e dell’alcol sul sistema cognitivo, sembrerebbe che una bassa quantità, circa pari a quella assunta con un caffè o altri alimenti comuni, non sia sufficiente per ripristinare né lo stato di allerta né tantomeno la velocità e l’accuratezza della risoluzione dei conflitti cognitivi. Sembrerebbe invece che 100 milligrammi di questa sostanza possano avere un effetto positivo che sembra migliorare la capacità di inibizione di una risposta dominante, quando compromessa dalla deprivazione totale di sonno o dalla deprivazione totale di sonno associata al consumo di alcolici. Tuttavia, risulta opportuno mantenere una certa prudenza nel trarre conclusioni e ricercare ulteriori conferme scientifiche.
XXV - Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
24

De, Rocco Daniela, and Rocco Daniela De. "STUDIO CLINICO E MOLECOLARE DELLA SINDROME DI BERNARD-SOULIER." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10848.

Full text
Abstract:
2013/2014
2013/2014
La sindrome di Bernard-Soulier (BSS) è una rara piastrinopenia ereditaria causata da alterazioni a livello del complesso glicoproteico GPIb-IX-V, presente sulla membrana piastrinica e responsabile della adesione delle piastrine in seguito a danno vascolare. La BSS si trasmette come malattia autosomica recessiva (BBSA1) e i pazienti affetti presentano piastrine giganti e severi episodi di sanguinamento. Tuttavia in tempi recenti sono state descritte delle famiglie con una forma dominante nota come BSSA2. In questi pazienti la piastrinopenia è moderata e le piastrine presentano un volume leggermente aumentato. Finora sono state individuate solo 5 varianti in eterozigosi nel BSSA2:, 4 nel gene GP1BA e 1 in GP1BB. Fatta eccezione per p.Ala172Val del gene GP1BA che è relativamente frequente nella la popolazione Italiana, le altre 4 sono state descritte in singole famiglie. I pochi casi di cui disponiamo, soprattutto per la forma recessiva non ci permettono di avere informazioni sui meccanismi patogenetici e sulla sua evoluzione nel tempo. Per questo motivo è stato istituito un Consorzio Internazionale per lo studio della BSS grazie al quale è stato possibile raccogliere i dati clinici e molecolari di 132 famiglie. Tutte le informazioni sono state inserite in un database (BSS Consortium database) attualmente gestito dal nostro laboratorio e consultabile dai gruppi di studio che hanno aderito al Consorzio. Inoltre per aumentare le informazioni sulle varianti identificate nel BSSA1 abbiamo incrementato i dati molecolari delle famiglie del Consorzio con i dati di altre 79 famiglie descritte in letteratura, raggiungendo un totale di 211 famiglie. Tutte le mutazioni identificate in queste famiglie sono state poi inserite in un database pubblico disponibile in rete (LOVD: Leiden Open Variation Database). La raccolta e l’elaborazione dei dati ci ha permesso di chiarire alcuni aspetti clinici e molecolari della malattia. Tuttavia data l’eterogeneità genetica e l’elevata espressione fenotipica gli studi genotipo-fenotipo si sono rivelati difficili da eseguire. Nonostante le molte informazioni acquisite, il database risulta ancora incompleto e limitato; per questo motivo è necessario raccogliere nuovi casi e inserire assieme alle varianti anche i relativi studi funzionali che si rivelano indispensabili per poter definire l’effetto delle varianti sul complesso GPIb-IX-V. Nell’ambito invece dello studio e caratterizzazione della forma meno grave di BSS (BSSA2) sono stati selezionati 120 pazienti piastrinopenici senza diagnosi caratterizzati da piastrine grandi. In questi pazienti sono stati analizzati i geni GP1BA, GP1BB e GP9 e sono state identificate 11 diverse varianti: 1 nonsense, 2 mutazioni di framshift, 1 mutazione nel codone di inizio e 5 varianti missense. Gli studi funzionali eseguiti sulle varianti missense per stabilire il loro ruolo patogenetico sono ancora in corso. Tuttavia se gli studi dovessero confermare la loro patogenicità 11 pazienti su 120 risulterebbero BSSA2 e questa forma dovrebbe essere considerata una tra le piastrinopenie ereditarie più frequenti in Italia. In conclusione grazie a questo studio è stato possibile raccogliere la più ampia casistica di pazienti affetti da BSSA1 fin’ora descritta e ottenere numerose informazioni sia sulla clinica che sulle mutazioni coinvolte. Il BSS Consortium database permetterà ai clinici che hanno partecipato allo studio di osservare nel tempo l’andamento della malattia nei pazienti e di ottenere informazioni utili per stabilire un corretto protocollo per la presa in carico dei pazienti. Infine la caratterizzazione di nuove forme di BSSA2 rappresenta il punto di partenza per descrivere al meglio la malattia BSSA2 sia dal punto di vista clinico che molecolare. In futuro sarà quindi indispensabile estendere il BSS Consortium database anche alla forma BSSA2.
XXVII Ciclo
XXVII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
25

Diklic, Olga. "AMBIENTI NATURALI, PROGETTI STATALI E PROPOSTE DI RIFORMA NEL TERRITORIO DI TRAÙ DI FINE SETTECENTO E PRIMA METÁ DELL’OTTOCENTO." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9957.

Full text
Abstract:
2012/2013
Tutt’altro che selvaggio o immodificato era l’ambiente naturale tragurese di fine Settecento e della prima metà dell’ Ottocento. Il territorio ed il suo ambiente in termini ecostorici lo contrassegnavano le economie e le società preindustriali della tarda età moderna e i modelli tradizionali dell’uso della terra. La dimensione che li rendeva “selvaggi” erano i modelli percettivi occidentali di un “barbarico” ed economicamente arretrato “Adriatic empire” e le forme aspre dell’assetto naturale, che nella visione dei contemporanei risultavano indomabili, insufficentemente sfruttate o poco usufruibili. Di conseguenza, a dominare l’area si presentava proprio il fattore naturale, cui conseguentemente era da associarsi la genuinità e la potenzialità dell’area. Risultato di queste visioni del tempo e dello spazio, accompagnate dalle accurate mappature e statistiche statali sul suo assetto e sulle sue potenzialità (eseguite ai fini del consolidamento del potere), era l’apertura ad un’ ulteriore esplorazione delle terre sconosciute della “mythical Illyria” e ad un’ ulteriore modifica dell’ambiente naturale. Un tale rapporto con l’ ambiente naturale ben si inquadrava nella visione antropocentrica dell’ ambiente che rievocava l’utilizzo deliberato ed incondizionato della natura che in età moderna avrebbe trovato la sua articolazione naturale nell’emergere dello stato territoriale e del capitalismo. Questà è un analisi ecostorica che come l’ idea aveva rilevare i diversi aspetti dell’ impatto umano sull’ ambiente naturale in un relativamente breve e transitorio periodo storico, caratterizzante i forti avvenimenti di guerra e modifiche di governi, i nuovi paradigmi di società e politiche, ma ancora non immodificati i rapporti sociali ed economici e gli effetti di accumulata pressione antropica storica sull’ ambiente. In tale contesto sono appunto i diversi elementi dell’ambiente naturale a raccontare di un momento storico segnato da un ambiente naturale fortemente trasformato, ma anche di una lunga storia dell’ impatto umano sull’ ambiente incisa sulla sua parte geografica e fisica così come su quella storica e di evento.
XXV Ciclo
1970
APA, Harvard, Vancouver, ISO, and other styles
26

Rubesa, Fernandez Adriana Spela. "Biovalorizzazione di substrati organici mediante processi anaerobici." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10156.

Full text
Abstract:
2012/2013
Con il presente lavoro di tesi si è voluta esaminare la fattibilità del processo di digestione anaerobica di diversi substrati organici quali: reflui di birreria, fanghi esausti di impianti di trattamento di acque reflue, colture energetiche, scarti agro-industriali solidi e scarti organici urbani. Questo studio è stato motivato dal grande interesse scientifico ed industriale per l'applicazione della digestione anaerobica, allo scopo di perseguire fini quali: lo smaltimento controllato degli scarti organici e la produzione di energia rinnovabile. Scopo finale del lavoro è stata la valutazione della produzione di metano effettiva e lo sviluppo di un modello matematico semplice, in grado di descrivere acuratamente il processo.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
27

Scomodon, Omar. "STUDIO DELLE MUTAZIONI DI STAT1 NEI PAZIENTI CON CANDIDIASI MUCOCUTANEA." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10856.

Full text
Abstract:
2013/2014
La candidiasi muco-cutanea cronica (CMC) costituisce una condizione caratterizzata da infezioni persistenti di cute e mucose causata da Candida albicans. Fra le cause genetiche responsabili di questa patologia sono note mutazioni gain of function (GOF) del gene STAT1. Abbiamo condotto l’analisi genetica su una coorte di pazienti con CMC e abbiamo identificato otto portatori di mutazioni in eterozigosi di STAT1: due pazienti con L351F,due pazienti con L283M e un paziente con L400V.Queste mutazioni non sono ancora state descritte in letteratura. In tre pazienti abbiamo identificato mutazioni già note: T385M e A267V. Per confermare il carattere gain of function di queste mutazioni abbiamo analizzato la fosforilazione di STAT1 su sangue intero in risposta a IFN-γ e IFN-α, la capacità dei linfociti T CD4+ di polarizzare in Th17 e, per le nuove mutazioni, l’efficienza di attivazione di un gene reporter (Luciferasi) posto sotto il controllo della sequenza promotore GAS, in seguito a stimolazione con IFN-γ e IL-27. Tutti i pazienti mostrano una iperfosforilazione di STAT1, un deficit di Th17 e una capacità di attivazione di sequenze GAS maggiore rispetto ai controlli analizzati. Dallo studio della storia clinica di questi pazienti è emerso che alcuni soggetti soffrivano di infezioni virali e infezioni causate da patogeni intracellulari come Criptococco e Leishmania. Questo complesso quadro clinico, non può essere spiegato dal solo deficit di Th17, ma suggerisce un possibile coinvolgimento di altre popolazioni cellulari del sistema immunitario. I linfociti Natural Killer (NK) giocano un ruolo fondamentale nella difesa contro le infezioni sostenute da virus e da microorganismi intracellulari e sono importanti produttori di IFN-γ, citochina fondamentale nel contrastare questi patogeni. Per questo motivo abbiamo valutato la capacità citotossica delle cellule NK dei pazienti con l’espressione del marcatore di degranulazione CD107a e la capacità di produzione di IFN-γ. In questo modo, nei pazienti è stato possibile apprezzare una lieve riduzione della citotossicità e una ridotta produzione di IFN-γ in presenza di IL15. Inoltre, le difficoltà riscontrate nel differenziare in vitro le cellule NK dei pazienti ci ha fatto sospettare un deficit di crescita di queste cellule. L’ ipotesi è stata confermata dalla riduzione dell’ espressione del marcatore di proliferazione Ki67 anche dopo stimolazione con IL2 e IL15. Queste due citochine hanno un ruolo fondamentale nella proliferazione delle cellule NK attraverso l’ azione sul mediatore STAT5. Per questo motivo abbiamo valutato l’ attivazione di STAT5 attraverso l’induzione delle cellule NK con IL2 e IL15 e in questo modo abbiamo osservato una riduzione dei livelli di fosforilazione di STAT5 nei pazienti rispetto ai controlli sani. Queste evidenze ci hanno permesso di confermare che le mutazioni da noi identificate possono essere considerate causative di CMC, le mutazioni non note hanno carattere GOF e che l’alterazione della funzionalità di STAT1 può interferire negativamente sulla attività delle cellule NK attraverso l’inibizione della capacità di fosforilazione di STAT5.
XXVII Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
28

Laboragine, Valeria. "Inibitori peptidomimetici e non peptidici di proteasi aspartiche." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10978.

Full text
Abstract:
2013/2014
Le proteasi aspartiche svolgono un ruolo fondamentale in molti processi patologici ed è per questo che vengono considerati degli ottimi target terapeutici verso cui dirigere la ricerca per la cura delle malattie. Sia l’AIDS (Sindrome da Immunodeficienza Acquisita) che il morbo di Alzheimer sono regolate da una proteasi aspartica la cui inibizione rappresenta, quindi, un importante obiettivo farmacologico, che coinvolge diverse discipline. Nel campo della chimica organica, la ricerca di efficaci inibitori peptidomimetici ha dato impulso allo sviluppo di nuove metodologie per la sintesi stereoselettiva di composti contenenti più centri chirali in forma enantiomericamente pura, da usarsi come isosteri dipeptidici per la sintesi di inibitori reversibili. Di recente vengono sviluppate sempre di più nuove molecole di tipo non peptidico, che siano in grado di massimizzare le interazoni nel sito attivo della proteasi, che abbiano una migliore biodisponibilità, ma soprattutto che siano semplici da sintetizzare. La prima parte di questa tesi di dottorato è stata rivolta alla sintesi di inibitori peptidomimetici dell’HIV-proteasi. Nel capitolo 2 viene descritta la sintesi di un isostere diamminodiolico del dipeptide Phe-Pro con stereochimica (S,R,R,S). Oggetto del capitolo 3 sono invece gli isosteri diamminoalcolici del dipeptide Phe-Pro: nella prima parte del capitolo è descritta la sintesi di un isostere in cui l’anello della prolina è sostituito da un triazolo ed è presentata la valutazione della sua attività biologica attraverso un saggio fluorimetrico; la seconda parte del capitolo è invece dedicata ad una metodologia per l’ottenimento di isosteri monoidrossietilenici Phe-Pro mediante l’utilizzo della ciclizzazione intramolecolare di aza-Michael organocatalizzata diastereoselettiva. Il capitolo 4 è dedicato alla sintesi di allilammine chirali derivate da aminoacidi, utili nella sintesi di isosteri dipeptidici con l’ausilio della reazione di Ring Closing Metathesis (RCM). L’ultima parte della tesi è invece rivolta alla sintesi di inibitori non peptidici della β-secretasi, proteasi aspartica coinvolta nei processi degenerativi che portano al Morbo di Alzheimer. Nel capitolo 5 è presentata la sintesi e la valutazione dell’attività biologica di una serie di diidropirimidine ottenute tramite la reazione multicomponente di Biginelli e che presentano valori di IC50 dell’ordine del micromolare.
XXVI Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
29

Valdemarca, Gioia. "Ai margini del centro. Osservazioni sull'idea di indeterminatezza ne La coscienza di Zeno di Italo Svevo e l'uomo senza qualità di Robert Musil." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3526.

Full text
Abstract:
2008/2009
Tutto inizia nel caos, e tutto termina nel caos: Robert Musil e Italo Svevo lo dimostrano nei loro romanzi principali, "L'uomo senza qualità" e "La coscienza di Zeno". Entrambi gli autori sono specchi di di un'epoca, l'inizio del Novecento, in cui il senso di sicurezza ha ceduto il posto all'indeterminatezza e all'incertezza (come ad esempio nella fisica, nella biologia e nella psicologia) a causa della caduta dell'impostazione deterministica nella scienza. A partire da questa crisi epocale, che ha cambiato radicalmente ogni visione del mondo, Svevo e Musil hanno dato vita a due personaggi alla ricerca di un proprio centro, simbolo della perduta determinazione: questo centro però si dimostrerà vuoto - senza causa, senza scopo, senza senso.
Alles beginnt mit dem Chaos, und alles endet im Chaos: Robert Musil und Italo Svevo zeigen es in ihren bekanntesten Romanen, „Der Mann ohne Eigenschaften“ und „Zenos Gewissen“. Beide Autoren können als Beispiele einer Epoche dienen, in der das Sicherheitsgefühl der Moderne seinen Platz der Unbestimmtheit und Unsicherheit (u.a. in der Physik, Biologie, Psychologie) abtrat, wegen des Überschreitens des deterministischen Ansatzes zugunsten einer freieren, aber auch unheimlicheren Weltanschauung. Ausgehend von dieser tiefen Epochenkrise, haben die zwei Schriftsteller in ihren Romanen Figuren gezeichnet, die sich auf der Suche nach einem geheimnisvollen Mittelpunkt begeben, der die verlorene Bestimmung darstellen sollte: dieser Mittelpunkt erweist sich aber als leer – ohne Ursache, ohne Ziel, und sinnlos.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
30

Viano, Maurizio. "La traduzione letteraria sumerica negli archivi siro-anatolici durante il Tardo Bronzo." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3495.

Full text
Abstract:
2008/2009
Il lavoro di tesi ha come oggetto lo studio della documentazione a carattere letterario in lingua sumerica ritrovata negli archivi delle città di Hattusa, Emar ed Ugarit durante il periodo compreso tra il XVI e il XII secolo a. C. L’obiettivo della ricerca è quello di capire le relazioni della documentazione siro-anatolica esistenti da una parte con la produzione letteraria paleo-babilonese e dall’altra con quella coeva medio-babilonese al fine di comprendere la tradizione dei testi e i percorsi attraverso i quali queste opere giunsero in Siria ed Anatolia.
XXII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
31

Stancher, Gionata. "La cognizione numerica nelle specie animali: abilità protomatematiche nell'anfibio anuro Bombina orientalis." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/5433.

Full text
Abstract:
2009/2010
Ricerche nell’ambito della psicologia comparata hanno rilevato soprattutto nell’ultimo decennio la presenza di abilità proto-matematiche in specie animali filogeneticamente molto distanti e nei bambini in età preverbale, abilità che comprendono la possibilità di rappresentare le quantità del mondo esterno e di manipolarle in forma di confronto, di addizioni o sottrazioni, il tutto in assenza delle facoltà linguistiche. Una delle forme più semplici di rappresentazione delle quantità è legata alla discriminazione numerica, la capacità ovvero di emettere giudizi di non eguaglianza tra gruppi di oggetti (Vallortigara et al., 2010). Tale prestazione può essere realizzata nel contesto di una selezione tra stimoli alimentari visibili o non visibili al momento della scelta, oppure ancora nel contesto del cosiddetto “paradigma della violazione dell’aspettativa” (Wynn, 1992). Nonostante le diversità nelle procedure utilizzate, sono emersi degli evidenti parallelismi tra specie diverse – parallelismi che includono la presenza di simili limiti nelle prestazioni (Feigenson et al., 2002) – e che fanno propendere per un’origine ancestrale comune delle abilità proto-matematiche (Piazza et al., 2004; Vallortigara et al., 2010). Lo studio parallelo dei substrati cerebrali che sottendono le diverse forme di valutazioni ha evidenziato nell’essere umano la presenza di una fondamentale indipendenza delle valutazioni proto-matematiche rispetto a quelle forme che richiedono l’accesso a facoltà linguistiche (come l’atto del contare) ed individuato nel Solco intraparietale bilaterale l’area a livello della quale viene costruita una rappresentazione semantica non verbale delle quantità numeriche (ovvero delle grandezze numeriche e delle relazioni tra numeri) (Dehaene et al., 2003; Piazza & Izard, 2009). A livello di questa regione e nella corteccia prefrontale sono stati individuati i cosiddetti number neurons, popolazioni di neuroni che rispondono selettivamente a specifiche numerosità (Nieder et al., 2002). Tuttavia, al fine di poter concludere che una specie animale è in grado di rappresentare l’informazione numerica estratta dall’ambiente esterno, è necessario escludere che la scelta, per esempio nel contesto della semplice discriminazione numerica, sia stata guidata da una qualsiasi delle variabili che tendono a co-variare con il numero, e che sono dette variabili continue. Questa operazione è chiaramente necessaria al fine di poter concludere che si tratta di una discriminazione propriamente numerica, piuttosto che di una discriminazione di quantità (Vallortigara et al., 2010). Il presente lavoro si è posto come principale finalità quella di sottoporre ad indagine sperimentale la presenza, nell’anfibio anuro Bombina orientalis, di una tendenza a discriminare tra gruppi contenenti differenti numerosità di uno stimolo alimentare. Ciò ha compreso obiettivi come individuare eventuali limiti nelle capacità discriminative dei soggetti (in particolare in relazione alla grandezza delle quantità confrontate e al loro rapporto numerico), confrontare le prestazioni osservate con quelle note in altre specie animali al fine di individuare un terreno comune per le facoltà cognitive in ambito proto-numerico e, infine, verificare il ruolo della variabile numerica e/o di eventuali altre variabili “continue” nel guidare la scelta dei soggetti. Un totale di 14 soggetti adulti appartenenti alla specie Bombina orientalis sono stati sottoposti a test ripetuti che li vedevano impegnati in un compito di scelta libera in un contesto di discriminazione numerica tra due gruppi di stimoli alimentari di differente numerosità. I soggetti compivano la scelta partendo da una posizione neutrale nei confronti dei due gruppi e in nessun caso venivano rinforzati. I risultati mostrano che i soggetti hanno espresso scelte statisticamente significative per il gruppo più numeroso – ciò in linea con le previsioni dettate dalla teoria del foraggiamento ottimale –nel caso dei confronti 1 vs. 2 (p=0.0009), 2 vs. 3 (p= 0.0489) ma non 3 vs. 4 (p= 0.4816), dimostrando quindi di essere in grado solo nei primi due casi di discriminare tra le due quantità proposte. D’altra parte, aumentando la distanza tra le quantità confrontate, ma mantenendone constante il rapporto, Bombina orientalis dimostra di riuscire a superare il limite precedentemente individuato di 3 unità, riuscendo dunque nelle discriminazioni 3 vs. 6 (p= 0.0046) e 4 vs. 8 (p= 0.0059) con rapporto pari ad ½, ma non 4 vs. 6 (p= 0.2241) con rapporto pari a 2/3. Questi risultati sono coerenti con quelli ottenuti in altre specie animali ed anche nei bambini in età pre-verbale, con particolare riferimento alla presenza di un limite assoluto per la discriminazione di piccole numerosità e un limite dipendente dal rapporto (che quindi segue la legge di Weber) per la discriminazione di “grandi” quantità (Feigenson & Carey, 2005; Feigenson et al., 2002). Gli esperimenti volti ad indagare la natura della rappresentazione numerica alla base delle prestazioni osservate si sono concentrati sull’esclusione delle variabili continue maggiormente sospettate di guidare la scelta degli anfibi anuri in un contesto alimentare. Tra queste hanno ricevuto particolari attenzioni il peso, il volume e l’area complessiva degli stimoli, la densità degli stessi e il loro movimento. Si è tentato in particolare di pareggiare le suddette variabili continue tra i due gruppi nel caso di peso, densità e movimento, mentre nel caso di volume e perimetro queste due variabili sono state poste contro il numero. I risultati ottenuti dimostrano che i soggetti conservano una preferenza statisticamente significativa per il gruppo più numeroso quando peso, densità e movimento sono equiparati tra i due gruppi. Anche quando volume e perimetro sono posti contro il numero (cioè maggiori nel gruppo meno numeroso), i soggetti continuano a preferire il gruppo numericamente maggiore. I risultati ottenuti, anche se necessitano di ulteriori approfondimenti, fanno propendere verso l’ipotesi che Bombina orientalis sia in grado di utilizzare l’informazione numerica estraendola dall’ambiente circostante nel contesto della risposta di predazione, ciò che costituisce un ulteriore elemento a favore dell’esistenza di un “core knowledge system” relativo all’ambito matematico condiviso tra le specie animali e quindi tra esse omologo.
XXII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
32

Leon, Castellanos Veronica. "Non conventional Techniques for the generation and modification of graphenes: applications to the synthesis of electro-active scaffolds for On-Demand Drug Delivery." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10133.

Full text
Abstract:
2012/2013
The aim of this work is to employ non-conventional techniques in order to generate and modify new graphene derivatives for biological application.We have used ball-milling treatment and microwave irradiation, two of the interesting approaches included in the field of Green Chemistry that allow the use of softer conditions and the preparation of large quantities of materials in relatively short amounts of time
XXVI Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
33

Turconi, Marcello Maria. "Development and testing of applications and algorithms to improve BCI systems performance." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11019.

Full text
Abstract:
2013/2014
Sviluppo e validazione di nuove applicazioni di Interfaccia Cervello-Computer (Brain-Computer Interfaces, o BCIs) basati su elettroencefalografia. I sistemi sviluppati includono sia BCI di tipo comunicativo-assistenziale (basate su una risposta cognitiva conosciuta come P300), sia BCI di tipo riabilitativo (basate sulla modulazione volontaria dei cosiddetti ritmi sensorimotori) rivolte a pazienti affetti da Malattia di Parkinson.
XXVII Ciclo
1987
APA, Harvard, Vancouver, ISO, and other styles
34

Sciuto, Giuliana. "APPLICAZIONE DI TECNICHE INNOVATIVE GNSS/INS PER LA DETERMINAZIONE DEL COMPORTAMENTO DINAMICO DI IMPIANTI FUNIVIARI." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11117.

Full text
Abstract:
2013/2014
Gli impianti funiviari sono soggetti alle normative italiane ed europee (PTS Prescrizioni Tecniche Speciali e Normativa Europea) che regolano il funzionamento dell’infrastruttura, sovrastruttura e delle componenti di sicurezza. Il rispetto dei limiti imposti sono determinanti per la sicurezza dell’impianto stesso e delle persone coinvolte. Non tutti questi parametri però, sono controllati durante le periodiche prove di collaudo, nonostante essi siano decisivi per la sicurezza. Si pensi ad esempio alla valutazione dell’entità delle oscillazioni trasversali e longitudinali al senso di marcia, fenomeno che ha causato l’incidente avvenuto su una seggiovia dell’Appennino toscano (gennaio 2015), dove, a causa di un’interruzione di corrente, l’arresto dell’impianto ha innescato un moto oscillatorio tale da far sobbalzare e precipitare alcuni sciatori. La strumentazione satellitare permetterebbe di conoscere la posizione assoluta dell’oggetto monitorato e se integrate da sensori inerziali, di conoscerne anche l’assetto. A partire da queste considerazioni, sono state analizzate delle metodologie innovative GNSS (Global Navigation Satellite System) e GPS/INS (INertial System), applicate in un settore particolare, quale quello dei trasporti speciali aerei, al fine di caratterizzare in maniera più completa il comportamento dinamico di un veicolo in condizioni critiche (ad esempio a seguito di brusche frenate) e farne un confronto con la normativa vigente. Le componenti hardware del dispositivo GNSS/INS sono state montate all’interno di un contenitore rigido, per facilitarne il trasporto, l’ancoraggio alla seggiola o cabina e per accelerare la fase di rilievo con la Stazione Totale per l’inserimento dei parametri di installazione nel software di elaborazione dati, Applanix POS PAC LV. E’stato quindi implementato un programma ad hoc in ambiente Matlab, per la gestione dei dati, in particolare: per la sincronizzazione fra i vari dispositivi, per la rotostraslazione dei sistemi di riferimento, per l’interpolazione dei dati, per il filtraggio e l’estrazione automatica alcuni particolari eventi. Dai risultati ottenuti è stata dimostrata l’adeguatezza di queste tecniche innovative, con le quali è stato possibile determinare il comportamento dinamico del veicolo, in termini di posizione assoluta (con precisione centimetrica), velocità ed accelerazione effettiva del veicolo (i valori di velocità ed accelerazione visibili sul pulpito di comando della stazione motrice sono riferiti all’argano di trazione e non corrispondono sempre con quelli del veicolo). Implementando le funzioni del programma sviluppato in ambiente Matlab ed ottimizzando alcune procedure,le tecniche GNSS in modalità cinematica interferenziale alle doppie differenze finite e GPS/INS, potrebbero completare le attuali prove di collaudo degli impianti funiviari.
XXVII Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
35

Bottega, Roberta. "Sviluppo di una strategia per la diagnosi molecolare dell'anemia di Fanconi." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9981.

Full text
Abstract:
2012/2013
L’anemia di Fanconi (FA) è una malattia genetica rara caratterizzata da malformazioni congenite, pancitopenia, predisposizione al cancro e aumentata sensibilità ad agenti, quali diepossibutano e mitomicina C, che formano legami tra i due filamenti di DNA. La FA è causata da almeno 16 geni che costituiscono, insieme ad altri componenti, un pathaway di riparazione del DNA. L’eterogeneità è uno dei principali motivi che complica la diagnosi molecolare della FA. E’ pertanto necessario un processo a più livelli che implica lo screening di molti esoni o, in alternativa, l’allestimento di linee cellulari e l’analisi di complementazione per la caratterizzazione del gene candidato. Gli scopi di questa tesi pertanto sono diretti a: • Ridurre i tempi per l’identificazione del gene mutato sostituendo l’analisi di complementazione con quella di espressione delle proteine FA basandosi sul presupposto che prodotti mutati siano rapidamente degradati; • Caratterizzare dal punto di vista molecolare gli effetti delle varianti identificate dall’analisi di sequenza. Per quanto riguarda il primo obiettivo, ci siamo focalizzati sullo studio della proteina FANCA in 44 linee cellulari linfoblastoidi appartenenti ai diversi gruppi di complementazione. E’ emerso che, fatta eccezione per FA-G, l’espressione di FANCA non è alterata da mutazioni nei geni FANCB, FANCC e FANCD2. Per quanto riguarda i pazienti con mutazioni in FANCA, invece, abbiamo osservato una correlazione tra il tipo di mutazione e il livello di espressione della proteina che può quelli essere paragonabile a quella dei controlli nel caso di mutazioni missenso o ampie delezioni in frame. In accordo con l’ipotesi invece, in presenza di mutazioni nonsenso e frameshift in entrambi gli alleli del gene, non si ha produzione di proteina. Sulla base di questi dati possiamo concludere che l’analisi di FANCA non è soddisfacente per assegnare ai pazienti il corrispondente gruppo di complementazione. Tuttavia, da questo studio è emersa l’ipotesi di un’associazione tra l’espressione stabile delle proteine FANCA mutate e un fenotipo meno grave nei pazienti. I dati preliminari dimostrano che queste proteine non sono traslocate nel nucleo e che quindi un’eventuale attività residua non sia da attribuire al processo di riparazione del DNA. Un potenziale ruolo andrebbe forse indagato a livello citoplasmatico dove, come sta emergendo dalla letteratura, almeno FANCG e FANCC, svolgono una funzione all’interno del mitocondrio tale da giustificare l’elevato grado di stress ossidativo delle cellule FA. Per il secondo obiettivo, lo studio dei casi arruolati nell'ambito dell'AIEOP (Associazione Italiana Ematologia Oncologia Pediatrica) ha consentito l'identificazione delle mutazioni in 100 famiglie. Dall’analisi dei dati emerge che la maggior parte delle mutazioni colpisce il gene FANCA (85%), seguito da FANCG (9%), FANCC (3%), FANCD2 (2%) e FANCB (1%). In assenza del dato di complementazione e/o in presenza di varianti alle quali non è sempre possibile attribuire un chiaro effetto patogenetico, sono state eseguite ulteriori indagini. Si citano a titolo di esempio la caratterizzazione delle ampie delezioni intrageniche mediante MLPA, l’analisi bioinformatica e a livello di RNA delle alterazioni di splicing che, qualora in frame, sono state ulteriormente confermate anche a livello proteico e, infine, lo studio bioinformatico di patogenicità delle sostituzioni aminoacidiche. La formulazione di un algoritmo efficace e rapido per la diagnosi molecolare della FA, nonché la chiara definizione del significato patogenetico delle varianti identificate, è molto importante per corretta presa in carico del paziente e della famiglia sia per l’identificazione dei portatori che per la diagnosi prenatale.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
36

Martinelli, Andrea. "Studio di reazioni ed approcci sintetici innovativi per la sintesi di intermedi di interesse industriale." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10128.

Full text
Abstract:
2012/2013
In questo lavoro di tesi sono state affrontati due temi principali: la risoluzione di diastereoisomeri intermedi nella sintesi della Dorzolamide e lo studio su reazioni di addizione di Michael stereoselettive su substrati chetonici a,b-insaturi con nucleofili allo zolfo. Il primo progetto si è focalizzato sull'impiego di una risoluzione cinetica dinamica per convertire due alcoli diastereomerici in un unico prodotto acilato tramite la combinazione di una reazione di acilazione promossa da enzimi (CALB e subtilisina) ed un catalizzatore di Ru in grado di epimerizzare tra loro gli alcoli. Ulteriori studi hanno permesso di indagare maggiormente su reazioni di solvolisi sui medesimi substrati che hanno permesso di ottenere il prodotto desiderato in ottima resa chimica ed eccesso enantiomerico. Il secondo progretto si è focalizzato sull'impiego di alcuni alcaloidi della Cinchona e su corrispondenti derivati tioureidici in reazioni di Michael stereoselettive. I substrati impiegati sono stati il trans-calcone ed il 2-cicloesen-1-one; nucleofili allo solfo sono stati il benziltiolo ed il tiofenolo. I tisultati ottenuti hanno permesso di verificare l'efficacia dei catalizzatori tioureidici sulle reazioni modello studiate.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
37

Sgubin, Donatella. "Cellule Staminali di Glioblastoma: Terapia Oncolitica con Vettori Erpetici Ingegnerizzati." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10157.

Full text
Abstract:
2012/2013
Il Glioblastoma (GBM), nonostante i migliori standard terapeutici, rimane una patologia a prognosi infausta. L’ipotesi delle Glioma Stem-like Cells (GSCs) prevede che, nella massa tumorale, sia presente una popolazione di cellule resistenti alla chemio e radioterapia e che tali cellule siano quindi le possibili responsabili della recidiva di malattia. Le GSCs, che possiedono caratteristiche comuni alle cellule staminali fisiologicamente presenti nel cervello adulto, sono cellule a lenta crescita, capaci di self-renewal, esprimono marker di staminalità, sono multipotenti e sono tumorigeniche quando vengono impiantate in vivo in modelli murini, formando lesioni istologicamente identiche a quelle originarie. Il relativo fallimento delle terapie ad oggi in uso ha portato a studiare nuove strategie dirette verso le GSCs e non soltanto verso le cellule a rapida divisione. Le terapie con virus oncolitici rappresentano, in questi termini, un approccio promettente. L’Herpes Simplex Virus di tipo 1 (HSV-1) è uno dei vettori più studiati e, nelle sue forme mutate, risulta sicuro ed efficace in vitro e in vivo. Questo studio dimostra come G47!, forma multimutata dell’HSV-1, sia in grado di infettare, replicarsi e uccidere le GSCs derivanti da linee primarie di GBM in vitro e in vivo sia in normossia, che in ipossia, condizione che, oltre ad essere comune in questo tumore, arricchisce la popolazione cellulare con caratteristiche stem-like. In questo progetto si descrive inoltre una nuova forma mutata di G47! denominata G47!Us11fluc, in cui il virus esprime luciferasi come gene late del ciclo di replicazione virale, offrendo una stima precisa del virus yield, nonchè un metodo di visualizzazione in tempo reale, con sistemi a bioluminescenza, della replicazione virale in vivo.
XXVI Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
38

Caporusso, Grazia. "Influenze fenomeniche nella mislocalizzazione della posizione iniziale di uno stimolo in movimento." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8667.

Full text
Abstract:
2011/2012
In questo lavoro di tesi si prenderà in esame un effetto legato alla percezione del movimento e conosciuto con il nome di Effetto Fröhlich in onore di colui che nel 1923 lo studiò per la prima volta in maniera sistematica. Percepire la posizione degli oggetti nell’ambiente è senza dubbio uno degli scopi più importanti del sistema visivo. Tuttavia, quando gli oggetti sono in movimento la localizzazione della loro posizione può risultare più difficoltosa e può essere caratterizzata da piccoli ma consistenti errori definiti mislocalizzazioni spazio-temporali. Tali errori possono coinvolgere sia la localizzazione della posizione iniziale dello stimolo in movimento (Onset) sia la posizione finale dello stesso (Offset). Nel 1930 uno studioso, Fröhlich, osserverò che se a degli osservatori si chiedeva di identificare la posizione iniziale di uno stimolo in movimento questi tendevano a identificarla non nella posizione reale, ma in una posizione spostata nella direzione del movimento. Tale errore di localizzazione fu definito Fröhlich effect. Tutte le interpretazioni prevedevano l’influenza di fattori fisiologici nella spiegazione del fenomeno. Tuttavia ciò che emerge dai risultati degli esperimenti presentati in questo lavoro è che anche fattori fenomenici possono avere una qualche influenza sulla grandezza dell’errore. L’effetto sembra essere influenzato dalle caratteristiche dell’oggetto in movimento e dalle caratteristiche del contesto all’interno del quale gli stimoli si spostano.
XXV - Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
39

Riggi, Margherita. "Correlati anatomici, neurochimici e funzionali di eventi neurodegenerativi nel ratto." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10155.

Full text
Abstract:
2012/2013
La malattia di Parkinson (PD) e quella di Alzheimer (AD) appartengono entrambe ad una famiglia di patologie neurologiche, caratterizzate da neurodegenerazione, i cui deficit funzionali (motori, sensitivi e psicologici) sono progressivi, e la cui insorgenza si presenta tipicamente dopo la quinta o la sesta decade di vita. Diversi studi ipotizzano che esse possano essere la diversa manifestazione di uno stesso processo disfunzionale, poichè presentano vari aspetti neuropatologici in comune. Ambedue infatti sono caratterizzate da una deplezione massiva dei sistemi neurotrasmettitoriali a proiezione diffusa (quali ad esempio il colinergico, il dopaminergico ed il noradrenergico) e dalla presenza, nei tessuti coinvolti, di aggregati di proteine con alterata conformazione in sede intra- od extracellulare. Inoltre, entrambe sono associate all’insorgenza di disturbi cognitivi ed allo sviluppo di demenza. Il lavoro di questa tesi è stato volto ad indagare alcuni aspetti che caratterizzano queste patologie, per approfondire in che modo la comparsa di determinate disfunzioni anatomiche e neurochimiche influenzi il processo patologico, ed in particolare determini lo sviluppo di deficit cognitivi. Nello specifico abbiamo indagato i contributi rispettivamente del sistema colinergico del prosencefalo di base, di quello dopaminergico mesocorticolimbico e del sistema noradrenergico ascendente, nella regolazione della reference e della working memory, usando il ratto come animale modello. Attraverso l’iniezione neonatale di due immunotossine (192-IgG-saporina e anti-DBH-saporina) e di una neurotossina (6-OHDA) in età adulta, abbiamo osservato le conseguenze funzionali ed anatomiche della deplezione, singola o combinata, dei corrispettivi sistemi neurali, tramite appropriati test comportamentali (quali il Morris Water Maze ed il Radial Arm Water Maze) e procedure istologiche ad hoc. Alla luce dei risultati ottenuti è emerso che il sistema noradrenergico svolge un ruolo importante nel regolare i processi ippocampo-dipendenti, interagendo con gli altri due sistemi e, ove necessario, compensando funzionalmente alla loro mancanza. Inoltre abbiamo indagato gli effetti derivanti dalla deplezione del sistema colinergico del prosencefalo di base con, o senza, l’aggiunta dell’infusione di beta-amiloide 25-35 pre-aggregata in ippocampo, sull’apprendimento e la memoria spaziale di ratti così trattati; e le conseguenze neurochimiche di questi trattamenti sui tessuti prelevati post-mortem, soprattutto per quanto riguarda le alterazioni del metabolismo delle proteine APP, TAU e TDP-43, indagate tramite tecniche istologiche specifiche ed analisi con Western Blot. In questo modo è stato visto che c’è un’interazione sinergica tra l’ipofunzione colinergica e l’infusione di beta-amiloide esogena pre-aggregata nel determinare deficit cognitivi, sia nella reference che nella working memory; e che la deplezione colinergica riesce di per sè sia ad incrementare la fosforilazione della proteina Tau, e quindi di provocarne il distacco dai microtubuli e favorirne l’aggregazione a livello del soma cellulare, che sia a provocare delle alterazioni nel metabolismo della proteina TDP-43, che rispetto ad animali di controllo risulta sovraespressa e localizzata anche a livello del citoplasma. Mentre l’influenza dell’aggregazione della beta-amiloide in questi processi appare marginale o comunque avere una comparsa più tardiva. Il lavoro svolto propone quindi di considerare delle terapie farmacologiche e ristorative che hanno come target il sistema noradrenergico per la cura dei disturbi cognitivi che accomunano la malattia di Alzheimer e quella di Parkinson; e di approfondire maggiormente l’interazione che lega il sistema colinergico alla TDP-43, perchè potrebbe essere importante per capire i meccanismi che conducono alla comparsa di neurodegenerazione e di demenza.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
40

Zulini, Ella. "I pavimenti in cementizio di Pompei: cronologia, contesti, funzioni." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8550.

Full text
Abstract:
2011/2012
Questa ricerca ha avuto come obiettivo lo studio dei pavimenti cementizi a base fittile di Pompei in ambito privato. Dopo una prima verifica dei piani noti in letteratura, integrata con i dati provenienti da scavi stratigrafici recenti, e in seguito a una ricognizione sul campo, si è scelto di selezionare un campione e di analizzare i pavimenti cementizi della Regio VI. Questa zona è apparsa quella più valida per intraprendere un’analisi sistematica dei pavimenti cementizi: si è dimostrata, infatti, la parte della città che presenta il maggior numero di testimonianze di questo tipo di pavimenti; inoltre, si sono sviluppate numerose ricerche sulle singole abitazioni e su alcune insulae e gli scavi stratigrafici recenti hanno permesso di arricchire i dati a disposizione, soprattutto per le fasi più antiche. Sono state così esaminate e catalogate 55 domus nelle quali sono presenti complessivamente 243 ambienti ospitanti piani in cementizio, a volte con casi di sovrapposizione di livelli di calpestio all’interno dello stesso vano. Il lavoro si è prefisso due obiettivi principali: il primo è stato quello di cercare di stabilire per questi pavimenti una cronologia il più possibile affidabile e precisa; tra i sistemi a disposizione si è cercato, in particolare, di utilizzare come indicatore cronologico un metodo non tradizionalmente impiegato, ossia l’analisi dei frammenti ceramici presenti sulla superficie del cementizio e nei suoi strati preparatori al fine di stabilire un terminus post quem per il momento della sua costruzione; è stato considerato un criterio altrettanto valido anche l’analisi dei dati stratigrafici. In mancanza di questi dati sono stati anche presi in considerazione il rapporto del pavimento con le murature della stanza e con le eventuali decorazioni pittoriche del vano. I piani cementizio datati sono stati suddivisi in cinque grandi fasce cronologiche: età sannitica (III secolo a.C.), età tardo-sannitica (II secolo a.C.), età tardo-repubblicana (I secolo a.C.), età giulio-claudia (fine I secolo a.C. - prima metà I secolo d.C.) e infine età post-sismica (62-79 d.C.); all’interno di queste cinque divisioni si è tentato, il più possibile, di specificare la datazione. Contestualmente sono stati anche evidenziati 12 motivi decorativi, nei quali sono state inserite tutte le decorazioni presenti nei pavimenti cementizi a base fittile, per verificare l’occorrenza degli ornati in rapporto alla loro cronologia e stabilire se sussistono delle costanti tra i decori e il tipo di ambiente. Il secondo obiettivo di questa indagine è stato quello di analizzare i pavimenti cementizi a base fittile sia nel loro specifico contesto sia in rapporto con gli altri piani di calpestio della casa nella quale essi sono presenti. Per questa parte del lavoro si è scelta, all’interno dell’ampia Regio VI che ospita 16 insulae, l’insula 2 come quartiere campione. Per ognuna delle dimore di questo isolato sono stati, quindi, considerati tutti i tipi di pavimento presenti nell’apparato decorativo ed è stata, contestualmente, redatta una planimetria a colori con l’attestazione dei diversi livelli di calpestio noti in modo da poter cogliere, anche visivamente, la totalità dei piani pavimentali di ogni singola abitazione. Si sono, inoltre, studiate allo stesso modo anche due domus che permettevano di leggere aspetti importanti per la ricerca in questione: una dimora di grandi dimensioni come la Casa del Centauro (VI, 9, 3/5), nella quale sono stati effettuati recenti scavi stratigrafici che hanno permesso di collegare i pavimenti alle diverse fasi edilizie dell’abitazione, e una domus nella quale sono attestati esclusivamente pavimenti cementizi come la Casa degli Scienziati (VI, 14, 43).
XXIV Ciclo
1976
APA, Harvard, Vancouver, ISO, and other styles
41

Fusco, Roberto. "Procedimento autorizzatorio per gli impianti di rigassificazione." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7346.

Full text
Abstract:
2010/2011
Il presente elaborato analizza la normativa che regola l’iter autorizzatorio necessario alla costruzione degli impianti di rigassificazione, enucleando le principali criticità emergenti dall’attuale modello e provando ad ipotizzare delle soluzioni migliorative che consentano una più celere ed efficiente definizione dell’operazione amministrativa necessaria alla realizzazione di tali infrastrutture.
XXIV Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
42

Miksa, Gianfranco. "I giornali italiani a Fiume dal 1813 al 1945. Analisi e linee di sviluppo." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8596.

Full text
Abstract:
2011/2012
“I giornali italiani a Fiume dal 1813–1945. Analisi e linee di sviluppo” vuole essere un’immersione nella cultura fiumana della carta stampata, inteso a offrire una chiara immagine della grande mole di giornali italiani pubblicati nella città quarnerina nell’arco di due secoli. L’arte della cultura stampata a Fiume ha una storia ricca e molto interessante. Come ogni terra di confine, questa è stata il testimone di una lotta nazionale, economica e sociale che ha interessato la città lungo i secoli. Fiume – sia per la posizione geografica, sia per le vicende storiche –, ha avuto un suo ruolo proprio e ha conservato a maggior fatica la integrità della sua anima e componente italiana. Il giornalismo fiumano ha ospitato i piccoli e i grandi fatti del proprio popolo, le paure e le preoccupazione della gente semplice, registrando i momenti più importanti delle comunità. La finalità generale di questa ricerca è quella di scoprire la scena editoriale ponendo in evidenza tutta una serie di protagonisti – giornalisti, letterati, intellettuali, ma anche persone comuni – che hanno caratterizzato la città per lunghi decenni. La ricerca non intende essere un repertorio della cultura giornalistica a Fiume, bensì un’analisi della sua nascita, sviluppo, fortuna e rovina. Il lavoro si è basato principalmente su due aspetti che sono stati svolti contemporaneamente: quello della ricerca bibliografica e quello più ampio della ricerca d’archivio. L’attività di ricerca bibliografica è finalizzata non solo alla costituzione della bibliografia espressamente relativa al tema oggetto della ricerca stessa, ma anche all’identificazione di nuove fonti da cui reperire notizie importanti per la ricostruzione della storia del giornalismo fiumano. La scelta del periodo 1813–1945 per un’analisi della stampa fiumana è stata suggerita da una serie di considerazioni di carattere storico, sociale e culturale. Il primo giornale che uscì a Fiume fu “Notizie del Giorno” risalente al 1813. Da questa data in poi, si avrà un vera e propria crescita del giornalismo fiumano che darà origine, nell’arco di centotrenta anni, a più di 50 testate, di cui 30 in lingua italiana che ho avuto il piacere di analizzarle e di presentarle in questo lavoro. Sono creazioni spesso effimere ma talvolta anche durature che saranno espressione della battaglia politica e culturale della città. La conclusione della ricerca con il 1945 è dovuta, invece, al cambio politico che interessò la città con i nuovi governanti. Nuovi reggenti che imposero il comunismo e socialismo a un popolo che da secoli aveva ben salda la tradizione commerciale di stampo liberista. La ricerca, dedicata al giornalismo fiumano tra il 1813 e il 1945, prende in considerazione tutte le pubblicazioni di carattere giornalistico, e quindi con funzione informativa, apparse in quegli anni, senza tenere conto delle pubblicazioni in lingua ungherese, croata o altra. La premessa metodologica di tale ricerca è di natura letteraria con particolare riferimento agli influssi della cultura italiana a Fiume. Ogni scheda delle singole testate fiumane è composta da due parti. La prima, attraverso un’introduzione analitica, comprende tutte le notizie essenziali riguardanti il genere, tiratura, data di pubblicazione, sede proprietà, tipografia, fondatori, direttori, caporedattori, orientamento politico, eventualmente il formato, la periodicità e il prezzo. La seconda parte prevede un approfondimento più attento che comprende un excursus storico e analisi dei contenuti. Le schede, costruite secondo uno schema costante permetteranno al lettore di avere una prima idea del carattere del giornale, la sua posizione politica e ideologica, la sua tendenza sociale e culturale. Vengono inoltre riportate, a piè di pagina una breve biografia con notizie bibliografiche di alcuni noti, e anche meno noti, giornalisti e pubblicisti fiumani. L’Appendice offre, invece, una scelta degli articoli raccolti dai giornali. Una selezione che è stata condotta cercando di isolare quei testi che indichino novità tematiche, letterarie e momenti storici di particolare significato legati sia alla città di Fiume sia all’intera scena internazionale. Lì, dove ho potuto, ho proceduto nel riportare interamente i programmi, editoriali e manifesti dei giornali, per conoscere con chiarezza i princìpi su cui la testata si fondava, le idee che essa propugnava, il perché della fondazione e anche della lotta politica ideologica che essa sosteneva. Per offrire un dettagliato confronto tra stili, per così dire, conservativi e quelli innovativi, ho cercato di isolare alcune tematiche – principalmente gli avvenimenti storici ma anche, per esempio, manifestazioni, omicidi, processi, incidenti e altri fatti cronaca –, per osservare e apprendere come le diverse testate trattavano lo stesso argomento.
XXIV Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
43

Laurini, Erik. "Progettazione,sintesi ed affinità recettoriali di nuovi ligandi sigma." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3608.

Full text
Abstract:
2008/2009
Questo lavoro di tesi presenta un progetto riguardante il design, la sintesi e l'affinità recettoriale di nuovi ligandi dei recettori sigma. I recettori sigma sono coinvolti nella modulazione e nella biosintesi di vari neurotrasmettitori, nella regolazione di alcuni comportamenti umani e nella regolazione della vita cellulare. In particolare in questo lavoro viene presentata la creazione di un modello farmacoforico per i recettori sigma1 ed il suo successivo utilizzo come strumento predittivo per la progettazione e la sintesi di nuove molecole dotate di affinità sigma-recettoriale.
XXII Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
44

Cersosimo, Ulma. "Synthesis and Pro-apoptotic activity of Arylidene-Cyclo-Alkanones." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3519.

Full text
Abstract:
2008/2009
Screening of a small chemical library (the Developmental Therapeutics Program-National Cancer Institute "challenge set") on cells expressing mutated caspase-9, allowed the identification of two compounds, named G5 (3,5-bis(4-nitro-benzyliden)-tetrahydrothiapyran-4-one-1,1-dioxide) and F6 (3,5-bis(4-methyl-benzyliden)-4-piperidone hydrochloride) (Fig. 1), capable of activating caspases and to induce cell death with an apoptosome-independent apoptotic pathway. G5 and F6 are typified by a cross-conjugated α,β-unsatured dienone with two sterically accessible electrophilic β-carbons , a determinant that confers isopeptidase (DUBs) inhibitory activity. G5 and F6 inhibit isopeptidases (DUBs) by reacting with the sulfhydryl group of the catalytic cysteine with the olefinic carbon atoms. Infact compounds with 1,5-diaryl-3-oxo-1,4-pentadienyl pharmacophore react preferentially with thiols rather than hydroxy and amino group, so these conjugated enones may lack the genotoxic effects associated with currently used anticancer alkylating agents However it is likely that these compounds may exert their bioactivities by interacting with a number of different molecular target. Compounds wit 1,5-diaryl-3-oxo-1,4-pentadienyl pharmacophore are analogues of the natural product Curcumin, a yellow pigment obtained from the indian spice turmeric, that exhibits numerous biological activities, including anti-cancer, anti-inflammatory, anti-angiogenesis, anti-viral, anti-oxidant properties. Curcumin is selective towards neoplastic cell and it do not show toxicity in vivo. The present work consist of the studies of the synthesis and the evaluation of cytotoxic activity of a small focused library of symmetrical and non-simmetrical bis-arylidene-cycloalkanones and mono-arylidene-cycloalkanones. The aim of this work was to find a compound with a greater pro-apoptotic activity than G5. Besides a representative compound, 2f (2,6-bis(4-nitro-benzylidene)-4-hydroxy-cyclohexanone), was selected for further development and conjugated to PEG5000 to improve water solubility with the aim to start in vivo studies.
Uno screening, effettuato su cellule tumorali esprimenti una forma mutata di caspasi-9 con una piccola libreria di 57 composti inseriti nel "Challenged set" del “Developmental Therapeutics Program” (National Cancer Institute), ha portato alla identificazione di due molecole capaci di attivare un pathway apoptotico indipendente dall’apoptosoma: il chetosolfone G5 e l’analogo F6. G5 e F6 sono strutturalmente caratterizzati da un sistema coniugato α,β-insaturo e dalla presenza di due Cβ elettrofili, stericamente non ingombrati, una caratteristica che conferisce a questi composti la capacità di inibire le isopeptidasi dell'ubiquitina (DUBs). L’attività del farmacoforo 1,5-diariliden-3-oxo-1,4-pentadienile sarebbe da attribuire alla presenza dei due atomi di carbonio β fortemente elettrofili che conferiscono a queste molecole un’elevata e selettiva reattività verso i tioli cellulari piuttosto che verso i gruppi ossidrilici o amminici, questo lascia supporre che questi composti potrebbero essere privi degli effetti genotossici associati all’uso degli attuali chemoterapici. Il raggruppamento 1,5-diariliden-3-oxo-1,4-pentadienile è strettamente analogo alla struttura di un principio attivo naturale, la curcumina, pigmento di un intenso colore giallo-arancio, estratto dal rizoma di Curcuma Longa e noto già da tempo per le sue numerose attività biologiche, quali: antiflogistica, antiossidante, antivirale e soprattutto una considerevole attività antitumorale, attribuibile secondo alcuni studi all'inibizione della crescita cellulare, all’inibizione dell’angiogenesi e all'induzione dell'apoptosi. Il lavoro di dottorato, che viene qui presentato, è stato focalizzato sullo studio della sintesi e dell’ attività come attivatori della apoptosi in cellule neoplastiche di una piccola libreria di bis-arilidene-cicloalcanoni, simmetrici e asimmetrici, e mono-ariliden-cicloalcanoni analoghi di G5, al fine di ottenere una maggiore citotossictà e indagare le relazioni struttura-attività.. Inoltre il composto 2f, dotato di buona attività citotossica, è stato successivamente scelto per ulteriori sviluppi e coniugato al PEG5000 con lo scopo di aumentarne la solubilità in acqua e intraprendere gli studi in vivo.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
45

Cimador, Gianni. "La riscrittura dei generi letterari in Italo Calvino." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3477.

Full text
Abstract:
2008/2009
Nella mia Tesi di Dottorato ho voluto analizzare i rapporti tra la narrativa di Italo Calvino e la letteratura di massa, tenendo presente la logica della formalizzazione, che, soprattutto a partire dagli anni Sessanta, caratterizza le opere dell’autore e nella quale rientra anche il primato strutturale assegnato alla fiaba. Mi sono concentrato in particolare sul rapporto con i generi letterari: in Calvino, il loro recupero si verifica in modo singolare, insieme alla loro trasmutazione, in un processo di trasferimento e dinamismo intertestuale che coinvolge dialogicamente forme di comunicazione diverse. Sin da Il sentiero dei nidi di ragno emerge una tendenza alla pluridiscorsività: se il modello della fiaba è presente come archetipo del racconto di avventura e di prova nei modi di una narrativa picaresca, su questo paradigma ideale si innestano soluzioni del romanzo realistico, di quello intimista, procedimenti euristico-retrospettivi propri dell’ intreccio “giallo”, esplicite citazioni fumettistiche e cinematografiche, formule espressive riprese dalla paraletteratura di consumo, come i canti popolari, gli album di avventure colorati o i “Supergialli”, entrate ormai a far parte dell’immaginario collettivo e, quindi, immediatamente accessibili e ‘leggibili’. Calvino dimostra come un unico macrogenere popolare possa traghettare istanze assimilabili attraverso mezzi di comunicazione di massa e materie espressive differenti e, contemporaneamente, offrire un ritratto in sezione di un periodo, pervaso e attraversato dalle medesime tendenze culturali e sociali che trovano in esso varie manifestazioni intertestuali. Il riutilizzo dei generi si verifica nei termini di una “riscrittura”: essi sono sottoposti a una continua parodizzazione e a varie interpolazioni. Si crea in questo modo un vivace dialogismo di allusioni intertestuali che agiscono come tropi, distogliendo l’attenzione da un testo e indirizzandola verso un altro, una “retorica dell’imitazione” che effettivamente allarga i confini testuali, anche oltre la tradizione letteraria stessa, fino a comprendere le forme di comunicazione di massa. Nei racconti cosmicomici, Calvino realizza esemplarmente l’intreccio di livelli “alti” e di livelli “bassi”, utilizzando le modalità della letteratura di massa, capace di dare ai propri lettori “in modi realistici o fantasiosi, diretti o metaforici […] una visione epica di sé e del mondo in cui vive”, presentando “eroi con i quali identificarsi” (cfr. l’introduzione di Giuseppe Petronio a Letteratura di massa, letteratura di consumo, Laterza, Roma-Bari 1979, p. LXXI). Calvino sembra consapevole del fatto che la riscrittura dei generi si esponga inevitabilmente al rischio del convenzionale e della banalizzazione, anche se è proprio su questo fronte che lo scrittore ligure de-ideologizza la letteratura di consumo e la sua “fame di ridondanza”, intrinsecamente più ideologiche della controparte elitaria nella misura in cui contribuiscono alla produzione di una “falsa coscienza” o a ciò che gli autori di “Calibano” chiamano “coscienza inconsapevole”, oltre ad arrivare alle stesse conclusioni di Ullrich Schulz-Buschhaus, per il quale “l’autentico è in fondo tanto irraggiungibile quanto il convenzionale è inevitabile (altrimenti non vi sarebbe comunicazione)” (cfr. il fondamentale articolo Critica e recupero dei generi. Considerazioni sul “moderno” e sul “postmoderno”, apparso in “Problemi”, XXIX, 101, gennaio-aprile 1995, pp. 4-15): chiunque operi nell’orizzonte della letteratura di massa deve ormai convivere con questo presupposto, sviluppandone le potenzialità costruttive e i connotati ludici. L’instabilità dei generi, oscillante tra riflessività meta testuale e parodia, ne porta al limite le strutture, le dissipa: da questa “produzione per dissipazione” deriva un nuovo supergenere di ricerca, risultato del riconoscimento dell’esistenza di altri generi, appartenenti alla letteratura di consumo. L’accento posto da Calvino sull’automazione del principio costruttivo è un punto di collegamento ancora poco approfondito tra la letteratura di massa e l’esperienza oulipiana: il progetto de L’incendio della casa abominevole è in piena consonanza con Todorov, che vede nel romanzo poliziesco il prodotto più rappresentativo delle narrazioni di massa, caratterizzate dalla conformità integrale alle norme del genere. La detection story, schema assai frequentato e rielaborato da Calvino, conserva il senso di un gioco di enigmistica, di una combinazione di incastri che produce effetti inattesi: in quanto meccanismo puro, individua la struttura paradigmatica di ogni narrazione. L’attenzione ai generi di una narrativa di intrattenimento è inscindibilmente legata alla riabilitazione del “romanzesco”, teorizzata in saggi come Il romanzo come spettacolo, dove Calvino insiste sulla necessità di chiudere i conti con il programma di dissoluzione delle forme letterarie delle avanguardie, ispirato a Flaubert, recuperando invece le modalità con cui Dickens presentava i suoi romanzi, in performances recitate, integrate da illustrazioni e dalle reazioni del pubblico. Per Calvino il recupero del “romanzesco” nelle forme della letteratura di massa non inflaziona ma innova realmente i modi della letteratura sperimentale, nel senso di una concezione epistemologica della finzione, di una interattività tra autore e lettore, che prefigura già il modello reticolare ipertestuale, nel quale si traduce l’idea calviniana di una enciclopedia aperta e in continua trasformazione: da questo punto di vista il libro più compiuto di Calvino sono Le città invisibili, dal momento che, come dice l’autore stesso, “ho potuto concentrare su un unico simbolo tutte le mie riflessioni, le mie esperienze, le mie congetture […] ho costruito una struttura sfaccettata in cui ogni breve testo sta vicino agli altri in una successione che non implica una consequenzialità o una gerarchia ma una rete entro la quale si possono tracciare molteplici percorsi e ricavare conclusioni plurime e ramificate”(cfr. Italo Calvino, Esattezza, in Lezioni americane. Sei proposte per il prossimo millennio, Garzanti, Milano 1988, p. 40). Oltre a Le città invisibili, nella mia ricerca ho dedicato una particolare attenzione a Se una notte d’inverno un viaggiatore, opera nella quale i dieci inizi di romanzo rappresentano altrettante tipologie di “romanzesco” moderno, da quello della neoavanguardia a quello realistico-politico, da quello geometrico-metafisico a quello erotico-orientale e latinoamericano, da quello esistenziale tipico del neorealismo a quello fantastico-surreale: si tratta di dieci “stili di storie”, di un repertorio delle diverse possibilità del narrabile, che conducono a una vera e propria enciclopedia delle forme narrative fra le quali tanto il lettore specialista, più esigente, quanto quello letterariamente più ingenuo possono trovare degli aspetti vicendevolmente avvincenti. Il vero tema del romanzo è infatti la testualità, nei suoi vari aspetti, compresi quelli delle dinamiche della destinazione e della “codificazione eteronoma”, ovvero delle esigenze esterne del mercato culturale e massmediologico che sembra trasferire la stratificazione della produzione letteraria, dei diversi target, all’interno dell’opera stessa, per poter raggiungere contemporaneamente più categorie possibili di lettori, un obiettivo che si pone anche la letteratura di massa. Non solo in Se una notte il frantumarsi dell’oggettività realistica, che segna la “dissoluzione novecentesca del romanzo”, determina l’oggettivarsi della tecnica dell’intreccio che viene considerata in sé, come un ghirigoro geometrico portando alla parodia, al gioco del romanzo costruito “romanzescamente”, una strategia che però diventa momento di consapevolezza. La soluzione calviniana per ovviare alla situazione di impasse creta dal “canone dell’interdetto” e dall’estremo nominalismo dell’arte moderna, è il romanzo di recupero, nel quale avviene il ritorno ai generi e alle tecniche narrative di un passato rifiutato dalle avanguardie novecentesche (gotico, storico, avventura, favola, fiaba) attraverso i generi e le tecniche narrative di un presente, o passato prossimo, emarginato (rosa, giallo, Thriller, spionistico, fantascienza, fantasy, western, porno). La mia Tesi parte dal rapporto bifronte di Calvino con la neoavanguardia, che ha innescato inevitabilmente la riflessione dello scrittore ligure, rappresentando anche un momento di consapevolezza teorica, sebbene egli abbia manifestato, nel corso dei vari periodi, ripensamenti e sebbene le sue opere non siano sempre coerenti con le dichiarazioni di principio. Il primo capitolo della Tesi mette in luce il costante confronto e la rielaborazione di filoni, generi e modelli letterari “classici”, nell’ottica della trasmutazione, cioè di un processo di continuo trasferimento e dinamismo intertestuale. Nel secondo capitolo vengono prese in esame le “declinazioni”, più o meno ibride e “allotropiche”, che alcuni generi letterari hanno assunto nell’opera calviniana, risemantizzando i meccanismi e le stilizzazioni della “paraletteratura”: al riguardo, sono state un’ottima base di partenza le ricerche promosse dal Dipartimento di Italianistica dell’Università degli studi di Trieste sulla Triviallitteratur. Il terzo capitolo è dedicato alle forme di “saggismo” presenti nella narrativa di Calvino: a partire dalle forme del genere letterario in cui, come sottolinea Berardinelli, “la letterarietà arriva più tardi”, si impone una ridefinizione dei confini del letterario e del concetto stesso di letterarietà, diventa urgente una nuova formulazione dei “canoni”, finora eccessivamente subordinata a generi “forti”. In questa prospettiva Calvino sottolinea l’attualità di Galileo e di Leopardi, che, insieme all’ Ariosto, costituiscono per lo scrittore una sorta di “microcanone”. Il quarto capitolo prende in esame alcuni fenomeni di “effetto rebound”, ovvero di quell’ “effetto di risonanza” di un medium su un altro, di permeabilità delle loro strutture, che interessa anche il sistema dei generi in un’epoca contrassegnata dal dominio del visivo: alla crisi dei linguaggi artistici corrisponde un diffuso processo di estetizzazione della vita e di ogni forma di relazione attraverso il dominio dei mass media, che è la riproposta, di segno invertito, della tensione utopica delle avanguardie a inglobare tutte le forme di comunicazione per riscattare l’esistenza
XXII Ciclo
1975
APA, Harvard, Vancouver, ISO, and other styles
46

Fattor, Diana. "Stability and stabilization of industrial biocatalysts." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7778.

Full text
Abstract:
2010/2011
Catalytic potential of enzymes is not fully exploited at industrial level and in chemistry due to technical difficulties and long time required for development of new processes. The main issues are: 1) The choice of the biocatalyst and the planning of reaction conditions still relies largely on empirical approaches, leading to long experimental studies; 2) There is still a short knowledge about molecular phenomena occurring in the microenvironment surrounding the enzyme and affecting biocatalyst efficiency; 3) The experimental systems are very complex and influenced by a wide number of experimental variables that cannot be monitored nor measured. This is particularly true when immobilized enzymes are considered. 4) Enzymatic preparations available on the market are not homogeneous in their components and protein content. The present study concerned the stability of both native and immobilized enzymes in aqueous media, aqueous/organic solvent mixture and low water media (either organic solvent or neat substrates). Moreover, thermal stability and effect of microwave radiations was also considered. The enzymes taken into consideration were lipases (hydrolases EC 3.1.1.3), and laccases (oxydoreductases EC 1.10.3.2). Aiming at overcoming the above mentioned limitations, this research was focused on the combination of experimental and computational approaches to: a) analyze enzyme stability under potentially denaturing conditions (polar solvents, temperature, microwave radiation) trying to identify by molecular descriptors for constructing correlation models (chapters 1 and 3); b) stabilize biocatalysts through immobilization while preserving catalytic activity (chapter 2); c) investigate experimentally the impact on immobilized biocatalysts of stabilizers and additives present in native crude enzyme preparations (chapter 4). The computational methods used for this study are Molecular Dynamic simulations (MD) that, together with experimental data, tried to explain changes in the protein structure and thus evaluate their stability in a given environment to better understand the behaviour of a biocatalyst. The study of the stability of native lipases in water-solvent monophasic systems has pointed out how the three lipases considered (Candida antarctica Lipase B, Pseudomonas cepacia Lipase and Rhizopus oryzae Lipase) behave very differently. Organic solvents for some extent can even mimic more efficiently the physiological environment of lipases, since in nature they are not working on soluble substrates in diluted aqueous solutions. When another class of enzymes, such as laccases, were taken into account, the stability of the different proteins (Laccase from Basidiomycetous Panus tigrinus, Lentinus strigosus and Steccherinum ochraceum) resulted to be strongly dependent on the extent of glycosylation and not only on the protein structure. Again, the heterogeneity of the glycosylation pathways makes the construction of any rational model, based on enzyme structures, quite a formidable task. These observations suggest that when working with native enzymes each protein must be studied separately even if belonging to the same class. Therefore, general conclusions and models are hardly applicable when planning stabilization strategies in biocatalysis. This is also important when designing immobilization protocols aiming at stabilizing enzymes. Furthermore, when these proteins are immobilized, not only structural features of the enzymes must be considered but also the formulation of the native biocatalyst resulted to play a key role in the performances of the resulting immobilized protein. Additives and stabilizers are often the predominant components in commercial enzymatic preparations which most often are produced for different scopes than biocatalysis (e.g. formulation of detergents) and inevitably severely affect the efficiency of immobilization strategies. Although, the purification of the protein would be desirable for avoiding the interference of non-enzymatic components. It must be underlined that the use of very crude enzymatic preparations is generally mandatory at industrial level when the cost of the immobilized biocatalyst has a major impact on the economic sustainability of the process. Therefore, enzymes to be applied in biocatalysis ideally should be fermented and processed according to tailored and optimized protocols, which enable the full exploitation of the catalytic potential of the enzyme upon immobilization. In conclusion, a larger and most efficient exploitation of enzymes in novel biotransformations will be feasible only through a strict integration of all the technological steps leading to the development of effective and economically competitive biocatalysts.
XXIV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
47

Palladino, Nicola. "Controlli doganali e sicurezza portuale." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8601.

Full text
Abstract:
2011/2012
Il tema della tesi di dottorato si propone di rispondere ad alcuni quesiti che riguardano aspetti cruciali del traffico internazionale delle merci, rispetto alle innovazioni normative degli ultimi anni. In particolare ci si vuole riferire al ruolo del controllo di sicurezza doganale, che deve muoversi parallelamente all’applicazione delle procedure dirette a velocizzare i traffici (quelli leciti, naturalmente). Infatti, secondo il nuovo Codice Doganale Comunitario, il ruolo delle Autorità Doganali comunitarie è radicalmente cambiato, passando da quello di “anello di una catena” (ruolo ostico ed osteggiato, anziché visto come ruolo di garanzia) a quello di supervisore settoriale della liceità e sicurezza dei trasporti. La questione si rivolge ai porti marittimi, giacchè la stragrande maggioranza dei traffici commerciali mondiali si svolge via mare ed è su tale settore, quindi, che le attenzioni degli Operatori si sono rivolte per garantire ed assicurare il massimo rendimento (o un giusto equilibrio) tra le agevolazioni accordate e concesse dalle norme vigenti ed i livelli di “security”. In tale prospettiva, infatti, Organizzazione ed Istituzioni, nazionali ed internazionali, hanno sentito la necessità di affrontare questioni molto scottanti e specifiche, che riguardano la sicurezza degli stati e delle proprie infrastrutture, nonché la sicurezza dei cittadini, intesa in senso lato, quale “security” e “safety”. Il lavoro svolto si articola in tre parti: - Nella prima parte (capitolo 2) viene inquadrato il problema della security nei trasporti marittimi e nei porti: la domanda posta riguarda il perché si siano considerati a rischio sicurezza i porti ed il traffico commerciale via mare. Vengono evidenziati gli elementi di base che coinvolgono la sicurezza nei porti, con una panoramica di dati e grafici legati alle tipologie, quantità e crescita dei traffici commerciali marittimi, individuando, poi, i vari aspetti del significato di “security” nel traffico commerciale via mare e nella sicurezza degli impianti portuali; - Nella seconda parte (capitoli 3 e 4) vengono evidenziati gli ambiti di intervento dei controlli di sicurezza, relativamente ai settori maggiormente a rischio: si passa dall’immigrazione clandestina, al traffico di armi e di distruzione di massa, al traffico di stupefacenti, al traffico di rifiuti, al riciclaggio di denaro legato alle attività di gruppi criminali e terroristici. Prosegue questa parte con l’analisi dell’attività dell’Autorità Doganale, con i raccordi a livello dell’Unione Europea, evidenziando gli strumenti normativi ed organizzativi a disposizione: dalle norme del Nuovo Codice Doganale Comunitario, ai compiti propri della Dogana in materia di controlli di sicurezza, al raccordo comunitario del management in tale materia, alle varie raccomandazioni pervenute tramite l’Organizzazione Mondiale delle Dogane. E’ proprio l’organizzazione del management e la struttura dei controlli doganali che si evidenziano con maggior forza, poiché la struttura comunitaria di management (Common Risk Management System), l’attività di analisi dei rischi e previsionale, l’acquisizione anticipata dei dati relativi ai traffici commerciali marittimi (Entry Summary Declarations, ENS, e le Export Summary Declarations, EXS), consentono di interagire a più livelli tra i vari Enti, pubblici e privati, per migliorare ed alzare un maggior livello di contrasto ai fini della sicurezza, con una “compliance” come nel caso degli A.E.O. (Operatore Economico Autorizzato); - La terza parte (capitolo 5) è dedicata ad un’analisi della valutazione dei costi legati alla sicurezza dei controlli doganali; si sviluppano alcune teorie riguardo alla molteplicità degli interventi in tale ambito, che fanno emergere una oggettiva difficoltà di valutazione di tali studi, data la rilevante presenza di variabili riguardo alla prevenzione, al contrasto ed alla repressione di attività e commerci a rischio sicurezza, per analizzare più nel dettaglio una serie di studi effettuati negli Stati Uniti d’America relativamente ad ipotesi di attacchi terroristici nei porti di Los Angeles e Long Beach, ove l’attenzione è stata posta sull’impatto economico derivante da danni alle infrastrutture portuali ed alle ricadute nel medio-termine sull’economia locale, più che su quella di scala nazionale. Gli unici riferimenti reali, comunque, si riferivano a dati conosciuti, riguardanti l’impatto di uno sciopero degli operatori portuali nel 1962 ed i costi sostenuti a seguito dei danni prodotti dall’uragano Katrina nel porto di New Orleans. Il capitolo 6 è indirizzato alle conclusioni del lavoro. In particolare, riferendosi innanzitutto all’introduzione (capitolo 1), il problema era stato inquadrato nell’ambito dei controlli di sicurezza previsti a livello comunitario sul traffico marittimo delle merci e sugli oneri posti in carico alle varie Autorità Doganali a seguito degli attacchi terroristici, iniziati con l’attacco alle Torri Gemelle di New York l’11 settembre 2001. Il costante aumento dei traffici commerciali via mare ed il potenziale rischio di attacchi al territorio ed ai cittadini dell’Unione Europea perpetrabili attraverso il commercio internazionale hanno posto le basi per una stringete attività in materia di controlli doganalui di sicurezza. Il compito che si è proposta l’Unione Europea e le Autorità Doganali dei paesi Membri è quello di trovare un giusto equilibrio tra la velocizzazione delle procedure doganali ai fini di una maggiore fluidità dei trasporti e l’efficacia di controlli, intesi ad assicurare una ragionevole sicurezza sia ai cittadini dell’Unione, che ai commerci, per finire alla sicurezza legata alla salute ed all’ambiente, il tutto con una sostenibilità dei costi che non fosse sproporzionata rispetto alle attese. Lo scopo indiretto era anche quello di provare a delineare un quadro degli aspetti di controlli di security nell’ambito delle attribuzioni del Punto Franco di Trieste. E si è individuata, così, la possibilità che lo status di Punto Franco, unito alle norme già esistenti in tema di depositi fiscali e doganali, insieme alla previsione normativa comunitaria ancora da attuare, connessa al luogo di presentazione delle dichiarazioni doganali (ufficio doganale più vicino al luogo di residenza dell’operatore), unitamente alle procedure doganali in materia di controlli di sicurezza ed alla logistica ed all’informatizzazione delle movimentazioni delle merci nel Punto Franco stesso, possa divenire un sistema, uno strumento cui poter attingere per migliorare e sviluppare i traffici marittimi, in considerazione del fatto che il porto, con tutti i magazzini già esistenti, potrebbe essere visto come un enorme distripark, smistamento di merci (quasi) in linea, sia in entrata che in uscita dal territorio dell’Unione, dal moment o che la stessa normativa comunitaria permette l’uso dei depositi nel Punto Franco per lo stoccaggio di merci allo stato estero, da un lato, e merci nazionali e comunitarie, dall’altro.
XXIV Ciclo
1961
APA, Harvard, Vancouver, ISO, and other styles
48

Rebulla, Elena. "Psychological reaction to life’s traumas: well-being and trauma among college nursing students." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10073.

Full text
Abstract:
2012/2013
The present study examined the relationship between symptoms of post-traumatic stress, resilience, and growth in undergraduate students attending the University of South Florida, College of Nursing, in Tampa. Some trauma survivors will demonstrate negative reactions to trauma, some will not demonstrate any post-trauma symptoms, while some individuals will show positive reactions. This study investigated how, in a sample of nursing students, the psychological factors associated with adverse reactions, resiliency, and post-traumatic growth occur. The identification of these factors within a nursing population can be used to better understand these reactions as well as aid in training nurses to improve their role as health care providers. The relationships among three major areas of interest were investigated: negative reactions, resilience, and growth, using the following standardized scales and their subscales, as well as looking at moderators that may impact on these relationships. This study used on-line survey methodology. Surveys included Demographic information, Traumatic Event Questionnaire (TEQ), Post-Traumatic Growth Inventory (PTGI), Response to Stressful Experience Scale (RSES), PTSD Checklist-Civilian Version (PCL-C), Self-Compassion Scale (SCS), Multidimensional Scale of Perceived Social Support (MSPSS), and Center for Epidemiologic Studies Depression Scale (CES-D). The study population consisted of 115 undergraduate students. PCL-C total scores were significantly positively correlated with CES-D. Higher PCL-C scores were associated with higher CES-D scores. PCL-C scores were significantly negatively associated with other instrument scores such as PTGI and RSES. A hierarchical regression model was used to model the association of depression, self-compassion, growth, resilience, and social support on post-traumatic stress. The overall model significantly predicted PCL symptoms and explained a significant proportion of variance. Depression was the largest significant predictor of post-traumatic stress. Depression also explained a significant proportion of variance in post-traumatic stress. A hierarchical regression model was used to model the association of resilience, PCL-C, self-compassion, social support and depression on post-traumatic growth. The overall model significantly predicted post-traumatic growth and explained a significant proportion of variance. Resilience was the largest significant predictor of post-traumatic growth. Resilience also explained a significant proportion of variance in post-traumatic stress. A hierarchical regression model was used to model the association of post-traumatic growth, depression, PCL-C, self-compassion, and social support on resilience. The overall model significantly predicted resilience and explained a significant proportion of variance. Post-traumatic growth was the largest significant predictor of resilience. Post-traumatic growth also explained a significant proportion of variance in resilience. This study supports previous notions that psychological distress and growth can coexist and are indeed related. Helping trauma survivors develop self- compassion and acceptance may prove to be of great benefit in finding positive outcome from life’s traumas'. Findings may guide interventions with other populations who experience PTSD and other post trauma reactions.
XXVI Ciclo
1967
APA, Harvard, Vancouver, ISO, and other styles
49

Leon, Luca. "Le bevande alcoliche: dalla definizione dei bisogni le indicazioni per la realizzazione di un ospedale promotore di salute." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10851.

Full text
Abstract:
2013/2014
Diverse fonti autorevoli concordano che una parte rilevante dei decessi registrati nella popolazione generale e fra i giovani adulti siano riconducibili allo stile di vita agito - all’alimentazione, all’attività fisica, al fumo di tabacco ed alle bevande alcoliche - e da tempo le Istituzioni socio-sanitarie consapevoli del problema stanno promuovendo azioni di prevenzione e promozione della salute finalizzate alla riduzione del rischio ad essi correlato. Tuttavia, l’interpretazione di queste azioni di prevenzione e promozione della salute sono molteplici, frammentarie, poco verificate e verificabili ed a volte discordanti con la conseguenza che è difficoltoso riconoscere chiaramente le ricadute in termini di efficacia, efficienza e trasferibilità degli interventi proposti. Infatti, il più delle volte, contravvenendo alle indicazioni proposte dal Piano Nazionale della Prevenzione, risulta deficitaria, talvolta poco affidabile, l’analisi della situazione sulla quale si vuole intervenire con la conseguenza che: - la scelta degli interventi da mettere in atto viene lasciata all’interpretazione dei singoli operatori afferenti alle diverse istituzioni o strutture; - non viene resa possibile, qualora prevista, una corretta valutazione della efficacia degli interventi. Infine, le contraddizioni - culturali, professionali, di competenza…– condizionano la comunicazione e le relazioni tra gli operatori medici e non medici attori dell’intervento - medici, infermieri, assistenti sociali, educatori, insegnanti, psicologi…- ed i destinatari dell’azione - popolazione generale, in età pediatrica, adolescenti, gravide, genitori….- con il risultato che la mancata condivisione di saperi, comportamenti e atteggiamenti può, di fatto, limitare pesantemente l’efficacia dell’azione preventiva e di promozione della salute. Fra gli stili di vita l’uso delle bevande alcoliche viene riconosciuto da più parti15,16 come il più diffuso dei fattori di rischio evitabili per la salute, coinvolge la stragrande maggioranza della popolazione generale17 , una parte della quale consuma alcolici quotidianamente e il loro consumo “non eccessivo”, decisamente sottovalutato e confuso, è accettato e condiviso. A tal proposito questo studio si propone di descrivere, a partire dalla letteratura di riferimento, l’impatto delle bevande alcoliche sulla salute della popolazione italiana, le evidenze in merito ai modelli di consumo alcolico ed i rischi ad esso correlati, le politiche di contrasto e le buone pratiche messe in atto al fine di dar risposta a questo bisogno di salute. Così come consiglia il Piano Nazionale per la Prevenzione la ricerca sperimentale ha come obiettivo la definizione dei bisogni in merito alle abitudini alcoliche delle donne in gravidanza, della popolazione giovanile nell’arco di un ventennio (1989 -2013) e dei futuri operatori della salute in modo da definire le possibili linee di intervento attuabili nel contesto dell’ospedale promotore di salute. Vale la pena di puntualizzare che i programmi di prevenzione e promozione della salute si caratterizzano per un’iniziazione precoce, un’azione continua e monitorata nel tempo e supportata da conoscenze scientifiche aggiornate. Pertanto la scelta di coinvolgere nella ricerca le donne in gravidanza è motivata dal fatto che già dalla programmazione di una genitorialità responsabile genitori e famiglia devono rendersi conto, in maniera critica e responsabile, che il loro stile di vita condizionerà quello del nascituro e che uno stile di vita scorretto è un rischio sia per loro che per i figli. Per quanto riguarda gli adolescenti questi risentono dei comportamenti degli adulti significativi e sono i possibili utenti di un intervento di promozione della salute. Si può pertanto ipotizzare che la valutazione dei bisogni di questa popolazione consenta di definire l’eventualità di un intervento di prevenzione e promozione della salute mirato a correggere conoscenze comportamenti, abitudini ed atteggiamenti scorretti e/o mantenere e potenziare uno stile di vita più favorevole alla salute. In fine, avendo chiaro che i futuri operatori della salute, nell’ambito dell’esercizio della loro professione, saranno chiamati a programmare ed attuare interventi di prevenzione e promozione della salute è richiesto loro, per il fatto che ricoprono un ruolo educativo, di possedere competenze – sapere - coerenti con i loro comportamenti – saper fare e saper essere -. La ricerca su questa particolare popolazione - futuri operatori della salute - darà risposte in merito al loro back ground culturale, ai comportamenti ed agli atteggiamenti nei confronti delle bevande alcoliche e fornirà indicazioni sulle specifiche competenze e le eventuali criticità presenti al termine del percorso di formazione. Queste informazioni costituiranno il patrimonio culturale di base da spendere al fine di intervenire in maniera mirata sulla programmazione didattica dei Corsi di Laurea per rispondere ai bisogni culturali evidenziati. Lo studio vuole descrivere le caratteristiche delle popolazioni contattate - gravide, adolescenti, futuri promotori della salute -, i bisogni rilevati in merito alle bevande alcoliche e la correlazione tra le abitudini alcoliche delle popolazioni coinvolte e quelle del contesto famigliare di provenienza. Tutto ciò per comprendere le eventuali azioni di promozione della salute che si potrebbero proporre per rispondere in maniera efficace e verificabile nell’ambito di un ospedale promotore di salute.
XXVII Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
50

Cellot, Giada. "Towards new generation of neuro-implantable devices : engineering neuron/carbon nanotubes integrated functional units." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3663.

Full text
Abstract:
2008/2009
Le nanotecnologie sono un campo delle scienze che utilizza materiali e dispositivi ingegnerizzati aventi la più piccola organizzazione funzionale a livello di dimensioni nanometriche. Questo implica che nanodispositivi e nanomateriali possano interagire con i sistemi biologici a livello molecolare con un elevato grado di specificità. É largamente accettato che l’applicazione delle nanotecnologie nell’ambito delle neuroscienze abbia un forte potenziale (Silva, 2006). In questo contesto, i nanotubi di carbonio (CNT), un’innovativa forma di carbonio composta da strutture tubulari di grafite dalle dimensioni nanometriche dotate di buone proprietà di conduzione elettrica, si sono dimostrati promettenti candidati per sviluppare la tecnologia di dispositivi impiantabili in ambito biomedico. Diversi studi hanno dimostrato la biocompatibilità dei substrati di CNT per i neuroni in termini di adesione, crescita e differenziamento cellulare (riassunti in Sucapane et al., 2009). Al fine di aumentare la nostra conoscenza riguardo alle interazioni presenti in sistemi ibridi formati da CNT e neuroni, abbiamo caratterizzato l’attività di reti neuronali cresciuti su supporti di CNT attraverso la tecnica del patch clamp. Il nostro gruppo ha riportato che circuti neuronali cresciuti in vitro su substrati di CNT presentano un’aumentata attività sinaptica spontanea rispetto al controllo a fronte di comparabili proprietà base (proprietà passive di membrana, morfologia e densità dei neuroni) delle colture nelle due condizioni di crescita (Lovat et al., 2005). Si è quindi ipotizzato che tale aumentata attività spontanea potesse originare da una modificazione nel modo in cui i singoli neuroni generano il segnale elettrico. A tal fine, si sono monitorate variazioni nelle proprietà elettrogeniche di singoli neuroni, utilizzando un protocollo standard per caratterizzare l’integrazione di potenziali d’azione retropropaganti nei dendriti (Larkum et al., 1999). In configurazione current clamp, attraverso brevi iniezioni di corrente nel soma della cellula, abbiamo indotto una serie di regolari potenziali d’azione (PA) a varie frequenze nel neurone sotto registrazione, quindi abbiamo studiato la presenza di un’addizionale depolarizzazione somatica dopo l’ultimo PA del treno. Abbiamo osservato che neuroni di controllo mostrano nella maggioranza dei casi una iperpolarizzazione (AHP) del potenziale di membrana dopo l’ultimo PA del treno, mentre una depolarizzazione (ADP) è presente solo in una piccola quota di casi. In presenza di CNT, invece, l’ADP risulta essere l’evento predominante. L’ADP è inoltre abolita dall’applicazione di CoCl2, un bloccante non specifico dei canali calcio voltaggio dipendenti. Per di più, l’area dell’ADP può essere diminuita dall’applicazione di nifedipina (10 μM) e l’ulteriore coapplicazione di NiCl2 (50 μM) elimina totalmente l’ADP, suggerendo che sia i canali calcio voltaggio dipendenti ad alta soglia di attivazione, sia quelli a bassa soglia, siano coinvolti in questo processo (Cellot et al., 2009). Attraverso la microscopia elettronica a trasmissione (TEM) e, più recentemente, mediante quella a scansione (SEM) è stata messa in evidenza la presenza di discontinui punti di stretto contatto tra CNT e membrane neuronali: la nostra ipotesi è che tali strutture ibride siano in grado di favorire la retropropagazione dei PA nei dendriti distali. La maggiore eccitabilità a livello del singolo neurone, inoltre, potrebbe essere responsabile dell’incremento di attività spontanea della rete neuronale. Abbiamo quindi ulteriormente caratterizzato l’attività della rete neuronale attraverso registrazioni da coppie di neuroni, dove il neurone presinaptico veniva stimolato ad avere treni di potenziali d’azione a 20 Hz in configurazione current clamp e simultaneamente il neurone postsinaptico era monitorato in configurazione voltage clamp per vedere la presenza o l’assenza di una risposta sinaptica. I nostri esperimenti indicano che la probabilità di trovare connessioni monosinaptiche gabaergiche tra neuroni è aumentata in presenza di CNT (56% vs 40% in controllo). Inoltre, è stato rilevato un ulteriore effetto dei CNT sulla plasticità a breve termine delle sinapsi: nelle condizioni di controllo, treni di potenziali d’azione nella cellula presinaptica evocano nella cellula postsinaptica nel 90% dei casi una chiara depressione nell’ampiezza di consecutivi ePSCs, mentre solo in meno del 10% è possibile rilevare una facilitazione. Al contrario, in presenza di CNT, nel 39% delle coppie, il neurone postsinaptico risponde in modo chiaramente facilitativo. Nelle più recenti serie di esperimenti, abbiamo voluto indagare più approfonditamente l’origine di questa modificazione in termini di plasticità sinaptica; a tal fine, abbiamo trattato neuroni in controllo e su CNT con tetrodotossina 1 µM per 5 giorni, al fine di bloccare completamente l’attività elettrica della rete neuronale, e abbiamo compiuto delle registrazioni da coppie di neuroni. Mentre la risposta prevalentemente di depressione dei controlli non è modificata da tale trattamento, neuroni cresciuti su substrati di cnt in condizioni di blocco dell’attività elettrica non presentano più sinapsi con caratteristiche di facilitazione, ma hanno un comportamento simile ai contolli. Questi risultati indicano che la facilitazione è una proprietà tipica di sinapsi attive sviluppatesi in presenza di CNT.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography