Dissertations / Theses on the topic 'SCUOLA DI DOTTORATO DI RICERCA IN FINANZA'

To see the other types of publications on this topic, follow the link: SCUOLA DI DOTTORATO DI RICERCA IN FINANZA.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'SCUOLA DI DOTTORATO DI RICERCA IN FINANZA.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Asic, Viktor. "Attività di gestione patrimoniale di una società di gestione del risparmio." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4495.

Full text
Abstract:
2009/2010
Riassunto della tesi di dottorato Titolo: “Attività di gestione patrimoniale di una società di gestione del risparmio” Le società di gestione di risparmio costituiscono il “new vehicle” orientato alla gestione per conto di terzi di portafogli mobiliari. Note con l’acronimo di SGR, le società in questione rappresentano un intermediario finanziario che negli ultimi anni ha assunto notevole importanza grazie ai progressi e alle prospettive offerti dalla nuova normativa che disciplina l’intermediazione finanziaria e grazie alle rinnovate esigenze di razionalizzazione dei servizi finanziari. La gestione del risparmio corrisponde all’investimento di milioni di euro in titoli di società quotate in borsa. Il capitale che vi si impiega è alimentato dai risparmi di un’estesa collettività di persone, ma anche da investimenti assicurativi e previdenziali (investimento delle riserve matematiche e tecniche delle imprese di assicurazione, investimento del fondo trattamento fine rapporto, ed altri dipendenti da processi di previdenza sociale). E’ proprio l“asset management” a rappresentare una vasta opportunità di profitto. Dato che sul mercato italiano sono sempre più presenti banche e assicurazioni a capitale estero, il management delle società di gestione di risparmio testimonia anche una sfida sul piano delle tecniche più evolute e competenze sia ai fini della gestione che nell’offerta dei prodotti e servizi finanziari. Nel presente lavoro si è cercato di ricostruire un quadro sufficientemente completo per interpretare il ruolo che una società di gestione del risparmio (SGR) svolge sul mercato del risparmio gestito e del mercato finanziario nel suo insieme, esaminandone la struttura e l’attività di gestione patrimoniale che la caratterizza. Oggetto di questa tesi è, per l’appunto, lo studio dell’attività delle società di gestione del risparmio. Il presente lavoro di tesi si articola in più parti. La prima parte evidenzia il ruolo della società di gestione del risparmio nel sistema finanziario e l’importanza di tale servizio per la stabilità dei mercati finanziari e dell’economia in genere e il ruolo delle istituzioni rilevanti collegate. Tratta anche le principali categorie dei fondi d’investimento: fondi comuni, hedge funds, fondi di fondi, index funds, ETF – exchange traded funds. La seconda parte descrive indici di performance dei portafogli (indici di Jensen, Treynor e Sharpe), asset allocation strategica, rendimento dei portafogli, prodotti e strumenti finanziari (titoli corporate e titoli di stato, azioni), indici di borsa (price, value weighted e unweighted). La terza parte evidenzia in concreto una società di gestione di risparmio italiana, l’attività di gestione patrimoniale per segmento, i fondi pensione aperti come underlying asset, il benchmark quale parametro oggettivo, l’andamento dei mercati finanziari e le prospettive degli stessi. La quarta parte si occupa dell’analisi di portafoglio vs rendimento, con riguardo a fondi pensione aperti, per linea d’investimento, con i rispettivi benchmark e della volatilità dei rendimenti e dei benchmark. L'ultima parte si articola in due fasi: Sintesi dei risultati e conclusioni e testi consultati e bibliografia di riferimento. Oggetto della tesi è dunque lo studio dell'efficienza operativa e della redditività delle società di gestione del risparmio attraverso l'esame di dati professionali. La tesi, in generale, sottolinea la teoria gestionale del portafoglio e gli stili di gestione, valore di capitalizzazione (valore di mercato delle azioni di una società), dati anagrafici dei titoli e oscillazione dei titoli, ed in particolare interpreta i fondi pensione aperti come “underlying asset” delle società di gestione del risparmio. La decisione di sviluppare la gestione del risparmio e la consulenza finanziaria ha assunto una forte valenza strategica per molti intermediari finanziari sia in Italia sia negli altri paesi. Per incrementare stabilmente la redditività nel comparto finanziario è necessario aumentare il valore aggiunto (added value) della propria offerta. La maggior parte dei gestori finanziari continua a porsi l’obiettivo di superare il benchmark di riferimento ma i risultati evidenziano che in molti casi il risultato stesso non è in linea con le aspettative. L’evoluzione nel mondo del risparmio gestito porterà a differenziare in modo più esplicito le gestioni passive (volte a replicare il benchmark di riferimento) dalle gestioni attive (volte al superamento dell’indice puntando sull’attività di stock picking e market timing). E’ presumibile che si possa assistere nei prossimi anni a una più netta differenziazione degli stili di gestione con una più esplicita parametrazione dei costi allo stile di gestione adottato ed ai risultati effettivamente ottenuti. Lo studio svolto ha analizzato il comportamento di fondi pensione aperti come underlying assets delle società di gestione del risparmio. L’importanza dell’asset allocation cresce con la crescita dell’orizzonte operativo (operating time) di riferimento degli investitori. In particolare i fondi pensione dimostrano quanto sia importante la ripartizione iniziale dell’investimento, attribuendo il risultato economico di un investimento su un orizzonte temporale di dieci anni all’asset allocation strategica, stock picking, market timing e altri fattori. È fondamentale ripartire in un modo efficace il capitale tra le varie asset class d’investimento (liquidità, obbligazioni, azioni, fondi comuni d’investimento, ecc). Si devono individuare le categorie di strumenti finanziari che rappresentano combinazioni rischio-rendimento similari e cosi si tende a generare i risultati indipendenti cioè con bassa correlazione. Asset allocation strategica è legata alla condizione soggettiva di chi investe ma asset allocation tattica all’analisi della situazione di mercato attesa. In futuro, lo scopo delle società di gestione del risparmio è di sviluppare l’offerta con innovative strategie di gestione attiva e passiva. Lo studio svolto ha mostrato che la gestione passiva è applicata dai gestori dei fondi comuni d’investimento che hanno come obbiettivo una composizione del portafoglio dei titoli il più possibile in linea con il valore del loro benchmark che è poi un indice di riferimento. Il risultato di questo tipo di gestione è la replica della performance dell’indice di mercato. Una buona gestione passiva è quella che rispetta il benchmark senza aumentare la volatilità del portafoglio. Se la volatilità aumenta, si sopporta un extrarischio che non è motivato dall’extra-rendimento atteso. La gestione attiva è più costosa di quella passiva. Per ottenere una buona gestione attiva è necessario sopportare un extra costo che va a remunerare un team di gestori con superiori skills le cui prestazioni sono ben al di là dei livelli raggiungibili con sofisticati software. Infine, esaminando il problema in oggetto da un osservatorio privilegiato com’è Allianz Spa e Allianz Global Investors SGR e confrontando i rendimenti delle linee d’investimento, nella gestione passiva, con i rispetivi benchmark, possiamo concludere che il successo di una società di gestione del risparmio è legato anche al fatto fi fare parte di un gruppo importante come già sottolineato e di avere un mercato significativo nazionale ed internazionale.
ABSTRACT Asset Management Activities of Investment Management Company (IMCO) The aim of thesis is: To understand and to let understand what is the asset management of investment Management Company? What are management activities in these companies? Organizational model. What are the types of investment funds? Which are the roles of an investment management company? What is the structure of the investments on concrete examples? What is the portfolio composition and what is the net asset value of the investments? What are the benefits for the “small” investors, looking at profitability and volatility of funds and its benchmarks? What is the effectiveness of the investments inside the investment fund? What is the diversification and what are the investment decisions? What is the asset allocation of an investment and what are the main financial instruments used to make an effective portfolio? The following thesis is composed by five chapters; in the first chapter an asset management of an investment company is elaborated, as well as the characteristics of investment funds, costs and valuation of funds. In the second one there is an elaboration of financial products and instruments like government and corporate bonds and stocks, price index and volatility of investments and benchmarks. In the third part there is a presentation of an investment company with the underlying assets, the structure of the investments and the main indicators. In the fourth chapter there is an elaboration of three pension funds, by compartment, as an underlying asset of the investment company. Finally, the last chapter works out the results and the conclusions and, of course, a set of questions for the future elaboration. The identified key words are: asset management, management activities, investment funds, volatility, profitability, pension funds, index, benchmark, price index, traded funds, quotations, expense ratio, transaction costs, Sharpe index, underlying asset, stock market, bond market, net asset value.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
2

Mattaloni, Cristian. "Il Centro Commerciale nel contesto della Grande Distribuzione Organizzata: analisi fondamentale e Fair Value." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7451.

Full text
Abstract:
2010/2011
ABSTRACT Il presente studio si sofferma sull’analisi fondamentale delle imprese che usiamo denominare Centri Commerciali e che rientrano nei processi della “Grande Distribuzione Organizzata”. Insieme ad un profilo e ad un inquadramento generale del Centro si metteranno a fuoco i caratteri quali/quantitativi dei fondamentali drivers del valore che caratterizzano il complesso strategico del centro commerciale, vale a dire il suo core business, costruito e posto in azione dagli investitori/fondatori che lo hanno ideato e che hanno pianificato il suo sviluppo. Quanto si dirà da un lato esprimerà una linea guida dei criteri di stima del valore di mercato del complesso strategico del centro commerciale; dall’altro indicherà come l’innegabile forza d’investimento che accompagna la creazione di grandi centri influisca sia sull’assetto delle città, sia sulle loro periferie, sia sull’economia circostante. La straordinaria forza d’investimento immobiliare che presiede all’attivazione dei centri commerciali incide sullo sviluppo micro e macroeconomico dei sistemi sociali e richiama l’esigenza di una rivisitazione del concetto di mercato e di economia di mercato. Invero in termini negoziali occorre considerare l’insieme dei vantaggi e l’insieme degli svantaggi conseguenti alla presenza dei centri commerciali ed alla loro diffusione. Il negoziato economico non può non valutare il rischio del possibile degrado urbanistico delle città, la perdita di valore dei centri storici, il disagio procurato dalla rarefazione dei negozi di vicinato (necessari per gli acquisti da parte di talune fasce sociali), ecc. corrispondenti alla diffusione dei centri commerciali. Ciò significa che la “causa economica” la quale giustifica la legge della domanda e dell’offerta e che è presente quando si debba accettare o respingere l’inserimento di un nuovo centro commerciale deve abbracciare le molte componenti coinvolte configurando un processo che richiede una risposta alla seguente domanda: la scelta di introdurre quel centro commerciale si caratterizza per un’utilità sociale? In una tale prospettiva emerge come l’economia di mercato necessiti di una visione complessiva del sistema dove il concetto di mercato dovrà essere riconsiderato ed esteso. Tale analisi che esula dall’economia del presente lavoro sarà sommariamente evidenziata discutendo del concetto di valore economico totale (VET). L’aspetto segnalato per ultimo va sottolineato. La diffusione dei centri commerciali ed in particolare l'azione della Grande Distribuzione Organizzata influiscono sull'assetto urbano e sociale delle città (negli ultimi anni abbiamo assistito ad una crescita sensibile nel nostro Paese di centri commerciali, supermercati, ipermercati, grandi magazzini, discount, ecc. nel mentre hanno chiuso e stanno ulteriormente riducendosi i piccoli esercizi dei centri cittadini). La prima parte della tesi è strutturata in due sezioni. La prima sezione partendo da un’analisi storica dei primi centri, dalle loro origini sino ai giorni nostri, mette in luce il processo di trasformazione economico, sociale e culturale delle città e degli stili di vita dei consumatori, la qual cosa ha inciso notevolmente sull’economia locale e sulla natura dell’indotto che ruota attorno ai centri commerciali. Nella seconda parte della tesi, divisa in più sezioni, a partire da una descrizione degli investimenti (sia immobiliari che finanziari che immateriali) i quali rappresentano gran parte del valore dei centri commerciali ed alimentano i drivers strategici in termini di creazione di valore e di sviluppo, si conduce un’analisi riferita alle diverse tipologie di centri commerciali. Vengono quindi proposti processi di lettura del contesto aziendale fondati sull’uso della cash flow analysis e del discounted cash flow model. L’analisi fondamentale e di valutazione prosegue tenendo conto del raccordo tra valore dei centri commerciali e costi benefici prodotti nella comunità in cui i centri operano, con ciò determinando l’esigenza che la stima del valore dei centri per quanto riferita al gruppo imprenditoriale coinvolga il contesto economico più vasto in cui i centri sono inseriti. Ancora sia consentita una chiosa finale. La presenza dei centri commerciali influisce o può influire sui corretti processi di acquisizione dei tributi da parte dell’Agenzia delle Entrate. La Finanza Locale, nonostante i nuovi processi di trasferimento delle risorse dallo Stato e di autonomia fiscale, non riesce sempre ad assicurare che i tributi erariali che derivano dai consumatori locali (somme enormi) ricadano e si risolvano a beneficio delle stesse comunità in cui quei redditi si generano, in quanto i versamenti delle imposte sul reddito d’impresa, dell’imposta sul valore aggiunto, ecc., dei grandi gruppi della distribuzione avvengono, nella maggior parte dei casi, dove le società della GDO hanno la sede legale. Le Agenzie preposte alla riscossione delle entrate tributarie nei territori interessati (e quindi le regioni e gli altri enti locali interessati) vedono così riconfigurati (secondo i casi ridotti od aumentati) i loro introiti, non di rado dipendenti dal "riscosso" e non dal “prodotto” in quel territorio. A ciò si associa l’eventualità che gli enti locali si dimostrino interessati ad interventi di "finanza di progetto" la quale implica un nuovo rapporto tra pubblico e privato e chiama in causa interessi sociali ed ambientali dei centri urbani e aspetti di responsabilità e solidarietà sociale delle imprese della GDO le quali suppongono analisi e protocolli particolari.
XXIV Ciclo
1975
APA, Harvard, Vancouver, ISO, and other styles
3

Razzini, Barbara. "Valutazione di start-up. Case study analysis: incubatori di primo miglio, Business Angels e Venture Capital. Metodi di investimento nel capitale di rischio." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4786.

Full text
Abstract:
2009/2010
Incoraggiare l’imprenditoria per uscire dalla crisi. E’ questo uno dei temi di primario rilievo per la ripresa dell’economia mondiale. Questa costituisce l’assumption da cui ha avuto origine il presente lavoro di ricerca attraverso il quale, nella prima parte, si è cercato di capire quali siano gli attori che intervengono nel processo di sviluppo di un’ impresa durante la sua fase di Start-up. Si è voluto analizzare attraverso dei case study quali sono i processi di investimento adottati e come venga ad instaurarsi una correlazione tra le figure individuate. Attraverso interviste specifiche si è, poi, cercato di cogliere quali siano i drivers e i principali fattori di rischio presi in considerazione dai diversi attori che sostengono le imprese nelle loro prime fasi evolutive investendo nel loro capitale di rischio. La seconda parte del lavoro, invece, si rivolge al vero e proprio problema legato alla valutazione delle Start-up, attraverso l’identificazione dei metodi di valutazione tradizionali ed alternativi proposti in letteratura. Si cercherà, per mezzo dell’applicazione di un caso pratico, di identificare quelle che sono le problematiche ed i limiti di tali modelli in relazione alle caratteristiche peculiari delle Start-up e del mercato italiano. Infine proporremo un metodo di valutazione attraverso un modello di rating che per le sue caratteristiche consente di risolvere problemi decisionali caratterizzati da svariati attributi tenendo conto di essi e del loro grado di importanza supportando i “decision maker” (incubatori di primo miglio, business angels, venture capital) nell’effettuare le loro scelte d’investimento in società in fase di Start up.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
4

Zorzi, Gianni. "Ottimizzazione di portafogli di ETF nell' approccio di consulenza finanziaria indipendente." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3671.

Full text
Abstract:
2008/2009
Quella del consulente finanziario indipendente (Capitolo 1) è una figura professionale di elevato standing sviluppatasi a partire dagli anni ‘70 negli Stati Uniti, paese in cui l’attività è correntemente svolta da decine di migliaia di persone fisiche, iscritte ad associazioni di categoria, provviste di certificazioni anche di notevole spessore, come quella del Certified Financial Planner (CFP). Tale modello di consulenza in assenza di conflitto d’interessi è detto anche “fee-only” in virtù del suo principale tratto distintivo, ovvero che la remunerazione del professionista avviene esclusivamente a cura del cliente-investitore e non dalle società da cui sono promossi i prodotti e servizi finanziari consigliati. Rispetto al modello tradizionale di consulenza (consulenza strumentale alla vendita di prodotti finanziari: commission only), i professionisti del settore hanno dapprima iniziato ad applicare una parcella ai propri clienti (giustificata da un servizio di più ampio respiro: modello fee and commission), e successivamente a retrocedere al cliente le commissioni ricevute per il collocamento dei prodotti, secondo un maggior orientamento al cliente (modello fee offset); il modello fee only rappresenta il culmine del processo evolutivo con l’ampliamento dei contenuti del servizio offerto (da consulenza a pianificazione) e l’assunzione del carattere di piena indipendenza. Secondo l’approccio della MiFID, direttiva europea recepita in Italia nel tardo 2007, il modello fee-only è l’unica forma di consulenza in materia di investimenti che può essere condotta da persone fisiche, con particolari requisiti e secondo determinate regole (Delibera Consob n. 17130 del 12 gennaio 2010). Gli standard di qualità (ISO, 2008) tendono a definire i requisiti minimi nell’erogazione del servizio di pianificazione personale (indipendentemente dalla forma di remunerazione percepita). Questi approcci contribuiscono ad integrare a quelli emersi spontaneamente nella prassi (Sestina, 2000; Kapoor et al., 2004; Armellini et al., 2008) per quanto riguarda le competenze necessarie allo svolgimento dell’attività (tecniche, analitiche, relazionali) e la definizione delle fasi fondamentali del processo di pianificazione finanziaria personale, che in un’ottica integrata prevede: - Una prima fase riguardante gli aspetti preliminari e generali (illustrazione delle informazioni sul consulente e sui servizi offerti; definizione della relazione professionale); - Un’ampia fase relativa all’acquisizione delle informazioni dal cliente, alla verifica delle sue conoscenze ed esperienze in materia di investimenti, e alla definizione dei suoi obiettivi finanziari; l’analisi della situazione economico-finanziaria del cliente va attuata anche attraverso l’utilizzo di prospetti consuntivi e prospettici adattati al contesto (Banca d’Italia, 2009; Cannari et al., 2008; ECB, 2003); la definizione degli obiettivi e della tolleranza al rischio deve tener conto degli aspetti psicologici e di finanza comportamentale (Legrenzi, 2006; Rubaltelli, 2006; Shefrin e Statman, 2000; Motterlini, 2006; 2008); - Una terza fase relativa alla definizione tecnica del piano in un’ottica integrata (combinando vari aspetti di tipo previdenziale, assicurativo e legale), che preveda anche la formulazione dei “consigli” al cliente e la valutazione dell’ “adeguatezza” degli strumenti finanziari, richiesta in particolare dalle norme di legge; - Una quarta fase relativa all’illustrazione e all’implementazione del piano, in cui il consulente affiancherà il cliente (senza, ovviamente, assumere deleghe né detenere somme di denaro); - Una quinta fase di monitoraggio che prevede degli obblighi di rendicontazione nei confronti dei clienti e la ricorsività dell’intero processo di pianificazione sulla base delle esigenze individuate. Non esistono ancora per l’Italia dati ufficiali sul numero di consulenti fee only attualmente in attività, però la crescita dell’interesse verso la professione è testimoniata dalla nascita di alcune associazioni di categoria, che contano su qualche centinaio di iscritti. Alla luce di questi dati l’impatto della consulenza indipendente nelle scelte di investimento delle famiglie italiane può considerarsi comunque molto limitato. Le statistiche per il 2008 (Banca d’Italia, 2009) confermano invece alcune caratteristiche tipiche del sistema finanziario italiano (Capitolo 2): - Oltre il 17% delle attività finanziarie detenute dalle famiglie risultano costituite da investimenti non intermediati in attività produttive, in forma di capitale di rischio, mentre la quota riferita ai mercati azionari risulta vicina al 4%; - Tra le attività a basso profilo di rischio privilegiate dai risparmiatori vi sono quelle destinate alla raccolta degli intermediari (depositi bancari e postali, obbligazioni bancarie); l’investimento in titoli pubblici risulta limitato rispetto al passato; - La “crisi” dei fondi comuni di investimento è evidente per il fatto che le quote detenute non superano il 5% del totale delle attività finanziarie. Nel complesso, l’esposizione delle famiglie verso le attività rischiose risulta limitata e caratterizzata da elevata rischiosità per effetto del modesto ricorso alla delega/diversificazione, come osservato da Barucci (2007). Tale caratteristica è confermata anche dal confronto con l’estero e si può spiegare anche attraverso la mancanza di fiducia nei mercati azionari, che può derivare sia da componenti “oggettive” che da altre “soggettive” (basate su fattori culturali), come osservato anche da Guiso et al. (2007). In generale, in senso dinamico, si rileva una forte influenza delle politiche di offerta delle banche, oltre che dell’andamento dei mercati e dei tassi di interesse, sulle scelte di investimento dei risparmiatori. Se il crollo dei rendimenti dei titoli di stato e l’andamento positivo nei mercati hanno certamente contribuito alla sottoscrizione di quote di fondi comuni nel periodo 1995-1999, in quelli successivi (2000-2005; 2005-2008) si nota un’evidente correlazione negativa tra queste e le riserve tecniche del ramo vita, nonché delle obbligazioni bancarie e di altri depositi, come osservato in (Spaventa, 2008; Banca d’Italia, 2009). Tra il 1999 ed il 2008 il peso dei fondi è sceso dal 16% a meno del 5% con una diminuzione quantificabile in oltre 300 miliardi di euro correnti, dei quali oltre la metà riferibili a flussi di riscatto secondo i dati di Assogestioni (2009). Il deflusso di capitali dai fondi comuni può essere ricondotto ad aspetti specifici quali: - La realizzazione di performance complessivamente negative a fronte di elevati costi di gestione (evidente anche negli studi di Barber et al., 2003; Jain e Wu, 2000; Nanda et al., 2004); nel periodo 1998-2008 l’extra-performance media dei fondi azionari italiani (indici Fideuram) è negativa di oltre 27 punti percentuali, al lordo degli effetti fiscali, rispetto ad un benchmark di azioni dell’Eurozona, mentre i fondi monetari ed obbligazionari cedono circa il 10% ed il 30% rispetto ai relativi benchmark; a risultati simili giungono anche Banca d’Italia (2009), Mediobanca (2009) e Armellini et al. (2008); la media dei Total Expense Ratio oscilla inoltre tra lo 0,74% dei fondi liquidità ed il 2,33% dei fondi azionari, e l’incidenza delle retrocessioni alle reti distributive sul TER è stabile nel tempo e superiore al 70%: viene dunque remunerata l’attività di vendita più che quella di effettiva gestione del patrimonio; - La concentrazione tra attività di asset management e di distribuzione, derivante dal fatto che in Italia le banche, oltre a collocare i prodotti del risparmio gestito, sono proprietarie delle SGR di riferimento: la quota di mercato attribuibile alle SGR indipendenti risulta pari a circa il 6,5% nel 2007, in diminuzione rispetto a quanto osservato tre anni prima; si tratta di un problema riconosciuto dalla stessa Assogestioni (Messori, 2008), e più volte richiamato dal Governatore della Banca d’Italia (Draghi, 2007; 2008); - Il “problema cognitivo”, legato al comportamento non razionale degli investitori, eventualmente non supportati da un servizio di consulenza adeguato (Gualtieri e Petrella, 2006; Spaventa, 2008; Calvet et al., 2007; Legrenzi, 2005; 2006), e che determinerebbe, a livello soggettivo, l’accentuarsi delle performance negative a sfavore degli stessi. Dal punto di vista della consulenza indipendente, nell’analisi dei prodotti del risparmio gestito acquisisce notevole importanza il legame esistente tra commissioni applicate e performance netta (Cesarini e Gualtieri, 2005; Armellini et al., 2008), poiché i costi della gestione dovrebbero in larga parte remunerare il valore aggiunto conferito dagli asset manager, in una filosofia di gestione “attiva”, ovvero che non si limiti alla mera replica di un paniere di attività finanziarie scambiate in un determinato settore/mercato di riferimento (Liera e Beltratti, 2005). Dal momento che ciò molto spesso non avviene, stanno acquisendo sempre maggiore interesse gli Exchange Traded Funds (Capitolo 3), fondi comuni a gestione “passiva” che presentano costi di gestione limitati rispetto a quelli dei fondi, e che sono quotati su mercati regolamentati (Tse, 2008; Lazzara, 2003). Essi rappresentano l’evoluzione degli strumenti di portfolio trading nati alla fine degli anni ’70 nell’America del Nord (Gastineau, 2001). In Italia, le quote di ETF sono state ammesse alla negoziazione nel corso dell’ultimo decennio, in un apposito segmento dedicato di Borsa Italiana (il segmento ETFPlus). Al novembre 2009 risultavano quotati 336 ETF per un patrimonio superiore ai 10 miliardi di euro. Gli ETF sono negoziati in larga parte da investitori al dettaglio poiché il controvalore medio dei contratti risulta vicino a € 25.000 (dati Borsa Italiana). L’offerta di ETF in Italia risulta ampia e diversificata, con il 75% degli ETF di natura azionaria, il 19% di natura obbligazionaria, e la restante parte suddivisa tra liquidità ed indici di commodities. Inoltre, sono presenti anche ETF di tipo “strutturato”, ovvero quelli che, in conformità con la direttiva UCITS III, realizzano strategie di investimento diverse dalla semplice replica passiva di un indice (ad esempio investimento con leva, replica inversa e strategie con opzioni). L’investimento in ETF presenta sostanziali differenze rispetto a quello in fondi comuni al riguardo di una serie di aspetti, e risulta particolarmente interessante dal punto di vista della consulenza indipendente, anche perché nel modello di business degli ETF non è previsto il collocamento diretto dei prodotti, per cui gli investitori normalmente non ricevono alcun tipo di consulenza al riguardo, al di fuori delle attività di comunicazione e di education (comunque non personalizzate) messe in atto direttamente dalle società di gestione. Il compito del consulente, nell’approccio integrato di pianificazione personale, può essere sintetizzato nella risoluzione di un problema di ottimizzazione di portafoglio, tenuto conto delle caratteristiche del cliente soprattutto in termini di capacità e di tolleranza al rischio, nonché dell’orizzonte temporale dell’investimento, nel pieno rispetto del principio di “adeguatezza” introdotto dal legislatore. Le fondamenta teoriche della moderna gestione di portafoglio (Capitolo 4) si devono al modello di ottimizzazione parametrica di Markowitz (1952), modello uniperiodale in cui il rendimento atteso di un portafoglio (così come di una qualunque attività) è definito dalla media della distribuzione dei rendimenti a scadenza dello stesso, ed il rischio è misurato dalla loro varianza. L’evoluzione della teoria del portafoglio e i numerosi contributi provenienti dalla letteratura (non solamente dalle discipline strettamente legate alla finanza dei mercati) hanno messo tuttavia in discussione il concetto di rischio “simmetrico” espresso dalla varianza, che considera alla pari sia i “pericoli” associati ad un investimento, che le “opportunità” che ne derivano. Sulla base del concetto di “downside risk”, strettamente legato alla parte negativa di una distribuzione dei rendimenti, e di maggior intensità emotiva per gli investitori come dimostrato nella teoria del prospetto di Kahnemann e Tversky (1979), si sono proposte misure di rischio specifiche, tese a catturare taluni aspetti associati, ed utilizzabili anche in problemi di ottimizzazione (Chekhlov et al., 2003; Karatzas e Shreve, 1997; Magon-Ismail et al., 2004; Pritsker, 1997; Lucas e Klaasen, 1998). Per la verifica ex-post dell’efficienza dei portafogli attraverso l’analisi delle serie storiche vengono inoltre utilizzati particolari indicatori, detti di risk-adjusted performance (Sharpe, 1966; Treynor, 1965; Sortino e Price, 1994; Jensen, 1969; Modigliani, 1997; Keating e Shadwick, 2002), che sintetizzano in un unico indice una misura di rendimento ed una di rischiosità. Tali misure sono utilizzate in particolar modo nella valutazione dei fondi comuni (Caparrelli e Camerini, 2004; CFS Rating, 2009; Lipper, 2009) ed in generale delle gestioni patrimoniali, e si differenziano l’una dall’altra in particolare per la misura di rischio considerata (Eling e Schuhmacher, 2007; Pedersen e Rudholm-Alfvin, 2003). In generale, ci si aspetta che un qualunque indice di risk-adjusted performance, calcolato per qualunque coppia di portafogli distinti, assuma un valore maggiore per quello che tra i due risulta preferibile. Il modello di Markowitz, oltre che sul concetto di rischio “simmetrico”, si fonda su alcune rilevanti semplificazioni del problema come quella che gli investitori non sostengono dei costi nel momento in cui essi debbono concludere le transazioni di acquisto e di vendita delle attività incluse nel portafoglio. Nel problema specifico introdotto in questa ricerca, la presenza dei costi di transazione di vario genere (Capitolo 5) può influire negativamente sull’efficienza gestionale del portafoglio, producendo effetti indesiderati e determinando la potenziale irrazionalità delle soluzioni. In particolare, all’investimento in ETF si devono associare i costi di negoziazione degli ordini (nella pratica spesso variabili con dei limiti minimi e massimi) e gli spread denaro/lettera (costi lineari rispetto al controvalore negoziato), che come per tutti i titoli quotati variano sia nello “spazio” (da ETF ad ETF) che nel “tempo” (in funzione soprattutto della volatilità degli indici sottostanti). Il problema si complica ulteriormente (Maringer, 2005) con l’introduzione di alcuni vincoli, per esempio sulla cardinalità e sulla composizione del portafoglio, tesi primariamente a riflettere le esigenze specifiche dell’investitore. A questo punto l’ottimizzazione del portafoglio non può essere risolta dalle tecniche tradizionali (basate ad esempio sull’MPT di Markowitz), ed è necessario ricorrere a metodi alternativi (Maringer, 2005; Scherer e Martin, 2005; Satchell e Scowcroft, 2003). Nel corso degli ultimi decenni si sono sviluppate ed hanno assunto sempre maggior rilevanza le tecniche di ottimizzazione euristica, metodi di ricerca (con scopi generali) che derivano le soluzioni ricercando iterativamente e testando le soluzioni migliorate, finché non viene soddisfatto un determinato criterio di convergenza. Gli algoritmi di ottimizzazione euristica si differenziano per una determinata serie di aspetti (Maringer, 2005; Silver, 2002; Winker e Gilli, 2004), ma un tratto comune frequentemente riscontrato è che essi traggono ispirazione da processi riscontrabili in natura, legati ad esempio alla fisica ed alla biologia (in particolare all’evoluzione degli esseri viventi, oppure al comportamento di gruppi di animali alla ricerca di nutrizione). In questa tesi si è scelto di fare particolare riferimento al metodo Particle Swarm Optimization (Kennedy ed Eberhart, 1995; Hernandez et al., 2007; Brits et al., 2002), tecnica basata sulle popolazioni largamente utilizzata, che si ispira al comportamento degli stormi di uccelli o dei banchi di pesci. Questi gruppi di animali rappresentano organizzazioni sociali il cui comportamento complessivo si fonda su una sorta di comunicazione e di cooperazione tra i propri membri. La scelta del PSO è stata effettuata anche in base al fatto che in letteratura l’applicazione di questa tecnica ai problemi di ottimizzazione del portafoglio è limitata a pochi contributi di recente divulgazione (Fischer e Roerhl, 2005; Kendall e Su, 2005; Thomaidis et al., 2008; Cura, 2009), pur essendo stata applicata con successo ad una serie di problemi finanziari (Gao et al., 2006; Nemortaite, 2007; Nemortaite et al., 2004; 2005) Sulla base delle considerazioni espresse finora e nell’obiettivo principale di verificare la concreta possibilità di sviluppo di un metodo efficace e coerente di ottimizzazione di portafogli di ETF, specifico per l’attività di consulenza indipendente, si è proceduto (Capitolo 6) adattando un algoritmo euristico basato sul Particle Swarm (Kaucic, 2010), con l’introduzione di: - Vincoli di cardinalità (minima e massima) del portafoglio e di peso (minimo e massimo) definiti per ciascun asset (generalizzando gli approcci di Gilli et al., 2006; Cura, 2009); - Una soglia di downside risk definita da una misura di Value-at-Risk coerente con l’orizzonte temporale di investimento, per rappresentare i vincoli di capacità ed attitudine al rischio (direttiva MiFID, UNI ISO, 2009); - Funzione obiettivo basata sulla massimizzazione di una misura di risk-adjusted performance basata sull’Expected Shortfall (similmente a Krink e Paterlini, 2009; in parte anche a Bertelli e Linguanti, 2008); - Considerazione di tutti i costi di transazione legati all’investimento in ETF (costi fissi e costi proporzionali diversi per ogni asset), adattando l’approccio di (Maringer, 2005; Scherer e Martin, 2005). I test si sono eseguiti con l’utilizzo di serie storiche e parametri realistici (incluse le statistiche sui bid/ask spread pubblicate da Borsa Italiana ed i TER minimi riscontrabili sul mercato) riferiti ad 89 ETF effettivamente negoziabili sul segmento di Borsa dedicato, con l’obiettivo di valutare: - la coerenza delle soluzioni rispetto alle condizioni poste; - l’impatto dei costi di transazione ed il trade-off con la frequenza di revisione del portafoglio; - la performance ex-post corretta per il rischio (in particolar modo al confronto di investimenti alternativi); - l’applicabilità a portafogli di dimensioni ridotte e con vincoli stringenti; - la coerenza rispetto alla soglia di rischiosità e all’orizzonte temporale definiti. Nel primo test si è simulata la gestione di un portafoglio di € 100.000 nel periodo di tre anni tra dicembre 2006 e dicembre 2009 per un investitore con elevata propensione al rischio ed orizzonte temporale pari al termine del periodo di gestione, restringendo la cardinalità del portafoglio ad un minimo di 5 ed un massimo di 10 asset. La strategia prevedeva una revisione mensile con progressiva riduzione sia della tolleranza al rischio che dell’orizzonte temporale dell’investimento. All’approssimarsi della “scadenza” dell’investimento l’algoritmo di ottimizzazione, in modo coerente rispetto alle ipotesi, ha privilegiato maggiormente gli ETF di tipo obbligazionario ed ha man mano ridotto le attività di effettivo intervento (negoziazione di titoli) per via della conseguente maggiore incidenza dei costi di transazione sui rendimenti attesi. Ciononostante, la performance ex-post della strategia è risultata non soddisfacente, primariamente a causa di un elevato expense ratio annuo (ulteriore rispetto ai TER degli ETF selezionati), superiore al 4% (oltre il 6,5% solo nel primo anno), dovuto all’elevata frequenza di revisione. Il test è stato ricondotto una seconda volta riducendo la frequenza di revisione a trimestrale, con conseguente riduzione dell’expense ratio di circa il 2,5% annuo. Il trade-off tra periodicità di revisione e costi di transazione ha migliorato in questo caso la performance ex-post ad eccezione dei momenti di particolare “turbolenza” dei mercati, quando cioè i benefici della revisione del portafoglio risultano con maggiore probabilità superiori ai costi che ne derivano. Sulla base delle stesse ipotesi, nella strategia si è introdotta pertanto un’ulteriore variante basata su un indice di volatilità implicita, ai fini di intensificare la revisione del portafoglio nei periodi di maggior “stress” dei mercati, riducendo nel contempo la soglia di rischio accettabile. La strategia così modificata si è rivelata in questo caso preferibile anche nei momenti di accentuata volatilità, migliorando ulteriormente la performance a termine di quasi 6 punti percentuali. Risultati migliori si sono riscontrati riducendo ulteriormente la frequenza di revisione programmata, mantenendo nel contempo il meccanismo di “controllo” introdotto in precedenza (nel tentativo cioè di limitare gli interventi al necessario). Per rendere inoltre comparabile la strategia proposta con altre alternative di investimento (quali ETF basati su indici globali e l’indice Fideuram della media dei fondi comuni italiani azionari) si è infine condotto nuovamente il test sulla base delle ipotesi precedenti, ad eccezione di quelle riguardanti orizzonte temporale e livello di rischio tollerato, mantenute costanti per tutto il periodo di osservazione, peraltro ampliato a 4,5 anni (giugno 2005-dicembre 2009). Dal punto di vista della performance, il test produce un extra-rendimento netto medio annuo dell’1% rispetto all’ETF MSCI World e del 3,2% rispetto alla media dei fondi azionari. La volatilità annualizzata, inoltre, risulta notevolmente inferiore a quella dell’ETF azionario globale, ed inferiore, seppur di poco, a quella della media dei fondi. Gli indicatori di downside risk confermano nel complesso la minore rischiosità attribuibile alla strategia proposta, con risultati notevoli soprattutto in termini di Maximum Drawdown e di VaR 95% a 1 e a 10 giorni. Considerando il sottoperiodo di due anni tra il dicembre 2005 ed il dicembre 2007 al fine di garantire un’opportunità di confronto per indici classici di risk-adjusted performance (altrimenti impossibile per via degli extra-rendimenti negativi rispetto al free-risk), la strategia risulta ex-post preferibile (secondo l’indice di Sharpe) a quella di 77 alternative (ETF e media dei fondi) ma inferiore rispetto a quella di altri 13 ETF, risultando perciò non efficiente in senso “classico”. Nella seconda serie di test la strategia proposta ha confermato i risultati soddisfacenti rispetto ai fondi comuni pur riducendo la ricchezza del portafoglio iniziale e limitando l’universo degli asset investibili così come la cardinalità di portafoglio. Infine, nella terza serie di test si è mantenuto stabile l’istante temporale dell’ottimizzazione, facendo variare nel contempo orizzonte temporale e soglia di rischiosità tollerata. Il risultato delle 28 elaborazioni, valutato in termini di asset allocation (ed in particolare del peso ottimo della componente obbligazionaria suggerito dall’algoritmo) mostra la coerenza dell’output rispetto alle condizioni iniziali fissate per ipotesi, considerata anche alla luce dei vincoli imposti. In definitiva, i risultati dei test empirici appaiono soddisfacenti, con la dovuta cautela, e pur rimandando a futuri approfondimenti l’analisi particolareggiata di taluni aspetti, si è osservato che: - L’algoritmo ha prodotto risultati coerenti con le ipotesi assunte, in particolare per quanto attiene alle soglie di tolleranza al rischio e all’orizzonte dell’investimento; - Le strategie formulate hanno prodotto delle performance ex-post elevate in termini di rischio/rendimento rispetto ad investimenti alternativi comparabili (nonostante non si siano introdotte particolari metodologie di previsione per le serie storiche); - Il risultato precedente è confermato anche in presenza di portafogli di dimensioni ridotte, con vincoli particolarmente ristretti sulla cardinalità del portafoglio e con ridotti interventi di riallocazione delle risorse. Il processo di formulazione delle ipotesi, ed in particolare dei parametri relativi ai vincoli, risulta facilmente adattabile alle esigenze specifiche del processo di consulenza. In generale, l’impostazione soddisfa da un lato i requisiti normativi individuati dal Regolamento Consob in tema di consulenza in materia di investimenti, nonché l’approccio proposto dagli standard di qualità, e si colloca facilmente nella fase di definizione tecnica del piano (di cui il consulente è responsabile). L’applicazione degli strumenti richiede in ogni caso la massima sensibilità ed expertise da parte del consulente stesso nell’adattare i parametri del problema alle diverse fattispecie. La congruenza della parte tecnica con il servizio di consulenza finanziaria si fonda anche sulle caratteristiche di: - Ridotta complessità delle attività di negoziazione titoli e di gestione del portafoglio che le strategie proposte implicano; - Vasta accessibilità degli asset considerati; - Scalabilità ed adattabilità delle soluzioni anche nei casi di portafogli di minori dimensioni; - Corretta e completa considerazione dei costi di negoziazione. Se gli opportuni approfondimenti e verifiche confermeranno i risultati empirici ottenuti nella presente ricerca, l’impianto potrà essere ulteriormente sviluppato e migliorato per esempio attraverso: - l’implementazione di un solido ed efficace metodo di previsioni sulle serie storiche; - l’introduzione di elementi di stress testing (ad esempio su variazioni nella correlazione tra gli asset); - l’introduzione di ulteriori vincoli per permettere di introdurre alcuni elementi di formulazione a priori dell’asset allocation strategica desiderata (approccio top-down); - la considerazione di attività finanziarie diverse dagli ETF, sia per perfezionare i rendimenti della parte “non rischiosa” che gli aspetti di natura fiscale, legati in particolar modo alla gestione del credito d’imposta.
XXII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
5

Vittorioso, Gianluca. "Energie rinnovabili: approcci valutativi ed analisi comparata delle società quotate operanti nel settore." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4498.

Full text
Abstract:
2009/2010
Con il presente lavoro si propone di descrivere lo stato dell’arte del settore delle energie rinnovabili ed effettuare un'analisi delle società quotate operanti nel settore delle rinnovabili.
XXIII Ciclo
1972
APA, Harvard, Vancouver, ISO, and other styles
6

Bagna, Emanuel. "Intangibili e valore nelle banche." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3668.

Full text
Abstract:
2008/2009
Il lavoro si propone di introdurre un criterio di valutazione delle banche commerciali. Il modello proposto si fonda sul criterio del residual income e permette di enucleare il valore dei beni intangibili di una banca.
XXII Ciclo
1978
APA, Harvard, Vancouver, ISO, and other styles
7

Giannozzi, Alessandro. "Fair value disclosure, rischio di liquidità e rendimenti azioneri. Un'analisi empirica sulle imprese europee finanziarie e non finanziarie." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4496.

Full text
Abstract:
2009/2010
Gli anni 2007-2010 hanno visto il verificarsi di sconvolgimenti economici i quali hanno segnato profondamente i mercati finanziari globali, provocato il fallimento di numerosi istituti bancari, e diffuso tra gli investitori il timore di una depressione della portata analoga a quella del 1929. Tali eventi hanno dato inizio ad un acceso dibattito inerente la regulation dei mercati finanziari e del sistema bancario e gli interventi necessari a garantire la stabilità finanziaria. In tale contesto, alcuni studiosi hanno fortemente criticato la valutazione delle attività e delle passività secondo il principio del Fair Value. Il presente studio ha l’intento di indagare un particolare aspetto della Fair Value Accounting: la valutazione degli strumenti finanziari secondo il criterio del Fair Value e la loro separazione in tre differenti livelli di liquidità. I principi contabili internazionali, infatti, impongono di evidenziare separatamente gli assets e le passività valutate al fair value sulla base di tre metodologie: quoted market prices (mark to market), valuation techniques - market observable input, valuation techniques - non observable input. Tali metodologie considerano l’utilizzo di prezzi di mercato quotati su mercati con un alto numero di contrattazioni (cd. mark to market o livello 1), l’uso di transazioni simili e recenti o di strumenti finanziari analoghi quotati su mercati attivi (cd. livello 2) e, infine, il ricorso a modelli finanziari nei quali non si necessita di prezzi di mercato (cd. mark to model o livello 3). L’obiettivo specifico del presente lavoro è quello di verificare se il fair value informa gli investitori sul rischio di liquidità delle imprese europee finanziarie e non finanziarie e, di conseguenza, se le informazioni sul rischio di liquidità sono utili per gli investitori. Analizzeremo le reazioni degli investitori di fronte a N key-crisis events (liquidity contracting events e liquidity expanding events) avvenuti nel corso della recente crisi finanziaria con lo scopo di verificare se tali reazioni sono condizionate dai tre livelli di liquidity risk disclosure previsti dalla fair value accounting. Questo approccio consente di valutare la rilevanza che le risk information, insite nella fair value hierarchy, hanno sul valore di mercato delle imprese e fornisce indicazioni ai regulators circa l’utilità della fair value disclosure. L’analisi empirica è stata condotta su 313 imprese finanziarie e non finanziarie facenti parte dell’Indice Eurostoxx. Si è analizzata la reazione degli investitori, misurata attraverso i rendimenti azionari (Abnormal Return), in occasione di determinati eventi espansivi e restrittivi della liquidità a livello macroeconomico. La relazione tra gli Abnormal Return, quale variabile dipendente, e i tre livelli del fair value disclosure, quali variabili indipendenti, è stata indagata attraverso l’utilizzo di metodologie econometriche quali la regressione OLS, la regressione OLS con effetti fissi e, quale metodo di controllo, la regressione Partial Least Squares.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
8

Dilek, Pinar. "Il rating delle imprese nel settore agroalimentare." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7408.

Full text
Abstract:
2010/2011
The thesis represents a study of financial and economic aspects of agri-food sector together with ratings assigned to companies, in particular to understand the features of the sector in Italy, a deep comparison between Italian companies with the ones in France- Spain and eventually Friuli-Venezia Giulia. The analysis is conducted, in detail, through a study of macroeconomic overview including the sector’s general overview, structural features, and impacts on economies of countries (first at the European Union base, followed by country base). In order to highlight current situation and future development of the agri-food sector; sector’s impact on economies and rural development, structural features of the sector, mid-term perspectives, European policies for the sector are analyzed with details. Same study is realized for France, Italy and finally for Spain. A basic conceptual structure is identified for modelling credit risk in agri-food sector. Various methodologies and components of several credit risk models applied in rating evaluation are analyzed in relation to credit risk in the agri-food sector. The core and features of the models are exhibited and furthermore a comparison of the models based on daily business examples and academic studies is realized. Taking into account features of companies that comprise the sector, the difficulties faced by the academicians, analysts and business profiles who are willing to comprehend financial and economic behaviours of the sector; a model so-called “Multi Objective Rating Evaluation- MORE Model” is selected to be the most applicable for evaluating the companies within the sector and assessing a rating to each company. “MORE” is deemed the most appropriate, since the data requirements of the model can be fulfilled by the available data and features of the model are suitable for defining credit risk in agri-food sector. The model is tested on several macro geographic regions many times, especially during the global economic downturn; the results prove that model is quite accurate in distinguishing healthy companies between bankrupt companies; and deteriorating the ratings towards bankruptcy date. The model is applied to Italian agriculture companies in order to understand economic behaviour of companies by segregating the panel for size, economic scale, solvency, liquidity, profitability. This analysis is also carried out for the companies in Spain and France which is chosen on purpose since the government of the mentioned countries gave the same amount of importance to the sector in terms of economic, cultural and historical aspect, representing the “competitors” within the European Union. During the statistical studies, same data source is used for the three countries. The evaluation is followed with a local comparison of Italian companies and Friuli Venezia Giulian companies including a deep financial and economic analysis and a rating evaluation. The analysis is based on a data set which is derived from financial statements of the companies (between 2008 and 2010) in the geographical locations mentioned and thanks to this a trend analysis and a comparative analysis are easily conducted. The study shows that results of model’s application can be extremely important in comprehending the trend of the sector within three years, the impacts of global financial crisis on companies in terms of various financial and economic aspects.
Questa tesi rappresenta lo studio del settore agroalimentare, osservandolo dal punto di vista economico e finanziario. In particolare saranno studiate le aziende appartenenti, in Italia, Spagna e Francia, al settore in esame, conducendo anche un’analisi del rating delle singole aziende, studiando quindi in dettaglio i particolari punti di forza e debolezza del settore nei tre diversi Stati. L’analisi è stata condotta partendo dallo studio macroeconomico all’interno dell’Unione Europea, andando poi in dettaglio, sempre da un punto di vista macroeconomico, dei singoli Stati. Lo scopo dello studio macroeconomico era il comprendere al meglio quali siano, in Europa, le visioni sul settore agroalimentare e come queste visioni si riflettano nelle singole realtà nazionali. Il passaggio successivo è lo studio dei modelli di rating, cercando di comprendere quale fosse il più efficiente per lo studio delle singole aziende al fine di determinare, con un diverso approccio rispetto a quello macroeconomico, i punti di forza e debolezza del settore in esame rispetto i tre Stati esaminati. Il modello di rating che è stato scelto è denominato MORE (Multi Objective Rating Evaluation) e si diversifica e caratterizza per la capacità di rendere comparabili diverse realtà quali aziende che operano in diversi Stati. Il modello di rating MORE, prima di essere utilizzato nello studio del settore agroalimentare, è stato anche testato nella sua capacità di predizione del default; questo test è stato effettuato sia in ambiato extranazionale, sia studiando il comportamento del modello rispetto le aziende fallite durante l’ultima crisi economica. Si è quindi andati in dettaglio nello studio delle singole aziende apprtenenti il settore in esame (nel triennio 2008-2010), andando a deteminarne le caratteristiche di dimensione, solvibilità, liquidità, redditività e in, per concludere, rating. Lo studio è stato condotto confrontando Italia (anche con la regione Friuli Venezia Giulia), Francia e Spagna. Lo studio ha così dimostrato come sia assolutamente interessante condurre, parallelamente allo studio macroeconomico di un determinato settore, anche lo studio delle singole imprese, successivamente agglomerate come panel. In questo modo è possibile quindi arricchire le informazioni ricavate, ottenendo un quadro più chiaro ed esaustivo, del settore in esame.
XXIV Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
9

Cappelletto, Roberta. "La mappa logistica nello studio delle bolle speculative." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8558.

Full text
Abstract:
2011/2012
Oggi il mercato finanziario sta diventando parte integrante del nostro mondo: si parla sempre di più di borsa e di azioni e sempre più persone hanno a che fare con questa realtà. Questa evoluzione ha sicuramente dei lati positivi dovuti al supporto che l’espansione del mercato finanziario dà all’economia reale, c’è anche però un rovescio della medaglia che consiste nelle situazioni “pericolose” dovute ai comportamenti irrazionali dei possessori di titoli conseguenti a dure crisi che colpiscono il sistema. Questi comportamenti non del tutto razionali sono dovuti all’inesperienza di una parte di quelle persone che operano sul mercato, che possono essere trascinati dall’entusiasmo o dal terrore che gira attorno a questo mondo. Azioni che alle volte possono essere alimentate dalle informazioni distribuite dai media. Questa condotta congiunta a motivi di natura reale può portare a situazioni molto dannose, che diventano però redditizie per chi riesce a carpirle, che si possono verificare nel mercato finanziario: le bolle speculative. Con bolla speculativa si intende il sentiero esplosivo che si forma nel prezzo di un bene e che lo porta, progressivamente sempre più distante dai valori compatibili con le fondamentali economiche dello stesso, dove con fondamentali economiche ci si riferisce a quelle particolari ragioni economiche che sottostanno al movimento di un prezzo. Quando le quotazioni di Borsa capitalizzano aspettative impossibili da misurare di possono formare bolle speculative, destinate a scoppiare , dato che non tutte le iniziative prese dagli investitori avranno successo. Il fenomeno delle bolle speculative solitamente viene visto come un’anomalia di mercato legata più alla componente psicologica che a quella razionale. Di solito un nuovo oggetto di investimento suscita molto interesse, o si verifica un rinnovato interesse per qualcosa di già esistente e consolidato, che già in partenza raccoglie in sé la componente speculativa. Viene quindi messo in risalto il grado di elevata diffusione del bene oggetto di speculazione. La gran parte delle volte sono, infatti, coinvolti beni di utilizzo comune e caratterizzati da un elevato grado si pervasività. Quello che porta le bolle speculative a svilupparsi sono quindi l’interesse per un nuovo oggetto di investimento collegato ad una componente speculativa, l’entrata nel mercato è spinta dalle aspettative di guadagno, senza preoccuparsi delle ragioni che hanno portato i primi rialzi, il tutto porta ad un effetto positivo secondario dovuto all’affacciarsi di investitori inesperti sul mercato. Di conseguenza ci saranno nuove società che vogliono sfruttare le occasioni offerte da questa euforia del mercato e un eccessivo sfruttamento della leva finanziaria. Tutto questo porta ad un abbassamento della liquidità presente nel sistema economico e ad un contestuale aumento dei tassi d’interesse e all’incapacità di pagare debiti e rendite. Questa situazione porta l’economia in una fase di ristrettezza finanziaria e quando l’unica via di uscita per pagare i debiti è la vendita, scoppia la bolla speculativa e si assiste quindi ad un’inversione di tendenza dei prezzi, che porta a grosse perdite per tutti coloro che possiedono quelle determinate azioni nel loro portafoglio. La possibilità di descrivere con sufficiente sicurezza il percorso che conduce dalla formazione alla fine di una bolla speculativa è supportata dalla casta casistica riscontrabile nella storia. La teoria delle bolle speculative è infatti fondata sulla rilevazione e sull’analisi di quanto accaduto nei secoli passati fino ad oggi, a intervalli più o meno regolari, nell’economia. Nel corso della storia di sono verificati diversi casi di bolle speculative. Il caso più incredibile fu quello dei tulipani nell’Olanda del 1600, la cosiddetta “Tulipomania”, la passione che il popolo nutriva per questi fiori e l’incertezza che circondava il loro colore portò a credere che acquistarne fosse un buon investimento. Molte altre ondate speculative si sono susseguite nei secoli successivi, da quella della Compagnia dei Mari del Sud nel 1700 alle ferrovie inglesi nel 1800. Ma quella che più di ogni altra ha lasciato un segno indelebile nella storia e nell’economia è il crack di Wall Street nel 1929, con la grande depressione che la seguì. Tra le altre ondate speculative con ripercussioni a livello globale, vanno ricordate quelle dei junk bond americani, la grande bolla immobiliare giapponese degli anni Ottanta e l’ondata speculativa che ha investito il mercato dei titoli tecnologici alla fine degli anni Novanta. Quest’ultima ha rappresentato uno dei casi più limpidi di valutazione irrazionale dei prezzi delle azioni. L’avvento di internet, con tutte le sue implicazioni, ha fatto presagire agli operatori del settore la possibilità di ottenere profitti altissimi, tanto da far parlare di New Economy. È arrivata poi la bolla causata dall’incremento dei prezzi degli immobili, cresciuta a causa dei crediti concessi dalle banche a soggetti che non avevano reddito sufficiente per restituire il mutuo, il quale fondava la sua garanzia sulla sola crescita del valore dell’immobile. A questa bolla si è poi sovrapposta quella del petrolio e delle materie prime, legata all’aumentata domanda di questi prodotti. Si cercherà in questo lavoro di analizzare i comportamenti anomali dei mercati finanziari, con particolare attenzione agli eventi speculativi, evidenziando i limiti della teoria dell’efficienza, studiando da vicino il fenomeno delle bolle speculative, intese come effetti di diverse patologie del mercato e dell’economia in generale. Analizzando i moventi della speculazione alla luce di tutti i fattori che sono alla base dei principali tipi di deviazione dalla teoria di funzionamento del mercato. Effettuando una stima econometria si cercherà di capire se esiste una correlazione tra le bolle speculative ed il rapporto prezzi/utili che possa essere riscontrato nelle diverse occasioni in cui si sono presentate delle bolle nel corso della storia economica recente.
XXIV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
10

Principi, Silvia. "Il ruolo dell’investimento istituzionale nel capitale di rischio delle family business: review empirica internazionale e caso italiano." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7856.

Full text
Abstract:
2010/2011
L’obiettivo della tesi di dottorato è duplice: a. offrire un quadro sinottico della letteratura empirica internazionale sul ruolo dell’investimento istituzionale nel family business (FB), ponendo particolare attenzione al fenomeno dell’investimento da parte dei fondi di private equity (PE); b. verificare empiricamente su un campione di imprese familiari italiane qual è stato il ruolo nel periodo 2001-2010 del PE in termini di governance, struttura finanziaria e perfomance. La tesi si giustifica per l’esiguità degli studi italiani nel filone di studi inquadrato, per altro, sono studi focalizzati solo su alcuni aspetti e che non hanno periodi di indagine abbastanza recenti. Un’ulteriore giustificazione è da ricercarsi nelle peculiarità del mercato italiano sia in termini di caratteristiche delle imprese che di mercato del private equity.
La struttura industriale italiana è caratterizzata da un largo numero di imprese di dimensione medio-piccola per anni ritenuta una delle ragioni del successo economico dell’Italia; inoltre, il mercato dei capitali Italiano è sottodimensionato, sia in termini di capitalizzazione media che di numero di contrattazioni, rispetto a quello degli Stati Uniti, ma anche di altri Paesi europei. La combinazione dei due aspetti è ritenuto da più parti la causa di restrizioni finanziarie che possono limitare gli investimenti delle imprese e, in ultimo, la loro crescita. Non mancano, però, studi che evidenziano come causa della ridotta dimensione la riluttanza del proprietario che spesso è anche manager a condividere il controllo con membri non familiari. L’essere impresa familiare accentua tali criticità, ad esempio, poiché tradizionalmente sono imprese con scarsa capacità nel ricorso al finanziamento e all’apertura del capitale ad esterni non familiari, ridotta propensione innovativa e natura ereditaria dei ruoli di governance. Tali aspetti e punti deboli sono da relazionarsi anche ai molteplici bisogni di un patrimonio complesso come quello familiare, fatto di componenti tangibili ed intangibili: l’esigenza principale dell’impresa familiare è proteggere e gestire il capitale da rischi ed incertezze per assicurare continuità e sviluppo. Ciò conferma il notevole impatto della struttura istituzionale e proprietaria delle imprese all’accesso ai finanziamenti e soprattutto alle caratteristiche dello stesso debito bancario continua ad essere ritenuta la più importante fonte di finanziamento esterno per le imprese familiari (Sandri, Bigelli, Mengoli, 2001; Monteforte e La Rocca, 2003; Guiso, 2003; Sapienza, 1997; Venanzi, 2003, 2005; Nardi, 2008; Chiesa et al., 2009).
L’investimento istituzionale si può inquadrare quale valida alternativa all’indebitamento poichè ritenuto da più parti in grado di sopperire alle debolezze di quest’ultimo. In questo periodo più che mai il PE appare una valida alternativa: gli effetti della crisi che ha colpito i mercati finanziari si stanno manifestando nell’economia finanziaria e reale portando, tra le altre conseguenze, il fenomeno del credit crunch, come dimostrano le numerose e diffuse testimonianze imprenditoriali, che lamentano la lenta ed inesorabile riduzione degli affidamenti da parte delle banche, un più difficile utilizzo delle linee di credito in essere e l'impossibilità di avere nuove assegnazioni di fidi e finanziamenti. Il dibattito nella letteratura internazionale è molto vivo in considerazione sia della crescente diffusione del fenomeno del PE sia delle conclusioni non univoche raggiunte in merito al ruolo svolto da tali investitori ed agli effetti prodotti sulle imprese target. La letteratura accademica sembra essere orientata all’impatto positivo degli investitori istituzionali per le imprese e il tessuto imprenditoriale dei vari paesi, anche se ciò non può essere generalizzabile. Gli studi internazionali (tra i più recenti si citano Harris, Siegel, Wright, 2005; Strömberg, 2008; Wright, Amess, Weir, Girma, 2009; Wright, Bacon, Amess, 2009; Wright, Jackson, Frobisher, 2010), infatti, sono in prevalenza di origine anglosassone e si basano quindi su assunti e considerazioni di base differenti rispetto al contesto italiano e/o europeo: i differenti sistemi e condizioni istituzionali, economici e di governance non permettono a priori l’estensione dei risultati anche nel nostro Paese, considerando oltretutto l’ulteriore peculiarità italiana inerente il grande sviluppo di piccole e medie imprese, in prevalenza di natura familiare.
Oltre a tali motivazioni, la necessità di ulteriori sviluppi nella ricerca circa l’investimento istituzionale è anche avvalorata dal fatto che in Italia la letteratura è piuttosto scarna di lavori empirici. Recentemente il tema è tornato all’attenzione degli studiosi e diversi sono i contributi, anche se in prevalenza di natura teorica, che ampliano tale argomento (si citano tra gli altri le pubblicazioni dell’AIFI, Associazione Italiana del Private Equity e Venture Capital; Bollazzi e Soldati, 2005; Gervasoni e Bollazzi, 2007; Bronzetti e Sicoli, 2008; Covello e La Rocca, 2008; Buttignon et al., 2009; Conca, 2009; Fidanza, 2010; Conca, 2007, 2011). Comunque la diffusione e lo sviluppo della letteratura a livello italiano appaiono ancora lontani dai livelli raggiunti nei principali paesi europei ed anglosassoni, a maggior ragione per quanto riguarda l’ambito del family business. Nell’attuale contesto italiano si ha che, da un lato, le imprese, soprattutto quelle a carattere familiare, cominciano ad apprezzare in maniera positiva l’apporto di risorse, finanziarie e non, da parte degli investitori istituzionali e sono disposte ad allentare le forme di potere che per lungo tempo le hanno caratterizzate. Dall’altro lato si nota, però, uno scarso sviluppo di contributi empirici che, essendo ancora poco numerosi, non permettono un’analisi approfondita ed un quadro chiaro circa l’effetto dell’investimento istituzionale nel capitale di rischio delle imprese italiane in generale e delle imprese familiari in particolare. Carenza evidente soprattutto a fronte del fatto che le FB costituiscono un target di primaria importanza per gli operatori istituzionali rappresentando circa l’85% delle operazioni in capitali per lo sviluppo (fonte PEM; Gervasoni e Bollazzi, 2007). La precedente letteratura empirica italiana (Buttignon et al., 2005; Gervasoni e Bollazzi, 2007; Buttignon et al., 2009) sembra confermare l’impatto positivo dell’investimento istituzionale nell’ambito delle imprese familiari, supportando la tesi che i PE sono in grado di generare sviluppo e reddito nelle FB, anche se con risultati piuttosto differenziati.
Il presente lavoro di dottorato contribuisce a colmare la lacuna presente nell’ambito delle ricerche sull’impatto degli investitori istituzionali nelle imprese familiari e trova giustificazione, oltre che per l’ampliamento degli studi sul tema, anche nell’analisi dello stato attuale del fenomeno in Italia. Infatti i lavori italiani precedenti si fermano, come ultimo anno di acquisizione, al 2004 ovvero l’ultimo anno analizzato in cui avviene il deal è il 2004 ed il periodo di indagine post deal si ferma al 2006. La tesi si struttura in due parti. La prima parte più teorica e descrittiva contiene una review degli studi italiani ed internazionali distinti rispetto ai due seguenti temi di studi: - la corporate governance - si analizza soprattutto la concentrazione proprietaria e la proprietà manageriale, l’impatto non univoco sulla performance e gli effetti della struttura proprietaria sui diversi processi di governance e tematiche d’impresa, e successivamente la corporate governance e struttura finanziaria nelle imprese familiari (capitolo 1); - l’investimento istituzionale nel capitale di rischio - si illustra inizialmente definizione, modalità di intervento, classificazioni e motivazioni (capitolo 2) e poi si analizzano i legami tra investitori istituzionali e corporate governance e tra questi e la performance (capitolo 3). La seconda parte (capitolo 4) è dedicata all’analisi empirica. L’indagine è stata condotta su un campione di 65 imprese familiari italiane e di 35 imprese non familiari selezionate tra le imprese target di PE negli anni 2004, 2005, 2006 e 2007. Inoltre, per avere un quadro più completo del fenomeno italiano, è stato selezionato ed analizzato anche un campione di 72 imprese familiari comparabili non oggetto di PE. Gli obiettivi sono far emergere lo stato attuale del fenomeno dell’investimento istituzionale ed il trend delle operazioni negli ultimi anni, quali sono le caratteristiche delle target e le modalità di intervento, l’influenza che i PE hanno sulla corporate governance e l’impatto sui più importanti indicatori di perfomance operativa ed economica.
Da quanto è emerso nella presente indagine, appare confermarsi le ipotesi originariamente fatte, circa l’esistenza di differenze tra le strutture di corporate governance adottate dalle FB oggetto di PE e quelle presenti nelle FB comparabili. In particolare si può confermare sia l’ipotesi 1, in cui si afferma che le FB target adottano differenti strutture di corporate governance rispetto alle imprese familiari non oggetto di PE, che l’ipotesi 1a, ovvero le proxy delle caratteristiche del CdA assumono livelli più alti/bassi tra FB target e FB comparabili. L’ipotesi 2 (le imprese familiari target si comportano diversamente dalle imprese target non familiari), invece, non può essere confermata in tutte le variabili di governance in quanto le imprese familiari target non si comportano sempre diversamente dalle imprese target non familiari. In riferimento al turnover dell’AD, nel presente lavoro non si possono confermare le ipotesi testate. L’ipotesi 3 (il free cash flow precedente l’ingresso del PE è correlato positivamente con la probabilità di turnover dell’amministratore delegato dopo il deal) non può essere supportata in quanto il coefficiente di regressione relativo al free cash flow non risulta significativo. I risultati non supportano l’ipotesi 4 (il leverage precedente l’ingresso del PE è correlato negativamente con la probabilità di turnover dell’amministratore delegato dopo il deal), infatti il coefficiente di regressione positivo non conferma l’ipotizzata correlazione negativa tra il leverage precedente l’ingresso del PE e la probabilità di turnover dell’amministratore delegato dopo il deal. Per quanto riguarda l’analisi dell’impatto del PE sulla performance delle imprese target ed in particolare delle family business, in seguito all’ingresso dell’investitore istituzionale si registra una prevalente diminuzione di alcune variabili di performance, mentre vi è un miglioramento della performance sotto il profilo occupazionale, in quanto l’occupazione migliora con l’entrata del PE. Come prevedibile, in quanto imprese oggetto di investimento istituzionale, vi è un incremento del leverage (D/E ratio) e dell’equity. Dal confronto con le imprese non familiari target si evince che nelle FB gli effetti del PE sono più accentuati, mentre dal confronto con le imprese familiari non oggetto di PE emergono delle differenze tra i valori medi dei due sottocampioni.
XXIV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
11

Rocchi, Alessio. "The payoff replication of higly regulated companies." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3433.

Full text
Abstract:
2008/2009
This thesis aims to identify the determining factors of the RAB premium and to define what part is ascribable to factors relating to the fundamentals of the company and what part to factors of a financial nature. Moreover, it attempts to provide an interpretation of the dynamic nature of Snam Rete Gas and Terna share prices according to the options theory and considers the fact that share performance has fluctuated but always remained above the value of invested capital allowed by the regulator, namely the RAB.
XXII Ciclo
1972
APA, Harvard, Vancouver, ISO, and other styles
12

Di, Martino Giuseppe. "La value relevance del fair value accounting nel settore bancario europeo." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7854.

Full text
Abstract:
2010/2011
Il presente elaborato propone un’analisi empirica volta a verificare se l’informativa di bilancio relativa agli strumenti finanziari disciplinati dallo IAS 39 è value relevant. L’analisi, condotta su un campione di 138 banche commerciali europee nell’orizzonte temporale 2008-2010, è stata sviluppata secondo due prospettive. Una prima prospettiva di tipo “orizzontale” indaga la value relevance dell’informazione aggiuntiva (riportata in Nota Integrativa) del delta fair value di talune poste di bilancio valutate al costo ammortizzato: crediti (loans), obbligazioni emesse e depositi verso la clientela. La seconda prospettiva di analisi è di tipo “verticale” e analizza la qualità dell’informativa riguardante gli strumenti finanziari valutati al fair value, per i quali l’IFRS 7 prevede una classificazione secondo la fair value hierarchy. I risultati relativi alla prima indagine suggeriscono che il delta fair value dei crediti e delle obbligazioni emesse non è rilevante per il mercato. Diversamente costituisce una misura value relevant il delta fair value dei depositi. Le evidenze empiriche relative all’analisi della value relvance della fair value hierarchy suggeriscono che gli strumenti finanziari classificati nel Livello 1 (mark-to-market) contribuiscono in modo significativo a spiegare la quotazione e vengono valutati a premio (circa il 10%) rispetto alla valorizzazione complessiva delle attività. Diversamente sia il Livello 2 sia il Livello 3 non forniscono informazioni value relevant. Ulteriori analisi, volte a spiegare le ragioni che rendono il fair value di Livello 2 e di Livello 3 non significativo, hanno evidenziato che la disclosure integrativa sui trasferimenti che interessano il Livello 3 conduce ad un maggiore apprezzamento delle informazioni di bilancio da parte del mercato.
XXIV Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
13

Dimastromatteo, Francesco. "Responsabilità Sociale d' Impresa e modelli di organizzazione, gestione e controllo ex D.Lgs.231/2001." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3669.

Full text
Abstract:
2008/2009
Nella prima parte della ricerca indagheremo, in ambito economico-aziendale, il fenomeno della Responsabilità Sociale d’Impresa (RSI) cercando di tracciare un breve percorso per comprendere la nascita nell’impresa dell’esigenza di rendicontare le performance, non solo economiche, ma anche sociali ed ambientali, redigendo, accanto al bilancio d’esercizio anche quello sociale o di sostenibilità. Nella seconda parte cercheremo di dimostrare come l’interesse dell’impresa al controllo della regolarità e della legalità dell’operato sociale – in buona sostanza l’orientamento alla RSI – possa ridurre il rischio di incorrere nella responsabilità penale degli enti introdotta per la prima volta nel nostro ordinamento dal Decreto Legislativo 8 giugno 2001, n. 231. Inoltre, evidenzieremo che la responsabilità amministrativa degli enti rientra nel più ampio tema della responsabilità d’impresa e stimola l’adozione di regole sugli assetti di governo e organizzativi volti al controllo preventivo dei rischi ed a rafforzare la fiducia non solo degli investitori ma di tutti gli stakeholders. Infine, proporremo il percorso d’adozione dei Modelli organizzativi previsti dal Decreto/231 in un gruppo di imprese italiane che hanno comunicato il loro orientamento alla Responsabilità d’Impresa considerandolo parte integrante della visione aziendale
XXII Ciclo
1965
APA, Harvard, Vancouver, ISO, and other styles
14

Seganti, Federica. "La previdenza complementare e il mercato delle rendite." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7410.

Full text
Abstract:
2010/2011
Obiettivo del presente lavoro è analizzare il mercato delle rendite in Italia per valutarne lo sviluppo e identificare gli eventuali elementi che lo ostacolano e proporre spunti per il loro superamento. Nella prima parte vengono descritte le tipologie di rendita, i regimi previdenziali quale quello a prestazione definita e quello a contribuzione definita, la natura del sistema previdenziale e in particolare integrativo e aggiuntivo e come il sistema della previdenza complementare si sia sviluppato in alcuni contesti nazionali. Analizzeremo quindi il mercato delle rendite prima dell’inizio delle riforme della previdenza di base e complementare in Italia. La seconda parte è dedicata alla descrizione delle riforme della previdenza di base a partire dal 1992 per concludersi con gli ultime correttivi imposti dal Governo Monti e di quelle della previdenza complementare dal 1993 al 2007 anno in cui parte l’adesione al sistema con il conferimento del TFR attraverso il silenzio-assenso. Nell’ultima parte completeremo l’analisi del mercato partendo dall’esperienza internazionale verificando quali sono i mercati più sviluppati per poi ritornare sul mercato domestico e valutare la reale consistenza del mercato. Segue una analisi della domanda e dell’offerta da cui si sviluppano alcune valutazioni su quali siano gli elementi realmente ostativi dello sviluppo e quali le ipotesi su cui lavorare alfine di sviluppare sia la domanda l’offerta di rendite vitalizie in Italia.
XXIII Ciclo
1966
APA, Harvard, Vancouver, ISO, and other styles
15

Fanone, Enzo. "Three Essays on Modelling of Electricity Markets." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7424.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Schettini, Gherardini Jacopo Maria. "Reputazione e rischio reputazionale in economia.Un' analisi epistemologica ed una proposta teorica." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3670.

Full text
Abstract:
2008/2009
Il presente lavoro è un contributo di natura epistemologica. L’obiettivo è duplice. Da un lato osservare la reputazione come una manifestazione di fiducia e concorrere a ridurre ambiguità e vaghezza nel concetto distinguendone gli ambiti indagabili scientificamente da quelli di derivazione metafisica, quindi classificabili tra le affermazioni etiche, ideologiche o di fede. Secondariamente, approdare ad un modello teorico descrittivo che soddisfi la condizione popperiana di falsificabilità. La tesi che s’intende dimostrare, è che, indagando la nozione di reputazione grazie ad alcuni spunti teorici riconducibili al pensiero di Bertrand Russell ed attraverso lo schema classificatorio che Bruno de Finetti applicò alla probabilità, la “buona” reputazione, intesa nella sua modalità “classica” (ovvero come il rispetto di dettami etico–morali) sia priva di valore intrinseco per un’impresa, poiché risponde a delle esigenze di coerenza con impianti astratti privi di legami con la fenomenologia economica. Conseguentemente, la sua presenza o la sua assenza non comportano elementi di pericolo di per sé, ovvero a prescindere dagli obbiettivi aziendali. Quindi, non più “buona” o “cattiva” reputazione, bensì reputazione “adeguata” (o meno) allo scopo, utilmente utilizzabile sia in forma negativa che positiva. Questa proposta teorica, se accettata, aprirebbe spunti di ricerca circa il diverso peso e diverso impatto della reputazione, a secondo che essa si fondi o meno su elementi metafisici. Secondariamente, si ritiene possibile individuare un pericolo, la cui natura sia esclusivamente reputazionale, a cui associare un rischio reputazionale puro, di primo livello, privo di correlazioni con altri rischi (operativi, legali, strategici). Tesi che metterebbe in dubbio la centralità dell’ottica microeconomica nello studio del rischio reputazionale. Infine, si propone l’incompatibilità tra le nozioni di conoscenza, probabilità e reputazione. Impostazione che, se accettata, porrebbe domande sulla coerenza di alcune analisi in dottrina, le quali invece, fanno perno sul principio che sia la conoscenza a determinare la reputazione.
XXII Ciclo
1965
APA, Harvard, Vancouver, ISO, and other styles
17

Seleni, Martina. "Le nuove frontiere per il fund raising per la cultura. Il distretto culturale evolutivo. Esempi tecnici di progettazione culturale sul territorio." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4497.

Full text
Abstract:
2009/2010
Questo lavoro, che ha preso avvio dall’idea di approfondire il tema del fundraising, successivamente è confluito in un ambito di studio più vasto: quello della produzione di cultura che testimonia l’interesse della società nel suo complesso a costruire un assetto di rapporti che assicuri e diffonda un benessere generale. Ci si è resi conto che il valore economico è sempre più sottoposto ad un giudizio da parte della società civile, la quale ormai pretende che le produzioni accrescano la qualità dell’esistenza e la coesione sociale. Tutto ciò esalta il ruolo della cultura prodotta direttamente o indirettamente, e mostra come questa – sviluppata in tutte le sue forme – alimenti il valore economico e l’utilità presente nella polis di cui siamo parte. Si tratta di una problematica generale che però assume speciale rilevanza per i soggetti che producono professionalmente cultura e cioè per le cosiddette industrie culturali. Di certo il decremento della spesa pubblica per la cultura perpetratosi negli ultimi vent’anni ha spinto chi opera nel settore a ricorrere a nuove modalità di finanziamento per sostenere le proprie attività istituzionali. Ecco, quindi, il fiorire di tutta una serie di innovative strategie di raccolta fondi per la cultura. Alcune di queste, vengono mutuate direttamente dalle tecniche di fundraising tradizionalmente utilizzate dalle organizzazioni non profit per il sostegno delle più svariate cause sociali. Altre, invece, affondano le loro radici nelle politiche si sviluppo territoriali e vanno di pari passo con percorsi di partnership pubblico-privato (PPP) avviati allo scopo di rendere più competitivi determinati territori. Nel primo capitolo di questo lavoro abbiamo classificato i beni artistici e culturali ed abbiamo elencato i tradizionali finanziatori del settore in Italia. Abbiamo descritto, in particolar modo, il ruolo dei privati, delle imprese e delle Fondazioni di origine bancaria nel sostegno alla cultura. Si è poi analizzato il quadro normativo entro cui si inseriscono le sponsorizzazioni e le erogazioni liberali, ponendo particolare attenzione agli incentivi fiscali all’investimento privato in cultura. Nel secondo capitolo abbiamo invece descritto le principali tecniche del “fundraising”, la “scienza della sostenibilità finanziaria di una causa sociale”. Il fundraising non coincide solo con il momento della raccolta di fondi, ma va inteso anche come processo di sviluppo dei fondi. Abbiamo cercato quindi di fornire dei criteri per la stima del tasso di rendimento del fundraising, tramite il calcolo dell’indice FACE (Fundraising, Administration Cost and total Expenditure) e del tasso di rendimento sugli investimenti (ROI), e per l’applicazione di metodologie di valutazione della convenienza di un investimento di fundraising. Nel terzo capitolo abbiamo ampliato la definizione di “fundraising” al nuovo concetto di “fundraising territoriale per la cultura”. Le tecniche di raccolta fondi che caratterizzano il fundraising, vengono, infatti, tradizionalmente adottate dalle aziende non profit per garantire sostenibilità economica a progetti con finalità sociali, inseriti nell’ambito di attività di cooperazione allo sviluppo. Ma le stesse tecniche possono essere vantaggiosamente utilizzate anche dai sistemi territoriali interessati a sostenere determinati progetti culturali in loco. Da qui, siamo passati alla definizione dei concetti di “distretto culturale” e “distretto culturale evoluto”. Si tratta di sistemi, territorialmente delimitati, di relazioni che integrano il processo di valorizzazione delle dotazioni culturali, con le infrastrutture e con gli altri settori produttivi che a quel processo sono connesse. La chiave del successo dell’attività di fundraising in un distretto culturale sta nella collaborazione tra le imprese, i privati cittadini e gli Enti Pubblici che lo compongono. In questo modo, si creano rapporti che non si esauriscono nella mera raccolta di danaro, ma che sfociano in una vera e propria partecipazione alle attività ed ai progetti culturali. Una forma di collaborazione efficace, tipica delle politiche dei sistemi territoriali come il Distretto Culturale Evoluto, è la Partnership Pubblico Privata (PPP), dove Enti Pubblici, imprese, privati cittadini ed organizzazioni non profit uniscono le loro forze al fine di valorizzare le caratteristiche strategiche del territorio, tra cui naturalmente le sue eccellenze culturali. Nel quarto capitolo siamo andati a descrivere il valore in senso generale derivante da un investimento in cultura. Tale valore presenta sia un aspetto quantitativo che un aspetto qualitativo: se per il primo si può tentare una valutazione con l’utilizzo delle tecniche proprie della finanza, il secondo si fonda su strumentazioni concettuali assai stilizzate di matrice scientifica più recente. Abbiamo spiegato come l’investimento in cultura sia un’importante componente della corporate social responsability delle imprese che lo sostengono, e come determini un impatto positivo sulla loro performance d’investimento, generando un valore misurabile attraverso i flussi di cassa incrementali derivanti dal progetto: le vendite possono aumentare sia per effetto del miglioramento dell’immagine aziendale, che si traduce in una crescita del giro di affari, sia per effetto della nascita di nuovi punti vendita o della creazione di nuovi mercati, come conseguenza dell’attivazione del progetto. L’attività culturale, inoltre, non si limita a generare flussi incrementali di progetto, ma comporta un vero e proprio aumento del valore di mercato dell’impresa. Il valore di un’impresa che segue detta logica aggiungerà al valore di mercato ottenuto attualizzando il proprio Free Cash Flow secondo i criteri della teoria classica del valore, una componente +/-ΔU che rappresenterà la produzione di utilità sociale. I fatti dimostrano che i valori dell’integrazione cultura/economia possiedono un’utilità sociale per l’impresa, le altre imprese ed il territorio, in quanto sostengono l’occupazione, la legalità, la fiducia, generano l’aiuto verso le realtà sociali svantaggiate o bisognose, ed il mondo dei giovani. In conclusione la cultura genera flussi di ricchezza, crea valore economico ed aggiunge a tutto ciò un’utilità sociale fondata su un’intesa tra i soggetti che appartengono alla polis. Detto questo, abbiamo applicato l’analisi teorica esposta ad alcuni casi pratici. Nel quinto capitolo, si sono analizzate le politiche di fundraising del FAI, il Fondo Ambiente Italiano. Si è descritto l’indice FACE della Fondazione e si è poi passati all’analisi del ROI delle principali modalità di raccolta fondi utilizzate. Proprio sulla base di tale analisi, siamo arrivati ad una interessante conclusione: le modalità di raccolta fondi che, come le corporate membership, non prevedono una vera e profonda partecipazione, emotiva ma anche imprenditoriale, alla causa culturale, possono rivelarsi instabili, insicure, specialmente in periodi di crisi. Tecniche di raccolta fondi che invece prevedono la partecipazione delle imprese nel capitale dell’organizzazione (vedi ad esempio “I 200 del FAI”) o il loro coinvolgimento nella gestione dell’attività culturale, saranno destinate a generare ottimi risultati. Le nuove frontiere del fundraising per la cultura, insomma, consistono nella partecipazione attiva di chi finanzia un determinato progetto artistico al capitale della realtà che lo promuove o alla sua gestione e sviluppo. Nell’ultimo capitolo abbiamo trattato l’esperienza del Distretto Culturale della Valle Camonica, che ha intrapreso un investimento in cultura concepito come volano di sviluppo del territorio. Si è ipotizzata, infine, la creazione di un Distretto Culturale in provincia di Trieste, ed abbiamo motivato l’opportunità di realizzare al suo interno un Polo della Musica. Si tratta della proposta ideata dallo studio ARTEMA per il riutilizzo di alcuni magazzini del Porto Vecchio di Trieste a favore di iniziative culturali particolarmente significative e aventi peraltro un’intrinseca capacità di stimolo nei confronti di ulteriori attività, potendo con ciò contribuire all’auspicato processo di rivitalizzazione della realtà locale. Tale studio è stato avviato su incarico di un’aggregazione di dieci soggetti - tra istituzioni, fondazioni e associazioni - operanti a Trieste nel settore musicale (tra di loro spiccano il Conservatorio Giuseppe Tartini ed il teatro lirico Giuseppe Verdi), tutti qualificati da un notevole impegno e dall’alta riconoscibilità nel settore artistico e della formazione. Per l’avvio di questo progetto, abbiamo ideato una proposta di fundraising che coinvolge sì gli Enti pubblici e le Fondazioni bancarie presenti sul territorio, ma si rivolge anche e soprattutto alle imprese ed ai privati cittadini, nell’ottica di un coinvolgimento diretto ed attivo al progetto.
XXIII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
18

Salera, Antonio. "Policy evaluation e policy learning nella regione FVG: indicazioni dall' applicazione dell'approccio controfattuale alle politiche di sviluppo nel settore turistico della montagna marginale." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3628.

Full text
Abstract:
2008/2009
Il tema centrale del progetto di ricerca riguarda la valutazione delle politiche pubbliche regionali di sviluppo mediante l’introduzione di un approccio di tipo quantitativo; la valutazione è intesa come un processo di policy learning in grado non solo di stimare se e quanto un set di interventi sia stato efficace, ma anche di restituire capacità cognitiva ai soggetti interessati in vista di applicazioni future. In particolare, si vuole valutare l’applicabilità di metodologie statistiche consolidate in ambito valutativo, quali quelle afferenti al cosiddetto “approccio controfattuale” su tematiche scelte in coerenza con il Piano Unitario di Valutazione (PUV) della Regione FVG. Tale approccio ha il pregio di fornire stime robuste senza dover esplicitare la forma funzionale utilizzata, come accade, invece, nel caso di metodologie che si basano su modelli di stima parametrica - ad esempio, i modelli di regressione. Il lavoro, attraverso una ricognizione della letteratura esistente in materia, espone, innanzitutto, le motivazioni che spingono le pubbliche amministrazioni a dotarsi di sistemi di valutazione e pone in evidenza come, a livello di Unione Europea, soggetto istituzionale che ha spinto le Regioni a dotarsi di un piano di valutazione unitario per la politica regionale di sviluppo, non ci sia una visione univoca del concetto di valutazione. La “confusione concettuale” che ne deriva comporta distorsioni nella portata e nella fruizione delle evidenze che emergono dai singoli rapporti di valutazione generalmente realizzati nel caso di programmi di politica regionale di sviluppo. Tra tutti gli interventi pubblici oggetto di ricognizione la ricerca prende in esame il Docup Ob2, asse 4, misura 3: la misura consiste in un set di interventi (contributi, compartecipazione al costo) per la valorizzazione turistica del territorio alpino della cosiddetta “montagna marginale”. Essendo la partecipazione al programma su base volontaria, esiste un’elevata probabilità di autoselezione dei partecipanti. Di conseguenza, la metodologia scelta per la valutazione è il Difference in Difference design con assunto di parallelismo nei trend. L’analisi viene condotta sui 59 Comuni della montagna marginale del FVG, di cui 33 beneficiari di almeno uno degli interventi previsti dalla misura e 26 non partecipanti. La domanda valutativa a cui si cerca risposta è se e in che misura aver beneficiato dei contributi previsti abbia avuto un effetto sui flussi turistici nei comuni beneficiari, ovviamente in ottica controfattuale. Le variabili outcome oggetto di analisi sono la variazione annuale del flusso degli arrivi, delle presenze e la permanenza media. Dall’analisi emerge che l’aver partecipato al programma ha contribuito in modo significativo al contenimento del calo dei flussi turistici registrati dal 2000 al 2006. Infatti, sia per quanto riguarda gli arrivi turistici che le presenze turistiche e la permanenza media si osserva, nonostante il calo generalizzato che ha colpito il settore turistico regionale nel periodo in analisi, una riduzione significativa dei differenziali esistenti tra i Comuni che hanno beneficiato degli interventi e quelli che non hanno partecipato alla politica. Tuttavia, i risultati più importanti non riguardano soltanto le evidenze empiriche; l’analisi consente, infatti, di porre in evidenza quali siano i diversi limiti organizzativi e operativi che riducono l’efficacia della valutazione di policy in ambito regionale. I problemi attengono al coordinamento tra i diversi attori, alla frammentazione, incompletezza e instabilità dei sistemi di monitoraggio ed alla assenza di integrabilità tra fonti dirette e fonti indirette di dati. Nelle conclusioni si sottolinea come la valutazione d’impatto potrà essere significativamente applicata in futuro a condizione che: ­ l’Amministrazione Regionale sia in grado di configurare la valutazione come una fase del processo di programmazione; ­ a livello organizzativo, il committente e i gestori delle informazioni riescano a condividere l’obiettivo valutativo e ad impostare un percorso di armonizzazione delle banche dati esistenti e di predisposizione di sistemi di raccolta dati ad hoc, anche prendendo spunto dalla letteratura in materia. La Regione FVG, attraverso il Piano di Valutazione Unitario e il Piano di Monitoraggio Unitario, sembra dare una risposta che va in questa direzione.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
19

Colonnelli, De Gasperis Mattia. "Le azioni correlate.Tracking Stocks." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3667.

Full text
Abstract:
2008/2009
Il lavoro ha ad oggetto l’istituto giuridico delle azioni correlate o di settore (già noto e diffuso in ordinamenti stranieri con il nome tracking stocks e tracking shares), introdotto nell’ordinamento giuridico italiano dalla recente riforma di diritto societario al fine di rendere le forme di finanziamento della società per azioni più efficienti, flessibili e maggiormente adatte alle esigenze degli investitori e dei mercati di capitali. Tale strumento di partecipazione azionaria offre l’opportunità di un investimento remunerato secondo la produttività di uno specifico settore dell’attività esercitata dalla società emittente. Ai sensi del novellato art. 2350, comma 2, c.c., le azioni correlate sono, infatti, “azioni fornite di diritti patrimoniali correlati ai risultati dell’attività sociale in un determinato settore”. Lo studio si apre con l’analisi delle ragioni economico-finanziarie sottostanti l’emissione di tracking stocks, soffermandosi sul diversification discount, la corporate governance, l’asimmetria informativa, le operazioni straordinarie di ristrutturazione aziendale, i particolari equilibri nell’ambito di compagini complesse, l’incentivazione ai managers, la predisposizione di poison pills in caso di scalate ostili. Il precedente storico dell’istituto risale al 1984 quando General Motors al fine di acquisire Electronic Data System attribuì agli azionisti di quest’ultima azioni correlate al core business della medesima società acquisita. La prima operazione europea di ammissione alla quotazione di azioni correlate è avvenuta in Francia nel 2000, anno in cui Alcatel S.A. collocava sul premier marchè azioni correlate all’attività della società controllata Alcatel Optronics. In Italia, le tre società chiuse AIMAG S.p.A. (2006), ATAF S.p.A. (2005) e Friulia S.p.A. (2005) e l’investment company quotata Cape Live S.p.A. (2007) hanno emesso azioni correlate. Vengono approfonditi, tra l’altro, l’ambito di applicabilità dell’istituto, con particolare riguardo alla definizione di settore, alle divisional tracking stocks ed alle subsidiary tracking stocks, e la correlazione dei diritti patrimoniali ai risultati di un settore specifico di attività sociale esercitata dall’emittente (correlazione in senso forte, o close tracking, e correlazione in senso debole, o loose tracking), quale elemento minimo e caratterizzante tale categoria azionaria. Si conclude che sul piano strutturale e funzionale il risultato del settore rappresenta il parametro quantitativo, il criterio, relativo o assoluto, fisso o variabile, per il calcolo della parte di risultato di esercizio di spettanza delle azioni correlate. Sono analizzati, poi, i diritti patrimoniali tipici delle azioni correlate, quali il diritto agli utili, la partecipazione alle perdite ed il diritto alla quota di liquidazione, e i diritti amministrativi, quali il diritto di voto in assemblea generale ed in assemblea speciale, anche nel contesto dell’autonomia statutaria. Il lavoro prosegue con la trattazione del tema dell’accertamento del risultato di settore e delle modalità di rendicontazione da inserirsi all’interno dello statuto. Si argomenta che il risultato di settore non può considerarsi concetto giuridico e/o contabile predefinito e non rappresenta il contenuto del diritto patrimoniale dell’azionista, ma solo un parametro di commisurazione dello stesso, in funzione del criterio di correlazione prescelto. Viene trattato, inoltre, il diritto di conversione delle azioni correlate in azioni ordinarie come meccanismo di exit, funzionale a disciplinare la sorte delle azioni correlate al verificarsi di predeterminati eventi o condizioni. Si esaminano le clausole di conversione ricorrenti nella prassi internazionale, di cui si verifica la compatibilità con l'ordinamento italiano. Infine, vengono identificate le nuove criticità di corporate governance cui le azioni correlate danno luogo, come ad esempio le nuove conflittualità orizzontali tra i soci relative all’allocazione di risorse, delle opportunità d’affari (corporate opportunities), delle spese e dei costi comuni. In tale contesto si forniscono alcuni standards di condotta che gli amministratori di società multi settoriali devono seguire, onde evitare di incorrere in responsabilità verso la società, i soci o i creditori sociali. In tale contesto, si parte dalla constatazione di carattere economico per cui l’impresa multi settoriale è accostabile al fenomeno del gruppo di società ovvero dell’imprenditore-persona fisica o comunque soggetto che abbia rilevanti interessi economici in altre imprese, individuali o collettive. E’ interesse comune a tutti gli azionisti sia che la società mantenga un sano equilibrio economico e finanziario sia che la società venga gestita, nel suo complesso, in modo efficiente. Nel caso in cui la società è insolvente perdono tutti i soci. Una gestione economicamente efficiente conduce alla massimizzazione del valore aggregato delle azioni, cui corrisponde la massimizzazione del valore di ciascuna categoria di azioni, cuore della teoria del c.d. shareholder value. In tale prospettiva l'attenzione si sposta necessariamente sulle modalità gestionali. Infatti, tale interesse comune può essere perseguito esclusivamente attraverso una continua e costante azione perequativa da parte degli amministratori volta ad armonizzare ed ottimizzare il funzionamento particolare di ciascun settore con quello degli altri.
XXII Ciclo
1975
APA, Harvard, Vancouver, ISO, and other styles
20

Bianco, Anna Monica Rosaria. "Characterization of novel genes insolved in non syndromic cleft lip with or with out cleft palate (NSCLP)." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3735.

Full text
Abstract:
2008/2009
Non-syndromic cleft lip with or without cleft palate (NSCLP) is one of the most common birth defect. Genetic studies on human populations have identified numerous predisposing factors, as MYH9 and JARID2, whose role during palatogenesis remains obscure. In order to improve our knowledge on pathogenetic mechanisms, we carried out expression studies during mouse palate development using RNA in situ hybridization. As reference genes (Tgfb3, Irf6, Pvrl1, Foxe1 and Tp63) known to be required for correct palate formation, Jarid2 and Myh9 are expressed in the epithelial cells of the palatine processes before and at the time of contact. Then, this signal decreases and eventually disappears concomitantly with the degradation of the medial epithelial cells. Consistent with these observations, RT-PCR carried out on dissected palatal shelves detected products of Myh9 and Jarid2 from embryonic day E14.0 to E15.0 with a pick at E14.5, the stage when shelves appose in the midline. Taken together, these expression studies strongly support the association studies that designate these genes as predisposing factors for NSCLP. In multifactorial diseases as NSCLP once genetic studies demonstrate association, a major challenge is to identify mutations. In this regard, we started analyzing two in linkage disequilibrium SNPs (rs3752462 of MYH9 and rs2076056 of JARID2) that could be involved in defective splicing mechanisms, as hypothesized on the basis of their localization within splice sites. Using a hybrid minigene assay, however, we demonstrated that none of the allelic variants lead to any aberrant products at least in HeLa cells, the model used for this study. Moreover, we investigated whether alternative splicing events of the Myh9 gene detected in cochlea and brain (Li et al., 2008) could also be found in other tissues and palate. A small insertion of 12 bp between exon 4 and 5 (loop1) due to an alternative splicing was detected in all adult tissues analyzed. The same insertion was not detected in embryonic tissues, such as palatal samples at different stages of development, and brain. These results suggest that the genomic region of loop1 should be investigated in all risk haplotypes to search for pathogenetic variants. In conclusion, further investigations should be planned to explore the role of MYH9 and JARID2 in orofacial development in order to dissect signaling pathways during palate formation and identify the causative variants contributing to NSCLP.
XXII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
21

Ambrosini, Stefano. "MBE growth of self-assisted GaAs nanowires and their characterization." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8572.

Full text
Abstract:
2011/2012
Prefazione: La ricerca nel campo dei nanofili appartiene ancora al laboratorio e non all’industria. Cionondimeno, i nanofili sono oggetto di grande attrazione nella comunità scientifica e nanotecnologica, sia per il loro elevato “aspect ratio”, che per le loro capacità semiconduttrici. Il primo ne fa buoni candidati per usi di sensoristica e interazione con la luce, le seconde potrebbero invece sfruttate per la miniaturizzazione di componenti (opto)elettronici. Il GaAs è un materiale semiconduttore III-V con un band-gap diretto di 1,43 eV a temperatura ambiente. Il suo band gap ne fa un materiale più pregiato del silicio, rispetto al quale ha una minore sensibilità al calore ed una maggiore mobilità elettronica. Tali pregi sono accompagnati da un prezzo maggiore, che oggigiorno limita l’uso del GaAs nei componenti optoelettronici a più alta qualità, come per esempio negli usi satellitari. La sintesi di nanofili di GaAs di alta qualità è una possibiità intrigante per combinare le qualità superiori del GaAs con il minor costo del silicio e della sua tecnologia. L’epitassia da fascio molecolare è una tecnica per sintetizzare materiali con la massima purezza. Operando a pressioni minori di 1E-10 Torr, essa è ideale per la ricerca scientifica e per la sintesi di prodotti di altissima qualità. I prezzi di tali caratteristiche sono un’estrema delicatezza dell’apparato ed un controllo maniacale delle condizioni di crescita per assicurare riproducibilità dei risultati. All’inizio del 2009, la comunità di crescitori di nanofili era alle prese con alcune problematiche riguardanti la scelta di un materiale diverso dall’oro per assistere la crescita e conseguentemente di un substrato acconcio; ulteriori complicazioni alla sintesi di nanofili di alta qualità è(ra) il politipismo cristallino dei nanofili di GaAs. L’uso di oro nella sintesi di nanofili comporta inquinamento chimico responsabile di difetti nel materiale e la presenza di nanoparticelle di oro all’estremità dei nanofili li rende non compatibili con la tecnologia del silicio. Con attenzione sul GaAs, a quel tempo non c’era ancora un substrato di semplice preparazione per la crescita di nanofili di GaAs su GaAs e i difetti cristallini erano una piaga presso che impossibile da eliminare. La mia tesi di dottorato è stata votata allo studio di queste due problematiche. Abbiamo studiato un protocollo semplice per la realizzazione di substrati di GaAs capaci di ospitare la crescita di nanofili di GaAs in assenza di Au, depositando uno strato subnanometrico di silicio su substrati deossidati di GaAs ed espondendoli quindi all’aria. Più semplice ancora, la deposizione di Si direttamente su substrati GaAs epiready si è dimostrata altrettanto efficace. Abbiamo affrontato il problema del politipismo cristallino sia durante la crescita, investigando le relazioni tra parametri di crescita e struttura cristallina dei nanofili, sia dopo la crescita, cercando di alterarla tramite riscaldamento. Abbiamo così scoperto che condizioni ricche in As durante la crescita assistita da Ga favoriscono la struttura cristallina wurtzite, al contrario della più stabile struttura zincoblenda, propria del GaAs di bulk. Il protrarsi di condizioni ricche in As portano quindi alla estinzione della nanoparticella di Ga. In collaborazione con dr. Jakob B. Wagner (DTU CEN, Copenaghen, Danimarca), dott. mag. Damiano Cassese ed il gruppo di ricerca di dr. Marco Lazzarino (IOM CNR, Trieste, Italia) abbiamo scoperto che un periodo di riscaldamento di cento ore in flusso di As è capace di alterare la struttura wurtzite di nanofili assistiti Au in zincoblenda. Tale scoperta è stata in principio fatta tramite microscopia elettronica in trasmissione e quindi confermata per mezzo di spettroscopia Raman. Abbiamo studiato la crescita di nanofili di GaAs in assenza di nanoparticella. In collaborazione con dott. mag. Giacomo Priante (IOM CNR, Trieste, Italia) e prof. Vladimir G. Dubrovskii (SPBAU, San Pietroburgo, Russia) abbiamo trovato che anche dopo la totale consunzione della nanoparticella di Ga, i nanofili possono riprendere la crescita in modo assistito da Ga. Altri studi di minore entità sono stati condotti, come la crescita di nanofili di Si su GaAs senza catalizzatore, lo studio di nanotubi in carbonio contenenti nanoparticelle di catalizzatore, lo studio di microscopia elettronica in trasmissione della crescita laterale dei nanofili, l’effetto di “optical limiting” esercitato da sistemi ibridi. I risultati di questi studi, stonando nella logica della tesi, sono presentati in appendice. Altresì, in appendice è raccolta una sistematica della crescita di nanofili di GaAs. Durante i beam times ad ELETTRA, il Sincrotrone di Basovizza, Trieste, il mio lavoro è stato principalmente votato alla sintesi di nanofili di GaAs drogati Si sui substrati di cui sopra. I nanofili sono stati studiati con spettroscopia a raggi X risolta spazialmente sulla linea di luce ESCAMICROSCOPY, in collaborazione con dr. Mattia Fanetti e lo staff della linea di luce. La prima sessione di esperimenti ha mostrato che i nanofili assisiti da Ga sono meno conduttivi degli assistiti da Au per lo stesso drogaggio nominale. La seconda tranche di esperimenti ha permesso la comprensione del meccanismo di incorporazione delle impurezze di Si durante la crescita mediante lo studio della posizione del livello di Fermi nella band gap dei nanofili di GaAs. Abbiamo così capito che alterando il rapporto As/Ga e senza cambiare la temperatura di crescita (andando cioè a crescere in assenza di nanoparticella) è possibile realizzare eterogiunzioni radiali p-n di alta qualità, con la stessa quantità di drogante.
Abstract: Although still belonging to the laboratory world, nanowires are the object of a big attraction in scientific community for their exploitation in technological devices. Two of the most alluring aspects of nanowires are their high aspect ratio, which makes them candidates for sensing uses as well as light harvesting, and their semiconducting nature, that puts forward their employment for nanoscale transistors and logic units. GaAs is a well-known III-V semiconductor material with a direct band-gap of 1.43 eV at room temperature. It has better properties than Si, such as a large direct band- gap, which also provides lower sensibility to heating, and higher electron mobility. Despite its higher cost, GaAs is nowadays commonly used for highest performance logic units and optoelectronics. The synthesis of high quality GaAs nanowires and their implementation on Si technology encourages the idea of putting together the superior GaAs with the cheaper Si. Molecular beam epitaxy is a growth technique that offers the highest possible purity by means of ultra high vacuum growth regime (base pressure < 1E-10 Torr). It is, therefore, ideal for both research and high quality products. Prices of such advantages are an extreme delicateness of the setup and a maniacal control of the growth conditions, to ensure reproducibility in scientific results. At the beginning of 2009, the nanowire grower community was facing some issues such as the choice of a material different from gold assisting the nanowire growth, the growth substrate and the crystal polytypism. The use of Au as the assistant nanowire growth material had two main drawbacks. Firstly, the verified pollution with Au of the growing nanowires would create defects in the material; secondly, the presence of Au nanoparticles at the nanowire free end would make them non- compatible with Si-based technology. Focusing on GaAs, there was no simple protocol for the substrate treatment in order to trigger the Au-free one-dimensional nanowire growth on GaAs. Nanostructure crystal defects were almost impossible to avoid. My Ph.D. work has been devoted to the study of these problems. We studied a simple protocol to obtain GaAs nanowires on GaAs by MBE. We proved that a sub-nanometric Si layer epitaxially deposited on the deoxidized GaAs surface followed by atmospheric oxidation, or direct Si deposition onto epiready GaAs wafers is able to trigger Ga assisted GaAs nanowire growth. We tackled the nanowire polytypism issue both in a “during growth” action, by studying the effects of the growth parameters on the nanowire crystal structure; and with an “after growth” action, by attempting to change the nanowire crystal structure by thermal annealing after the growth itself. In particular we found that As rich conditions during Ga assisted GaAs nanowire growth leads to a favored wurtzite structure as compared to the default zincblende lattice of the bulk GaAs material. Eventually, As rich conditions lead to the total Ga nanoparticle consumption. In collaboration with dr Jakob B. Wagner (DTU CEN, Copenhagen, Denmark), dott. mag. Damiano Cassese and the research group of dr. Marco Lazzarino (IOM CNR, Trieste, Italy), we discovered that a 100 hours long nanowire annealing step under As flux is capable of transforming the wurtzite structure of Au assisted GaAs nanowires in zincblende. This was carried out by means of transmission electron microscopy and was double checked by means of Raman spectroscopy. We studied the growth of GaAs nanowires in absence of growth assisting droplet. In collaboration with dott. Giacomo Priante (IOM CNR, Trieste, Italy) and prof. Vladimir G. Dubrovskii (SPBAU, Saint Petersburg, Russia), we found that after the total consumption of the Ga nanoparticle, GaAs nanowires can resume the Ga assisted growth. Other minor projects such as, the MBE growth of self catalyzed Si nanowires on epiready GaAs, the TEM study of catalyst-embedded carbon nanotubes bundles, TEM study of the nanowire shell overgrowth, optical limiting effect of hybrid systems were pursued. This information, not fitting in the thesis logic, along with systematics of the Ga assisted GaAs nanowire growth are placed in the appendixes. When being assigned beam time at the ELETTRA Synchrotron facility in Trieste, my work has mainly been the synthesis of Si-doped GaAs NWs on our innovative substrates. Nanowires were then studied in spatially resolved X-ray photoemission spectroscopy experiments on the ESCAMICROSCOPY beamline, performed in collaboration with dr. Mattia Fanetti and the ESCAMICROSCOPY staff. The first measurement set showed that Ga assisted nanowires exhibit a much weaker conductivity than their Au catalyzed counterparts, for the same two- dimensional nominal doping. The second set of experiments gave details about the incorporation of Si in nanowires during the growth, by the detection of the Fermi level in the energy gap. We realised that by tuning the As/Ga flux ratio without need of changing the growth temperature (i.e., shifting from vapor-liquid-solid to vapor- solid regime) and for the same impurity flux, core-shell p-n junctions could be synthesized, with a high uniformity grade along the whole nanowire length.
XXV Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
22

Pakdast, Seid Hossein. "Advanced MEMS resonator for mass detection and micromechanical transistor." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/6690.

Full text
Abstract:
2010/2011
Cantilever sensors have been the subject of growing attention in the last decades and their use as mass detectors proved with attogram sensitivity. The rush towards the detection of mass of few molecules pushed the development of more sensitive devices, which have been pursued mainly through downscaling of the cantilever-based devices. In the field of mass sensing, the performance of microcantilever sensors could be increased by using an array of mechanically coupled micro cantilevers of identical size. In this thesis, we propose three mechanically coupled identical cantilevers, having three localized frequency modes with well-defined symmetry. We measure the oscillation amplitudes of all three cantilevers. We use finite element analysis to investigate the coupling effect on the performance of the system, in particular its mass response. We fabricated prototype micron-sized devices, showing that the mass sensitivity of a triple coupled cantilever (TCC) system is comparable to that of a single resonator. Coupled cantilevers offer several advantages over single cantilevers, including less stringent vacuum requirements for operation, mass localization, insensitivity to surface stress and to distributed a-specific adsorption. We measure the known masses of silica beads of 1µm and 4µm in diameter using TCC. As it is difficult to obtain one single bead at the free end of the cantilevers, we choose to use the Focused Ion Beam. By sequential removing mass from one cantilever in precise sequence, we proved that TCC is also unaffected from a-specific adsorption as is, on the contrary, the case of single resonator. Finally, we proposed shown the use of TCC can be as micromechanical transistor device. We implemented an actuation strategy based on dielectric gradient force which enabled a separate actuation and control of oscillation amplitude, thus realizing a gating effect suitable to be applied for logic operation.
XXIV Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
23

Visentini, Sara. "Problemi di trasmissione e ricezione della letteratura greca nei 'papiri scolastici' di età ellenistica e romana." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10008.

Full text
Abstract:
2012/2013
Questo lavoro si concentra sull’analisi dei papiri di età ellenistica e romana nei quali ho individuato ‘libri di scuola’, che contengono passi di letteratura greca e che sono riconducibili all’istruzione superiore. I ritrovamenti papiracei e i più recenti contributi nei congressi di papirologia (Cassino nel 1996 e nel 2004, Salamanca nel 2008) dimostrano come nella comunità scientifica il tema dell’istruzione sia sempre vivo. Gli studi di Guglielmo Cavallo sulla readership, gli apporti di Lucio Del Corso sulle pratiche didattiche antiche e gli studi sulla scuola condotti da Raffaella Cribiore hanno avuto il merito di provocare nuovi spunti di riflessione su temi di grande interesse per la ricostruzione della cultura dei milieux di livello medio-alto nell’Egitto greco e romano. Come testimoniato dai papiri, l’aumento dell’alfabetizzazione e del commercio librario in epoca romana nelle aree urbane, ma non solo, provano che qualche forma di letteratura veniva diffusa a scuola e circolava anche al di fuori di essa. Lo studio del testi di scuola di livello superiore offre un contributo considerevole alla nostra conoscenza sul pubblico dei lettori e dei redattori di questi sussidi per lo studio. Il dossier dei ‘libri di scuola’ raccoglie i frammenti che contengono differenti tipologie di passi letterari più o meno brevi. La raccolta si compone di 158 papiri.
XXVI Ciclo
1972
APA, Harvard, Vancouver, ISO, and other styles
24

Grion, Anna. "Martiani Capellae De Nuptiis Philosopiae et Mercurii liber VII. Introduzione, traduzione e commento." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/9141.

Full text
Abstract:
2011/2012
La tesi verte sul settimo libro del De Nuptiis Philologiae et Mercurii del cartaginese Marziano Capella, dedicato all'aritmetica. Il lavoro presenta il testo latino, stabilito sulla base delle edizioni critiche esistenti, la traduzione e puntuali note di commento di tipo filologico e contenutistico. L'introduzione fornisce un inquadramento del libro all'interno dell'opera e presenta le fonti e i caratteri dell'Aritmetica di Marziano.
XXV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
25

Girardelli, Martina, and Martina Girardelli. "Ricerca di nuove varianti geniche associate alle malattie infiammatorie croniche intestinali." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10849.

Full text
Abstract:
2013/2014
2013/2014
Le malattie infiammatorie croniche intestinali (MICI), sono un gruppo di malattie eterogenee ad eziologia multifattoriale. Sono caratterizzate da uno stato infiammatorio a carico della mucosa del tratto gastrointestinale e comprendono il Morbo di Crohn (MC), la Rettocolite ulcerosa (RCU) e la Colite indeterminata (CI) i cui quadri istopatologici differiscono tra loro per tipo di lesione, localizzazione della malattia e complicanze associate. Le MICI insorgono tipicamente durante l’adolescenza o in età adulta come il risultato della combinazione di tutti i fattori predisponenti che concorrono in egual misura nella determinazione della malattia. L’insorgenza delle MICI può avvenire anche in età molto precoce, entro i 10 anni ma anche entro i 2 anni e in maniera ancora più grave. In questi casi di esordio precoce si ipotizza che il peso maggiore sia da attribuire alla componente genetica piuttosto che a fattori ambientali e microbici. Solitamente i pazienti con esordio precoce sono caratterizzati da un fenotipo malattia più severo e difficilmente controllabile con le terapie convenzionali. Per gli aspetti differenti che si osservano in termini di predisposizione, caratteristiche fenotipiche, fattori coinvolgenti e geni interessati, le MICI possono essere contestualizzate da una parte come malattie multifattoriali e dall’altra come patologie “monogeniche". Nel contesto della multifattorialità, i numerosi studi di associazione son stati importantissimi in quanto hanno individuato numerosi geni relativi a distinte pathway (barriera intestinale, regolazione dell’immunità innata dell’epitelio, autofagia, sistema fagocitario e stress) coinvolte nella patogenesi delle MICI (ad oggi 163 loci). Nel lavoro di dottorato l’attenzione e l’interesse si è focalizzato sullo studio delle MICI ad insorgenza precoce e uno dei primi obiettivi della tesi è stato quello di indagare in 36 pazienti pediatrici, geni noti dalla letteratura per essere associati alla malattia (NOD2, ATG16L1, IL23R, IL10, IL10RA, IL10RB e XIAP), con il fine di identificare una possibile correlazione genotipo-fenotipo. Anche se non è stato possibile identificare un unico filo conduttore che ci ha permesso di correlare il fenotipo dei pazienti ai genotipi individuati, sono state identificate nuove varianti missenso e introniche. Tutte le varianti individuate sono state analizzate da un punto di vista bioinformatico per valutare la predizione di patogenicità: in base alle predizioni ottenute l’attenzione si è focalizzata su due varianti nel gene NOD2 sulle quali sono stati allestiti saggi funzionali per valutare il loro impatto sulla corretta sintesi e funzionamento della proteina. Un importante dato che emerge sempre più spesso dalla letteratura è l’evidenza che lesioni infiammatorie a carico del tratto gastrointestinale e il fenotipo tipico delle MICI, possono presentarsi molto precocemente (entro i 2 anni di vita) come prime o a volte anche come uniche manifestazioni cliniche in un contesto patologico più ampio che sottende allo sviluppo di gravi immunodeficienze (MICI-like). In questi casi le mutazioni a carico del gene malattia sono molto rare e generalmente considerate come mutazioni “private” e causative del fenotipo malattia che si osserva. Nell’ambito delle MICI in un contesto che possiamo definire monogenico, sono stati analizzati pazienti pediatrici con una sintomatologia MICI-like mediante analisi di sequenza di nuova generazione “Whole Exome Sequencing (WES)”. Sono state ricercate specificamente mutazioni in un determinato set di geni accuratamente selezionati (60 geni) in quanto responsabili di patologie monogeniche che presentano, all’esordio della malattia, una sintomatologia MICI-like. L’obiettivo è quello di riuscire ad effettuare in tempi rapidi l’identificazione di mutazioni in specifici geni malattia, per permettere al clinico di diagnosticare altrettanto rapidamente la malattia e poter intraprendere la terapia più adeguata e specifica per ciascun paziente. Così come sono state individuate numerose varianti presenti nei database e note per la loro associazione alle MICI, sono state identificate anche nuove varianti, mai descritte prima in letteratura. Alcune varianti sono state analizzate con saggi funzionali in vitro in modo da poter comprendere il rispettivo effetto sulla proteina. Per testare l’effetto della variante intronica rs104895421 (c.74-7T>A), situata a monte dell’esone 2 del gene NOD2, è stato allestito il saggio del minigene ibrido. L’esperimento ha messo in evidenza che tale sostituzione nucleotidica altera il corretto funzionamento del meccanismo di splicing, provocando, anche se non con una efficienza del 100% l’esclusione dell’esone. Nel contesto di MICI come malattie monogeniche, sono state individuate due importanti mutazioni, in due pazienti con sintomatologia MICI-like ad esordio molto precoce. La prima è una mutazione, ovvero una delezione di due nucleotidi, identificata nel gene XIAP (c.1021_1022delAA fs p.N341fsX7). Questa delezione determina la sintesi di una proteina tronca provocando un’alterazione strutturale della proteina che ne la funzionalità. Il risultato di tale lavoro ha permesso al clinico di fare finalmente la corretta diagnosi e il paziente è stato curato grazie ad un trapianto di midollo. La seconda mutazione degna di interesse è una mutazione missenso identificata in omozigozi nel gene NOD2 (c.G1277A p.R426H), in seguito all’analisi dell’esoma. Dalle indagini funzionali si evince che tale mutazione altera il normale funzionamento del recettore intracellulare NOD2, e quindi potrebbe spiegare il fenotipo malattia osservato nel giovane paziente (“gain of function”). In questo caso, il confronto con il clinico, in base alle evidenze ottenute dai test eseguiti, deve ancora avere luogo ma sarà di fondamentale importanza per fare una diagnosi e iniziare la terapia idonea. Questa tesi ha incrementato, seppur con piccoli tasselli, le conoscenze riguardo alcuni varianti in geni conosciuti dalla letteratura per la loro associazione con le MICI. I risultati ottenuti hanno avuto inoltre un impatto traslazionale molto importante permettendo ai clinici di fare la corretta diagnosi e iniziare la terapia idonea per migliorare la qualità e l’aspettativa di vita del paziente.
XXVII Ciclo
XXVII Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
26

D'Amelio, Diego. "Ritratto di un'élite dirigente. I democristiani di Trieste 1949-1966." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/30670.

Full text
Abstract:
2009/2010
Questa tesi di dottorato si pone l’obiettivo di ricostruire la vicenda e il profilo del ceto dirigente politico-amministrativo espresso dalla Democrazia cristiana di Trieste, dal dopoguerra alla metà degli anni Sessanta. L’élite democristiana viene qui assunta come caso di studio: l’attenzione alla dimensione locale punta a contribuire, più generalmente, all’analisi storiografica rivolta negli ultimi anni alle classi dirigenti repubblicane; al ruolo dei partiti nella transizione tra fascismo e democrazia; al funzionamento dei meccanismi di rappresentanza e di integrazione fra centro e periferia. La tesi presenta linee interpretative e spunti metodologici innovativi, resi possibili da un approccio interdisciplinare che unisce storia e scienze sociali (statistica e sociologia). Il testo è diviso in due sezioni: la prima ripercorre la parabola della DC e del movimento cattolico politico di Trieste, la fase di formazione dei suoi protagonisti, le ragioni del consenso e il progetto di fondo perseguito. La seconda parte definisce in termini sociologici il profilo dell’élite – età, provenienza, studi e professione – considerando nel contempo estrazione sociale, preparazione, canali di reclutamento, fattori di legittimazione, risultati elettorali, schieramenti correntizi, ruolo degli istriani (insieme bacino di consenso e serbatoio di classe dirigente), processi di occupazione del «potere», ricambio politico-generazionale e sviluppo delle carriere. Informazioni dettagliate sono state raccolte su un campione di circa 200 persone, ovvero su coloro i quali diedero forma alla classe dirigente cattolica nell’arco cronologico prescelto. Questi elementi ricoprirono ruoli decisionali – con gradi di responsabilità diversi – nello scudo crociato, nelle realtà elettive e in quelle di nomina politica: la ricerca ha permesso di ricostruirne fisionomia socio-anagrafica, presenze negli enti locali e negli organi di partito, schieramento correntizio e reticoli collaterali. Sui detentori degli incarichi più rilevanti, circa 70 persone, è stata inoltre avviata una più approfondita analisi delle biografie e delle carriere. Le fonti utilizzate sono numerose: archivio provinciale del partito (recentemente messo a disposizione dall’Istituto Sturzo e mai utilizzato sistematicamente prima d’ora), stampa, anagrafe, archivio comunale e diocesano, fondi personali, memorialistica e interviste. La codifica e l’esame dei dati ha consentito di realizzare a supporto dell’esposizione circa 20 tabelle e oltre 70 biografie, contenute in due appendici poste alla fine del volume. Il testo mette in luce il quadro d’insieme del ceto democristiano: la composizione degli organismi elettivi e di partito, le caratteristiche individuali e di gruppo dell’élite, il rapporto tra militanza e ruoli pubblici, il profilo delle correnti e le proporzioni della geografia politica interna, il seguito elettorale, le forme di collateralismo (Azione cattolica, ACLI, sindacato e associazionismo istriano), le biografie e il processo di costruzione della nuova leadership. Particolare attenzione è stata prestata agli aspetti generazionali e correntizi: ciò ha consentito di mettere in connessione età, formazione e progetto politico; valutare il peso specifico delle singole correnti nel partito e negli enti; analizzare i criteri di suddivisione dei vari incarichi e i processi di ricollocamento prodotti dalla nascita di nuove tendenze. Si tratta di un approccio in parte inedito, generalmente non utilizzato in lavori simili a questo, ma allo stesso tempo fondamentale per fornire nuove chiavi di lettura alla storia politica e per avvicinarsi con rigore a un’organizzazione strutturata come la Democrazia cristiana. Il lavoro ha cercato infine, quando possibile, di assumere una prospettiva comparativa, per paragonare il contesto locale ai meccanismi funzionanti a livello nazionale e in altre aree del paese, individuando così uniformità e sfasamenti generazionali e politici. Il metodo utilizzato in questa sede è ormai affinato e potrebbe essere applicato alla DC triestina degli anni successivi, ai diversi partiti del teatro giuliano, a gruppi dirigenti cattolici di altre città oppure al livello nazionale dello scudo crociato e delle istituzioni, su cui le informazioni sono peraltro ben più abbondanti. Il sistema messo a punto permetterebbe infine di essere utilizzato – con gli adattamenti del caso – anche sulle più recenti generazioni politiche. I vantaggi che questi sviluppi promettono per un approccio comparativo sono evidenti. In conclusione, la tesi ricostruisce le vicende e le caratteristiche di un’élite periferica, affermatasi in assenza di una tradizione politico-culturale precedentemente radicata e capace di governare Trieste dal dopoguerra alla fine degli anni Settanta. Il testo prende in esame la formazione, l’affermazione, i progetti, le scelte e le linee politiche di due differenti generazioni di cattolici, influenzate inevitabilmente dalla peculiare situazione del confine orientale e dalla necessità di ripensare la dimensione del confine, dopo la stagione liberal-nazionale e il fascismo. In un primo momento la Democrazia cristiana si assicurò il consenso, assumendo la responsabilità della «difesa dell’italianità» e dell’anticomunismo, in un territorio sottratto alla sovranità dello Stato, sottoposto ad amministrazione anglo-americana e oggetto di una dura contesa ideologica e statuale. Dopo il 1954 una nuova leva sostituì il ceto dirigente degasperiano, impegnandosi nel superamento dell’emergenza e nella «normalizzazione» della politica, dell’amministrazione, dell’economia e dei rapporti fra italiani e sloveni, nell’ambito del centro-sinistra. La DC giuliana propose insomma una strategia in due tempi, riassunta dalla storiografia con la formula di «cattolicesimo di frontiera»: esso fu impostato nel dopoguerra, venne radicalmente aggiornato dopo il ritorno all’Italia e si concluse alla fine degli anni Settanta, davanti alle reazioni suscitate dal trattato di Osimo. Tale periodo corrispose a importanti evoluzioni del quadro nazionale, con il superamento del centrismo e la maturazione dei fermenti di rinnovamento all’interno del mondo cattolico italiano. L’analisi dei nodi descritti è accompagnata dall’indagine sulle concrete ricadute della svolta politica e generazionale, avvenuta nel 1957, prima nel partito e di riflesso nell’ambito elettivo. L’ascesa della corrente di Iniziativa democratica e poi dell’area «doro-morotea» produssero infatti significative modifiche della linea e del personale politico, che corrisposero peraltro alla costruzione dell’egemonia democristiana nello spazio pubblico, grazie al definitivo controllo degli enti locali, della Regione autonoma a Statuto speciale e all’elezione dei primi deputati nel 1958. L’esame dei meccanismi di occupazione dei principali gangli dell’amministrazione è supportata dai dati statistici raccolti, i quali ben evidenziano le caratteristiche socio-anagrafiche, le reti di relazione e le dinamiche di potere che contraddistinsero il ceto politico democristiano di Trieste.
Introduzione Il panorama 9 Il dialogo fra storia e scienze sociali 14 Costruire le basi per una biografia collettiva 17 Le motivazioni di una proposta metodologica 22 Ringraziamenti 29 Sezione 1 Difesa nazionale e «normalizzazione». Il ceto dirigente cattolico nel dopoguerra triestino Antonio Santin, Edoardo Marzari e la «vecchia guardia»: la preparazione del domani 31 La difesa dell’italianità e la costruzione del consenso 56 Uomini nuovi: «normalizzazione» ed egemonia democristiana 77 Il progetto della terza generazione 104 Sezione 2 Correnti, generazioni e potere nella Democrazia cristiana di Trieste (1949-1966) La Democrazia cristiana, gli altri partiti e la prova del voto 126 Il nuovo corso della DC. Il «cambio della guardia» del maggio 195 140 Le correnti. Composizione e assetto del motore politico democristiano 158 Il Comune e la Provincia. Le ricadute istituzionali del «cambio della guardia» 176 L’«imprenditore politico». La Regione e il parlamento 195 La costruzione dell’egemonia. Gli enti di secondo grado 201 La creazione di un’élite. I processi di ricambio e le carriere 211 Conclusioni 253 Appendice A - Le tabelle 276 Appendice B - Le biografie 300 Abbreviazioni 464
XXII Ciclo
APA, Harvard, Vancouver, ISO, and other styles
27

Padovese, Elena. "Effetti di strutturazione di materiali a base di ossidi inorganici di tipo "aerogel-like" per applicazioni nel campo di catalisi e di isolanti ad alta efficienza." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3607.

Full text
Abstract:
2008/2009
La nanotecnolgia rappresenta un approccio innovativo nella produzione industriale, e riflette la generale tendenza alla miniaturizzazione ed alla riduzione di scala che prevale in tutte le discipline tecnologiche. Da qui il crescente interesse nei confronti nei nanomateriali e dei materiali nanostrutturati, per lo sviluppo di nuovi prodotti innovativi e tecnologicamente avanzati, che trovino applicazione in molteplici campi. La presente tesi di dottorato si focalizza sulla strutturazione di nanomateriali a base di ossidi metallici, per applicazione come isolanti termici ad alta efficienza o come fotocatalizzatori per l’abbattimento dei contaminanti da acque reflue. Nel campo dell’isolamento termico l’attenzione è stata focalizzata su Al2O3, che, grazie alle sue uniche proprietà di tessitura, ottenute attraverso una scelta accurata delle condizioni di sintesi, ed all’elevata stabilità termica, è un materiale di forte interesse in questo settore. Lo studio della capacità di termoisolamento di materiali a base di Al2O3 ha rivelato una diretta dipendenza della diffusività e conducibilità termica dalle caratteristiche di tessitura e di struttura dell’ossido, e dalle modalità di agglomerazione. I risultati più rilevanti riscontrati nell’ambito di questa parte del lavoro hanno dato chiare indicazioni su come disegnare la strutturazione di un isolante termico: 1. Effetto del tipo di porosità presente (macro vs meso): l’aumento del contenuto di macropori determina una diminuzione del valore di conducibilità, ed un aumento di diffusività, per cui il materiale è un isolante termico; al contrario, la presenza di mesopori favorisce la riduzione di entrambe conducibilità e diffusività, per cui il materiale presenta proprietà di termoisolamento ed antifiamma; 2. Effetto del diametro dei mesopori: la modulazione del diametro dei pori a parità di porosità nella regione meso, non incide sul valore di diffusività e conducibilità, con il vantaggio che, aumentando le dimensioni, aumentano anche la resistenza meccanica e la stabilità termica dell’ossido; 3. Effetto della morfologia di assemblaggio del materiale: incide pesantemente sul trasferimento dell’energia termica, poiché, in presenza di un agglomerato hard, la conducibilità e la diffusività aumentano di un ordine di grandezza. Ne consegue che un materiale termoisolante deve avere una struttura mesoporosa ed una morfologia di tipo aggregato soft. È necessario evitare la sinterizzazione massimizzando la stabilità termica (es. mesopori di “grandi” dimensioni). L’analisi dei parametri di sintesi ha rilevato degli effetti sui processi di aggregazione nel gel-precursore di aerogel, che indirizzano in modo critico le proprietà di tessitura del prodotto finale. Il lavoro di ottimizzazione di tali parametri ha permesso di realizzare lo scale up del processo su scala industriale, da 200 ml a 25 L. La seconda parte del lavoro di ricerca è stata focalizzata sull’abbattimento di contaminanti da percolato di discarica ed acque reflue industriali per via fotocatalitica mediante processi di tipo APO. L’APO, ed in particolare la fotocatalisi con TiO2, si è rivelato un metodo di trattamento di efficiente e versatile, rendendo possibile la decontaminazione di reflui di diversa natura, dalle acque industriali al più complesso percolato di discarica. Lo studio dei parametri di processo ha evidenziato, infatti, la possibilità di semplificare il trattamento, a seconda della complessità del refluo. Mentre nel caso del percolato di discarica è necessario un trattamento con il sistema TiO2/H2O2/UV, in quanto, in virtù del sinergismo H2O2/UV, il contenuto di COD può essere portato a livelli sufficientemente bassi da permettere il completamento della decomposizione per via fotocatalitica, il refluo proveniente dall’industria del sughero può essere depurato anche in presenza del solo agente ossidante, o per effetto della sola fotocatalisi, in tempi ragionevolmente brevi rispetto a quelli richiesti per la decontaminazione del percolato (8 ore). In entrambi i casi è probabilmente possibile aumentare l’efficienza del processo mediante un’alimentazione in continuo dell’agente ossidante. In particolare, con l’approfondimento dello studio del trattamento delle acque industriali nel prototipo di reattore pilota, e la modellizzazione matematica dell’abbattimento dei contaminanti, è stato possibile parametrizzare il processo sulla base delle dimensioni dell’impianto, confermandone la fattibilità ed applicabilità su scala industriale.
XXII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
28

Montagner, Emanuele. "Il culto di Apollo Carneo." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3496.

Full text
Abstract:
2008/2009
L'importanza e l'interesse dell’argomento di questa tesi di dottorato discendono dalla centralità che il culto di Apollo Carneo aveva nell'ambito della religione e della società spartana, esemplificata dal modo in cui la festività ad esso connessa poteva incidere sull’andamento di alcuni eventi bellici fondamentali nella storia greca. Il culto di Apollo Carneo, infatti, era diffuso nella maggior parte delle poleis greche doriche ed era particolarmente sentito a Sparta. Esso comportava l’astenersi dalle guerre per tutta la durata della festa. Si possono individuare le conseguenze di tale divieto in alcuni passi di Erodoto e di Tucidide: gli Spartani non giunsero in aiuto degli Ateniesi nella battaglia di Maratona perché dovevano attendere la fine delle celebrazioni delle Carnee prima di partire (Hdt. VI 106,3); gli Spartani inviarono alle Termopili un piccolo contingente agli ordini di Leonida proprio perché in quel periodo si svolgevano le Carnee e non poteva essere inviato tutto l’esercito (Hdt. VII 206); nel corso della guerra del Peloponneso gli Spartani interrompevano l’attività bellica durante la celebrazione delle Carnee, mentre gli Argivi cercarono, con un artificio nel computo dei giorni, di rimandare l’inizio del mese Carneo, mese sacro ai Dori secondo Tucidide, per poter concludere un’incursione nel territorio di Epidauro (Thuc. V 54; V 75; V 76,1). Da questi esempi si evince chiaramente come lo studio del culto di Apollo Carneo non possa essere considerato come un mero studio di erudizione sulle peculiarità della religione greca, ma investa invece gli aspetti fondamentali della società spartana (oltre che della colonia di Thera, della sub-colonia di Cirene e delle altre città interessate dal culto), al punto che numerosi studiosi si sono cimentati nell’interpretazione del significato delle Carnee. Adler, però, conclude la voce Karneios della Real Encyclopedie der Classischen Altertumswissenschaft in modo piuttosto sconsolato: “Jedenfalls liegt die Ausbreitungsgeschichte des Kultes nach dem Erscheinen des neuen Materials mehr im Dunkel als vorher”. In seguito sono stati pubblicati numerosi studi importanti ed illuminanti, ma il quadro complessivo della festa rimane ancora incerto e contraddittorio. Il presente progetto di ricerca, pertanto, intende sì offrire una raccolta completa delle testimonianze sul culto di Apollo Carneo, comprese le più recenti acquisizioni epigrafiche, numismatiche ed archeologiche, ma intende soprattutto trattare l’argomento da un punto di vista diverso. L’impostazione sottesa alla tesi, infatti, non prevede l’utilizzo indistinto di tutte le testimonianze, di qualsiasi periodo, per tracciare un quadro generale ed onnicomprensivo del culto, valido per tutte le epoche, bensì contempla un approccio diacronico che consenta di riconoscere gli influssi e i cambiamenti che di volta in volta il contesto politico, sociale e culturale ha imposto. Il tentativo, insomma, è di tracciare un quadro dell’evoluzione storica di questa festività, adottando, ove possibile, un criterio ‘stratigrafico’ nell’analisi dei testi sulle Carnee. Il primo capitolo comprende una rassegna delle numerose interpretazioni del culto: esse considerano Apollo Carneo un’originaria divinità della vendemmia oppure un dio-ariete, legato ad una festa di pastori; pongono un più marcato accento sui riti di purificazione ed espiazione e sul collegamento con la caccia e con la preparazione per la guerra o sottolineano la prevalenza del carattere iniziatico della festa. Per la maggior parte degli studiosi nella festa si può individuare uno strato più antico, che riguarda il culto della natura per pastori e contadini, e uno strato più recente, in cui prevale l’aspetto militare, introdotto dai Dori. Le posizioni emerse negli ultimi anni tendono a valorizzare maggiormente l’aspetto militare del culto, il legame con la migrazione e la conquista dorica. Nel secondo capitolo le tradizioni sulle origini delle Carnee sono catalogate secondo due criteri: quello cronologico e quello tematico. Nella prima parte sono analizzate in ordine cronologico tutte le fonti letterarie che si riferiscono al mito eziologico delle Carnee. La testimonianza più antica risale al VII secolo a.C., ad Alcmane, a cui lo scolio 83a all’Idillio V di Teocrito attribuisce un frammento in cui viene citato Karnos, mentre gli autori più tardi sono Nonno ed Esichio. Il dato più significativo è costituito proprio dall’ampio arco cronologico (si va dal VII secolo a.C. al V-VI d.C.) e dall’estrema varietà delle informazioni desumibili dalle fonti: in taluni casi risulta difficile combinare in un unico contesto festivo e cultuale tutti i dati a nostra disposizione. Si è deciso, perciò, di adottare nella prima parte del secondo capitolo un criterio ‘stratigrafico’, ovvero un approccio diacronico che consenta di riconoscere gli influssi del contesto politico, sociale e culturale sull’evoluzione storica di questa festività. Tale modo di accostarsi al problema delle fonti, inoltre, ben si accorda con l’immagine, ormai unanimemente accettata negli studi specialistici, di una Sparta che muta nel corso del tempo e non rimane sempre uguale a se stessa. La seconda parte del capitolo, invece, prende in considerazione le medesime fonti seguendo un criterio tematico, in modo da definire chiaramente i tre nuclei tematici intorno ai quali raggruppare le testimonianze. Il primo spiega l’origine del culto di Apollo Carneo richiamandosi all’ambito della spedizione di Troia (Alcmane, Demetrio di Scepsi, Pausania e lo scolio a Teocrito V 83 d); il secondo si rifà al cosiddetto ritorno degli Eraclidi (Teopompo, Conone, Pseudo-Apollodoro, Pausania, scoli a Teocrito V 83c-d e scoli a Callimaco, Inno ad Apollo 71); il terzo fa discendere Karnos da Zeus ed Europa (Prassilla, Pausania ed Esichio). Il terzo capitolo, sulle manifestazioni locali del culto, costituisce il nucleo centrale della tesi. Nella prima sezione vengono trattati gli aspetti del culto per i quali non si può individuare una provenienza locale ben definita: l’iconografia e la collocazione della festa nel calendario. Nel paragrafo sull’iconografia viene evidenziato il legame con il culto del Carneo di alcune erme laconiche che raffigurano un ariete e di una stele alla cui sommità è scolpito in bassorilievo un paio di corna di ariete. Allo stesso tempo, però, viene messa in dubbio la possibilità che il tipo monetale che ritrae una testa giovanile con corna e, talvolta, orecchie di ariete rappresenti Apollo Carneo. Tali monete provengono da numerosi centri della madrepatria e delle colonie greche, tra i quali – ciò che più conta ai fini dell’interpretazione – molte località non doriche (ad esempio Metaponto, Tenos, Aphytis, ecc.). Tra le altre identificazioni proposte dagli studiosi, la più plausibile sembra essere quella con Zeus Ammone. La parte più ponderosa del terzo capitolo riguarda l’analisi delle manifestazioni del culto a Sparta, Tera, Cirene e Cnido, da cui proviene una quantità di dati sufficiente ad analizzare con una certa sistematicità le testimonianze relative al Carneo. In ogni capitolo vengono esaminati l’eventuale localizzazione topografica dei santuari di Apollo Carneo, le attestazioni di agoni (musicali e/o atletici) all’interno delle Carnee, i riti connessi al culto, l’esistenza di sacerdozi del Carneo. Per molti aspetti la scarsità e la natura eterogenea della documentazione, sia tra una città e l’altra sia all’interno di una stessa città, rendono difficile proporre un’interpretazione complessiva del culto. L’esempio di Cirene è emblematico: le fonti letterarie attestano con certezza l’esistenza e l’importanza del culto di Apollo Carneo, soprattutto in relazione alla fondazione della città, mentre la documentazione archeologica, che pure è singolarmente abbondante per Cirene, non ci consente di localizzare gli eventuali santuari del dio all’interno della città. Il quarto capitolo raccoglie le altre testimonianze del culto che ne attestano la diffusione in ambito dorico. Le località per le quali possediamo una documentazione sufficientemente consistente sono Cos, Lindo e Camiro, Messene e Andania. In conclusione, se sembra difficile proporre un’interpretazione totalizzante, che colleghi tutti gli elementi del culto in un sistema “où tout se tient”, si possono, però, individuare alcuni caratteri comuni alle diverse manifestazioni del culto. Innanzitutto le associazioni del Carneo con determinate divinità (Era, Ilizia, Artemide, i Dioscuri) connesse all’educazione dei giovani e il rito della staphylodromia fanno intravedere un ruolo del dio nella formazione e nell’inserimento dei giovani tra i cittadini a pieno titolo, ma non, a mio parere, un inquadramento strutturale del culto nel sistema iniziatico spartano. In secondo luogo il culto e la festa avevano una forte caratterizzazione ‘politica’, in cui tutti gli elementi costitutivi dell’identità e dell’ideologia del gruppo – soprattutto, da un certo momento in poi, l’elemento dorico – erano enfatizzati.
XXII Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
29

Aizza, Marco. "Modelli per la simulazione di azionamenti elettrici di propulsione e sistemi di generazione navali." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8532.

Full text
Abstract:
2011/2012
La propulsione elettrica navale è una soluzione che riscuote notevole interesse per le navi di nuova generazione. La sua versatilità permette di ottimizzare gli spazi ed i pesi del sistema elettrico di propulsione. Questo sistema garantisce una riduzione dei consumi specifici del motore primo che, al variare della velocità di rotazione dell’elica connessa alla macchina elettrica, lavora costantemente alla velocità nominale, dove i consumi sono ottimizzati. Il presente elaborato si pone come obiettivo lo studio di un sistema di propulsione ibrida, composto da una turbina a gas e due azionamenti elettrici, installato su navi militari di nuova concezione. Il sistema è in grado di funzionare anche come generatore asse. Lo studio si focalizzerà principalmente sugli azionamenti elettrici del sistema di propulsione e sulla loro interazione con il sistema elettrico integrato di bordo. L’obiettivo principale è quello di realizzare un simulatore dettagliato dell’azionamento elettrico di propulsione, permettendo di studiare il funzionamento dello stesso in regime stazionario e in regime dinamico. Viene quindi eseguita una modellizzazione matematica dettagliata dell’azionamento di propulsione oggetto di studio, dalla macchina elettrica ai convertitori di propulsione. Lo studio è condotto allo scopo di ottenere informazioni riguardanti il comportamento dell’azionamento, in determinate condizioni di funzionamento, e gli effetti da esso causati sulla rete elettrica di bordo. Viene poi descritto il modello del sistema funzionante in modalità di “generatore asse”, dalla trattazione fatta sul sistema di propulsione, effettuando una validazione del relativo simulatore implementato, attraverso la comparazione tra i risultati ottenuti e le prove di collaudo fornite dai produttori del sistema oggetto di studio. Viene infine trattato uno degli argomenti più promettenti nell’ambito della propulsione elettrica navale, il sistema di distribuzione in media tensione continua (MVDC). Il sistema MVDC è una soluzione che riscuote notevole interesse nell’ambito delle “all-electric ship” di nuova generazione, grazie ai vantaggi offerti in termini di riduzione di pesi e dimensioni del sistema di generazione e di consumo di energia.
XXV Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
30

Rotunno, Giuliana. "Integrated techniques for the internal logistics analysis and management of complex systems." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8531.

Full text
Abstract:
2011/2012
In the context of manufacturing systems management, a decisive role is played by logistics, which may be defined as a planning and organization process aimed at optimizing the flow of material and information within and outside the company. In detail, the internal logistic systems are an important part of the modern industry and their design is challenging due to high complexity and heterogeneity of the manufacturing plants. Moreover, the analysis and management of the logistics in complex manufacturing systems is a widely discussed research topic in the related scientific literature. In this thesis the study of the internal logistic, and specifically application to manufacturing system, is taken into account in relation to the complexity features that characterize such systems. Despite the numerous contributions in the related literature proposing manufacturing logistic management approaches, few attempts were made to propose systematic techniques that, while improving the manufacturing system internal logistics and the related performances, are able to assess the manufacturing dynamics and the corresponding improvement. Therefore, the research results presented in this thesis are focused on the development of twoinnovative strategies and integrated techniques to analyze and manage the internal logistics of complex manufacturing systems. First, we present a novel hierarchical and iterative technique for the analysis and lean management of the internal logistics of discrete manufacturing systems. The technique efficiently integrates the Value Stream Mapping (VSM) tool, the Analytic Hierarchy Process (AHP) methodology and discrete event simulation in order to systematically improve the manufacturing system behaviour by rigorously assessing the system dynamics and corresponding performance indicators. Second, we deal with the scheduling of operations in Steelmaking and Continuous Casting (SM-CC) plants. Despite the numerous contributions, all the published papers in the field two limitations in real applications: (i) they do not consider the detailed description of the complete system from the structural and dynamic viewpoints; (ii) the authors focus on the process of the SM-CC plant and do not consider some peculiar characteristic of the main machines involved on the process, such as the continuous casting machines. In order to face the problem of the management and optimization of the production in the steel making continuous casting we propose an integrated a methodology to describe, assess and improve the logistics of the SM-CC processes: the Unified Modeling Language (UML), the discrete event simulation and the Mixed Integer Linear Programming (MILP) formulation. The application of the techniques to some real cases studies shows the effectiveness of the proposed management and optimization strategies.
XXV Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
31

Fan, Xi Long. "Galaxy evolution by chemical and SED model." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7429.

Full text
Abstract:
2010/2011
In this thesis, we have studied the ISM, QSO, LGRB hosts and LBGs by galactic chemical evolution and spectro-photometric models. We also tested the so-called mono- lithic scenario of elliptical galaxies formation. Here we present the main results of this work: 1. The star formation history is the main driver of galaxy evolution. The predictions of elliptical chemical evolution models with the so-called monolithic scenario of elliptical galaxies formation are consistent with the data of high redshift LBGs and QSOs. Both the infall and the star formation timescale are suggested to decrease with galactic mass. This scenario is confirmed by the spectro-photometric models by reproducing the average SED of MIPS-LBGs. This so-called “ downsizing” of SFH is consistent with many observations. 2. Our M = 1012M⊙ elliptical model can reproduce super-massive BH mass, stellar mass, gas mass and dust mass of one of the most distant QSO ever observed J1148+5251 (z ≃ 6.4). The same model can also reproduce [N/C] versus [C/H] and [Si/C] versus [C/H] of the NLRs in QSO hosts. The very high C abundance observed in these QSOs can be explained only by assuming yields with mass loss from massive stars with a strong dependence on metallicity, as those of Maeder (1992) 3. Our elliptical models suggested the LBGs at hight redshift are likely to be young (age < 0.6 Gyr) ellipticals. This picture is consist with the results of spectro- photometric models. By chemical evolution models, we found that, LBGs in A- MAZE and LSD samples, CB 58, Clone and Cosmic Horseshoe are of intermediate mass(1010 − 3 · 1010M⊙). Our elliptical model for 3 · 1010M⊙ well reproduces the [O/H] abundance as a function of redshift for these LBGs. By spectro-photometric models, we found that theMIPS-LBGs are more massive (∼ 1011M⊙). Our spectro- photometric models for 1011M⊙ well reproduce the average SED of MIPS-LBGs. 4. Our elliptical models suggested that if the observed high-redshift LGRB-DLAs and local LGRB host galaxies belonged to an evolutionary sequence, they should be irregulars with a common galaxy-formation redshift as high as zf = 10, observed at different phases of their evolution. We cannot exclude, however, that they correspond to the outermost regions of spiral disks, since their properties are similar to those of irregulars. Elliptical galaxies cannot be LGRB host galaxies at low 111 redshift and that they are very unlikely hosts of LGRB-DLAs even at high redshift, because of their rapid chemical enrichment at high redshift following the occurrence of a galactic wind several Gyrs ago and subsequent passive evolution. 5. Our elliptical models suggested that a dust mass-stellar mass relation exists, with more massive galaxies attaining a higher dust content at earlier time. The dust evolution in ISM make the main contribution for the large amount of dust in high redshift QSOs. QSO itself produced dust but this production appears negligible compared to that from stellar sources, unless one focuses on the very central regions at times very close to the galactic wind onset. 6. The dust mass estimation in the average MIPS-LBGs based on the combination of our elliptical models and spectro-photometric models is not consistent with the one based on simple temperature grey-body fitting. The Milky Way dust parameters can not reproduce the average SED of MIPS-LBGs with the SFHs from chemical evolution models. The more dense dusty environments and flatter dust size distributions are needed to reproduce the average SED of MIPS-LBGs with these SFHs. 7. IGIMF of starburst galaxies can improve the [α/Fe] ratios, however it still can- not solve the discrepancy between predictions and data. Dust effect is the most plausible solution.
XXIV Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
32

Lucafo', Marianna. "Nanostrutture di carbonio come vettori per farmaci antitumorali." Doctoral thesis, Università degli studi di Trieste, 2013. http://hdl.handle.net/10077/8568.

Full text
Abstract:
2011/2012
Carbon nanotechnology has evolved into a truly interdisciplinary field, bridging material science with medicine. Fullerenes (C60) play a major role in this field and are currently explored for biomedical applications such as radiopharmaceuticals and contrast agents, gene delivery and as carriers for chemotherapeutics. Five fullerene derivatives (F1, F2, F3, F4 and F5), functionalized by 1,3-dipolar cycloaddition of azomethine ylides to the C60 cage, were studied in vitro for their toxicity in a number of cell types and with different assays. Cell cytotoxicity on human mammary carcinoma cell line (MCF7), evaluated with the MTT and NRU tests and further confirmed by a flow cytometry approach with DiOC6 and PI probes, showed that derivative F2 was free of necrotic or apoptotic effects even after a long lasting cell exposure. F3 (differing from F2 for an additional positive charge obtained by quaternarization of the pyrrolidinic nitrogen by introducing a methyl group) was more toxic compared to the other compounds in all cellular models employed (HCT116, MCF7, MCF7/ADR, HT-29, H460, B16F10 and MDAMB231). Its IC50 is 20 µM after 72 hr of incubation by MTT test, and cell accumulation in the G1 phase and arrest in G0 phase (30%) was also observed. The mechanism of cellular uptake (studied with a fluorescein-bearing derivative of F2, hereafter called derivative F2-FITC), and the intracellular distribution were analyzed on MCF7 cell line. The studies of F2 biological effects have shown that this compound is able to enter the treated cells, probably by passive diffusion, to distribute within the cell cytoplasm, without getting into the nucleoplasm or into organelles such as lysosomes and mitochondria; these processes were evaluated by flow cytometry and confirmed by confocal microscopy. Experiments were performed on a multidrug resistant human mammary carcinoma cell line MCF7/ADR, a sub-line resistant to Doxorubicin because of the overexpression of the P-glycoprotein (P-gp) extrusion pump. The choice of these cells was based on our objective to conjugate the anticancer drug Doxorubicin to the fullerene vector in order to overcome adriamycin resistance. The F2 cellular uptake on MCF7/ADR and its maintenance of a constant concentration into cells seem to be insensitive to the presence of P-gp over-expression. These data suggest the possibility for derivative F2 to be used as carrier for anticancer drugs. The experiments on conjugated F2-DOX were made above all to verify if the activity of the drug linked to the fullerene remained the same as the free drug. Furthermore we studied the cellular uptake of F2-DOX in both MCF7 and MCF/ADR lines. Cytotoxicity tests have shown that F2-DOX has an irrelevant activity compared to free drug because Doxorubicin cannot get into the nucleus to perform its activity as it remains linked to F2. Nevertheless, the internalization of F2-DOX is higher in MCF7/ADR compared to the free drug. Fluorescent microscopy technique suggested that the F2-DOX inactivity might be associated with the stability of the bond between the carrier and the drug, which is not released and so is localized in the cytosol, as we have also observed for F2. Since many studies showed contradictory results and the molecular and cellular mechanisms of the cytotoxicity of this class of nanomaterials are not yet fully understood we performed a whole genome expression analysis, by high throughput RNA sequencing, using Illumina technologies. All together, the RNA-seq expression data confirmed the experimental evidence collected with previous in vitro studies showing that F3 is definitely the derivative causing more alterations on MCF7 cells on both the molecular and the cellular levels. However, also F2 is capable of affecting the same molecular pathways, although to a much lower intensity, since neither cytotoxic effects nor cell cycle arrest could be documented. The most important, and somewhat unexpected, result of our analysis was certainly the lack of molecular evidence concerning the activation of the main cellular pathways leading to cell death and often linked to fullerene toxicity in literature. In fact apoptosis, autophagy and ROS damage does not seem to be included among the most relevant molecular effects of F3, which on the contrary are mainly linked to the arrest of the transcription and protein synthesis machineries, leading to the entry in the G0 cell cycle phase. The RNA-seq analysis was able to identify several additional effects of fullerenes which had not been previously described, offering a complete overview of the gene expression alterations induced by these compounds on a whole-transcriptome level. Therefore the combination of large scale molecular analysis and the main viability assays might represent a valuable tool for a better understanding of the toxicity of fullerenes and other nanomaterials.
L’impiego di nanostrutture di carbonio, come i fullereni, in campo biomedico è di forte interesse, sia per le sue possibili applicazioni terapeutiche che diagnostiche. Un potenziale vantaggio di questi composti è la possibilità di essere strutturati per essere facilmente internalizzati dalle cellule e grazie alla loro ampia area superficiale e volume interno possono agire come sistemi di drug delivery per il trasporto di farmaci. Cinque fullereni funzionalizzati (F1, F2, F3, F4 e F5) sono stati studiati in vitro per la loro tossicità in un certo numero di linee cellulari e con dosaggi e tempi di incubazione diversi con l’obiettivo di valutare se gli effetti tossici o meno di questi composti possano variare a seconda dalla linea cellulare utilizzata. I modelli di studio utilizzati sono linee cellulari neoplastiche di carcinoma mammario umano (MCF7, MCF7/ADR e MDAMB231), di adenocarcinoma umano di colon (HT-29 e HCT116), di adenocarcinoma polmonare umano non a piccole cellule (H460) e di melanoma murino (B16F10). Gli studi di citotossicità hanno permesso di individuare un fullerene che presenta una limitata tossicità (F2) con il quale sono state eseguite prove citofluorimetriche sulla linea MCF7 che hanno dimostrato come sia in grado di attraversare le membrane plasmatiche e di accumularsi nelle cellule già dopo un’ora, aumentando in quantità fino a 12 ore. L’analisi è stata condotta fino alle 72 ore, tempo in cui il valore di fluorescenza del fullerene sembra rimanere stabile. Mediante microscopia a fluorescenza, sono stati condotti studi di distribuzione sub-cellulare, dai quali è emerso che F2 non colocalizza né a livello mitocondriale nè lisosomiale; quest’ultima evidenza lo renderebbe un vettore stabile per farmaci acido-labili. Inoltre, la mancata internalizzazione del fullerene a livello nucleare escluderebbe la possibilità di un danno diretto a carico del materiale genetico. In parallelo sono stati condotti i primi esperimenti sul coniugato F2-DOX ma le prove di citotossicità hanno indicato che il coniugato, nella linea MCF7 ed MCF7/ADR, ha attività irrilevante rispetto alla Doxorubicina libera. Tuttavia risulta che la Doxorubicina trasportata da F2 viene internalizzata maggiormente nella linea MCF7/ADR rispetto alla linea MCF7, contrariamente a quanto avviene con il farmaco libero. È possibile quindi affermare che F2 si potrebbe dimostrare un valido vettore per eludere il problema della multidrug resistence nei confronti di farmaci antitumorali causata dall’attività estrusiva della pompa P-gp. L’ostacolo da superare rimane quindi la scelta del farmaco da coniugare visto che questo ipotetico vettore non entra nel nucleo (e che quindi la Doxorubicina e altri antitumorali ad azione nucleare non potrebbero svolgere le proprie funzioni) nelle linee studiate. In alternativa si potrebbe pensare di legare il farmaco al fullerene attraverso un legame più debole in modo da facilitarne il rilascio citosolico. Dal momento che molti studi di tossicità hanno mostrato risultati contraddittori ed i meccanismi molecolari di questa classe di nanomateriali non sono ancora pienamente compresi abbiamo effettuato un’analisi dell’intero trascrittoma sfruttando la tecnologia Illumina. I dati ottenuti mediante l’utilizzo di questa tecnica di next generation sequencing (RNA-Seq) hanno confermato l'evidenza sperimentale raccolta con i precedenti studi in vitro dimostrando che F3 è sicuramente il derivato che causa più alterazioni sulle MCF7, sia a livello molecolare che cellulare. Tuttavia è stato osservato che F2 è in grado di pregiudicare le stesse vie molecolari, anche se con un'intensità molto più bassa. Il risultato più importante, e inaspettato, emerso dalle nostre analisi è stato certamente la mancanza di prove molecolari riguardanti l'attivazione delle vie principali che portano alla morte cellulare e spesso legati alla tossicità fullerene, come descritto in letteratura. Apoptosi, autofagia o stress da produzione di ROS non sembrano essere inclusi tra gli effetti molecolari più rilevanti di F3, che al contrario sono principalmente legati all'arresto della trascrizione e alla sintesi proteica, fenomeni che conducono all’arresto della divisione e all'entrata in fase G0. L'analisi di RNA-seq è stata in grado di identificare diversi effetti addizionali dei fullereni che non erano state precedentemente descritti, offrendo una panoramica completa delle alterazioni di espressione genica indotte da questi composti sull’intero trascrittoma. Quindi la combinazione di analisi molecolari su larga scala e saggi di vitalità potrebbe rappresentare un valido strumento per una migliore comprensione della tossicità dei fullereni ed altri nanomateriali.
XXV Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
33

Gei, Gianandrea. "La valutazione di installazioni funiviarie: applicazione dei livelli di servizio (L.O.S.) agli impianti a fune." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4472.

Full text
Abstract:
2009/2010
L'obiettivo del percorso di studio è quello di valutare i sistemi di trasporto a fune.Si è voluto introdurre il concetto di transit funiviario analizzando i diversi sistemi di trasporto offrendo una classificazione delle installazioni funiviarie con l'obiettivo di redigere un capitolo per il TCQSM su tale tema. Si è voluto provare ad applicare i concetti dei livelli di servizio (L.O.S.) contenuti nel HCM alle installazioni funiviarie. E' stato condotto un primo approccio tramite due campagne di interviste sui tempi di attesa e di viaggio su due installazione cabinoviarie a Siusi (BZ) ed Alleghe (BL). In queste indagini sono state distribuiti all’utenza questionari composti da domande relative ai tempi di attesa ed ai tempi di percorrenza con metodo di valutazione numerica da 1 a 10. E’ risultato evidente che quanto proposto dal TCQSM per i transit tradizionali non è direttamente applicabile al campo funiviario. Si sono dunque presentati dei L.O.S. appositamente calibrati. Da un'analisi dei dati osservati e da successive ricerche bibliografiche (studi condotti sul comportamento degli utenti nel trasporto ascensoristico facilmente assimilabile al trasporto funiviario) a supporto di quanto desunto, si è concluso che nel trasporto funiviario ciò che incide maggiormente nella valutazione dell'utente è il tempo di attesa. Si è dunque deciso di non approfondire ulteriormente l'analisi della valutazione del tempo di percorrenza. Allo scopo di validare le succitate indagini è stato condotto uno studio sul campo in merito alla formazione di code con interviste incentrate sulla valutazione dei tempi d'attesa presso il comprensorio dello Zoncolan (UD). In questo caso sono stati osservati i plotoni di sciatori in avvicinamento ad un impianto seggioviario. Sono stati cronometrati i tempi di attesa di utenti campione i quali, in corrispondenza del cancelletto d'imbarco, sono stati intervistati sul loro tempo di attesa percepito e sulla loro valutazione a riguardo. Sono state offerte tre diverse soluzioni verbali e non numeriche. Nello specifico l'intervistato ha potuto scegliere tra: indifferente, accettabile o inaccettabile. Come ulteriore fase di analisi si sono confrontati i due metodi in modo da ottenere una relazione sia numerica che verbale per l'attributo qualitativo dei diversi L.O.S. proposti. Per offrire un'applicazione pratica allo studio condotto si è applicato quanto osservato ad un comprensorio sciistico inteso come rete di transit funiviari. Tramite l'osservazione continuativa via WEB-CAM e l'analisi dei dati sui passaggi e relativi titoli di viaggio elettronici per le due stagioni invernali 2008/2009 e 2009/2010 del comprensorio del Cimone (MO), siamo stati in grado di valutare i flussi sugli archi della rete e la formazione delle code. Si sono introdotti due indici di valutazione: l’indice di utilizzo (iu) in funzione delle portate orarie osservate e di progetto nonchè l’indice di sostituzione (is) in funzione della vita residua delle installazioni (DM 23/85) e dei L.O.S. assegnati. Gli indici is e iu producono una valutazione sullo stato di fatto della rete funiviaria in base ad una graduatoria di sostituzione degli impianti per meglio pianificare gli investimenti di una stazione valutando aspetti tecnici, normativi oltre che di percezione del servizio da parte dell'utenza centrando l’obiettivo che ci si era preposti nella fase iniziale del percorso di studio.
XXIII Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
34

Sorcaburu, Cigliero Solange. "Identificazione di linee guida per l'analisi genetico-forense mediante utilizzo di DNA degradati in vitro." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10857.

Full text
Abstract:
2013/2014
Nel corso di questo lavoro e stato ottimizzato un metodo per ottenere –mediante idrolisi acquosa- campioni di DNA danneggiati in maniera controllata (r2= 0.997). Uno di questi campioni, denominato trial sample (TS), veniva sottoposto ad un esperimento interlaboratorio (n=25) nel corso del quale ogni partecipante doveva fornire dati relativi alla quantificazione del campione ed al suo l’assetto genotipico. L’impiego della qPCR ha dimostrato che, in campioni danneggiati, e possibile fornire solo una indicazione che e relativa (ed inversamente proporzionale) alla lunghezza (r2=0.891) della regione target. Circa i genotipi forniti, veniva osservato che, a causa di un’elevata frequenza di artefatti di PCR, l’esecuzione di un basso numero di tre repliche(≤ 3)puo portare ad errori(n=4. Lo sviluppo del metodo “consensus TSPV", invece,eliminava tali errori di genotipizzazione. L’utilizzo di tale metodo di “consensus” ha dimostrato che, per campioni degradati ed in condizione di Low Copy Number (≤ 96 pg/PCR), neanche l’esecuzione di sette repliche mette totalmente al riparo da errori di genotipizzazioni.Anche la tecnologia Illumina di Next Generation Sequencing e stata testata mediante un set di campioni danneggiati. Pure la fedeltà di questa tecnologia e stata molto influenzata dalla qualità del templato. Il“consensus TSPV”, inoltre, evidenziava che errori di genotipizzazione possono emergere quando vengono eseguite due sole repliche. Il maggiore limite dell’analisi forense sembra derivare proprio dall’elevatissima sensibilità analitica oggi ottenibile.
In the course of this work has been optimized a method to obtain -by hydrolysis in water- damaged DNA samples in a controlled manner (r2=0.997). One of these samples, called trial sample (TS), was subjected to an inter-laboratory experiment (n=25)during which each participant had to provide data on the quantification of the sample and its trim genotype. The use of the qPCR showed that, in damaged samples, it is possible to provide only an indication that is relative (and inversely proportional) to the length (r2=0891)of the target region. About the genotypes provided, was observed that, due to a high frequency of PCR artifacts, the execution of a low number of three replicates (≤3)may lead to errors (n=4). Method development "consensus TSPV", instead, eliminated these errors genotyping. The use of this method "consensus" has shown that, for degraded samples and under Low Copy Number conditions (≤96pg/PCR),even the execution of seven replicas puts totally immune from errors in genotyping. Even Illumina technology of Next Generation Sequencing was tested using a set of damaged samples. Even the fidelity of this technology has been very influenced by the quality of the template. The "consensus TSPV" also showed that genotyping errors can arise when running only two replicas. The major limitation of the forensic analysis seems to derive just by the very high analytical sensitivity obtainable today.
XXVII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
35

Muroni, Alessandro Franco. "FUNZIONI COGNITIVE E COMPORTAMENTO DI GUIDA: EFFETTI DELLA DEPRIVAZIONE DI SONNO, DEL CONSUMO DI ALCOLICI E DELLA CAFFEINA." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10070.

Full text
Abstract:
2012/2013
Il presente lavoro nasce da una riflessione in merito ad un problema di forte attualità: gli incidenti sonno e alcol correlati. Deprivazione di sonno e consumo di alcolici rappresentano una combinazione abbastanza comune, specialmente tra i giovani automobilisti (Banks et al., 2004). Diversi ricercatori, con lo scopo di dare un contributo alla soluzione di questo problema, hanno focalizzato il loro interesse nel settore della sicurezza stradale. Numerose ricerche (Brown, 1994) (Marcus et al., 1996) (Horne et al., 1995) (Horne et al., 1999) (Connor et al., 2001) si sono occupate di studiare la relazione tra deprivazione di sonno e prestazione di guida ed è ormai universalmente riconosciuto che questa variabile rappresenta un fattore di rischio per la sicurezza stradale. Così come gli effetti negativi indotti dalla deprivazione di sonno sulla prestazione di guida, anche quelli dell’alcol sono universalmente riconosciuti e anch’esso è considerato un fattore di rischio per la sicurezza stradale (Liguori et al., 1999) (Lenne et al., 1999) (Shults et al., 2001). Diversi altri ricercatori (Roehrs et al., 1994) (Arnedt et al., 2000) (Horne et al., 2003) (Banks et al., 2004) (Barret et al., 2004) (Barret et al., 2005) (Vakulin et al., 2007) (Howard et al., 2007) si sono invece focalizzati oltre che sullo studio dei singoli effetti di questi fattori anche sul loro effetto combinato, trovando generalmente che sia la deprivazione di sonno che l’alcol, singolarmente, producono un peggioramento della prestazione di guida e che il loro effetto combinato sembra causare un più importante peggioramento. La guida è un comportamento complesso e multifattoriale che richiede il possesso di numerose abilità, alcune delle quali si svolgono coscientemente ed altre attraverso processi automatici; nell’esecuzione di questo comportamento i processi cognitivi giocano un ruolo centrale (Weaver et al., 2009). Poche ricerche si sono occupate di valutare gli effetti combinati di questi due fattori sugli aspetti cognitivi sottostanti al comportamento di guida. Partendo da tale background, nel presente lavoro si è ritenuto potesse essere interessante approfondire questo aspetto. Ci si è posti quindi come primo obiettivo quello di valutare gli effetti, singoli e combinati, della deprivazione di sonno e del consumo di alcolici sull’attenzione e sui processi di inibizione, due variabili considerate di estrema importanza per esecuzione del comportamento di guida (Brown, 1994). In merito al concetto di attenzione, tra i tanti modelli che lo hanno teorizzato si è scelto di fare riferimento a quello di Posner (Posner e Raichle, 1994); in merito al concetto di inibizione si è scelto invece di fare riferimento al modello di Logan (Logan e Cowan,1984a). Oltre a questi aspetti oggettivi si è scelto di valutare l’effetto di questi fattori anche su alcuni aspetti soggettivi, in particolare sul vigore, sull’umore e sulla sonnolenza percepita. Oltre a ciò, tenendo in considerazione che alcuni studi presenti in letteratura (Horne et al., 1996) (Reyner et al., 2000) (De Valk et al., 2000) (Horne et al., 2001) (Reyner et al., 2002) (Biggs et al., 2007) (Gershon et al., 2009) (Mets et al., 2011) suggeriscono che gli energy drink, o la caffeina in essi contenuta, sembrano essere una buona contromisura per contrastare gli effetti della deprivazione di sonno sulla prestazione al simulatore di guida e su alcuni indici dell’attenzione, nel presente lavoro ci si è posti come secondo obiettivo quello di valutare se questa sostanza può essere una valida contromisura anche per contrastare gli effetti singoli e combinati di questi due fattori, sulla prestazione attentiva e sui processi di inibizione. Si è scelto di studiare questi aspetti cognitivi in determinate fasce orarie, considerate potenzialmente rappresentative di alcune situazioni reali. Nello specifico, si è scelto di studiare la prestazione cognitiva alle 5:00 del mattino, orario di chiusura delle discoteche invernali, e alle 9:00 del mattino, orario di chiusura delle discoteche estive. Inoltre si è scelto di valutare la performance cognitiva alle 12:30, orario dell’aperitivo precedente al pranzo, e alle 20:00, orario dell’aperitivo precedente alla cena. In estrema sintesi i risultati sembrano indicare un’influenza selettiva della deprivazione di sonno e del consumo di alcolici, sia singolarmente che in forma combinata, sulle componenti cognitive indagate. Le componenti di Alerting fasico e Orienting sembrano non risentire, o risentire minimamente, degli effetti di questi fattori. A differenza, sembrerebbe che lo stato di allerta e il controllo esecutivo siano le componenti cognitive maggiormente influenzate negativamente da questi fattori, sia singolarmente che in associazione. Un aspetto interessante, che merita di essere enfatizzato, è che l’associazione tra deprivazione di sonno, sia parziale che totale, ed un tasso alcolemico superiore a quello consentito dalla legge per poter guidare sembra avere un effetto, o in alcuni casi una tendenza, che porta a sovrastimare i livelli di vigore percepiti soggettivamente, facendoli percepire superiori a quelli realmente osservati. Considerata da questo punto di vista, l’associazione tra deprivazione di sonno e consumo di alcolici risulta essere ancora più preoccupante. Infatti sembrerebbe che, durante una nottata insonne, consumare alcolici fino a superare il limite legale consentito per poter guidare potrebbe essere alla base della scelta di mettersi comunque alla guida di un veicolo, pur non avendo uno stato psicofisico adatto per poterlo fare in sicurezza. Relativamente all’assunzione di caffeina quale contromisura per contrastare gli effetti della deprivazione di sonno e dell’alcol sul sistema cognitivo, sembrerebbe che una bassa quantità, circa pari a quella assunta con un caffè o altri alimenti comuni, non sia sufficiente per ripristinare né lo stato di allerta né tantomeno la velocità e l’accuratezza della risoluzione dei conflitti cognitivi. Sembrerebbe invece che 100 milligrammi di questa sostanza possano avere un effetto positivo che sembra migliorare la capacità di inibizione di una risposta dominante, quando compromessa dalla deprivazione totale di sonno o dalla deprivazione totale di sonno associata al consumo di alcolici. Tuttavia, risulta opportuno mantenere una certa prudenza nel trarre conclusioni e ricercare ulteriori conferme scientifiche.
XXV - Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
36

Diklic, Olga. "AMBIENTI NATURALI, PROGETTI STATALI E PROPOSTE DI RIFORMA NEL TERRITORIO DI TRAÙ DI FINE SETTECENTO E PRIMA METÁ DELL’OTTOCENTO." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9957.

Full text
Abstract:
2012/2013
Tutt’altro che selvaggio o immodificato era l’ambiente naturale tragurese di fine Settecento e della prima metà dell’ Ottocento. Il territorio ed il suo ambiente in termini ecostorici lo contrassegnavano le economie e le società preindustriali della tarda età moderna e i modelli tradizionali dell’uso della terra. La dimensione che li rendeva “selvaggi” erano i modelli percettivi occidentali di un “barbarico” ed economicamente arretrato “Adriatic empire” e le forme aspre dell’assetto naturale, che nella visione dei contemporanei risultavano indomabili, insufficentemente sfruttate o poco usufruibili. Di conseguenza, a dominare l’area si presentava proprio il fattore naturale, cui conseguentemente era da associarsi la genuinità e la potenzialità dell’area. Risultato di queste visioni del tempo e dello spazio, accompagnate dalle accurate mappature e statistiche statali sul suo assetto e sulle sue potenzialità (eseguite ai fini del consolidamento del potere), era l’apertura ad un’ ulteriore esplorazione delle terre sconosciute della “mythical Illyria” e ad un’ ulteriore modifica dell’ambiente naturale. Un tale rapporto con l’ ambiente naturale ben si inquadrava nella visione antropocentrica dell’ ambiente che rievocava l’utilizzo deliberato ed incondizionato della natura che in età moderna avrebbe trovato la sua articolazione naturale nell’emergere dello stato territoriale e del capitalismo. Questà è un analisi ecostorica che come l’ idea aveva rilevare i diversi aspetti dell’ impatto umano sull’ ambiente naturale in un relativamente breve e transitorio periodo storico, caratterizzante i forti avvenimenti di guerra e modifiche di governi, i nuovi paradigmi di società e politiche, ma ancora non immodificati i rapporti sociali ed economici e gli effetti di accumulata pressione antropica storica sull’ ambiente. In tale contesto sono appunto i diversi elementi dell’ambiente naturale a raccontare di un momento storico segnato da un ambiente naturale fortemente trasformato, ma anche di una lunga storia dell’ impatto umano sull’ ambiente incisa sulla sua parte geografica e fisica così come su quella storica e di evento.
XXV Ciclo
1970
APA, Harvard, Vancouver, ISO, and other styles
37

Cordani, Violetta. "La cronologia del regno di Shuppiluliuma I." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3498.

Full text
Abstract:
2008/2009
Oggetto del presente studio è la cronologia del regno di Šuppiluliuma I, sovrano ittita vissuto intorno alla metà del XIV sec. a.C. Il lavoro si pone come primo obiettivo la definizione, in termini di cronologia sia relativa che assoluta, delle campagne condotte da Šuppiluliuma in Siria; inoltre, esso si propone di riprendere in esame le diverse ipotesi ricostruttive avanzate dagli studiosi, anche in considerazione dell'assenza, ad oggi, di una monografia aggiornata sull'argomento.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
38

Delogu, Giulia. "Trieste «di tesori e virtù sede gioconda» Dall’Arcadia Romano-Sonziaca alla Società di Minerva: una storia poetica." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Monti, Di Sopra Elisa. "Modelli di danno e plasticità per l'analisi di elementi strutturali in muratura." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3461.

Full text
Abstract:
2008/2009
L’obiettivo dello studio è stata la valutazione del comportamento di elementi strutturali in muratura sottoposti a sollecitazioni di taglio e compressione, sia attraverso prove sperimentali, che mediante analisi numerica: in particolare, nell’ambito della modellazione agli elementi finiti è stato valutato l’utilizzo di legami costitutivi di danno e plasticità per descrivere il comportamento non lineare della muratura. L’approccio utilizzato nelle analisi numeriche proposte è la macromodellazione, dove il materiale è rappresentato da un continuo omogeneo, le cui proprietà meccaniche globali sono dedotte dai risultati di prove su elementi rappresentativi della muratura. A partire dai risultati sperimentali su pannelli sollecitati a taglio e compressione ottenuti negli anni ’80 allo Swiss Federal Institute of Technology (Ganz e Thürlimann) e da quelli su fascia di piano nel biennio 2007-2008 presso l’Università degli Studi di Trieste, è stata inizialmente verificata la possibilità di impiego di un modello di danno e plasticità isotropo (Lubliner et. al 1989, Lee & Fenves 1998) per determinare la risposta di elementi strutturali sottoposti a carico monotono e ciclico. Quindi sono state valutate le ragioni della differenza tra i risultati delle prove sperimentali e quelli delle analisi numeriche, evidenziando sia le difficoltà costruttive, sia quelle derivanti dalla descrizione matematica del comportamento del materiale. E’ stato inoltre proposto lo sviluppo di alcune parti del modello isotropo verso una formulazione ortotropa, sulla base di un legame costitutivo anisotropo (Voyiadjis et al. 2007), prestando particolare attenzione ai parametri non lineari di modello, nello specifico l’angolo di dilatanza.
XXII Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
40

Dardi, Francesca. "Progetto ed applicazioni di metodi per l'analisi della qualità delle immagini." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7418.

Full text
Abstract:
2010/2011
L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale, al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di algoritmi per la determinazione di criteri di valutazione. Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva, argomento ancora più circostanziato nel campo di studio individuato. Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche, comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi. La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche diverse ed imputabili a cause di natura differente. Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da codifica in modo abbastanza tipico. Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta. All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto percepito a livello della scena in termini di regioni estratte. Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle che soddisfano i criteri scelti di rilevanza percettiva. A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta dall’operatore, e quella da codifica. In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini. Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore, ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o meno. L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo dedicato. Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi riguardante la multimedialità. In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un operatore esperto o ad un algoritmo di riconoscimento automatico. Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.
XXIV Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
41

Cervelli, Federico. "Methods and applications for forensic sciences." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7443.

Full text
Abstract:
2009/2010
La scienza forense è quella branca della scienza che si occupa dell’analisi del ma- teriale probatorio. Lo scopo di questa analisi è quello di comprendere le dinamiche del delitto, al fine di trovare il colpevole. In questo lavoro sono stati studiati tre nuovi metodi per affrontare alcuni dei problemi che devono affrontare gli esperti di scienze forensi. Il primo è un sistema per l’identificazione automatica delle calzature, al fine di trovare la marca e il modello della scarpa che ha lasciato l’impronta sulla scena del crimine. Un algoritmo basato sulla distanza di Mahalanobis è stato impiegato per lo scopo ed è stato confrontato con altri sistemi disponibili in letteratura sia su tracce di scarpa sintetiche che su tracce di scarpa reali, ovvero sia tracce prodotte aggiungende sinteticamente rumore che tracce provenienti dalla scena del crimine, rispettivamente. In un secondo sistema studio è stato analizzato lo spettro di terzo ordine, cioè il bispettro. Il bispettro può essere utilizzato per restaurare segnali corrotti, ma molti degli algoritmi disponibili soffrono per la comparsa di una traslazione sconosciuta nel segnale ricostruito. L’algoritmo proposto esegue la ricostruzione utilizzando direzioni parallele del dominio del bispettro e offre una soluzione semplice per risolvere e dimostrare la soppressione del problema nel caso di segnali 1D. Nell’ultimo sistema studiato, viene svolta l’analisi di impronte digitali utiliz- zando tecniche non standard. Un microspettrometro a trasformata di Fourier nel- l’infrarosso (FT-IRMS) viene utilizzato per analizzare il contenuto delle impronte digitali. L’FT-IRMS produce un’immagine iperspettrale, ed il sistema proposto elabora ognuno degli spettri prima stimando il numero di gruppi funzionali che lo compongono e poi individuando i loro parametri. A completamento del qua- dro, sono state impiegate diverse metodiche basate sui raggi x per lo studio degli eventuali contaminanti presenti nell’impronta.
Forensic science is the branch of science dealing with the analysis of evidence material. Its aim is to understand the dynamics of the crime, in order to find the culprit. In this work three new methods have been studied as an aid for the forensic experts. The first one is a system for the automatic retrieval of footwear to find the make and model of the shoe that left its mark on the crime scene. A Mahalanobis distance based algorithm is employed for the purpose and is compared with other systems available in literature on both synthetic and real shoe marks, i.e. on both computer generated shoe marks and on marks coming from crime scene. In a second study the third order spectrum, i.e. the bispectrum, is analyzed. The bispectrum can be used to restore corrupted signals but many available al- gorithms suffer for the emergence of an unknown translation in the reconstructed signal. Here the procedure is performed using two parallel paths in the domain of the bispectrum and a simple solution to the unwanted translation is found and demonstrated in the case of a 1D signal. Finally, fingerprint analysis is performed using non standard techniques. A Fourier transform infrared microspectroscope (FT-IRMS) is used to analyze the content of fingerprints. The FT-IRMS produces a hyperspectral like image and the proposed system processes each spectrum to estimate the number of func- tional groups and to give their parameters. Finally contained contaminants have been studied with several x-ray based techniques to give a comprehensive picture of the fingerprint evidence.
XXIII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
42

Contini, Emanuele. "Galaxy populations in clusters and proto-clusters." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9964.

Full text
Abstract:
2012/2013
The aim of my Thesis is to explore the physical properties of the galaxy population in clusters and proto-clusters. A large number of physical processes plays an important role in the formation and evolution of galaxies: cooling, that allows the condensation of gas in the centre of dark matter haloes; star formation, that converts cold gas in stars; feedback from Active Galactic Nuclei (AGN), that prevents the gas in the central regions of haloes from "over-cooling"; feedback from Supernovae, which liberates energy in the surrounding, mixing the gas and enriching it with heavy metals. Galaxy clusters are special environments in which additional important processes take place, and play an important role in the evolution of the cluster galaxy population. Galaxy merging, harassments, tidal interactions, ram pressure stripping and strangulation are all processes acting in dense environments such as clusters of galaxies. I will take advantage of a {\it state of the art}-semi-analytic model of galaxy formation and of a set of 27 high-resolution dark matter only simulations: the semi-analytic model is based on physically motivated and observationally constrained prescriptions for the physical processes listed above and makes use of merger-trees extracted from the simulations to generate mock catalogues of galaxies. First, I make use of this set of simulations to carry out a statistical study of dark matter substructures. In the framework of modern theories of galaxy formation, dark matter substructures can be considered as the birth-sites of luminous galaxies. Therefore, the analysis of subhaloes, and in particular of their mass and spatial distributions, merger and mass accretion histories, provides important information about the expected properties of galaxies in the framework of hierarchical galaxy formation models. I have studied the amount and distribution of dark matter substructures within dark matter haloes, focusing mainly on the measured properties of subhaloes as a function of the mass and physical properties of their parent haloes, and redshift. I show that the fraction of halo mass in substructures increases with increasing mass, reaching $10 \%$ for haloes with mass of the order of $10^{15} \,M_{\odot} \hm$. The scatter in the relation is driven by halo concentration, with less concentrated haloes having larger fractions of mass in substructures. Most of this mass is locateted in the external regions of the parent haloes, in relatively few, but massive subhaloes, thus giving rise to a mass segregation which appears to be stronger at increasing redshift. Tidal stripping is found to be the process responsible for that. In fact, haloes that are more massive at the time of accretion, and that are supposed to host more luminous galaxies, are brought closer to the centre on shorter time-scales by dynamical friction, and therefore suffer of a more significant stripping. The results confirm that the main properties of galaxies, such as luminosity or stellar mass, are related to the mass of subhalos at infall, as found in previous studies.. The main results discussed in this part of the Thesis have been published in Contini et al. (2012), MNRAS.420.2978C. In a second part, I describe the implementation of physical processes responsible for the generation of the Intra-Cluster Light (ICL) in the available semi-analytic model, that, in its original form, does not account for them. The inclusion of these physical processes is, thus, an important improvement of the model. I take advantage of this upgrade of the model to investigate the origin of the ICL and to understand how the main properties of galaxies change with respect to a model that does not include these additional prescriptions. I find the fraction of ICL in groups and clusters predicted by the model to range between $10 \%$ and $40 \%$, with a large scatter and no halo mass dependence. Large part of the scatter on cluster scales is due to a range of dynamical histories, while on smaller scales it is mainly driven by individual accretion events and stripping of relatively massive satellites, with mass of the order of $10^{10.5} \, M_{\odot} \hm$, found to be the major contributors to the ICL. The ICL forms very late, below $ z \sim 1$ and a non negligible fraction (between $5 \%$ and $25 \%$) has been accreted during the hierarchical growth of haloes. Moreover, the ICL is made of stars which cover a relatively large range of metallicity, with the bulk of them being sub-solar, in agreement with recent observational data. The main results of this analysis have been submitted to MNRAS (Contini et al. 2013). In the last part of the thesis, the updated model is used to investigate the properties of the galaxy population in proto-cluster regions. The work is still in progress. I am testing the predictions of the semi-analytic model and comparing them with observations in terms of properties such as galaxy colours, star formation and stellar mass. A preliminary analysis of one very massive proto-cluster region shows that the galaxy population gets red and tend to cluster around the most massive galaxy as time goes by. There are, in literature, only a few attempts to probe such peculiar regions of the Universe from a theoretical point of view. The novelty of this work lies in the connection between massive clusters observed in the local Universe and the proto-cluster regions from which they have formed. I will try to define what a proto-cluster region is, and how it looks like, by studying the main properties of progenitors it contains. Specifically, I will investigate the spatial and velocity distributions of galaxies in simulated proto-clusters, looking at the red and blue galaxy distributions in these regions, as well as at BCG and satellite properties as a function of redshift. The main results of this work will be the subject of a paper in preparation.
XXV Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
43

Jarmolowska, Joanna. "Nuovi sistemi per la comunicazione alternativa basati su Brain Computer Interface." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10149.

Full text
Abstract:
2011/2012
La comunicazione alternativa attraverso le BCIs può risultare uno strumento per agevolare le condizioni di vita di pazienti affetti dai disturbi neurologici. La comunicazione via BCI è ancora molto più lenta rispetto alla comunicazione con il linguaggio naturale. L’obiettivo di questo lavoro di tesi si inserisce in tale ambito, consistendo nello sviluppo di nuove applicazioni in grado di migliorare la velocità di comunicazione con utilizzo delle BCIs. Sono stati sviluppati due sistemi di comunicazione alternativa basati sulla componente P300. Il primo sistema chiamato ‘Multimenu’ permette una selezione veloce di messaggi e di comandi impostati in una struttura gerarchica. Il secondo sistema di tipo predittivo, denominato PolyMorph, grazie ad algoritmi appositamente sviluppati, predice i caratteri e/o le parole successivi a quelli già selezionati in precedenza.
XXV Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
44

Arnoldo, Laura. "HMGA1 proteins regulate gene expression by modulating histone H3 phosphorylation." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10112.

Full text
Abstract:
2012/2013
HMGA1 is an oncogene encoding for an architectural transcription factor that affects fundamental cell processes, leading to neoplastic transformation. The two main mechanisms by which HMGA1 protein is known to be involved in cancer concern the regulation of gene expression by altering DNA structure and interacting with a conspicuous number of transcription factors. Here we provide evidence of an additional level of gene expression regulation exploited by HMGA1 to exert its oncogenic activity. Starting from protein-protein interaction data showing that HMGA1 interacts with histones, we show that HMGA1 regulates gene expression by affecting the epigenetic status of cancer cells. In particular, it modulates the signalling cascade mediated by the RAS/RAF/MEKK/ERK/RSK2 pathway regulating the levels of histone H3 phosphorylation at Serine 10 and Serine 28. We demonstrate that the down-regulation of these two H3 post-translational modifications by HMGA1 silencing and by inhibitors of the RAS/RAF/MEKK/ERK pathway is linked to cell migration decrease and morphological changes resembling the mesenchymal to epithelial transition.
HMGA1 è un oncogene codificante per un fattore trascrizionale architetturale che influenza fondamentali processi cellulari, portando alla trasformazione neoplastica. I due principali meccanismi tramite cui la proteina HMGA1 è nota essere coinvolta nel cancro riguardano la regolazione dell’espressione genica tramite l’alterazione della struttura del DNA e l’interazione con un cospicuo numero di fattori di trascrizione. Qui forniamo la prova di un addizionale livello di regolazione dell’espressione genica sfruttato da HMGA1 per esercitare la sua attività oncogenica. Partendo da dati d’interazione proteina-proteina che mostrano che HMGA1 interagisce con gli istoni, mostriamo che HMGA1 regola l’espressione genica influenzando lo stato epigenetico delle cellule cancerose. In particolare, essa modula la cascata di segnalazione mediata dalla via di RAS/RAF/MEKK/ERK/RSK2 regolando i livelli di fosforilazione dell’istone H3 sulla Serina 10 e sulla Serina 28. Noi dimostriamo che la down-regolazione di queste due modificazioni post-traduzionali di H3 tramite il silenziamento di HMGA1 e l’utilizzo di inibitori della via di RAS/RAF/MEKK/ERK/RSK2 è correlata alla diminuzione della migrazione cellulare e a cambiamenti morfologici che ricordano la transizione mesenchimo-epiteliale.
XXV Ciclo
1983
APA, Harvard, Vancouver, ISO, and other styles
45

De, Rocco Daniela, and Rocco Daniela De. "STUDIO CLINICO E MOLECOLARE DELLA SINDROME DI BERNARD-SOULIER." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10848.

Full text
Abstract:
2013/2014
2013/2014
La sindrome di Bernard-Soulier (BSS) è una rara piastrinopenia ereditaria causata da alterazioni a livello del complesso glicoproteico GPIb-IX-V, presente sulla membrana piastrinica e responsabile della adesione delle piastrine in seguito a danno vascolare. La BSS si trasmette come malattia autosomica recessiva (BBSA1) e i pazienti affetti presentano piastrine giganti e severi episodi di sanguinamento. Tuttavia in tempi recenti sono state descritte delle famiglie con una forma dominante nota come BSSA2. In questi pazienti la piastrinopenia è moderata e le piastrine presentano un volume leggermente aumentato. Finora sono state individuate solo 5 varianti in eterozigosi nel BSSA2:, 4 nel gene GP1BA e 1 in GP1BB. Fatta eccezione per p.Ala172Val del gene GP1BA che è relativamente frequente nella la popolazione Italiana, le altre 4 sono state descritte in singole famiglie. I pochi casi di cui disponiamo, soprattutto per la forma recessiva non ci permettono di avere informazioni sui meccanismi patogenetici e sulla sua evoluzione nel tempo. Per questo motivo è stato istituito un Consorzio Internazionale per lo studio della BSS grazie al quale è stato possibile raccogliere i dati clinici e molecolari di 132 famiglie. Tutte le informazioni sono state inserite in un database (BSS Consortium database) attualmente gestito dal nostro laboratorio e consultabile dai gruppi di studio che hanno aderito al Consorzio. Inoltre per aumentare le informazioni sulle varianti identificate nel BSSA1 abbiamo incrementato i dati molecolari delle famiglie del Consorzio con i dati di altre 79 famiglie descritte in letteratura, raggiungendo un totale di 211 famiglie. Tutte le mutazioni identificate in queste famiglie sono state poi inserite in un database pubblico disponibile in rete (LOVD: Leiden Open Variation Database). La raccolta e l’elaborazione dei dati ci ha permesso di chiarire alcuni aspetti clinici e molecolari della malattia. Tuttavia data l’eterogeneità genetica e l’elevata espressione fenotipica gli studi genotipo-fenotipo si sono rivelati difficili da eseguire. Nonostante le molte informazioni acquisite, il database risulta ancora incompleto e limitato; per questo motivo è necessario raccogliere nuovi casi e inserire assieme alle varianti anche i relativi studi funzionali che si rivelano indispensabili per poter definire l’effetto delle varianti sul complesso GPIb-IX-V. Nell’ambito invece dello studio e caratterizzazione della forma meno grave di BSS (BSSA2) sono stati selezionati 120 pazienti piastrinopenici senza diagnosi caratterizzati da piastrine grandi. In questi pazienti sono stati analizzati i geni GP1BA, GP1BB e GP9 e sono state identificate 11 diverse varianti: 1 nonsense, 2 mutazioni di framshift, 1 mutazione nel codone di inizio e 5 varianti missense. Gli studi funzionali eseguiti sulle varianti missense per stabilire il loro ruolo patogenetico sono ancora in corso. Tuttavia se gli studi dovessero confermare la loro patogenicità 11 pazienti su 120 risulterebbero BSSA2 e questa forma dovrebbe essere considerata una tra le piastrinopenie ereditarie più frequenti in Italia. In conclusione grazie a questo studio è stato possibile raccogliere la più ampia casistica di pazienti affetti da BSSA1 fin’ora descritta e ottenere numerose informazioni sia sulla clinica che sulle mutazioni coinvolte. Il BSS Consortium database permetterà ai clinici che hanno partecipato allo studio di osservare nel tempo l’andamento della malattia nei pazienti e di ottenere informazioni utili per stabilire un corretto protocollo per la presa in carico dei pazienti. Infine la caratterizzazione di nuove forme di BSSA2 rappresenta il punto di partenza per descrivere al meglio la malattia BSSA2 sia dal punto di vista clinico che molecolare. In futuro sarà quindi indispensabile estendere il BSS Consortium database anche alla forma BSSA2.
XXVII Ciclo
XXVII Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
46

Rubesa, Fernandez Adriana Spela. "Biovalorizzazione di substrati organici mediante processi anaerobici." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10156.

Full text
Abstract:
2012/2013
Con il presente lavoro di tesi si è voluta esaminare la fattibilità del processo di digestione anaerobica di diversi substrati organici quali: reflui di birreria, fanghi esausti di impianti di trattamento di acque reflue, colture energetiche, scarti agro-industriali solidi e scarti organici urbani. Questo studio è stato motivato dal grande interesse scientifico ed industriale per l'applicazione della digestione anaerobica, allo scopo di perseguire fini quali: lo smaltimento controllato degli scarti organici e la produzione di energia rinnovabile. Scopo finale del lavoro è stata la valutazione della produzione di metano effettiva e lo sviluppo di un modello matematico semplice, in grado di descrivere acuratamente il processo.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
47

Valdemarca, Gioia. "Ai margini del centro. Osservazioni sull'idea di indeterminatezza ne La coscienza di Zeno di Italo Svevo e l'uomo senza qualità di Robert Musil." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3526.

Full text
Abstract:
2008/2009
Tutto inizia nel caos, e tutto termina nel caos: Robert Musil e Italo Svevo lo dimostrano nei loro romanzi principali, "L'uomo senza qualità" e "La coscienza di Zeno". Entrambi gli autori sono specchi di di un'epoca, l'inizio del Novecento, in cui il senso di sicurezza ha ceduto il posto all'indeterminatezza e all'incertezza (come ad esempio nella fisica, nella biologia e nella psicologia) a causa della caduta dell'impostazione deterministica nella scienza. A partire da questa crisi epocale, che ha cambiato radicalmente ogni visione del mondo, Svevo e Musil hanno dato vita a due personaggi alla ricerca di un proprio centro, simbolo della perduta determinazione: questo centro però si dimostrerà vuoto - senza causa, senza scopo, senza senso.
Alles beginnt mit dem Chaos, und alles endet im Chaos: Robert Musil und Italo Svevo zeigen es in ihren bekanntesten Romanen, „Der Mann ohne Eigenschaften“ und „Zenos Gewissen“. Beide Autoren können als Beispiele einer Epoche dienen, in der das Sicherheitsgefühl der Moderne seinen Platz der Unbestimmtheit und Unsicherheit (u.a. in der Physik, Biologie, Psychologie) abtrat, wegen des Überschreitens des deterministischen Ansatzes zugunsten einer freieren, aber auch unheimlicheren Weltanschauung. Ausgehend von dieser tiefen Epochenkrise, haben die zwei Schriftsteller in ihren Romanen Figuren gezeichnet, die sich auf der Suche nach einem geheimnisvollen Mittelpunkt begeben, der die verlorene Bestimmung darstellen sollte: dieser Mittelpunkt erweist sich aber als leer – ohne Ursache, ohne Ziel, und sinnlos.
XXII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
48

Tamburini, Giorgia. "Il biofeedback di secondo ordine per la regolazione del battito cardiaco e del respiro." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10076.

Full text
Abstract:
2012/2013
In questo elaborato viene presentato un percorso di ricerca in cui ci siamo posti l’obiettivo di andare a studiare come la presentazione di un modello acustico, rappresentativo di una determinata funzione fisiologica (nello specifico riferito al battito cardiaco o alla frequenza respiratoria) possa influenzare il sistema di autoregolazione dell’individuo a cui viene presentato andando ad agire da rinforzo. In questo percorso abbiamo sviluppato parallelamente due linee di ricerca: con la prima siamo andati ad indagare l’effetto dell’utilizzo del biofeedback cardiaco di secondo ordine sui parametri cardiaci e la differenza nella percezione del proprio battito cardiaco nelle persone con diagnosi di disturbo di panico. Con la seconda, invece, abbiamo condotto degli studi per indagare l’effetto dell’utilizzo del biofeedback respiratorio di secondo ordine sulla standardizzazione degli atti respiratori, mettendolo a confronto con un biofeedback di secondo ordine con tracce di natura artificiale e con un compito cognitivo. Dalle prime ricerche è emerso che le persone con diagnosi di disturbo di panico mostrano una miglior percezione del loro battito cardiaco sia in termini di precisione che di accuratezza, ovvero riescono con maggior facilità a riconoscere una traccia acustica rappresentativa della loro frequenza cardiaca. Nel secondo filone di ricerca, mediante l’utilizzo del biofeedback di secondo ordine, abbiamo messo a confronto suoni naturali rappresentativi della frequenza respiratoria del soggetto con suoni artificiali (ascendenti –inspirazione- e discendenti –espirazione-) basati sui suoi parametri fisiologici. I risultati mettono in evidenza come solo mediante l’utilizzo dei suoni naturali vi sia una riduzione della variabilità respiratoria e quindi una standardizzazione del respiro. Allo stesso modo la condizione che utilizza i suoni naturali è stata messa a confronto con una condizione in cui è stato chiesto al soggetto di svolgere un compito cognitivo di controllo del respiro, essendo questa una delle strategie che più spesso viene insegnata per raggiungere uno stato di rilassamento; anche in questo caso però, il biofeedback respiratorio di secondo ordine è risultato più efficace nella standardizzazione dell’attività respiratoria del soggetto. Le ricerche presentate hanno dimostrato che quando le tracce somministrate al partecipante vengono costruite sulla base di un suono naturale della funzione fisiologica da studiare, il soggetto può riconoscere la traccia presentata come self-related e come appartenente alla propria esperienza percettiva. Essendo la componente ritmica una caratteristica dei sistemi di autoregolazione, questi possono essere influenzati dalla traccia acustica presentata. In considerazione di quanto sopra possiamo dunque ipotizzare che l’utilizzo di una traccia acustica riesca influenzare le risposte fisiologiche del soggetto. Concludendo, si può affermare che è possibile migliorare la propria autoregolazione fisiologica senza alcun tipo di training poiché la tecnica presentata in questo elaborato non richiede nessun tipo di insegnamento né di monitoraggio online.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
49

Martinelli, Andrea. "Studio di reazioni ed approcci sintetici innovativi per la sintesi di intermedi di interesse industriale." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10128.

Full text
Abstract:
2012/2013
In questo lavoro di tesi sono state affrontati due temi principali: la risoluzione di diastereoisomeri intermedi nella sintesi della Dorzolamide e lo studio su reazioni di addizione di Michael stereoselettive su substrati chetonici a,b-insaturi con nucleofili allo zolfo. Il primo progetto si è focalizzato sull'impiego di una risoluzione cinetica dinamica per convertire due alcoli diastereomerici in un unico prodotto acilato tramite la combinazione di una reazione di acilazione promossa da enzimi (CALB e subtilisina) ed un catalizzatore di Ru in grado di epimerizzare tra loro gli alcoli. Ulteriori studi hanno permesso di indagare maggiormente su reazioni di solvolisi sui medesimi substrati che hanno permesso di ottenere il prodotto desiderato in ottima resa chimica ed eccesso enantiomerico. Il secondo progretto si è focalizzato sull'impiego di alcuni alcaloidi della Cinchona e su corrispondenti derivati tioureidici in reazioni di Michael stereoselettive. I substrati impiegati sono stati il trans-calcone ed il 2-cicloesen-1-one; nucleofili allo solfo sono stati il benziltiolo ed il tiofenolo. I tisultati ottenuti hanno permesso di verificare l'efficacia dei catalizzatori tioureidici sulle reazioni modello studiate.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
50

Bottega, Roberta. "Sviluppo di una strategia per la diagnosi molecolare dell'anemia di Fanconi." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/9981.

Full text
Abstract:
2012/2013
L’anemia di Fanconi (FA) è una malattia genetica rara caratterizzata da malformazioni congenite, pancitopenia, predisposizione al cancro e aumentata sensibilità ad agenti, quali diepossibutano e mitomicina C, che formano legami tra i due filamenti di DNA. La FA è causata da almeno 16 geni che costituiscono, insieme ad altri componenti, un pathaway di riparazione del DNA. L’eterogeneità è uno dei principali motivi che complica la diagnosi molecolare della FA. E’ pertanto necessario un processo a più livelli che implica lo screening di molti esoni o, in alternativa, l’allestimento di linee cellulari e l’analisi di complementazione per la caratterizzazione del gene candidato. Gli scopi di questa tesi pertanto sono diretti a: • Ridurre i tempi per l’identificazione del gene mutato sostituendo l’analisi di complementazione con quella di espressione delle proteine FA basandosi sul presupposto che prodotti mutati siano rapidamente degradati; • Caratterizzare dal punto di vista molecolare gli effetti delle varianti identificate dall’analisi di sequenza. Per quanto riguarda il primo obiettivo, ci siamo focalizzati sullo studio della proteina FANCA in 44 linee cellulari linfoblastoidi appartenenti ai diversi gruppi di complementazione. E’ emerso che, fatta eccezione per FA-G, l’espressione di FANCA non è alterata da mutazioni nei geni FANCB, FANCC e FANCD2. Per quanto riguarda i pazienti con mutazioni in FANCA, invece, abbiamo osservato una correlazione tra il tipo di mutazione e il livello di espressione della proteina che può quelli essere paragonabile a quella dei controlli nel caso di mutazioni missenso o ampie delezioni in frame. In accordo con l’ipotesi invece, in presenza di mutazioni nonsenso e frameshift in entrambi gli alleli del gene, non si ha produzione di proteina. Sulla base di questi dati possiamo concludere che l’analisi di FANCA non è soddisfacente per assegnare ai pazienti il corrispondente gruppo di complementazione. Tuttavia, da questo studio è emersa l’ipotesi di un’associazione tra l’espressione stabile delle proteine FANCA mutate e un fenotipo meno grave nei pazienti. I dati preliminari dimostrano che queste proteine non sono traslocate nel nucleo e che quindi un’eventuale attività residua non sia da attribuire al processo di riparazione del DNA. Un potenziale ruolo andrebbe forse indagato a livello citoplasmatico dove, come sta emergendo dalla letteratura, almeno FANCG e FANCC, svolgono una funzione all’interno del mitocondrio tale da giustificare l’elevato grado di stress ossidativo delle cellule FA. Per il secondo obiettivo, lo studio dei casi arruolati nell'ambito dell'AIEOP (Associazione Italiana Ematologia Oncologia Pediatrica) ha consentito l'identificazione delle mutazioni in 100 famiglie. Dall’analisi dei dati emerge che la maggior parte delle mutazioni colpisce il gene FANCA (85%), seguito da FANCG (9%), FANCC (3%), FANCD2 (2%) e FANCB (1%). In assenza del dato di complementazione e/o in presenza di varianti alle quali non è sempre possibile attribuire un chiaro effetto patogenetico, sono state eseguite ulteriori indagini. Si citano a titolo di esempio la caratterizzazione delle ampie delezioni intrageniche mediante MLPA, l’analisi bioinformatica e a livello di RNA delle alterazioni di splicing che, qualora in frame, sono state ulteriormente confermate anche a livello proteico e, infine, lo studio bioinformatico di patogenicità delle sostituzioni aminoacidiche. La formulazione di un algoritmo efficace e rapido per la diagnosi molecolare della FA, nonché la chiara definizione del significato patogenetico delle varianti identificate, è molto importante per corretta presa in carico del paziente e della famiglia sia per l’identificazione dei portatori che per la diagnosi prenatale.
XXVI Ciclo
1984
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography