Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Misure di rischio.

Thèses sur le sujet « Misure di rischio »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 28 meilleures thèses pour votre recherche sur le sujet « Misure di rischio ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Dalla, Costa David <1994&gt. « Selezione di portafoglio con diverse misure di rischio : applicazione di una metaeuristica ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/16550.

Texte intégral
Résumé :
Il presente elaborato si propone l'obiettivo di analizzare i risultati ottenuti dalla soluzione di un problema di ottimizzazione di portafoglio vincolata. Viene proposto un confronto fra diversi investimenti che utilizzano quattro differenti misure di rischio: la varianza, il value-at-risk, l'expected shortfall e il value-at-risk entropico. Le aspettative sono di riscontrare che misure relativamente più recenti, come l'expected shortfall, e maggiormente affinate, quali l'entropic VaR, producano risultati sensibilmente migliori rispetto alle loro controparti più datate. Gli strumenti finanziari che vanno a comporre l'investimento sono rappresentati dagli Exchange Traded Funds, conosciuti come ETF. A causa delle loro caratteristiche, si sono ritenuti gli ETF assets particolamente interessanti da utilizzare in questo studio. Il problema di ottimizzazione è stato sottoposto ad una serie di vincoli con l'obiettivo di rendere il problema quanto più simile alla realtà dei mercati finanziari e, allo stesso tempo, renderlo più efficiente limitando ad esempio l'eccessiva frammentazione degli investimenti nei vari titoli. I pesi ottimi necessari alla costruzione dei portafogli sono calcolati utilizzando una metaeuristica bio-ispirata conosciuta come Particle Swarm Optimization.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Chiarlanti, Isotta <1989&gt. « Rischio sistemico : misure di connettività parametriche e non parametriche ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2016. http://hdl.handle.net/10579/8941.

Texte intégral
Résumé :
Il rischio sistemico ed il suo meccanismo di propagazione hanno assunto un ruolo importante nell'economia, come si è potuto osservare a seguito della recente crisi finanziaria del 2007-2009 che ha colpito la maggior parte dei mercati finanziari internazionali. Il grado di connessione tra le istituzioni finanziarie è uno dei fattori scatenanti di una crisi; gli shock che si manifestano nel mercato tendono a propagarsi con effetto domino sui soggetti del sistema strettamente connessi tra loro. Il test di causalità di Granger è considerato una misura utile per la previsione e l'eventuale prevenzione di situazioni di crisi. Obiettivo dell'elaborato è dimostrare l'esistenza di metodi alternativi al test di causalità di Granger per la verifica delle connessioni tra istituzioni. Dopo aver considerato diversi test di cointegrazione (test di Phillips Ouliaris, di Johansen e l'Error Correction Mechanism (ECM), si è attribuita particolare importanza al test di causalità non parametrico di Diks e Panchenko, al fine di studiare la presenza di causalità anche in termini non lineari. Infine si sono individuati e stimati i network di connessioni tra le istituzioni del mercato finanziario Europeo. A tale scopo, grazie all'ausilio del software statistico R, si sono prese in esame delle serie storiche relative a banche ed assicurazioni (Gennaio 2004 a Dicembre 2012) e, dopo aver effettuato i test, sono state rappresentate le suddette connessioni attraverso i grafi.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Braga, Federico <1995&gt. « Confronto di selezione di portafogli con differenti misure di rischio mediante Particle Swarm Optimization ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/16076.

Texte intégral
Résumé :
Nell'elaborato viene inizialmente descritto il modello di selezione di portafoglio alla Markowitz. Successivamente se ne illustrano le criticità e di conseguenza delle possibili estensioni con l'aggiunta di vincoli e misure per il rischio diverse dalla varianza (Valute at Risk ed Expected Shortfall). In conclusione si introduce la Particle swarm optimization e viene condotto uno studio su 33 dei principali 40 titoli del mercato finanziario italiano (FTSE MIB) confrontando qual è il portafoglio più efficiente tra: - Quello basato sulla varianza (Markowitz); - Quello basato sul Value at Risk; - Quello basato sull'Expected Shortfall.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Cusin, Francesco <1988&gt. « Misure di rischio sistemico e connettività nei mercati finanziari : analisi del mercato Europeo ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2012. http://hdl.handle.net/10579/1941.

Texte intégral
Résumé :
Le connessioni tra i soggetti che operano nei mercati finanziari sono diventate negli ultimi anni sempre più intense e numerose, comportando un aumento del rischio che una situazione di tensione di uno o pochi intermediari si propaghi a livello sistemico. Applicheremo delle misure econometriche di connettività e di rischio sistemico ad alcune istituzioni finanziarie dei principali mercati europei, per analizzare la situazione che sussiste nelle relazioni tra le istituzioni stesse e cercheremo di capire se tali misure hanno anche un potere predittivo, ossia fungono da "early warning indicators", sulle possibili crisi sistemiche.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Prestipino, Daniela <1970&gt. « Nuovi scenari di rischio e misure user-centric per la protezione dei dati personali ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amsdottorato.unibo.it/8248/1/Prestipino_Daniela_Tesi.pdf.

Texte intégral
Résumé :
Questa tesi di Dottorato discute la centralità degli utenti nei processi di gestione della privacy e della protezione dei dati personali, propone e sostiene un modello applicativo basato su politiche users-centric di tipo Sticky Privacy Policies per un efficace e dinamico controllo contestuale del trattamento e della divulgazione dei dati personali, in contesti informazionali rispetto ai quali il mantenimento dei requisiti di qualità tanto dell’informativa quanto del consenso o dell'autorizzazione al trattamento risultano critici per il differenziarsi – rispetto alle condizioni iniziali, dei possibili utilizzi, delle molteplici finalità e dei possibili soggetti interessati. La ricerca tiene conto sia delle prescrizioni regolatorie giuridiche allo stato vigenti sia di quelle tecniche, quindi degli standard applicativi de facto in materia di privacy framework; propone rinnovate forme di rischio in contesti distinti da elevata inferenza informativa e da una pluralità di soggetti interessati (Multiple Subjects Personal Data), esemplificandone e provandone alcune implicazioni per le informazioni personali condivise nella lista contatti dell’App WhatsApp Messenger e rispetto alle quali formula azioni di controllo basate sull’utilizzo di Sticky Privacy Policies; propone una modellazione della privacy per l’espressione di politiche d'uso user-centric associate alla struttura dati. La tesi è organizzata su cinque capitoli. I primi tre capitoli descrivono rispettivamente lo scenario normativo e il passaggio in atto tra la Direttiva 24 Ottobre 1995 e il Regolamento Europeo 679/2016 del 24 Aprile 2016; lo stato dell'arte in tema di dato personale e privacy; le contromisure strumentali alla protezione delle informazioni stesse in relazione alle criticità occorrenti. Il quarto e il quinto capitolo contengono una nuova concettualizzazione della privacy e delle nuove vulnerabilità a supporto della quale illustra una semplice Proof of Concept nel contesto d'uso dell’App WhatsApp Messenger.
This PhD thesis assesses the centrality of users in the privacy and personal data process management. It proposes and defends an application model based on user-centric policies based on Sticky Privacy Policies for an effective and dynamic control and distribution of personal data under circumstances where the maintenance of quality elements concerning the consent or the authorization for the data treatment are crucial changing – in comparison to the initial conditions, the possible applications, the multiple purposes and the multiple subjects involved. The research takes into account both legal and technical requirements in place, therefore including the application standards de facto related to the privacy requirements; it proposes new types of risks in situations with an high degree of informative inference and Multiple Subjects Personal Data, demonstrating and proving some of the implications for the personal information shared in the contact list of the App WhatsApp Messenger and for which it proposes control actions based on the Sticky Privacy Policies; it also proposes a modelling of privacy to express user-centric privacy policies. The thesis is structured on five chapters. The first three chapters describe the regulatory environment and the changes from the Directive 24 October 1995 and the European Rule 679/2016 dated 24 April 2016; the current situation in terms of personal data and privacy, the remedy actions for the protection of the personal data information. The fourth and the fifth chapters include new privacy and weaknesses concepts in relation to which the document shows a simple Proof of Concept in the contest of WhatsApp Messenger App.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Gallocchio, Cristina <1993&gt. « PSO vs FWA : due metaeuristiche per la selezione di portafogli basati sulle misure di rischio coerenti two-sided ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2017. http://hdl.handle.net/10579/11768.

Texte intégral
Résumé :
L’elaborato affronta il problema di selezione di portafogli basati sulle misure di rischio coerenti e su vincoli misti-interi. Nel primo capitolo si analizza il problema di selezione del portafoglio alla Markowitz soffermandosi sul criterio media-varianza e sulla costruzione della frontiera efficiente. Per individuare il portafoglio ottimo sulla frontiera efficiente s’introduce il concetto di funzione di utilità quadratica e di curve d’indifferenza. Nel secondo capitolo si propongono due algoritmi per la risoluzione dei problemi di selezione del portafoglio: la Particle Swarm Optimization (PSO) e il Fireworks Algorithm (FWA). Dopo aver dato una classificazione delle possibile tipologie di algoritmi, si analizzano in dettaglio le metaeuristiche, classe di algoritmi a cui appartengono sia la PSO che la FWA. Nel terzo capitolo si muovono alcune critiche alla teoria di Markowitz proponendo due modifiche per rendere il problema più verosimile al comportamento degli investitori e alle reali condizioni dei mercati finanziari. Innanzitutto s’introducono dei vincoli al problema come il vincolo di bilancio, la frazione minima e massima d’investimento per ciascun titolo, il numero minimo e massimo di titoli da detenere in portafoglio, il vincolo sul rendimento medio minimo e il vincolo di non negatività. La seconda modifica riguarda invece la misura di rischio; la varianza, utilizzata nel portafoglio alla Markowitz viene sostituita da una misura di rischio coerente two-sided. Dopo aver applicato queste due modifiche, il problema di selezione del portafoglio comprenderà sia la minimizzazione della misura di rischio ma anche l’introduzione dei vincoli illustrati. Il problema così declinato risulta un problema vincolato, tuttavia le due metaeuristiche descritte nel secondo capitolo, sono nate per problemi non vincolati. Si propone quindi la trasformazione del problema vincolato in un problema non vincolato, attraverso il metodo delle penalità esatte. Nell’ultimo capitolo il modello viene applicato a 30 titoli del mercato statunitense; i titoli sono stati scelti tra i 100 più attivi al 30/09/2017. Per analizzare il modello sono stati determinati 3 scenari di 18 mesi ciascuno. I rendimenti delle serie storiche di ogni scenario sono stati suddivisi in due parti: in-sample, con lunghezza di 12 mesi e out-of-sample, con lunghezza di 6 mesi. L’analisi prevede che se la misura di rischio utilizzata e il rendimento atteso del portafoglio hanno valori simili sia nell’in-sample che nell’out-of-sample, allora le percentuali d’investimento suggerite dall’in-sample dovrebbero essere le migliori percentuali d’investimento anche per il periodo out-of-sample. Per effettuare l’analisi appena descritta sono stati implementati in Matlab i codici della PSO e del FWA. Infine, le due metaeuristiche vengono confrontate in base ai dati ottenuti.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Mattei, Marco <1989&gt. « La Particle Swarm Optimization per i problemi di selezione di portafoglio con misure di rischio coerenti : Una applicazione in media-Expected Shortfall ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2016. http://hdl.handle.net/10579/7736.

Texte intégral
Résumé :
In questo elaborato viene affrontato il problema di selezione di portafoglio utilizzando una misura di rischio coerente come l'Expected Shortfall. L'introduzione di vincoli misto-interi imposti al problema, conferiscono un approccio operativo al modello, che verrà risolto utilizzando una recente tecnica basata sulle metaeuristiche di ispirazione biologica. La validità del modello verrà infine provata con l'applicazione al mercato valutario internazionale dal punto di vista di diversi operatori
Styles APA, Harvard, Vancouver, ISO, etc.
8

Pappalardo, Maria Manuela. « Sistemi e misure di protezione internazionale dello straniero tra ordinamento italiano ed europeo, indagine sui modelli di valutazione del grado di personalizzazione del rischio ». Doctoral thesis, Università di Catania, 2019. http://hdl.handle.net/10761/4097.

Texte intégral
Résumé :
La tesi affronta il tema del risk assessment nel sistema della protezione internazionale dello straniero richiedente asilo. La disciplina giuridica dei rifugiati, com è noto, non considera espressamente le modalità di accertamento del rischio di subire una persecuzione o un danno grave. Eppure, la valutazione del rischio è essenziale nel giudizio prognostico teso al riconoscimento della protezione internazionale. In tale contesto, la tesi propone una lettura della normativa esistente in materia attraverso la rappresentazione di un paradigma volto a verificare le possibili situazioni di rischio che tipicamente si presentano all organo giudicante nell esame delle domande di asilo. Verificati i profili di tensione che derivano dall applicazione concreta del paradigma del rischio , la ricerca si focalizza sull ipotesi specifica di risk assessment nei confronti delle donne richiedenti asilo per ragioni legate a situazione di violenza di genere . A tal fine vengono analizzati alcuni casi scelti sul rischio di mutilazioni genitali femminili, di tratta con finalità di sfruttamento sessuale e di matrimonio forzato sulla base dell appartenenza della vittima ad un particolare gruppo sociale. Attraverso un analisi empirica e comparativa della prassi giurisprudenziale interna di alcuni Stati membri dell UE, emergono gli orientamenti e gli approcci delle giurisdizioni interne utili ad individuare alcuni specifici fattori di rischio che consentono di concedere la protezione internazionale, fattori particolarmente connessi ai diritti economici, sociali e culturali delle donne richiedenti asilo.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Caruso, Silvia. « Valutazione sperimentale della stabilita motoria tramite misure inerziali in soggetti con esito di ictus ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6337/.

Texte intégral
Résumé :
L’ictus rappresenta una delle principali cause di invalidità poiché compromette la deambulazione, incrementando l’incidenza di cadute nei soggetti colpiti. Lo studio della stabilità motoria è fondamentale per l’identificazione dei soggetti a rischio di caduta. I diversi indicatori clinici attualmente utilizzati negli ospedali non sono in grado di fornire una valutazione quantitativo predittiva della stabilità della deambulazione. Lo scopo di questa tesi è indagare una serie di misure sperimentali e valutarne il possibile utilizzo ad integrazione o sostituzione di scale cliniche per l’analisi della stabilità motoria e la prevenzione del rischio di cadute. Analizzando il segnale di accelerazione del centro di massa corporeo di 33 soggetti post stroke sono stati ottenuti gli indici strumentali di interesse. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) e indici strumentali. Lo studio presente ha reso note importanti correlazioni tra parametri clinici e strumentali, che permettono di affermare l’utilità di tali indici strumentali per una valutazione dei soggetti a rischio di caduta.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Lauretti, Federica. « Valutazione della stabilità motoria in soggetti post-stroke tramite misure inerziali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6036/.

Texte intégral
Résumé :
I test clinici e i questionari generalmente non sono in grado di fornire una valutazione predittiva e quantitativa della stabilità motoria. Permettono al clinico di esaminare la forza muscolare del paziente, il grado di spasticità, la funzionalità motoria e l'autonomia nello svolgimento delle normali attività, ma non di capire quanto il soggetto sia stabile. Sono stati esaminati diciotto pazienti con esiti di stroke in fase post acuta ed il 38% ha affermato di essere caduto almeno una volta nell'arco degli ultimi dodici mesi. Adottando una politica di prevenzione delle cadute si potrebbero limitare questi eventi che vanno ad aggravare un quadro clinico già compromesso. Per tale motivo sono attualmente oggetto di studio misure biomeccaniche, eseguite in laboratorio, atte a definire metodi con alta sensibilità e specificità per la valutazione della stabilità del cammino. Nel presente lavoro le misure strumentali sono state ottenute partendo dal segnale di accelerazione del centro di massa corporeo. Servendosi di un'unità inerziale munita di accelerometro triassiale è stato possibile, durante il cammino, ricavare l'andamento delle accelerazioni antero-posteriore, medio-laterale e verticale. Grazie ad un algoritmo, messo a punto nel Laboratorio di Bioingegneria della Facoltà di Cesena dall'Ing. Federico Riva, sono stati estrapolati gli indici strumentali. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) abitualmente usati in ospedale e indici strumentali.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Chirico, Giuseppe Damiano <1973&gt. « Studio probabilistico della pericolosità da colate di lava al vulcano Nyiragongo (Repubblica Democratica del Congo) e possibili misure volte alla riduzione del rischio ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/537/1/chirico_tesi.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Chirico, Giuseppe Damiano <1973&gt. « Studio probabilistico della pericolosità da colate di lava al vulcano Nyiragongo (Repubblica Democratica del Congo) e possibili misure volte alla riduzione del rischio ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/537/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Occhionero, Monica. « Comparazione dei metodi per la valutazione delle frequenze delle rotture random di tubazioni negli stoccaggi di gas naturale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
Il presente lavoro di tesi è stato svolto presso Arpae Emilia-Romagna e ha avuto come obiettivo lo studio delle metodologie per la modifica delle frequenze di rottura random di tubazioni negli stoccaggi sotterranei di gas naturale e l’analisi comparativa di quelle tra esse selezionate anche mediante l’applicazione ad un caso studio rappresentativo della tipologia di impianti esaminata. Pertanto, previo un inquadramento generale della normativa sul rischio di incidente rilevante in relazione sia alla Direttiva madre europea, la Direttiva Seveso III, che al suo recepimento italiano, il D. Lgs. 105/2015, previa un’analisi del processo di stoccaggio sotterraneo del gas naturale con particolare riferimento a quello convenzionale effettuato all'interno di giacimenti di gas esauriti, unica tipologia presente in Italia, e previa una breve premessa in merito allo schema di sviluppo dell’analisi di rischio ai sensi del D. Lgs. 105/2015, anzitutto è stato effettuato un approfondimento delle banche dati affidabilistiche/fonti bibliografiche da cui è possibile desumere i valori di frequenza generici di rottura per le tubazioni e per le condotte. Si è poi passati all'esposizione delle metodologie per la modifica delle frequenze degli eventi incidentali (ed eventualmente, per quelle che lo prevedono, delle frequenze degli scenari incidentali finali che da tali eventi possono scaturire) e all'applicazione di alcune di esse, sia a scopo di approfondimento che di comparazione, ad un caso studio rappresentativo dell’analisi di rischio degli stoccaggi sotterranei di gas naturale.
Styles APA, Harvard, Vancouver, ISO, etc.
14

CANNA, GABRIELE. « Capital allocation : standard and beyond ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2021. http://hdl.handle.net/10281/307648.

Texte intégral
Résumé :
La tesi affronta il problema dell'allocazione del capitale. Dopo una breve rassegna della letteratura e dei metodi standard, vengono considerati i problemi di allocazione del capitale rispetto ad una particolare classe di misure di rischio, ovvero quelle di Haezendonck-Goovaerts (HG) [13, 46]. Per prima cosa, generalizziamo la regola di allocazione del capitale (CAR) introdotta da Xun et al. [66] per i premi al rischio di Orlicz [47], utilizzando due diversi approcci, al fine di coprire le misure di rischio di HG. Forniamo poi versioni robuste delle CAR introdotte, sia considerando il caso dell’ambiguità sul modello probabilistico che quello di una molteplicità di funzioni di Young, seguendo lo schema di [12]. Successivamente, introduciamo un nuovo approccio per affrontare i problemi di allocazione del capitale dal punto di vista degli insiemi di accettazione, definendo il concetto di famiglia di insiemi di sotto-accettazione. Studiamo le relazioni tra le nozioni di sotto-accettabilità e accettabilità di una posizione rischiosa e il loro impatto sull'allocazione del capitale. Definiamo la nozione di regola di contributo al rischio e mostriamo come in questo contesto sia interpretabile come uno strumento per valutare il contributo di un sotto-portafoglio a un dato portafoglio, in termini di accettabilità, senza necessariamente coinvolgere una misura di rischio. Inoltre, indaghiamo per quali condizioni, su una regola di contributo al rischio, vale una rappresentazione in termini di insiemi di accettazione della regola di contributo al rischio stessa, estendendo così a questa contesto l'interpretazione, classica nella teoria delle misure di rischio, di importo monetario minimo richiesto per rendere una posizione accettabile. Infine, discutiamo alcune ulteriori estensioni del problema dell'allocazione del capitale. In particolare, discutiamo la possibilità di estendere quest'ultimo al contesto delle misure di rischio intrinseco [36]. In primo luogo, rivediamo brevemente le nozioni e i risultati principali sulle misure di rischio intrinseco, fornendo un confronto con quelle tradizionali. Successivamente, discutiamo l'idoneità del problema dell'allocazione del capitale in questo contesto, così come quello delle proprietà da richiedere alle regole di allocazione del capitale, considerando sia l’approccio standard che quello basato sugli insiemi di accettazione. Deriviamo risultati simili al caso delle misure di rischio tradizionali.
The thesis deals with the problem of capital allocation. After a brief review of the literature and of the standard methods, capital allocation problems with respect to a particular class of risk measures, namely the Haezendonck-Goovaerts (HG) ones [13, 46], are considered. We first generalize the capital allocation rule (CAR) introduced by Xun et al. [66] for Orlicz risk premia [47], using two different approaches, in order to cover HG risk measures. We then provide robust versions of the introduced CARs, both considering the case of ambiguity over the probabilistic model and the one of multiple Young functions, following the scheme of [12]. Further on, we introduce a new approach to face capital allocation problems from the perspective of acceptance sets, by defining the family of sub-acceptance sets. We study the relations between the notions of sub-acceptability and acceptability of a risky position and their impact on the allocation of risk. We define the notion of risk contribution rule and show how in this context it is interpretable as a tool for assessing the contribution of a sub-portfolio to a given portfolio, in terms of acceptability, without necessarily involving a risk measure. Furthermore, we investigate under which conditions on a risk contribution rule a representation of an acceptance set holds in terms of the risk contribution rule itself, thus extending to this setting the interpretation, classical in risk measures theory, of minimal amount required to hedge a risky position. Finally, we provide a discussion on some possible further extensions of the capital allocation problem. In particular, we discuss the possibility of extending the latter to the framework of intrinsic risk measures [36]. We briefly review the notions and results on intrinsic risk measures, providing a comparison with traditional ones. We later discuss the suitability of the capital allocation problem in this context, as well as that of the properties related to capital allocation rules, considering both the standard setting and the one based on acceptance sets. We derive some results similar to the case of traditional risk measures.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Bello, Enrico <1994&gt. « L'expected shortfall come misura di rischio in ambito Pareto stabile ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/14507.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Giolli, Lorenzo <1968&gt. « Un modello VaR per la misura del rischio di credito nelle banche ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/212/1/Tesi_Giolli_07.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
17

Giolli, Lorenzo <1968&gt. « Un modello VaR per la misura del rischio di credito nelle banche ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/212/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
18

Sessolo, Gianluca <1992&gt. « SRISK come strumento di misura del rischio sistemico del settore bancario europeo ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/14210.

Texte intégral
Résumé :
Nel seguente elaborato, viene applicato come strumento di misura del rischio sistemico un nuovo modello, SRISK, teorizzato dal premio Nobel per l'economia Robert Engle, il quale verrà usato per determinare in maniera ex-ante la vulnerabilità del sistema finanziario europeo.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Ginestrini, Simone. « Studio della valutazione del rischio da sovraccarico biomeccanico tramite dispositivi di misura del movimento ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Trouver le texte intégral
Résumé :
In questa tesi vengono presentati i risultati di un approccio innovativo allo studio dei fattori di rischio per i lavoratori che compiono movimenti ripetitivi e prolungati nel tempo. Per raccogliere i dati necessari e per misurare i fattori di rischio definiti dal metodo OCRA (Occupational Repetitive Action) si sono tradizionalmente usate misurazioni visive dirette o filmati che venivano successivamente usati per estrarre i dati. L’approccio adottato in questo lavoro è basato sull’utilizzo di sensori di movimento applicati sul corpo del soggetto. I sensori trasmettono dati grezzi provenienti da un giroscopio e un accelerometro, che vengono raccolti ed elaborati dal software sviluppato per questa tesi. I vantaggi sono l’immediatezza delle misure e la loro completa oggettività. Come vedremo, alcuni problemi rimangono per la taratura dei sensori e la deriva temporale di alcuni dati, ma superati questi, il metodo analizzato potrebbe essere generalizzato e usato su ampia scala.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Zanet, Riccardo <1993&gt. « Confronto tra ACO e PSO per la selezione di portafogli basati sulla misura di rischio coerente iso-entropica ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2018. http://hdl.handle.net/10579/13297.

Texte intégral
Résumé :
In questo elaborato di tesi viene affrontato il problema di selezione di portafoglio mediante l’utilizzo di due algoritmi metaeuristici. Dopo aver introdotto il modello classico di Markowitz con le relative critiche e analizzato la classe delle misure di rischio coerenti; il modello di ottimizzazione proposto si concentra su una nuova misura di rischio coerente definita iso-entropica. Il modello suggerito inoltre, per rappresentare alcune caratteristiche che ritroviamo nel mondo reale degli investimenti e rendere quindi più realistico il processo di selezione, presenta alcuni vincoli che rendono il problema Np-hard. Per risolvere questo problema vengono proposti due algoritmi metaeuristici basati rispettivamente sul comportamento degli sciami e delle formiche: Particle Swarm Optimization (PSO) e Ant Colony Optimization (ACO). Infine, il modello viene applicato ad uno stesso paniere di titoli e i risultati ottenute con i differenti algoritmi vengono confrontati.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Marchetti, Luca <1994&gt. « PSO e FWA : due metaeuristiche per la selezione di portafogli basati sull’Entropic Value-at-Risk come misura di rischio ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/15841.

Texte intégral
Résumé :
Nel presente lavoro ho affrontato il tema della selezione di portafoglio da un punto di vista che si discosta nettamente dalle tecniche classiche proposte da Harry Markowitz con la Modern Portfolio Theory. Ho presentato un problema di programmazione matematica in cui la funzione obiettivo è l'Entropic Value-at-Risk, la cui formulazione è in grado di misurare il rischio di un generico portafoglio combinando il concetto di entropia relativa con quello di VaR. Successivamente è stato individuato un adeguato sistema di vincoli per il problema di ottimizzazione in questione ed infine sono stati presentati due algoritmi basati sull'intelligenza di sciame, che riescono a risolvere efficacemente e in un breve lasso temporale problemi ad elevata complessità computazionale. Presentate queste tecniche e questi strumenti risolutivi lo scopo della mia tesi è l'individuazione di due portafogli ottimi, in cui il rischio sia il più contenuto possibile a parità di rendimento desiderato, costruiti uno con titoli azionari italiani e l'altro con titoli azionari svedesi. In questo modo sono possibili due tipologie di conclusioni: la prima è matematica sul confronto tra i due algoritmi a parità di portafoglio ottimizzato, l'altra è invece prettamente economica sul confronto tra Italia e Svezia, osservando come ciascun algoritmo ottimizza il portafoglio in un paese in recessione come il nostro e in uno in espansione come la Svezia.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Giannini, Valentina <1969&gt. « Knowledge sharing among and within stakeholder groups to cope with climate related risks ». Doctoral thesis, Università Ca' Foscari Venezia, 2012. http://hdl.handle.net/10579/1170.

Texte intégral
Résumé :
Methods to operationalize climate change adaptation are explored by developing tools for knowledge integration within participatory processes. Two paradigms are taken into consideration, and case studies are developed in relation to them. The first paradigm is Integrated Water Resources Management and the case study used is the research project BRAHMATWINN. The second paradigm is Disaster Risk Reduction (DRR) and the case study is identified based upon a knowledge harmonization process taking place in Guatemala. Three are the main results: 1. the Integrated Indicator Table useful to establish a biunivocal relation between research outcomes and stakeholders’ needs; 2. the Gap Analysis Matrix useful to identify governance and policy gaps in the law and its implementation with respect to flood risk; 3. the Total Cognitive Map useful to collect and analyse visions stakeholders have on risk and DRR, and to identify and improve possible synergies among institutions and organizations dealing with DRR.
Sono sviluppati metodi per rendere operativo l’adattamento ai cambiamenti climatici a partire da processi partecipativi per l’armonizzazione del sapere. Il primo paradigma affrontato è la gestione integrata delle risorse idriche, caso studio è il progetto BRAHMATWINN; il secondo paradigma è la gestione del rischio, con un caso studio fondato su un progetto di armonizzazione delle conoscenze in corso in Guatemala. Tre sono i risultati: 1. la tabella integrata degli indicatori, mediante la quale si è stabilita una relazione biunivoca fra risultati della ricerca e necessità degli attori locali; 2. la matrice per l’analisi delle carenze di politiche per il rischio inondazione, in cui sono identificati ritardi nella legislazione e nella sua implementazione; 3. la mappa cognitiva totale, attraverso cui si possono raccogliere ed analizzare le visioni che gli attori locali hanno sul rischio e sulla sua gestione, per identificare e migliorare le sinergie possibili fra istituzioni che si occupano di gestione del rischio.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Fabbri, Angelica. « Teoremi fondamentali di valutazione ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
Nel primo capitolo si descrivono le caratteristiche generali di un mercato discreto, definito tale in quanto il tempo è considerato una variabile aleatoria discreta. Si introduce poi il concetto di portafoglio, identificando le strategie che sono ammissibili, ovvero quelle che soddisfano le condizioni di autofinanziamento e predicibilità; in particolare ci si sofferma sul significato di (non) arbitraggio. Il capitolo successivo rappresenta la parte fondamentale di questo studio e si concentra sui due problemi riguardanti l'utilizzo dei derivati: il problema di valutazione e quello di copertura. Importanti nello sviluppo di questa tesi sono il Primo Teorema di valutazione neutrale al rischio che stabilisce il legame fra assenza di arbitraggi ed esistenza di una misura martingala e il Secondo Teorema di valutazione neutrale al rischio che mette in evidenza il legame tra completezza del mercato e unicità della misura martingala. Questi teoremi dimostrano che caratteristiche economiche del mercato sono strettamente legate all'esistenza e unicità di una misura di probabilità rispetto alla quale il processo dei prezzi scontati dei titoli risulta essere una martingala. Infine il capitolo conclusivo descrive uno dei principali modelli di mercato a tempo discreto, ovvero il modello binomiale. Si tratta di un esempio di mercato completo e libero da arbitraggi che soddisfa le ipotesi dei teoremi di valutazione ed è utile per osservare la risoluzione dei problemi riguardanti i derivati.
Styles APA, Harvard, Vancouver, ISO, etc.
24

PANTINI, SARA. « Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Texte intégral
Résumé :
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
Styles APA, Harvard, Vancouver, ISO, etc.
25

BAIOCCO, ROBERTO. « Fattori di rischio nelle dipendenze in adolescenza : costruzione e validazione di uno strumento di misura ». Doctoral thesis, 2005. http://hdl.handle.net/11573/381790.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

RUGGERI, ALESSIA. « UN PANNELLO MULTIGENICO A SOSTEGNO DEL TEST GENETICO BRCA1/2 PER MIGLIORARE LA MISURA DEL RISCHIO DI INSORGENZA DEL CARCINOMA MAMMARIO E DEFINIRE UN SET DI PROFILI GENETICI UTILI ALLO SVILUPPO DI TRATTAMENTI PERSONALIZZATI ». Doctoral thesis, 2017. http://hdl.handle.net/11570/3103622.

Texte intégral
Résumé :
L’identificazione di alleli ad elevata penetranza a carico dei geni oncosoppressori BRCA1 e BRCA2, in grado di conferire una predisposizione al tumore della mammella e/o dell’ovaio, ha reso il test genetico BRCA parte integrante della consulenza oncogenetica. Tuttavia, circa il 30% delle mutazioni raccolte nel database BIC, è rappresentato da varianti di significato sconosciuto (VUSs), la cui identificazione conduce ad un esito del test incerto. L’avvento delle nuove tecnologie di sequenziamento, inoltre, ha messo in evidenza, come mutazioni in geni coinvolti nel riparo del DNA e nel ciclo cellulare, oltre ai due principali geni di predisposizione BRCA1 e BRCA2, possono aumentare il rischio di sviluppare cancro alla mammella e alle ovaie. La risposta a determinate terapie dipende fortemente da eventuali alterazioni genetiche germinali o tumore-specifico all'interno di questi geni. Alcuni tumori sporadici, o in pazienti non selezionati per storia familiare, mostrano proprietà cliniche, patologiche e molecolari simili ai tumori ereditari BRCA-mutati, una condizione definita BRCAness. Tra questi, per esempio, ci sono alcuni tra i tumori che non esprimono i recettori ormonali (ER e PR) e Her2, definiti tripli negativi (Triple Negative Breast Cancer, TNBC): essi rispondono alla chemioterapia con agenti alchilanti, in modo simile ai BRCA mutati, ma hanno un alto rischio di recidiva e di progressione della malattia. Al fine di sviluppare terapie più mirate potrebbe essere rilevante individuare una correlazione tra la risposta alla chemioterapia ed eventuali mutazioni germinali nei geni principalmente coinvolti nel riparo del DNA e nel ciclo cellulare. L’obbiettivo perseguito in questa tesi, supportato da studi preliminari di associazione su varianti alleliche dei geni BRCA1 e BRCA2, è stato, quindi, quello di progettare un pannello di geni da sequenziare con la piattaforma NGS che sia il più completo possibile, utile sia a valutare il rischio di insorgenza della patologia che ad evidenziare nuovi possibili target molecolari, che possano essere correlati ad una scelta terapeutica personalizzata. La progettazione di tale pannello è stata effettuata analizzando dei pathways molecolari tramite software CYTOSCAPE. Tale analisi condotta a partire da un set iniziale di 40 geni di input, da noi selezionati, sono emersi 39 nuovi geni che possono essere considerati possibili target molecolari coinvolti nell’insorgenza del carcinoma mammario. Dall’analisi, infatti, è emerso che tutti sono correlati tra loro in almeno uno dei criteri di clusterizzazione applicati con l’ausilio del plugin GENEmania. Si evince, dall’analisi condotta, che i principali pathways che coinvolgono, contemporaneamente, sia i geni input che i nuovi geni emersi dallo studio, fanno riferimento al riparo e alla ricombinazione del DNA, al ciclo cellulare, alla regolazione del trasporto nucleocitoplasmatico, a processi di biosintesi del DNA, alla regolazione dei telomeri, al complesso del mismatch repair e ad altri processi molecolari coinvolti nella tumorigenesi. Alla luce del nostro studio risulta limitativo, quindi, considerare un numero ristretto di geni, nonché fermarsi ad un utilizzo di pannelli genici che non coprano l’intero spettro dei pathways metabolici. Risulta fondamentale aggiornare costantemente i criteri diagnostici per poter migliorare la misura del rischio e definire un set di profili genetici che permettano lo sviluppo di trattamenti personalizzati. Perché, anche estendendo l’analisi molecolare a tutti gli altri geni ormai noti e associati, il test genetico rischierebbe di essere, ancora una volta, poco informativo.
Styles APA, Harvard, Vancouver, ISO, etc.
27

BASILI, Silvia. « Gli attuali scenari del commercio internazionale dei prodotti agroalimentari, tra vecchie e nuove questioni di sicurezza alimentare : una riflessone comparatistica ta UE, USA e CINA ». Doctoral thesis, 2018. http://hdl.handle.net/11393/251081.

Texte intégral
Résumé :
Il commercio dei prodotti agroalimentari ha assunto oggi una dimensione globale, che pone una serie di questioni su cui è necessario riflettere. Una di queste riguarda la sicurezza alimentare intesa nell'accezione di food safety, ossia come il diritto di ogni individuo a consumare cibo sano e sicuro. La sicurezza alimentare implica l'assenza di elementi estranei che sono riconducibili ai residui dei trattamenti antiparassitari, veterinari, contaminanti ambientali o ancora l'assenza di adulterazioni nel processo di produzione, che possono comportare un rischio per la salute dei consumatori. La tesi analizza le principali dinamiche internazionali relative all'attuale commercio dei prodotti agroalimentari, focalizzando l'attenzione sulla questione della sicurezza alimentare, che da un lato deve garantire senza compromessi la tutela di tutti i consumatori, e dall'altro però, le misure adottate non devono costituire inutili ostacoli commerciali per le imprese alimentari esportatrici. L'analisi inizia dagli accordi nati nell'ambito della WTO, con la firma del Trattato di Marrakech nel 1994, con lo scopo di favorire gli scambi commerciali internazionali attraverso una maggiore armonizzazione delle differenti normative di riferimento. Per quanto riguarda specificamente la sicurezza alimentare si fa riferimento all'Accordo SPS sulle misure sanitarie e fitosanitarie e al Codex Alimentarius, che hanno lo scopo di creare un sistema di norme internazionali valido all'interno dei paesi membri della WTO per tutelare la salute dei consumatori e garantire pratiche eque nel commercio degli alimenti. Dal contesto multilaterale della WTO si procede ad analizzare il ruolo degli accordi bilaterali o regionali, nati in seguito alla crisi del multilateralismo, iniziata con il round di Doha nel 2001e dovuta principalmente all'eterogeneità delle posizioni dei Paesi membri. In particolare nell'ambito degli accordi bilaterali si fa riferimento al partenariato transatlantico sul commercio e gli investimenti (TTIP) recentemente negoziato tra UE e USA, e fermo per ora a tale fase. Si tratta di un accordo di libero scambio volto ad abbattere molte barriere commerciali esistenti tra le due sponde dell'Atlantico, con particolare riferimento a quelle non tariffarie consistenti in divergenze normative che ostacolano le esportazioni, tra cui vanno sicuramente ricomprese le misure sanitarie e fitosanitarie, che si sono rivelate le questioni maggiormente dibattute nel corso delle trattative del TTIP, offrendo lo spunto per analizzare in chiave comparatistica le due diverse tradizioni giuridiche di food safety, delineate attraverso la tematica degli OGM, dove emerge la distanza dell'approccio giuridico tra le due potenze transatlantiche. L'uso delle moderne tecniche di ingegneria genetica in campo alimentare è stato uno dei temi particolarmente discussi nell'ambito delle negoziazioni; gli OGM erano già stati oggetto di una controversia tra Europa e USA nell'ambito della WTO. In ogni caso il TTIP, nonostante il suo fallimento, segna comunque la volontà delle due potenze di trovare una base normativa comune. L'ultima parte della tesi riguarda invece l'evoluzione della sicurezza alimentare in Cina, che grazie alla rapida crescita economica degli ultimi anni, si attesta ad essere una delle potenze protagoniste degli scambi commerciali mondiali, completando in tal modo il quadro internazionale di riferimento. L'introduzione nel 2009 della prima legge sulla sicurezza alimentare, poi modifica nel 2015, rappresenta un primo avvicinamento ai sistemi normativi occidentali. L'analisi delle diverse normative di food safety nel contesto europeo, statunitense e cinese mostra come la globalizzazione economica abbia determinato anche una globalizzazione giuridica o meglio un progressivo allineamento dei diversi sistemi normativi. La necessità di facilitare gli scambi commerciali per competere a livello mondiale ha favorito l'avvicinamento dei vari ordinamenti giuridici. Pertanto si assiste a una sorta di "contaminazione legislativa" estranea alla politica commerciale comune della WTO, ferma da tempo ad una fase di completa stagnazione. In particolare per quanto riguarda il settore alimentare si auspica che il progressivo avvicinamento dei sistemi normativi sul tema della sicurezza alimentare possa favorire la nascita di una food law unitaria a livello globale, che sappia rispondere alle esigenze economiche - commerciali della libera circolazione dei prodotti, e contemporaneamente garantire la tutela di tutti i consumatori, assicurando un elevato livello di qualità e sicurezza.
Styles APA, Harvard, Vancouver, ISO, etc.
28

SBRANA, ALESSANDRO. « Faculty Development Centri di Professionalità Accademica (CPA) ». Doctoral thesis, 2018. http://hdl.handle.net/11393/251175.

Texte intégral
Résumé :
mondo universitario ha subito un’ondata di cambiamenti che si possono ricondurre alla ricerca dell’eccellenza, declinata secondo le due dimensioni della valutazione e della rendicontazione. Tre sono quelli più evidenti: il primo, il passaggio da una ricerca curiosity driven a una ricerca funzionale al raggiungimento di risultati valutabili in tempi brevi; dalla ricerca pura a quella applicata, da un approccio problem-making a uno problem-solving, da una conoscenza come processo a una conoscenza come prodotto, da un modello disinteressato a uno utilitaristico (Barnett, 1994); il secondo, riguardante l’offerta formativa: dal momento che si è modificato il modo di concepire l’apprendimento; i curricula tendono a essere definiti in termini di risultati di apprendimento predefiniti (Blackmore, 2016); il terzo, peculiare della struttura amministrativa: dal momento in cui sono divenute essenziali una serie di nuove sovrastrutture (programmazione, valutazione, controlli, comunicazione) rispetto al mandato originario della struttura universitaria si registra un aumento consistente del personale delle strutture amministrative. Questi cambiamenti devono fare i conti con la perdita di prestigio della vita accademica, il cambiamento del ruolo dello studente, che è diventato sempre più importante e l’aumento delle procedure burocratiche che rischiano di ingessare un sistema un tempo caratterizzato da un’elevata autonomia. Per consentire alle strutture universitarie di affrontare le sfide culturali a partire dagli anni Settanta nelle università nord-americane si sono strutturate iniziative finalizzate allo sviluppo e alla promozione di una migliore offerta formativa. Tali iniziative vengono definite con l’espressione Faculty Development (FD), una policy accademica finalizzata a creare le condizioni per un miglioramento delle competenze di tutti coloro che sono coinvolti nelle attività svolte in un ateneo. Nella realtà italiana emerge la mancanza di una vera politica di formazione al teaching per i ricercatori e i docenti universitari, per non parlare dell’esigenza di superare il pregiudizio, di gentiliana memoria, secondo il quale non è necessario apprendere a insegnare, ma sia sufficiente avere successo nella ricerca, cui si aggiunge nell’ultimo decennio una continua e affannata richiesta al personale accademico di azioni organizzative, valutative e documentali, che assorbono tempo e energie senza il supporto di adeguati apparati gestionali e senza predisporre indagini valutative capaci di misurare l’effettivo esito di tutte queste azioni. L’effetto finale è un evidente declino (Capano et al., 2017) dell’istituzione universitaria. Si può ipotizzare che la cultura del organizzazione propria del Faculty Development possa contribuire nel contesto italiano a fornire azioni a supporto del cambiamento: è quanto mai essenziale dotare gli atenei di risorse funzionali a riqualificare la vita accademica, fornendo al personale accademico gli strumenti necessari per performare una buona scholarship, realizzare un’efficace offerta formativa e attuare adeguate forme di terza missione, capaci di incrementare la vita culturale della comunità. Il presente studio si propone come un’analisi sistematica della letteratura sul tema del Faculty Development, che persegue l’obiettivo di sviluppare una disamina estesa dell’oggetto, in modo che l’esplicitazione della datità raccolta fornisca un’analisi del fenomeno che possa essere di supporto a un’avveduta educational policy nel campo della formazione universitaria. Nel contesto italiano ad oggi non esiste una cultura di attenzione ai contesti di apprendimento universitario. L’offerta formativa è concepita come offerta di pacchetti curriculari e la predisposizione delle condizioni di apprendimento per il conseguimento del titolo universitario si risolve nella organizzazione di una serie di lezioni, frontali o laboratoriali, senza che tutto questo sia innervato da una specifica intenzionalità didattica. Questa immagine poco confortante non intende affatto trascurare tutti i casi di buone prassi sviluppati nei vari corsi di studio, ma il buono che emerge è demandato all’impegno del singolo, senza che l’istituzione universitaria si interroghi sul come predisporre le condizioni per il potenziamento della qualità dei processi di apprendimento. A fronte di questa situazione la necessità di migliorare la qualità dell’insegnamento non è mai stata così stringente e sfidante come lo è oggi, in un clima di continuo cambiamento della formazione superiore. Nuove tendenze definiscono la formazione superiore, attraversando confini istituzionali e nazionali. Essi influiscono sul modo in cui un insegnamento efficace viene concettualizzato, condotto e supportato, valutato, valorizzato e riconosciuto. È necessario affrontare temi quali l’inadeguata preparazione per il lavoro accademico nei corsi di studio magistrali, l’incapacità dei docenti a trasferire competenze, la crescente complessità degli ambienti accademici, le attese e le responsabilità istituzionali, la necessità di preparare meglio gli studenti con bisogni diversi, e la necessità di stare al passo con i balzi della conoscenza e i cambiamenti nelle professioni. Migliorare la qualità della didattica è inoltre essenziale perché consente di ridurre il numero degli abbandoni. È venuto il momento di transitare da un’offerta formativa di tipo episodico a una prospettiva di esperienze di apprendimento in continuità nel tempo, per accompagnare la formazione dei docenti in un modo strutturalmente organizzato (Webster-Wright, 2009). Sulla base della rilevazione fenomenica, sono emerse le seguenti domande di ricerca: che cosa è il FD? Cosa consente di fare? Come si mette in pratica? Quali sono le potenzialità? Quali sono i limiti? Il FD ha il compito di incentivare i docenti ad interessarsi ai processi di insegnamento e apprendimento e a procurare un ambiente sicuro e positivo nel quale fare ricerca, sperimentare, valutare e adottare nuovi metodi (Lancaster et al. 2014). È finalizzato a promuovere cambiamento sia a livello individuale sia a livello organizzativo. Occupa un posto centrale il miglioramento delle competenze di teaching (Steinert, 2014). Due importanti obiettivi sono rappresentati dalla promozione delle capacità di leadership e di gestione dei contesti (Steiner et al., 2012). Una volta definite le metodologie del teaching, che possono essere oggetto di apprendimento da parte del personale accademico, è risultato necessario identificare le principali modalità formative che un centro di Faculty Development (FDc) dovrebbe mettere in atto per favorire l’apprendimento delle competenze didattiche. Per comprenderne la funzione reale è stato utile prendere in esame le attività proposte dai più importanti centri del panorama accademico nordamericano, analizzandone la struttura organizzativa, le risorse disponibili ed identificandone le due figure principali: il responsabile dell’organizzazione dei processi formativi e il responsabile della struttura. L’analisi dei casi ha consentito di evidenziare i molteplici servizi che possono essere forniti da un FDc. Questa analisi di realtà è risultata molto utile poiché ha offerto indicazioni pragmatiche ai fini di una politica accademica innovativa anche in ambito italiano. Alla luce degli argomenti sviluppati è stato possibile ipotizzare anche per gli atenei italiani l’istituzione di “Centri per la professionalità accademica”, indicando possibili iniziative da essi realizzabili, che potrebbero trovare spazio nella realtà del nostro paese.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie