Thèses sur le sujet « Modelli a Classi Latenti »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modelli a Classi Latenti.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 25 meilleures thèses pour votre recherche sur le sujet « Modelli a Classi Latenti ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Del, Giovane Cinzia <1979&gt. « Modello multilevel a classi latenti : estensione al modello multidimensionale ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/718/1/Tesi_Del_Giovane_Cinzia.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Del, Giovane Cinzia <1979&gt. « Modello multilevel a classi latenti : estensione al modello multidimensionale ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/718/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Djumboung, Lontsi Danièle Aurelie. « L'effet des caractéristiques du territoire et du paysage sur les décisions d'achat du prosecco : une expérience de choix ». Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3424535.

Texte intégral
Résumé :
The Ministerial Decree of 17 July 2009 amended the specification of the production of Prosecco. Between the main innovations of the decree, there is the introduction of the Denomination of Controlled and Guaranteed Origin (DOCG) for the historic production area of Prosecco, which is located between the towns of Conegliano and Valdobbiadene. The extension of the DOC area production is the second one, and now encompass the provinces of Belluno, Padua, Treviso, Venice and Vicenza in the Veneto and those Gorizia, Pordenone, Trieste and Udine in the region of Friuli Venezia Giulia. The new disciplinary was created in order to protect the production of Prosecco against counterfeits which are becoming more common on the market. The goal of our research is to develop a study to determine if and how extent the characteristics of the territory and the landscape can become tools for the valuation of the typicality of wine production, with particular reference to the production of Prosecco. The recent expansion of the area production of Prosecco DOC has set new challenges for wine producers that operate in the area that was previously the DOC of Conegliano Valdobbiadene Prosecco, became a DOCG area. The idea we have is to check if the market is able to recognize the characteristics of the wines produced in the DOCG and if they will keep the golden place they had already acquired on the market. In this regard, we have identified some typical elements of DOCG, and we tried to see using Discrete Choice Experiment whether they can be used as marketing tools or in other words, if these characteristics can allow companies of the hilly area oh this region to acquire the market power. In this context, a special questionnaire was built to conduct interviews, and these allowed us to collect informations related to the consumption of wine in general and those of Prosecco in particular. Socio-economics informations where also collected in order to better characterise the sample of respondents. Using a sample of 556 interviews, research allowed us to understand how some intrinsic attributes (using of local grapes biotypes) and extrinsic (landscape protection, traceability, belonging to the DOCG production area), are be able to influence the purchase consumers behaviour. In particular, producers of the hilly area should use grapes from local biotypes, ensure accurate traceability, and promote the conservation of traditional vineyard landscapes in order to increase the propensity to buy Prosecco DOCG wines. In addition, it is necessary that the Consortium for the Protection of Prosecco DOCG should implement targeted marketing strategies to promote the meaning of Acronym DOCG, and those that will try to highlight the differences between the Prosecco DOC and DOCG.
Il Decreto Ministeriale del 17 luglio 2009 ha modificato il disciplinare di produzione del Prosecco. Tra le principali novità del Decreto, vi è l'introduzione della denominazione D.O.C.G. (Denominazione di Origine Controllata e Garantita) per la storica area di produzione del Prosecco che si trova fra i comuni di Conegliano e Valdobbiadene, e l'estensione dell'area D.O.C. (Denominazione di Origine Controllata) alle province di Belluno, Padova, Treviso, Venezia e Vicenza nel Veneto e alle province di Gorizia, Pordenone, Trieste e Udine in Friuli Venezia Giulia. Il nuovo disciplinare nasce con l'intento di garantire la tutela delle produzioni di Prosecco contro le forme di contraffazione che sono sempre più frequenti. L'obiettivo della nostra ricerca è di sviluppare uno studio per verificare se ed in quale misura le caratteristiche del territorio e del paesaggio possano divenire strumenti per la valorizzazione della tipicità delle produzioni vitivinicole, con particolare riferimento alla produzione del Prosecco. Il recente ampliamento dell'area di produzione del Prosecco DOC ha posto nuove sfide ai vitivinicoltori che operano nell'area che fino a poco tempo fa era interessata dalla DOC del Prosecco di Conegliano e Valdobbiadene (ora trasformata in DOCG). Si tratta di verificare se il mercato sarà in grado di riconoscere la peculiarità dei vini prodotti nella DOCG, e se questi continueranno a godere di un certo potere di mercato come avveniva in passato. A tale riguardo sono stati individuati alcuni elementi tipici dell'area DOCG, e si è cercato di verificare, tramite un esperimento di scelta discreta, se possano essere utilizzati quali strumenti di marketing o in altri termini, se questi elementi possano far acquisire potere di mercato alle imprese vitivinicole che operano nell'area di produzione collinare. Un questionario è stato appositamente costruito per condurre le interviste, e ciಠha permesso di raccogliere informazioni relative al consumo di vino in generale e di Prosecco in particolare. Sono inoltre state raccolte informazioni socio-economiche per poter meglio caratterizzare il campione di intervistati. Tramite un campione di 556 interviste, la ricerca ha consentito di comprendere come alcuni attributi intrinseci (impiego di uve da biotipi locali) ed estrinseci (tracciabilità , tutela paesaggio, appartenenza alla zona di produzione DOCG), siano in grado di influenzare il comportamento d'acquisto dei consumatori. In particolare, i produttori della zona collinare potrebbero utilizzare le uve provenienti da biotipi locali, garantire una tracciabilità più precisa, favorire la conservazione dei paesaggi viticoli tradizionali per potere aumentare la propensione all'acquisto del Prosecco ottenuto nella zona DOCG, e garantire loro un maggiore potere di mercato. Inoltre, appare necessario che il Consorzio di Tutela del Prosecco DOCG attui strategie di marketing mirate a promuovere il significato della sigla DOCG, cercando anche di evidenziare chiaramente le differenze esistenti tra il Prosecco DOC e DOCG
Styles APA, Harvard, Vancouver, ISO, etc.
4

Donni, Paolo Li. « Modelling unoserved heterogeneity in health and healthcare : An extended latent class approach ». Thesis, University of York, 2010. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.533491.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

SOTTILE, ELEONORA. « Costruzione di modelli di scelta discreta ibridi per misurare gli effetti delle strategie informative sulla scelta del modo di viaggio contestualmente agli aspetti latenti ». Doctoral thesis, Università degli Studi di Cagliari, 2015. http://hdl.handle.net/11584/266383.

Texte intégral
Résumé :
Road traffic is now the main culprit of air pollution in urban areas, due to the emissions of the combustion products of fuels and their subsequent chemical transformation, as well as to the evaporation of unburned hydrocarbons. Transport accounts for 25% of CO2 emitted globally, and is also one of the few sectors where emissions have continued to grow, oil consumption between 1973 and 2010 increasing by 110% (IEA, 2011) and CO2 by 44 %. (IEA, 2009; Banister et al., 2012). Several actions and measures have been developed to try to mitigate the harmful emissions produced by the transport sector and in particular by road traffic. These largely concern vehicle technology, type of fuel, economic tools and institutional controls. Although powerful, these measures have not been proved to be sufficient to solve the problem (Schwanen et al., 2011). In recent years, research has consequently increasingly focused the attention on measures and policies that affect individuals’ behaviour and in particular what motivates their decisions. Providing information is the measure most used to promote behaviour change (Abrahamse and Matthies, 2012): "A person who has an attitude that suggests that it would be consistent for him or her to use the car less cannot bring about behaviour change if that person does not know how to change" (Ampt, 2003). It has been observed that measures that increase individual’s awareness can produce enduring changes, being the result of mindful decisions. This is at the basis of the concept of "Soft Measures", also referred to as "Voluntary Travel Behaviour Change" (VTBC) programmes (Ampt, 2003) or "Smarter Choices" (Cairns et al., 2004), i.e. programmes aimed at motivating the voluntary reduction of car use. VTBC programmes provide information typically on: a) the negative (mainly environmental) effects of current behaviour and b) how individuals can change their current behaviour to mitigate the negative effects. The types of information provided in these studies are mostly: travel time, mileage travelled, travel cost, time spent in non-working activities, CO2 emitted, calories burned. These studies assess the overall effectiveness of the programme, comparing the number of trips by car before and after the implementation of a soft measure. None of them have however examined which of the information provided actually leverages behaviour change. Understanding to what extent specific soft measures contribute to shape individuals’ preferences, is crucial for defining the best policy for fostering changes toward sustainable modes. Of the environmental effects, the information about the impact on the CO2 emitted is probably the most effective measure (and more understandable than other measures like for example PM10). The information on CO2 has often been used in VTBC programmes, and it is widely recognised that individuals are less likely to adopt environmentally friendly behaviour if this information is not provided. However research to date has not yet made it possible to disentangle its efficacy as a soft measure. As far as the information on health effects is concerned, the typical measure tested is the number of calories burned. This is a relatively easy measure to test, because it is easy to quantify and for the individuals easy to associate with the effects on their health. However, from the health literature it seems that rather than the calories burned, stress represents the real plague of modern society. Wener et al. (2010) found also that car commuters showed significantly higher levels of reported stress and more negative moods compared to train commuters. None of the studies however assess the effect of the information, i.e. to what extent being aware of the stress caused by driving has an impact on individuals’ decision to change transport mode. Therefore the objective of this thesis work is to contribute to the development of a programme for voluntary travel behaviour change, and to study the extent to which each single element of the soft measure contributes to the overall awareness. The study focuses in particular on the effect that information on pollution and individual stress has on the choice to shift from private car to Park and Ride (P&R). To try and disentangle the effect of these two components a Stated Preference (SP) experiment was built where the reduction of CO2 and the reduction of stress are attributes included in the experimental design. The ability to perceive, or to be conscious of something and to react to it (i.e. awareness) can differ from one person to another depending on their psychological stance toward environment and stress. Many studies have accounted for the effect of environmental attitude mainly in mode choice or type of fuel-vehicle choice. However, other latent effects other than attitude are relevant. In particular, in terms of environmental awareness and the information provided, personal norm measures a very interesting aspect as they evaluate the moral rule (and obligation) that lead individuals to act rightly or wrongly towards the environment. As for stress, the way individuals perceive stress caused by traffic and the way they perceive the information about stress are particularly relevant for the study. In particular the contribution of this thesis work is to define the methodology to use within a VTBC programme to account for all the above-mentioned aspects. The methodology used thus comprises a SP survey where soft measures information is directly included as attributes in the SP tasks presented to the individuals, a survey that follows the theory of planned behaviour (Ajzen, 1991) to specifically measure psychological aspects that could influence the impact of the information provided and/or mode choice. The use of information attributes in the SP is not common and deserves further consideration. The major challenges in including the information about CO2 and stress as attributes concern how they should be presented to respondents in order to be clearly understood. We devoted special attention to studying the best way to present the soft measures in the SP survey. In particular we tested the following aspects: 1) whether to use images alone, only text or both; 2) the type of information that should be included in the text. The major difficulty lies in explaining to people what the information provided means; 3) the type of context to be included in the images; 4) whether to use abstract or real images i.e. cartoons or real people. Lastly, to analyse the data collected, several hybrid choice models (HCM) have been estimated so as to assess the effect of awareness and psychological aspects in the discrete choice between car and P&R. The results show that 1) the utility to P&R increases with the level of awareness attained thanks to the information about the light rail alternative, 2) the more individuals consider receiving information about stress useful, the more they tend to behave sustainably, choosing P&R, 3) those aspects associated with stress would appear to have a greater influence on travel choice than environmental aspects.The thesis work highlighted the importance of being able to completely evaluate the behavioural process so as to enhance the effectiveness of VTBC programme implementation. An incorrect evaluation of the definition and implementation of measures, as well as of all those attributes influencing travel behaviour, could impair the effectiveness of those measures, and in terms of modelling, result in inaccuracy in travel demand forecasting.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Li, Donni Paolo. « Modelling unobserved heterogeneity in health and health care : an extended latent class approach ». Thesis, University of York, 2010. http://etheses.whiterose.ac.uk/1162/.

Texte intégral
Résumé :
Unobserved heterogeneity is one of the main concerns for applied economists, this is particularly so when modelling health and health related behaviours. This thesis illustrates four studies on modelling unobserved heterogeneity using some recent developments in latent class analysis. Chapter 2 examines two sources of individual unobserved heterogeneity when subjective indicators are used to measure health status: variations in unobservable true health and differences in self-reporting behaviour for a given level of “true health”. These two sources are separately identified using both objective (biomarkers) and subjective health indicators. Chapter 3 examines the so called positive correlation test. This test rejects the null of absence of private information in a given insurance market when individuals with greater coverage experience more of the insured risk. This test is shown to lead to puzzling results where there exists multiple sources of private information (multidimensional heterogeneity). An alternative strategy proposed uses a finite number of heterogeneous types and extends the standard adverse and favourable selection definitions into local and global ones. We implement a finite mixture model to identify the unobserved types and test the multidimensionality of private information. We apply these approaches to the US long-term care and Medigap insurance markets.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Norris, Paul Andrew. « Policing priorities in London : do borough characteristics make a difference ? » Thesis, University of Edinburgh, 2009. http://hdl.handle.net/1842/5674.

Texte intégral
Résumé :
Much current discourse around policing in the UK stresses the need for a partnership between the police and public and, in particular, the need for the police to be responsive to the concerns of local communities. It is argued that appearing responsive to local needs, and showing a willingness to consult the public in the process of decision making, is likely to increase support for the police. Despite this, detailed analysis of the public’s preferences for policing remains relatively sparse. This thesis uses data from the 2003-04 Metropolitan Police’s Public Attitude Survey (PAS) to consider whether survey data can provide a useful indication of a respondent’s preferences, and how these preferences may vary depending on the characteristics of respondents and the boroughs in which they live. This thesis argues that rather than simply considering some overall measure of the level of policing individuals would like to see, or investigating attitudes towards different functions of the police individually, a more interesting and complete view of preferences for policing can be developed by looking at the mix of policing that individuals best believe will meet their needs. Additionally, it will be shown that differences in respondents’ preferences can be related to both the characteristics of individuals and the nature of the boroughs in which they live. It will be suggested that some of these relationships provide evidence that respondents favour a mix of policing they believe will protect them from perceived threats and reflect their perception of the police’s role within society. In addition, this thesis provides an example of how the techniques of Factor Analysis and Latent Class Analysis can provide greater insight into the data collected in large scale surveys. It is suggested that responses provided to different questions are often related and may represent a more general underlying attitude held by the respondent. It is also argued that using techniques which can handle multilevel data will provide greater explanatory depth by suggesting how a respondent’s attitude may be influenced by the context in which they live. The analysis presented offers new insights into the public’s priorities for policing and demonstrates the worth of the statistical methods employed. However it is, to some extent, limited by the form of the questions within the PAS dataset and by the lack of information about the thought process underlying a respondent’s answers. These concerns will be discussed, along with suggestions for future research.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Smith, Gillian W. « Modelling patterns of polydrug use in the population of Great Britain : A latent class approach ». Thesis, University of Ulster, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.502892.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Renteria, Sacha Ivonne Mireille. « Modelo lineal mixto de clases latentes con respuesta ordinal y su aplicación en la medición de la religiosidad ». Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/15591.

Texte intégral
Résumé :
Los modelos lineales mixtos de clases latentes desarrollados por Proust-Lima, Philipps y Liquet (2017) son útiles para analizar el aspecto dinámico y la naturaleza multidimensional de un fenómeno de interés en poblaciones no necesariamente homogéneas. Estos permiten identificar las posibles clases latentes en la población bajo estudio y cómo un conjunto de covariables afecta en cada clase a la variable respuesta de interés. En esta tesis se desarrolla el modelo lineal mixto de clases latentes con variable respuesta latente y variable mani-fiesta ordinal, a través de sus dos componentes: el sub-modelo estructural y el sub-modelo de medición, que son complementados con un modelo logístico multinomial para analizar la probabilidad de pertenencia a una clase latente. El modelo se aplicó a un conjunto de datos pertenecientes al Estudio Nacional de Juventud y Religión (NSYR por las siglas en inglés “National Study of Youth and Religion”), con el fin de encontrar clases latentes en el constructo religiosidad y describir su evolución. Como resultado, se identificaron tres clases latentes con trayectorias distintas para cada caso.
Latent class linear mixed models developed by Proust-Lima, Philipps y Liquet (2017) are useful to analyze the dynamic aspect and the multidimensional nature of a phenomenon of interest in populations not necessarily homogeneous. These allow to identify the possible latent classes in the population under study and how a set of covariates affects the response variable of interest in each class. In this thesis, the latent class linear mixed model with latent response variable and ordinal manifest variable is developed, through its two components: the structural sub-model and the measure sub-model, which are complemented with a mul-tinominal logistic model to analyze the probability of belonging to a latent class. The model was applied to a dataset from the National Study of Youth and Religion (NSYR), in order to find latent classes in the religiosity construct and to describe their evolution. As a result, three latent classes were identified with different trajectories for each case.
Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
10

Petri, Svetlana [Verfasser]. « Wählen und politische Performanz in Transformationsländern : Theorie, Methoden und empirische Anwendung der Latent-Class-Modelle [[Elektronische Ressource]] / Svetlana Petri ». Kiel : Universitätsbibliothek Kiel, 2016. http://d-nb.info/1081077603/34.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
11

Fouefack, Jean-Rassaire. « Towards a framework for multi class statistical modelling of shape, intensity, and kinematics in medical images ». Doctoral thesis, Faculty of Health Sciences, 2021. http://hdl.handle.net/11427/33746.

Texte intégral
Résumé :
Statistical modelling has become a ubiquitous tool for analysing of morphological variation of bone structures in medical images. For radiological images, the shape, relative pose between the bone structures and the intensity distribution are key features often modelled separately. A wide range of research has reported methods that incorporate these features as priors for machine learning purposes. Statistical shape, appearance (intensity profile in images) and pose models are popular priors to explain variability across a sample population of rigid structures. However, a principled and robust way to combine shape, pose and intensity features has been elusive for four main reasons: 1) heterogeneity of the data (data with linear and non-linear natural variation across features); 2) sub-optimal representation of three-dimensional Euclidean motion; 3) artificial discretization of the models; and 4) lack of an efficient transfer learning process to project observations into the latent space. This work proposes a novel statistical modelling framework for multiple bone structures. The framework provides a latent space embedding shape, pose and intensity in a continuous domain allowing for new approaches to skeletal joint analysis from medical images. First, a robust registration method for multi-volumetric shapes is described. Both sampling and parametric based registration algorithms are proposed, which allow the establishment of dense correspondence across volumetric shapes (such as tetrahedral meshes) while preserving the spatial relationship between them. Next, the framework for developing statistical shape-kinematics models from in-correspondence multi-volumetric shapes embedding image intensity distribution, is presented. The framework incorporates principal geodesic analysis and a non-linear metric for modelling the spatial orientation of the structures. More importantly, as all the features are in a joint statistical space and in a continuous domain; this permits on-demand marginalisation to a region or feature of interest without training separate models. Thereafter, an automated prediction of the structures in images is facilitated by a model-fitting method leveraging the models as priors in a Markov chain Monte Carlo approach. The framework is validated using controlled experimental data and the results demonstrate superior performance in comparison with state-of-the-art methods. Finally, the application of the framework for analysing computed tomography images is presented. The analyses include estimation of shape, kinematic and intensity profiles of bone structures in the shoulder and hip joints. For both these datasets, the framework is demonstrated for segmentation, registration and reconstruction, including the recovery of patient-specific intensity profile. The presented framework realises a new paradigm in modelling multi-object shape structures, allowing for probabilistic modelling of not only shape, but also relative pose and intensity as well as the correlations that exist between them. Future work will aim to optimise the framework for clinical use in medical image analysis.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Neciosup, Vera Carmen Stéfany. « Modelo lineal mixto conjunto de clases latentes aplicado a un conjunto de datos longitudinales del sector salud ». Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12998.

Texte intégral
Résumé :
Los modelos lineales mixtos conjuntos de clases latentes, propuestos por Proust-Lima et al. (2015), permiten modelar de manera conjunta un proceso longitudinal y un proceso de supervivencia, calculando también la probabilidad de pertenencia a determinadas clases latentes que puedan existir en la población en estudio. En el presente trabajo se describen los componentes que conforman este modelo, y mediante un estudio de simulación se evalúa y analiza la implementación de su estimación. El modelo se aplica finalmente a un conjunto de datos longitudinales de pacientes diagnosticados con Cáncer de Próstata, permitiéndonos la identificación de clases latentes que se asocian luego con el estadío clínico de los pacientes.
The joint latent class mixed model, proposed by Proust-Lima et al. (2015), allows to jointly model a longitudinal process and a survival process, also calculating the probability of belonging to certain latent classes in the study population. In our study, we describe the components that make up this model (Proust-Lima et al. (2017)) and through a simulation study we assesed the implementation of its estimation. The model is finally applied to a set of longitudinal data of Prostate Cancer diagnosed patients allowing us to identify latent classes that are then associated with the clinical stage of the patients.
Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
13

Erdem, Seda. « Food safety, perceptions and preferences : empirical studies on risks, responsibility, trust, and consumer choices ». Thesis, University of Manchester, 2011. https://www.research.manchester.ac.uk/portal/en/theses/food-safety-perceptions-and-preferences-empirical-studies-on-risks-responsibility-trust-and-consumer-choices(b1d63bdd-5630-4bf4-9ae2-469b1b98185f).html.

Texte intégral
Résumé :
This thesis addresses various food safety issues and investigates them from an economic perspective within four different, but related, studies. The studies are intended to provide policy-makers and other decision-makers in the industry with valuable information that will help them to implement better mitigation strategies and policies. The studies also present some applications of advancements in choice modelling, and thus contribute to the literature. To address these issues, various surveys were conducted in the UK.The first study investigates different stakeholder groups’ perceptions of responsibility among the stages of the meat chain for ensuring the meat they eat does not cause them to become ill, and how this differed with food types. The means by which this is achieved is novel, as we elicit stakeholders’ relative degrees of responsibility using the Best-Worst Scaling (BWS) technique. BWS is particularly useful because it avoids the necessity of ranking a large set of items, which people have been found to struggle with. The results from this analysis reveal a consistent pattern among respondents of downplaying the extent of their own responsibility. The second study explores people’s perceptions of various food and non-food risks within a framework characterised by the level of control that respondents believe they have over the risks, and the level of worry that the risks prompt. The means by which this is done differs from past risk perception analyses in that it questions people directly regarding their relative assessments of the levels of control and worry over the risks presented. The substantive analysis of the risk perceptions has three main foci concerning the relative assessment of (i) novel vs. more familiar risks, (ii) food vs. non-food risks, (iii) differences in the risk perceptions across farmers and consumers, with a particular orientation on E. coli. The third study investigates consumers’ willingness to pay (WTP) for reductions in the level foodborne health risk achieved by (1) nanotechnology and (2) less controversial manners in the food system. The difference between consumers’ valuations provides an implicit value for nanotechnology. This comparison is achieved via a split sample Discrete Choice Experiment study. Valuations of the risk reductions are derived from conditional, heteroskedastic conditional, mixed, and heteroscedastic mixed logit models. General results show the existence of heterogeneity in British consumers’ preferences and variances, and that the value of nanotechnology differs for different types of consumers. The fourth study investigates consumers’ perceptions of trust in institutions to provide information about nanotechnology and its use in food production and packaging. It is shown how the use of BWS and Latent Class modelling of survey data can provide in-depth information on consumer categories useful for the design of effective public policy, which in turn would allow the development of best practice in risk communication for novel technologies. Results show heterogeneity in British consumers’ preferences. Three distinct consumer segments are identified: Class-1, who trust “government institutions and scientists” most; Class-2, who trust “non-profit organisations and environmental groups” most; and Class-3, who trust “food producers and handlers, and media” most.
Styles APA, Harvard, Vancouver, ISO, etc.
14

CASOLI, CHIARA. « The dynamics of commodity prices : common movement and latent factors ». Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/274073.

Texte intégral
Résumé :
Questa tesi analizza prezzi di diverse tipologie di commodities, con lo scopo di capire se esiste un movimento comune tra le varie serie, e se questo è il risultato di determinanti comuni di breve periodo o deriva da delle dinamiche condivise di lungo periodo. Il lavoro è organizzato in tre capitoli. Il primo introduce l’argomento del movimento comune, focalizzandosi anche in una rassegna della letteratura sulle dinamiche dei prezzi delle commodities e proponendo un’analisi univariata di 38 serie storiche mensili di prezzi spot del database dell’IMF. Il secondo capitolo propone un modello in tre equazioni strutturali (consumo, produzione e stoccaggio), con l’aggiunta della condizione di equilibrio, in cui due fattori latenti responsabili per il co-movimento sono incorporati. L’equazione di prezzo in forma ridotta è poi stimata per 10 prezzi sfruttando la metodologia proposta nel terzo capitolo. Quest’ultimo sviluppa una nuova tecnica di stima per Dynamic Factor Models non stazionari e cointegrati con una decomposizione trend-ciclo; inoltre, la procedura è applicata alle 38 serie storiche presentate nel primo capitolo. Dai risultati emerge che mentre la componente ciclica è quasi irrilevante, la parte non stazionaria del co-movimento catturata dalla componente trend ha più peso. Dai fattori estratti è impossibile concludere con chiarezza se l’ipotesi di Prebish e Singer del trend decrescente dei prezzi delle commodities nel lungo periodo è stata surclassata da un’epoca di prezi crescenti dovuta alla maggiore scarsità delle risorse, con conseguente pressione della domanda sull’offerta.
This thesis concerns an analysis of commodity prices belonging to different categories, with the aim of understanding if there is room for a common movement among different price series, and if this co-movement is the result of short-run common drivers or it implies a long-run shared dynamic. The analysis is developed in three Chapters. Chapter 1 introduces the topic of co-movement, also focusing in reviewing other studies on commodity prices general dynamics and providing some univariate results by exploiting a set of 38 commodity spot monthly prices available from the IMF primary commodity database. Chapter 2 proposes a first attempt of modelling commodity markets by including latent factors responsible for co-movement. The model consists in three structural equations determining consumption, production and storage on a multi-commodity framework, plus a market clearing condition which allows to find the equilibrium price. The reduced form model is then estimated for a subset of 10 commodity prices by exploiting the methodology developed in Chapter 3, which contributes both to propose a new estimation procedure for non-stationary and cointegrated Dynamic Factor Models with a Trend Cycle decomposition and further exploits this methodology to empirically assess the co-movement of the 38 commodity prices considered in the firts Chapter. Results assess that whether the short-run common movement of commodity prices is rather marginal, the non-stationary Trend component has more weight. From the extraction of both stationary and non-stationary factors, neither the so called Prebish and Singer Hypothesis of declining commodity prices (with respect to manufactured good prices) nor a paradigm shift due to increasing resource scarcity and consequent higher demand pressure can be fully confirmed.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Beville, S. T. « Modelling differences in angler choice behaviour with advanced discrete choice models ». Lincoln University, 2009. http://hdl.handle.net/10182/2332.

Texte intégral
Résumé :
New Zealand is internationally renowned for having some of the finest and most challenging trout fishing in the world. However, due to continuing development and angling pressure many fishing sites are showing signs of environmental degradation and over fishing. This trend is almost certain to continue into the future given continued population and economic growth. Understanding the determinants of site choice, preference heterogeneity and anglers’ substitution patterns is fundamentally important to fishery managers who have the difficult task of maintaining quality angling experiences on a number of fishing sites, managing angling pressure and maintaining license sales. Recent advances in simulation techniques and computational power have improved the capability of discrete choice models to reveal preference heterogeneity and complex substitution patterns among individuals. This thesis applies and evaluates a number of state-of-the-art discrete choice models to study angler site choice in New Zealand. Recreation specialisation theory is integrated into the analysis to enhance the behavioural representation of the statistical models. A suite of models is presented throughout the empirical portion of this thesis. These models demonstrate different ways and degrees of explaining preference heterogeneity as well as identifying anglers’ substitution patterns. The results show that North Canterbury anglers’ preferences vary considerably. Resource disturbances such as riparian margin erosion, reduced water visibility and declines in catch rates can cause significant declines in angler use of affected sites, and at the same time non-proportional increases in the use of unaffected sites. Recreation specialisation is found to be closely related to the types of fishing site conditions, experiences and regulations preferred by anglers. Anglers’ preference intensities for fishing site attributes, such as catch rates, vary across different types of fishing sites. This location specific preference heterogeneity is found to be related to specialisation. Overall, the empirical findings indicate that conventional approaches to modelling angler site choice which do not incorporate a strong understanding of angler preference heterogeneity can lead to poorly representative models and suboptimal management and policy outcomes.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Tomba, Emanuele. « Latent variable modeling approaches to assist the implementation of quality-by-design paradigms in pharmaceutical development and manufacturing ». Doctoral thesis, Università degli studi di Padova, 2013. http://hdl.handle.net/11577/3423108.

Texte intégral
Résumé :
With the introduction of the Quality-by-Design (QbD) initiative, the American Food and Drug Administration and the other pharmaceutical regulatory Agencies aimed to change the traditional approaches to pharmaceutical development and manufacturing. Pharmaceutical companies have been encouraged to use systematic and science-based tools for the design and control of their processes, in order to demonstrate a full understanding of the driving forces acting on them. From an engineering perspective, this initiative can be seen as the need to apply modeling tools in pharmaceutical development and manufacturing activities. The aim of this Dissertation is to show how statistical modeling, and in particular latent variable models (LVMs), can be used to assist the practical implementation of QbD paradigms to streamline and accelerate product and process design activities in pharmaceutical industries, and to provide a better understanding and control of pharmaceutical manufacturing processes. Three main research areas are explored, wherein LVMs can be applied to support the practical implementation of the QbD paradigms: process understanding, product and process design, and process monitoring and control. General methodologies are proposed to guide the use of LVMs in different applications, and their effectiveness is demonstrated by applying them to industrial, laboratory and simulated case studies. With respect to process understanding, a general methodology for the use of LVMs is proposed to aid the development of continuous manufacturing systems. The methodology is tested on an industrial process for the continuous manufacturing of tablets. It is shown how LVMs can model jointly data referred to different raw materials and different units in the production line, allowing to understand which are the most important driving forces in each unit and which are the most critical units in the line. Results demonstrate how raw materials and process parameters impact on the intermediate and final product quality, enabling to identify paths along which the process moves depending on its settings. This provides a tool to assist quality risk assessment activities and to develop the control strategy for the process. In the area of product and process design, a general framework is proposed for the use of LVM inversion to support the development of new products and processes. The objective of model inversion is to estimate the best set of inputs (e.g., raw material properties, process parameters) that ensure a desired set of outputs (e.g., product quality attributes). Since the inversion of an LVM may have infinite solutions, generating the so-called null space, an optimization framework allowing to assign the most suitable objectives and constraints is used to select the optimal solution. The effectiveness of the framework is demonstrated in an industrial particle engineering problem to design the raw material properties that are needed to produce granules with desired characteristics from a high-shear wet granulation process. Results show how the framework can be used to design experiments for new products design. The analogy between the null space and the Agencies’ definition of design space is also demonstrated and a strategy to estimate the uncertainties in the design and in the null space determination is provided. The proposed framework for LVM inversion is also applied to assist the design of the formulation for a new product, namely the selection of the best excipient type and amount to mix with a given active pharmaceutical ingredient (API) to obtain a blend of desired properties. The optimization framework is extended to include constraints on the material selection, the API dose or the final tablet weight. A user-friendly interface is developed to aid formulators in providing the constraints and objectives of the problem. Experiments performed industrially on the formulation designed in-silico confirm that model predictions are in good agreement with the experimental values. LVM inversion is shown to be useful also to address product transfer problems, namely the problem of transferring the manufacturing of a product from a source plant, wherein most of the experimentation has been carried out, to a target plant which may differ for size, lay-out or involved units. An experimental process for pharmaceutical nanoparticles production is used as a test bed. An LVM built on different plant data is inverted to estimate the most suitable process conditions in a target plant to produce nanoparticles of desired mean size. Experiments designed on the basis of the proposed LVM inversion procedure demonstrate that the desired nanoparticles sizes are obtained, within experimental uncertainty. Furthermore, the null space concept is validated experimentally. Finally, with respect to the process monitoring and control area, the problem of transferring monitoring models between different plants is studied. The objective is to monitor a process in a target plant where the production is being started (e.g., a production plant) by exploiting the data available from a source plant (e.g., a pilot plant). A general framework is proposed to use LVMs to solve this problem. Several scenarios are identified on the basis of the available information, of the source of data and on the type of variables to include in the model. Data from the different plants are related through subsets of variables (common variables) measured in both plants, or through plant-independent variables obtained from conservation balances (e.g., dimensionless numbers). The framework is applied to define the process monitoring model for an industrial large-scale spray-drying process, using data available from a pilot-scale process. The effectiveness of the transfer is evaluated in terms of monitoring performances in the detection of a real fault occurring in the target process. The proposed methodologies are then extended to batch systems, considering a simulated penicillin fermentation process. In both cases, results demonstrate that the transfer of knowledge from the source plant enables better monitoring performances than considering only the data available from the target plant.
La recente introduzione del concetto di Quality-by-Design (QbD) da parte della Food and Drug Administration e delle altre agenzie di regolamentazione farmaceutica ha l’obiettivo di migliorare e modernizzare gli approcci tradizionalmente utilizzati dalle industrie farmaceutiche per lo sviluppo di nuovi prodotti e dei relativi processi produttivi. Scopo dell’iniziativa è di incoraggiare le industrie stesse all’utilizzo di procedure sistematiche e basate su presupposti scientifici sia nella fase di sviluppo di prodotto e processo, che nella fase di conduzione del processo produttivo stesso. A tal proposito, le Agenzie hanno definito paradigmi e linee guida per agevolare l’implementazione di queste procedure in ambito industriale, favorendo una migliore comprensione dei fenomeni alla base dei processi produttivi, in maniera da assicurare un controllo stringente sulla qualità dei prodotti finali, in termini di proprietà fisiche, ma soprattutto di efficacia e sicurezza per i pazienti. Da un punto di vista ingegneristico, il Quality-by-Design può essere visto come il tentativo di introdurre principi di modellazione in ambiti di sviluppo e di produzione farmaceutica. Questo offre enormi opportunità all’industria farmaceutica, che può beneficiare di metodologie e strumenti ormai maturi, già sperimentati in altri settori industriali maggiormente inclini all’innovazione tecnologica. Allo stesso tempo, non va tralasciato il fatto che l’industria farmaceutica presenta caratteristiche uniche, come la complessità dei prodotti, le produzioni tipicamente discontinue, diversificate e in bassi volumi e, soprattutto, lo stretto controllo regolatorio, che richiedono strumenti dedicati per affrontare i problemi specifici che possono sorgere in tale ambiente. Per questi motivi, vi è l’esigenza di concepire metodologie che siano adeguate alle peculiarità dell’industria farmaceutica, ma al tempo stesso abbastanza generali da poter essere applicate in un’ampia gamma di situazioni. L’obiettivo di questa Dissertazione è dimostrare come la modellazione statistica, e in particolar modo i modelli a variabili latenti (LVM, latent variable models), possano essere utilizzati per guidare l’implementazione pratica dei principi fondamentali del Quality-by-Design in fase di sviluppo di prodotto e di processo e in fase di produzione in ambito farmaceutico. In particolare, vengono proposte metodologie generali per l’impiego di modelli a variabili latenti nelle tre aree principali sulle quali l’iniziativa del Quality-by-Design si fonda: il miglioramento della comprensione sui processi, la progettazione di nuovi prodotti e processi produttivi, e il monitoraggio e controllo di processo. Per ciascuna di queste aree, l’efficacia della modellazione a variabili latenti viene dimostrata applicando i modelli in diversi casi studio di tipo industriale, di laboratorio, o simulati. Per quanto riguarda il miglioramento della comprensione sui processi, nel Capitolo 3 è proposta una strategia generale per applicare LVM nello sviluppo di sistemi di produzione in continuo. L’analisi è applicata a supporto dello sviluppo di un processo industriale continuo di produzione di compresse su scala pilota. La procedura si basa su tre fasi fondamentali: i) una fase di gestione dei dati; ii) una fase di analisi esplorativa; iii) una fase di analisi globale. Viene mostrato come i parametri dei modelli costruiti a partire dai dati del processo possano essere interpretati sulla base di principi fisici, permettendo di identificare le principali forze motrici che agiscono sul sistema e di ordinarle a seconda della loro importanza. Questo può essere utile per supportare una valutazione dei rischi necessaria a definire una strategia di controllo per il processo e per guidare la sperimentazione fin dalle prime fasi dello sviluppo. In particolare, nel caso studio considerato, la metodologia proposta individua nel processo utilizzato per macinare le particelle di principio attivo e nella sezione nella quale il principio attivo è formulato le principali fonti di variabilità entranti nel sistema con effetto sulle proprietà fisiche del prodotto finale. Dall’analisi globale, è mostrato come l’utilizzo di modelli a variabili latenti a blocchi multipli permetta di individuare le unità del processo più critiche e, all’interno di ciascuna di esse, le variabili più critiche per la qualità del prodotto. Inoltre questi modelli si dimostrano particolarmente utili nell’identificare le traiettorie lungo le quali il processo si muove, a seconda delle proprietà delle materie prime e dei parametri di processo utilizzati, fornendo così uno strumento per garantire che l’operazione segua la traiettoria designata. Nell’ambito della progettazione di nuovi prodotti e processi, l’efficacia dei modelli a variabili latenti è dimostrata nel Capitolo 4, dove è proposta una procedura generale basata sull’inversione di LVM per supportare lo sviluppo di nuovi prodotti e la determinazione delle condizioni operative dei rispettivi processi di produzione. L’obiettivo della procedura proposta è quello di fornire uno strumento atto a dare un’adeguata formalizzazione matematica, in termini di inversione di LVM, al problema di progettazione, secondo gli obiettivi e i vincoli che il problema stesso può presentare. Dal momento che l’inversione di LVM può avere soluzioni multiple, vengono individuati quattro possibili problemi di ottimizzazione, tramite i quali effettuare l’inversione. L’obiettivo dell’inversione del modello è di stimare le condizioni ottimali in ingresso al sistema (in termini, per esempio, di caratteristiche delle materie prime o di parametri di processo) che assicurino di raggiungere la qualità desiderata per il prodotto in uscita. La procedura è applicata con successo in un caso studio industriale, per la determinazione delle proprietà delle materie prime in ingresso a un processo di granulazione a umido, con l’obiettivo di ottenere in uscita granuli con determinate caratteristiche di qualità. È inoltre esaminato il concetto di spazio nullo, lo spazio cioè cui appartengono tutte le soluzioni di un problema di inversione di LVM, che corrispondono ad uno stesso insieme di variabili desiderate (proprietà del prodotto) in uscita. In particolare, si dimostra come la definizione di spazio nullo presenti diverse caratteristiche comuni alla definizione di spazio di progetto (design space) di un processo, stabilita dalle linee guida delle Agenzie di regolamentazione, e come lo spazio nullo possa essere utilizzato al fine di una identificazione preliminare dello spazio di progetto. Al fine di avere una misura sull’affidabilità delle soluzioni del problema di inversione, viene proposta una strategia per stimarne le incertezze. Sono inoltre presentate alcune soluzioni per affrontare questioni specifiche relative all’inversione di LVM. In particolare, si propone una nuova statistica da utilizzare per la selezione del numero di variabili latenti da includere in un modello utilizzato per l’inversione, in modo tale da descrivere adeguatamente l’insieme dei regressori, oltre a quello delle variabili in uscita. In aggiunta, dato che a causa delle possibili incertezze del modello non è assicurato che la sua inversione fornisca una soluzione che consenta di ottenere le proprietà desiderate per il prodotto, è proposta una strategia per sfruttare la struttura di covarianza dei dati storici per selezionare nuovi profili di qualità per il prodotto, in modo da facilitare l’inversione del modello. Gli approcci proposti sfruttano i parametri del modello e i vincoli imposti per la qualità del prodotto per stimare nuovi insiemi di proprietà, per i quali l’errore di predizione del modello è minimo. Questo agevola l’inversione del modello nel fornire le proprietà del prodotto desiderate, dal momento che queste possono essere assegnate come vincoli rigidi al problema di ottimizzazione. Nel Capitolo 5 la procedura presentata al Capitolo 4 per l’inversione di LVM è applicata per progettare la formulazione di nuovi prodotti farmaceutici, in cui l’obiettivo è di stimare i migliori eccipienti da miscelare con un dato principio attivo e la loro quantità in modo da ottenere una miscela di proprietà adeguate per la fase di compressione. La procedura proposta al Capitolo 4 è ampliata al fine di includere i vincoli per la selezione dei materiali e di considerare gli specifici obiettivi che un problema di formulazione può presentare (per esempio, massimizzare la dose di principio attivo, o minimizzare il peso della compressa finale). L’inversione del modello è risolta come problema di programmazione non lineare misto-intera, per il quale è sviluppata un’interfaccia utente che consenta ai formulatori di specificare gli obiettivi e i vincoli che il problema di formulazione da risolvere può presentare. La metodologia proposta è testata in un caso studio industriale per progettare nuove formulazioni per un dato principio attivo. Le formulazioni progettate in-silico sono preparate e verificate sperimentalmente, fornendo risultati in linea con le predizioni del modello. Nel Capitolo 6 è presentata una diversa applicazione della procedura generale per l’inversione di LVM presentata al Capitolo 4. Il caso studio riguarda un problema di trasferimento di prodotto, in cui l’obiettivo è di ottenere nanoparticelle di diametro medio predefinito, tramite un processo di precipitazione con anti-solvente in un dispositivo obiettivo. La metodologia sfrutta i dati storici disponibili da esperimenti effettuati su un dispositivo di riferimento di diversa dimensione da quello obiettivo, e sullo stesso dispositivo obiettivo ma con una diversa configurazione sperimentale. Un modello di tipo joint-Y PLS (JY-PLS) è inizialmente utilizzato per correlare dati di diversa origine (per dispositivo e configurazione sperimentale). Quindi, la procedura presentata al Capitolo 4 viene impiegata per invertire il modello JY-PLS al fine di determinare le condizioni operative nel dispositivo obiettivo, che assicurino l’ottenimento di nanoparticelle di diametro medio desiderato. La convalida sperimentale conferma i risultati ottenuti dall’inversione del modello. Inoltre gli esperimenti consentono di convalidare sperimentalmente il concetto di spazio nullo, dimostrando come diverse condizioni di processo stimate lungo lo spazio nullo consentano effettivamente di ottenere nanoparticelle con le medesime dimensioni medie. La sezione finale di questa Dissertazione propone l’applicazione di LVM a supporto del monitoraggio e controllo di processo in operazioni farmaceutiche. In particolare, nel Capitolo 7, è affrontato il problema del trasferimento di modelli per il monitoraggio di processo tra impianti diversi. In questo caso il problema è di assicurare che l’operazione in un impianto obiettivo sia sotto controllo statistico fin dai primi istanti di funzionamento dell’impianto, sfruttando la conoscenza disponibile (in termini di dati) da altri impianti. È proposta una procedura generale basata su LVM per far fronte a questo tipo di problemi. La procedura identifica cinque diversi scenari, a seconda del tipo di informazioni disponibili (solo dati di processo o sia dati di processo sia conoscenza di base sul processo), della provenienza dei dati disponibili (solo dall’impianto di riferimento o sia dall’impianto di riferimento sia dall’impianto obiettivo) e dal tipo di variabili di processo considerate per la costruzione del modello (solo variabili comuni tra gli impianti o sia variabili comuni sia altre variabili). Per modellare in maniera congiunta i dati disponibili da impianti diversi, sono utilizzate analisi delle componenti principali (PCA) o modelli di tipo JY-PLS, a seconda che, per la costruzione del modello di monitoraggio, si considerino solo variabili comuni tra gli impianti (nel caso PCA), o sia variabili comuni sia altre variabili (nel caso JY-PLS). Le metodologie proposte sono verificate nel trasferimento di modello per il monitoraggio di un processo industriale di atomizzazione, dove il riferimento è un impianto su scala pilota, mentre l’impianto obiettivo è un’unità produttiva su scala industriale. Le prestazioni in fase di monitoraggio del processo su scala industriale sono soddisfacenti per tutti gli scenari proposti. In particolare, è dimostrato come il trasferimento di informazioni dall’impianto di riferimento migliori le prestazioni del modello per il monitoraggio dell’impianto obiettivo. Le procedure proposte sono inoltre applicate in uno studio preliminare per il trasferimento di sistemi di monitoraggio in processi discontinui, considerando come caso studio un processo simulato di fermentazione per la produzione di penicillina, in cui sono simulati due impianti differenti per scala e configurazione. Le prestazioni del sistema di monitoraggio indicano che, anche in questo caso, considerare nella costruzione del modello i dati disponibili dalle operazioni nell’impianto di riferimento rende il sistema più efficiente nella rilevazione delle anomalie simulate nell’impianto obiettivo, rispetto a considerare nel modello di monitoraggio i soli (pochi) dati disponibili dall’impianto obiettivo stesso.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Meneghetti, Natascia. « Implementing "Quality by Design" in the pharmaceutical industry : a data-driven approach ». Doctoral thesis, Università degli studi di Padova, 2016. http://hdl.handle.net/11577/3424368.

Texte intégral
Résumé :
Traditionally, the pharmaceutical industry is characterized by of peculiar characteristics (e.g., low production volumes, multi-products manufacturing based mainly on batch processes, strict regulatory framework) that make the implementation of modern quality principles more complex for this sector. However, the innovation gap with respect to other manufacturing industries is gradually reducing thanks to the introduction of the Quality-by-Design initiative by the Regulatory Agencies (such as the Food and Drug Administration, FDA and the European Medicines Agency, EMA). QbD is based on the concept that quality should be designed into a product, by a thorough understanding of product and processes features and risks. This initiative aims to support the transition of the pharmaceutical industry to a systematic approach based on scientific (rather than empiric) knowledge of products and processes, in order to facilitate the implementation of modern management tools, advanced technologies and innovative solutions. Under this perspective, the application of Process Systems Engineering (PSE) solutions has rapidly grown. Despite the challenges encountered to adapt classical PSE approaches (mainly based on the use of mathematical modeling) to a pharmaceutical context, the benefits achieved by the use of PSE tools to support the implementation of QbD, opened the route to several studies in this field. Significant improvements have been observed in product quality and process capability and robustness thanks to the increase of process and product knowledge and understanding provided by modeling. This has allowed the pharmaceutical industries to accelerate the launch of new products into the market, to improve productivity and to reduce costs. Although, in many PSE applications, first-principles models are preferred, the use of data-driven tools, such as latent variable modeling or pattern recognition techniques, is rapidly expanding. Thanks to the increasing availability of measurement data, these techniques have been demonstrated to be an optimal opportunity to address several problems that characterize pharmaceutical development and manufacturing activities. The main objective of the research presented in this Dissertation is to demonstrate how these data-driven modeling techniques can be used to address some common issues that often affect the practical implementation of QbD paradigms in pharmaceutical development and manufacturing activities. Novel and general methodologies based on these techniques are presented with the aim of: i) supporting the diagnosis of first-principles models of pharmaceutical operations; ii) supporting the implementation of some fundamental QbD elements, such as the identification of the design space (DS) of a new pharmaceutical product, as well as continual improvement paradigms by periodic review of large manufacturing databases. With respect to first-principle models diagnosis, a methodology is proposed to diagnose the root cause of the process/model mismatch (PMM) that may arise when a first-principles (FP) model is challenged against a set of historical experimental data. The objective is to identify which model equations or model parameters most contribute to the observed mismatch, without carrying out any additional experiment. The methodology exploits the available historical and simulated data, generated respectively by the process and by the FP model using the same set of inputs. A data-driven model (namely, a latent variable one) is used to analyze the correlation structure of the historical and simulated datasets, and information on where the PMM originates from is obtained using diagnostic indices and engineering judgment. The methodology is first tested on two simulated steady-state systems (a jacket-cooled continuous stirred reactor and a solids milling unit), and then it is extended to dynamic systems (a drying unit and a penicillin fermentation process). It is shown that the proposed methodology is able to pinpoint the model section(s) that actually originate the mismatch. With respect to the design space identification issue, a methodology is proposed to limit the extension of the domain over which experiments are carried out to determine the DS of a new pharmaceutical product. In fact, for a new pharmaceutical product to be developed a reliable first-principles model is often not available. In this case, the DS is found using experiments carried out within a domain of input combinations (the so-called knowledge space; e.g. raw materials properties and process operating conditions) that result from products that have already been developed and are similar to the new one. The proposed methodology aims at segmenting the knowledge space in such a way as to identify a subspace of it (called the experiment space) that most likely brackets the DS, in order to limit the extension of the domain over which the new experiments should be carried out. The methodology is based on the inversion of the latent-variable model used to describe the system (accounting also for model prediction uncertainty) in order to identify a reduced area of the knowledge space wherein the design space is supposed to lie. Three different case studies are presented to demonstrate the effectiveness of the proposed methodology. Finally, with respect to the periodic review of large manufacturing databases, a methodology is proposed to systematically extract operation-relevant information from data historians of secondary pharmaceutical manufacturing systems. This operation may result particularly burdensome, not only because of the very large dimension of the datasets (which may reach millions of data entries) but also because not even the number of the operations completed in a given time window may be known a priori. The proposed methodology permits not only to automatically identify the number of batches carried out in a given time window, but also to assess how many different products have been manufactured, and whether or not the features characterizing a batch have changed throughout a production campaign. The results achieved by testing the proposed methodology on two six-month datasets of a commercial-scale drying unit demonstrate the potential of this approach, which can be easily extended to other manufacturing operations.
Negli anni, l’industria farmaceutica ha sviluppato un forte carattere bipolare: se da un lato è stata in grado di lanciare sul mercato prodotti sempre più avanzati, in grado di rispondere alle esigenze di una società in continua evoluzione, dall’altro ha conservato una filosofia di produzione basata soprattutto sull’esperienza più che sul rinnovamento e l’utilizzo di tecnologie avanzate. La motivazione risiede in parte nel fatto che l’industria farmaceutica è caratterizzata da una serie di fattori (ad esempio bassi volumi di produzione, processi prevalentemente di tipo batch e un quadro normativo rigido) che rendono effettivamente più difficile l'attuazione delle moderne filosofie di produzione basate su principi di rinnovamento continuo. Tuttavia, negli ultimi decenni, il divario con le industrie di produzione più mature si sta gradualmente riducendo grazie al lancio di una nuova iniziativa da parte delle agenzie regolatore internazionali, basata del concetto di Quality by Design (QbD). Questa iniziativa si fonda nella convinzione che la qualità di un prodotto dovrebbe essere concepita come parte integrante della progettazione del prodotto stesso e del suo processo produttivo, ottenuti grazie ad una conoscenza approfondita delle caratteristiche e dei rischi legati allo sviluppo del prodotto e del processo di produzione. L’iniziativa quindi, mira a sostenere la transizione dell’industria farmaceutica verso un approccio sistematico per favorire soluzioni innovative, l'applicazione di conoscenze scientifiche e tecniche avanzate, nonché di moderni sistemi di gestione della qualità nello sviluppo dei prodotti e dei processi produttivi. Questo rinnovamento dovrebbe garantire negli anni una serie di benefici sia economici (come la riduzione del tempo necessario per il lancio di nuovi prodotti sul mercato, il miglioramento della produttività e la riduzione dei costi di produzione) sia sociali (come la garanzia di fornire prodotti di qualità e assicurare tale qualità nel tempo). In questo contesto, è di fondamentale importanza l’utilizzo di strumenti di modellazione matematica avanzata, già largamente utilizzati in altri e più maturi settori di produzione. Nonostante le difficoltà incontrate per adattare questi strumenti alle esigenze delle applicazioni farmaceutiche, i vantaggi dell’utilizzo della modellazione nell’attuazione dei principi di QbD hanno aperto la strada a diversi studi in questo campo. Negli anni, l’utilizzo di questi strumenti ha permesso di ottenere miglioramenti significativi sia nella qualità dei prodotti processati, sia nella capacità e affidabilità dei processi di produzione. La modellazione di processo si basa principalmente su due tipi di approcci: il primo (modelli a principi primi) riguarda la rappresentazione matematica delle leggi fisiche alla base di un sistema, ad esempio bilanci di materia ed energia, il secondo (modelli basati su dati o data-driven) si fonda sull’utilizzo dell’informazione contenuta nei dati ottenuti dal sistema stesso. Anche se in molte applicazioni si predilige l’utilizzo di modelli principi primi, non sempre questo tipo di modelli sono disponibili. Per questo, l'uso di modelli data-driven, come per esempio di tecniche di modellazione a variabili latenti (LVM, latent variable models) o tecniche di riconoscimento di pattern, è in rapida espansione. Grazie alla crescente disponibilità di dati, queste tecniche sono state in grado di dimostrare la loro efficacia nel risolvere diversi problemi che caratterizzano le diverse attività farmaceutiche. L'obiettivo di questa Dissertazione è quello di dimostrare come queste tecniche possano essere utilizzate per risolvere alcuni problemi spesso riscontrati nell'implementazione pratica dei paradigmi di QbD nell’industria farmaceutica. A tal proposito, vengono presentate delle metodologie innovative e generali basate sull'impiego di modelli data-driven con l'obiettivo di: i) consentire il miglioramento dei modelli di principi primi per facilitare il loro impiego nella modellazione di sistemi farmaceutici; ii) condurre alcune delle attività nelle quali un approccio QbD può tradursi, come l'identificazione dello spazio di progetto (design space) di un prodotto farmaceutico e l’analisi critica di voluminose raccolte di dati storici di processo. Per quanto riguarda il miglioramento di modelli a principi primi, è stata sviluppata una metodologia per identificare la causa principale delle differenze (o process/model mismatches) che possono presentarsi tra i dati storici sperimentali e le stime fornite da un modello a principi primi. L'obiettivo è di identificare quali equazioni o parametri del modello contribuiscano maggiormente alla differenza osservata, senza effettuare alcuna ulteriore esperimento. La metodologia sfrutta i dati storici disponibili e un set di dati simulati, generati dal modello a principi primi utilizzando le stesse condizioni alle quali sono stati ottenuti i dati storici. Grazie all’utilizzo di un modello a variabili latenti, viene analizzata e confrontata la struttura di correlazione dei due set di dati disponibili, quello storico e quello e simulato, in modo da ricavare informazioni utili ad identificare la causa della scarsa accuratezza del modello. Per valutare l’efficacia della metodologia, nel Capitolo 3 vengono considerati due sistemi simulati in stato stazionario: un reattore continuo agitato e incamiciato e un molino. Nel Capitolo 4 la metodologia viene estesa e adattata a sistemi dinamici, considerando altri due processi simulati: un'unità di essiccazione e un fermentatore per la produzione di penicillina. I risultati ottenuti dimostrano che la metodologia proposta è in grado di indicare un gruppo di termini molto correlati tra loro, o addirittura un solo termine, che effettivamente contengono la reale causa d’errore nel modello. Sebbene la metodologia proposta sia stata sviluppata per analizzare modelli a principi primi di processi farmaceutici, essa può essere facilmente estesa a qualsiasi altro modello in regime stazionario o dinamico. Nel Capitolo 5, vengono discussi i problemi relativi all'identificazione dello spazio di progetto (design space, DS) per un nuovo prodotto farmaceutico caratterizzato da singola specifica di qualità, nel caso in cui non sia disponibile un modello a principi primi da utilizzare per determinare tale spazio. In questi casi, lo spazio di progetto viene spesso identificato utilizzando gli esperimenti effettuati in un dominio (knowledge space) costituito dalle combinazioni delle condizioni operative di processo e delle proprietà delle materie prime utilizzate per la produzione di prodotti già sviluppati, e simili al nuovo prodotto. Spesso, il numero di esperimenti da effettuare per identificare lo spazio del progetto all’interno di tale dominio è elevato. Per questo motivo, viene proposta una metodologia per identificare uno spazio limitato all’interno di questo dominio, detto spazio degli esperimenti (experiment space), che contiene lo spazio di progetto, in modo da ridurre notevolmente il numero di nuovi esperimenti necessari. La metodologia si basa sull'inversione del modello a variabili latenti utilizzato per descrivere il sistema, tenendo conto anche dell'incertezza del modello stesso. Lo spazio degli esperimenti viene stimato per tre diversi sistemi (due simulati e uno reale), dimostrando in tutti i casi l’efficacia della metodologia proposta. Infine, per quanto riguarda l’analisi critica di set di dati di produzione, nel Capitolo 6 viene proposta una metodologia per estrarre in modo sistematico informazioni dai dati di grandi database storici di impianti produttivi industriali. Queste informazioni, possono essere utilizzate per individuare rapidamente potenziali aree di miglioramento, in modo da favorirne l’implementazione di paradigmi di miglioramento continuo. Trasformare in conoscenza questi dati, è particolarmente difficile perché spesso non si conosce nemmeno il numero dei batch effettuati in un certo periodo di produzione. La metodologia presentata consente di determinare automaticamente il numero di batch effettuati in un determinato intervallo di tempo e il numero di prodotti processati, e se le caratteristiche che contraddistinguono una certa produzione siano cambiate nel corso di campagne diverse. La metodologia proposta, basata sull’utilizzo di tecniche di riconoscimento di pattern, è stata utilizzata per analizzare due set di dati industriali relativi a sei mesi di produzione ciascuno. I risultati ottenuti dimostrano chiaramente il potenziale dell’approccio proposto.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Hampson, Danyel Ian. « Enhancing Britain's rivers : an interdisciplinary analysis of selected issues arising from implementation of the Water Framework Directive ». Thesis, University of Exeter, 2016. http://hdl.handle.net/10871/32859.

Texte intégral
Résumé :
The Water Framework Directive requires reduced environmental impacts from human activities and for the assessment of the non-market benefits of pollution remediation schemes. This policy shift has exacerbated the research problems surrounding the physical, social and economic consequences of the relationship between land use and water quality. This research seeks to quantify the major socio-economic and environmental benefits for people which may arise as riverine pollution is reduced. To achieve these aims this research integrates primary data analyses combining choice experiment techniques with geographical information system based analyses of secondary data concerning the spatial distributions of riverine pollution. Current knowledge on the microbial quality of river water, measured by faecal indicator organism (FIO) concentrations and assessed at catchment scale, is inadequate. This research develops generic regression models to predict base- and high-flow faecal coliform (FC) and enterococci (EN) concentrations, using land cover and population (human and livestock) variables. The resulting models are then used both to predict FIO concentrations in unmonitored watercourses and to evaluate the likely impacts of different land use scenarios, enabling insights into the optimal locations and cost-effective mix of implementation strategies. Valuation experiments frequently conflate respondents’ preferences for different aspects of water quality. This analysis uses stated preference techniques to disaggregate the values of recreation and ecological attributes of water quality, thereby allowing decision makers to better understand the consequences of adopting alternative investment strategies which favour either ecological, recreational or a mix of benefits. The results reveal heterogeneous preferences across society; specifically, latent class analysis identifies three distinct groups, holding significantly different preferences for water quality. From a methodological perspective this research greatly enhances the ongoing synthesis of geographic and economic social sciences and addresses important policy questions which are of interest to a variety of stakeholders, including government departments and the water industry.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Mateo, Erroz Sara. « Análisis microeconometrico de las decisiones de participación y gasto turístico de los hogares ». Doctoral thesis, Universitat de les Illes Balears, 2012. http://hdl.handle.net/10803/84092.

Texte intégral
Résumé :
La tesis se enmarca en el análisis microeconométrico de la demanda turística de los hogares españoles. Su objetivo general es estudiar los determinantes que influyen en la decisión de consumo turístico, frecuencia de consumo y gasto de los hogares en servicios turísticos. En el análisis de todas las decisiones intervienen variables no estrictamente económicas específicas de cada hogar (número de miembros, existencia de niños y otras variable ligadas al ciclo de vida del hogar) y de sus miembros (edad, nivel educativo, y otras variable ligadas al momento vital por el que atraviesan). Además, se incorporan variables económicas o ligadas a la situación económica del hogar. De esta manera se puede realizar un análisis sobre las diferentes decisiones de consumo turístico de los hogares y vincularlas a sus preferencias, restricciones temporales, restricciones monetarias o diferentes circunstancias condicionadas a su momento vital. Se hace especial referencia a los efectos de la crisis económica mundial y el desempleo de los miembros del hogar sobre su gasto turístico efectivo. Este trabajo está estructurado en cuatro capítulos. En el primer capítulo se aborda el estudio de las restricciones a las que hacen frente los hogares españoles a la hora de viajar. Para ello, se estudia la importancia que tiene la situación económica del hogar como barrera al consumo turístico. Los hogares analizados provienen de la muestra española del año 2000 de la encuesta del Panel de Hogares de la Comunidad Europea (PHOGUE). En el segundo capítulo se examina la frecuencia de participación turística mediante la explotación de los microdatos de la Encuesta de Presupuestos Familiares (EPF) durante el periodo 1999-2005. Además de la renta disponible y las variables del hogar asociadas a su situación económica, el tiempo libre, marcado por la situación laboral del sustentador familiar, y otros factores del hogar y sus miembros se incluye una variable temporal que permita describir la evolución de la frecuencia en el periodo considerado. En el tercer capítulo se examinan las decisiones de participación y gasto turístico de los hogares españoles en un periodo caracterizado por un cambio en el ciclo económico. Se emplean microdatos de la Encuesta de Presupuestos Familiares (EPF) de los años 2006 a 2010, lo que permite analizar las consecuencias que la crisis económica y el desempleo tienen sobre las decisiones de consumo turístico de los hogares. Finalmente, el cuarto capítulo tiene como principal objetivo la clasificación de los hogares en función de sus preferencias de consumo, distinguiendo entre demandantes de baja intensidad (nulo o muy escaso gasto turístico), intensidad media (gasto turístico intermedio) y alta intensidad (gasto turístico elevado). Así, se pretende ofrecer una alternativa a la modelización del gasto turístico teniendo en cuenta, de manera explícita, las preferencias personales ya que estas juegan un papel fundamental en la demanda turística como respuesta a un conjunto de características sociodemográficas y económicas. Los microdatos empleados pertenecen a la Encuesta de Presupuestos Familiares (EPF) de los años 2006 a 2010. Los ingresos son la variable que mayor poder explicativo tiene sobre la demanda turística. Aún así, las variaciones en el nivel de renta no presentan efectos uniformes en la variación del consumo turístico de los diferentes hogares. Los resultados obtenidos ponen de manifiesto la existencia de otros factores sociodemográficos que pueden compensar o restringir el consumo turístico efectivo. Las variaciones de los ingresos en los hogares, debidos a factores externos como la crisis o el desempleo, o a otros factores específicos del hogar y de sus miembros, no tienen el mismo efecto en las variaciones de la demanda turística final. Para el análisis de la demanda turística es necesario utilizar herramientas de estimación que permitan recoger la heterogeneidad de los consumidores. De esta manera, el efecto de los ingresos o de la situación económica de un hogar puede verse compensado por la presencia de otras variables ya sean preferencias o determinantes sociodemográficos. En cuanto a la novedad de introducir el efecto de la crisis, los resultados obtenidos ponen de manifiesto que ante ésta, los hogares modifican parcialmente sus criterios de decisión. En un entorno social de crisis económica los hogares otorgan a los ingresos un papel más conservador en la decisión de participación; no obstante, una vez tomada esa decisión, el gasto efectivo es más sensible al nivel de ingresos del hogar. Los resultados obtenidos revelan la conveniencia de incluir información sobre la situación laboral del sustentador principal, y si cabe, del resto de miembros en las decisiones de participación, frecuencia de viaje y gasto turístico. En España, dónde su economía se caracteriza por las elevadas tasas de desempleo y donde el ciclo económico afecta a la permanencia de empleo de los individuos, esta consideración ayuda a obtener una imagen más real sobre el comportamiento del hogar. Como se observa en los resultados el desempleo tiene un efecto negativo en las decisiones de consumo turístico que es coherente con la literatura revisada. El seguimiento y análisis de la demanda turística debe realizarse en un entorno de constantes cambios y, en la actualidad, con perspectivas de estancamiento. La tesis contribuye al análisis de la demanda turística señalando la heterogeneidad de comportamiento y preferencias de los consumidores, para los que el nivel de ingresos es sólo un factor en el conjunto de determinantes económicos y sociodemográficos que afectan a sus decisiones de consumo.
Styles APA, Harvard, Vancouver, ISO, etc.
20

BIONDI, LUIGI. « Identifiability of Discrete Hierarchical Models with One Latent Variable ». Doctoral thesis, 2016. http://hdl.handle.net/2158/1028810.

Texte intégral
Résumé :
In the thesis we discuss in depth the problem of identifiability for discrete models, showing many concrete situations in which it may fail. After this survey we concentrate on hierarchical log-linear models for binary variables with one hidden variable. These are more general of the LC models because may include some higher-order interactions. These models may sometimes be interpreted as discrete undirected graphical models (called also concentration graph models), but they are more general.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Costa, Leonor Pereira da. « Percepções das causas da pobreza na europa : uma aplicação de modelos multinível com classes latentes ». Master's thesis, 2010. http://hdl.handle.net/10071/4409.

Texte intégral
Résumé :
A percepção das causas da pobreza tem-se revelado muito importante no estudo mais amplo deste fenómeno social, dadas as implicações directas na interacção social com os pobres e, indirectamente, na legitimação ou não de medidas de apoio social e de combate à pobreza. Foram considerados três tipos de atribuições da pobreza: individualista, estruturalista e fatalista. Os dados foram recolhidos pelo Eurobarómetro 2007, recolhendo-se informação dos 27 estados membros da União Europeia e da Croácia, país candidato. Dada a importância da cultura na formação das atitudes, estimaram-se modelos multinível com classes latentes, possibilitando estudar em simultâneo dois níveis de análise: o nível dos indivíduos, onde se conhece o seu perfil dentro de cada país relativamente às suas percepções da pobreza; e o nível dos países onde se percebem quais as semelhanças e diferenças entre os países europeus neste âmbito. A estrutura encontrada possui seis segmentos de países e sete segmentos de indivíduos. Apesar das causas sociais serem globalmente as mais apontadas pelos indivíduos, existem grupos que destacam igualmente algumas explicações mais individualistas, culpabilizando os pobres pela sua condição. A variável que parece ter mais impacto na distinção entre os grupos de indivíduos é o nível socioeconómico mencionado: os indivíduos com mais dificuldades económicas atribuem à pobreza causas mais sociais do que os com melhor condição económico-social. Ao nível dos países, o segmento dos mais desenvolvidos atribui à pobreza causas individualistas e fatalistas e os menos desenvolvidos explicam a pobreza com base nas injustiças da sociedade. Existem grupos de países que demonstram pluralidade na forma como pensam sobre a pobreza.
The perception of the poverty causes has been very important in the broader study of this social phenomenon, given the direct implications in social interaction with the poor and, indirectly, in the legitimacy of measures of social support and combat against poverty. This study considers three types of poverty attributions: individualistic, structuralistic, and fatalistic. Data were collected by Eurobarometer in 2007, in all 27 EU member states and Croatia, as a candidate country. Given the importance of culture in attitudes shaping, multilevel latent class models were estimated, allowing the simultaneous study of two levels of analysis: the individuals‟ level, where it is possible to define the profile within each country regarding their perceptions of poverty, and the country level where it is possible to identify the similarities and differences between European countries, in this field. The model structure has six segments of countries and seven segments of individuals. Despite the generalization of the social explanations of poverty, that are the most quoted causes by individuals, there are also groups that emphasize more individualistic explanations, blaming the poor for their condition. The variable that seems to have more impact on the distinction between groups of individuals is their socio-economic condition: individuals with more economic problems attributed more social causes to poverty than those in a better economic and social situation. At the country level, the most developed segment believes in the individualistic and fatalistic causes of poverty and the less developed explains poverty based on the injustices of society. There are groups of countries that demonstrate diversity in how they think about poverty.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Nerli, Ballati Enrico. « Simulare processi sociali : i sistemi multi-agente per la ricerca sociologica. Un’applicazione per lo studio del processo di diffusione dell’hashish nelle classi scolastiche ». Doctoral thesis, 2014. http://hdl.handle.net/11573/917560.

Texte intégral
Résumé :
Per le loro caratteristiche e per le loro modalità di funzionamento, i sistemi multi-agente o agent-based models (ABMs) rappresentano uno strumento a disposizione della ricerca sociale per affrontare il problema dell’analisi interna del comportamento sistemico. Questi strumenti si sposano con una concezione della ricerca sociale che sposta il fuoco dell’attenzione dallo studio dei fattori di influenza allo studio dell’attore sociale e della sua definizione della situazione, dallo studio delle proprietà e delle relazioni tra esse allo studio delle attività nell’interazione sociale, dallo studio trasversale dei fenomeni allo studio dei processi sociali, dall’ottica delle proprietà sociali concepite come sostanze all’analisi delle configurazioni sociali generate dall’interazione a livello micro. L’obiettivo è la comprensione dell’interazione tra le componenti individuali o elementari di un sistema, che costituisce un passaggio fondamentale per guardare al comportamento complesso di un sistema sociale. Gli ABM possono così costituire uno strumento per la costruzione di modelli sui fenomeni sociali, in grado di rappresentare tutti i passaggi dello schema di relazione tra livello micro e livello macro e rappresentare dinamicamente l’evoluzione del comportamento di un sistema di azione Nel testo la simulazione sociale viene introdotta partendo dall’attività che nelle scienze sociali viene descritta come modeling o Modellbildung, che si potrebbe tradurre con la locuzione modellizzazione o costruzione di modelli. In particolare, l’attenzione viene focalizzata sulla relazione tra il ricercatore, la teoria, il piano empirico inerente al sistema di azione studiato, il modello relativo al sistema di azione e la simulazione di questo modello. Nel quadro delle diverse opportunità offerte dalla simulazione sociale sono illustrate le caratteristiche denotative dei sistemi multi-agente. Le stesse caratteristiche, le opportunità e i vincoli tecnici dello strumento hanno delle implicazioni dirette nel rapporto tra impiego degli ABM e le prospettive teoriche degli scienziati sociali che ne fanno uso. Gli attributi di autonomia, abilità sociale, reattività e proattività degli agenti rendono possibile concettualizzare e formalizzare modelli che incorporano al loro interno il problema della microfondazione dell’azione sociale. Nel testo viene affrontato il tema del rapporto tra simulazione mediante ABM e spiegazione. Nello specifico vengono sottolineate le possibilità offerte dallo strumento per quella che Coleman definisce come l’analisi interna del comportamento sistemico e per l’analisi della relazione tra livello micro dell’azione sociale e livello macro delle configurazioni e delle regolarità empiriche riguardanti i fenomeni sociali. Ampio spazio viene dedicato alla nozione di meccanismo generativo, alla base dell’autodefinitosi programma di ricerca della sociologia analitica I sistemi multi-agente sono proposti come uno tra gli strumenti elettivi dell’agenda analitica, per lo studio di fenomeni in forma aggregata o emergente, a partire dalle attività degli attori sociali a livello micro. La stessa concezione dei processi sociali e di meccanismo generativo elaborata dagli autori autodefinitesi analitici presenta delle profonde analogie con le caratteristiche metodologiche degli ABM. Nella seconda parte del testo, la simulazione multi-agente viene messa a lavoro su un problema di ricerca specifico: la diffusione del consumo di hashish all’interno delle classi nelle scuole secondarie superiori. Il primo contatto con sostanza e il suo consumo sono pensati come eventi all’interno di un processo, nel quale l’azione sociale prende forma nell’interazione a livello micro attraverso l’influenza sociale e nel quale l’azione sociale ha un effetto ricorsivo sul sistema di azione nel suo complesso. Sono passati in rassegna diversi contributi contemporanei sull’influenza dei pari sui comportamenti a rischio, che si riferiscono soprattutto a studi che impiegano l’Analisi delle reti sociali. Il fenomeno del consumo di hashish non viene pensato in termini trasversali, ma come l’esito di una sequenza dinamica di eventi a livello micro che generano la configurazione osservabile empiricamente. Il linguaggio di programmazione informatica per gli ABM NetLogo è impiegato per formulare e formalizzare un modello di scelta condizionale, con le caratteristiche di un modello di soglia. L’esito dell’attività di formalizzazione è la costruzione del modello a due stadi dell’influenza dei pari sul consumo di sostanze. Il modello ipotizza l’integrazione tra i due stadi fondamentali del processo: lo stadio della selezione dei pari (1) e lo stadio della socializzazione alla sostanza attraverso l’interazione sociale (2). La distinzione tra i due stadi si riconnette strettamente alle caratteristiche di base del processo di omofilia sociale, impiegato per interpretare il consumo di hashish e marijuana tra pari. Il modello viene sviluppato attraverso nove differenti scenari, in ogni scenario sono introdotte e combinate ipotesi sulle micro condizioni dell’azione sociale. I sistemi multi-agente programmati sono calibrati empiricamente sulla base dei dati trasversali e retrospettivi originati da una rilevazione condotta su quattordici classi scolastiche. Il testo, infine, presenta i risultati delle simulazioni condotte e i risultati della validazione degli scenari simulati. L’obiettivo delle operazioni presentate nel capitolo è quello di vagliare la capacità replicativa delle simulazioni. Nel capitolo sono enucleati, analizzati e discussi i limiti strutturali del modello, legati alla posizione degli attori considerati come innovatori in relazione al fenomeno nelle reti sociali e alla loro partecipazione al processo. La validazione dei risultati consente di mettere in evidenza i limiti delle ipotesi sulle micro condizioni dell’azione sociale introdotte nei diversi scenari.
Styles APA, Harvard, Vancouver, ISO, etc.
23

NERLI, BALLATI ENRICO. « Simulare processi sociali : i sistemi multi-agente per la ricerca sociologica. Un’applicazione per lo studio del processo di diffusione dell’hashish nelle classi scolastiche ». Doctoral thesis, 2014. http://hdl.handle.net/11573/763195.

Texte intégral
Résumé :
Per Coleman il problema della spiegazione del comportamento dei sistemi sociali può essere affrontato attraverso due prospettive. La prima prospettiva, di stampo classico e ampiamente diffusa nella ricerca sociale, è riconducibile all’analisi statistica applicata allo studio della relazione tra proprietà situate a livello macro. Gli strumenti di analisi tipici di questa prospettiva si fondano sulle analisi delle associazioni statistiche tra il comportamento di interesse e le altre caratteristiche del sistema sociale, intese come contesto in cui esso ha luogo. Questa visione ha come punto di forza la sua capacità descrittiva, ma ha come importante punto di debolezza una concezione della causazione che ha pervaso la ricerca quantitativa a partire dagli anni ’40 del XX secolo, secondo la quale il comportamento dell’attore sociale è influenzato da varie caratteristiche individuali e contestuali. Un limite è costituito dall’incapacità di andare oltre la descrizione del sistema, con la finalità di porre e rispondere a domande a livello più analitico. La seconda prospettiva è quella dell’analisi interna del comportamento sistemico. Questa visione implica l’esame dei processi interni al sistema, che ne riguardano le componenti o unità di livello inferiore a quello del sistema o sottogruppi che ne fanno parte. Per le loro caratteristiche e per le loro modalità di funzionamento, i sistemi multi-agente o agent-based models (ABMs) rappresentano uno strumento a disposizione della ricerca sociale per affrontare il problema dell’analisi interna del comportamento sistemico. Questi strumenti si sposano con una concezione della ricerca sociale che sposta il fuoco dell’attenzione dallo studio dei fattori di influenza allo studio dell’attore sociale e della sua definizione della situazione, dallo studio delle proprietà e delle relazioni tra esse allo studio delle attività nell’interazione sociale, dallo studio trasversale dei fenomeni allo studio dei processi sociali, dall’ottica delle proprietà sociali concepite come sostanze all’analisi delle configurazioni sociali generate dall’interazione a livello micro. L’obiettivo è la comprensione dell’interazione tra le componenti individuali o elementari di un sistema, che costituisce un passaggio fondamentale per guardare al comportamento complesso di un sistema sociale. Gli ABM possono così costituire uno strumento per la costruzione di modelli sui fenomeni sociali, in grado di rappresentare tutti i passaggi dello schema di relazione tra livello micro e livello macro e rappresentare dinamicamente l’evoluzione del comportamento di un sistema di azione. Nel testo la simulazione sociale viene introdotta partendo dall’attività che nelle scienze sociali viene descritta come modeling o Modellbildung, che si potrebbe tradurre con la locuzione modellizzazione o costruzione di modelli. In particolare, l’attenzione viene focalizzata sulla relazione tra il ricercatore, la teoria, il piano empirico inerente al sistema di azione studiato, il modello relativo al sistema di azione e la simulazione di questo modello. Nel quadro delle diverse opportunità offerte dalla simulazione sociale sono illustrate le caratteristiche denotative dei sistemi multi-agente. Le stesse caratteristiche, le opportunità e i vincoli tecnici dello strumento hanno delle implicazioni dirette nel rapporto tra impiego degli ABM e le prospettive teoriche degli scienziati sociali che ne fanno uso. Gli attributi di autonomia, abilità sociale, reattività e proattività degli agenti rendono possibile concettualizzare e formalizzare modelli che incorporano al loro interno il problema della microfondazione dell’azione sociale. Nel testo viene affrontato il tema del rapporto tra simulazione mediante ABM e spiegazione. Nello specifico vengono sottolineate le possibilità offerte dallo strumento per quella che Coleman definisce come l’analisi interna del comportamento sistemico e per l’analisi della relazione tra livello micro dell’azione sociale e livello macro delle configurazioni e delle regolarità empiriche riguardanti i fenomeni sociali. Ampio spazio viene dedicato alla nozione di meccanismo generativo, alla base dell’autodefinitosi programma di ricerca della sociologia analitica.Nella seconda parte del testo, la simulazione multi-agente viene messa a lavoro su un problema di ricerca specifico: la diffusione del consumo di hashish all’interno delle classi nelle scuole secondarie superiori. Il primo contatto con sostanza e il suo consumo sono pensati come eventi all’interno di un processo, nel quale l’azione sociale prende forma nell’interazione a livello micro attraverso l’influenza sociale e nel quale l’azione sociale ha un effetto ricorsivo sul sistema di azione nel suo complesso. Sono passati in rassegna diversi contributi contemporanei sull’influenza dei pari sui comportamenti a rischio, che si riferiscono soprattutto a studi che impiegano l’Analisi delle reti sociali. Il fenomeno del consumo di hashish non viene pensato in termini trasversali, ma come l’esito di una sequenza dinamica di eventi a livello micro che generano la configurazione osservabile empiricamente. Il linguaggio di programmazione informatica per gli ABM NetLogo è impiegato per formulare e formalizzare un modello di scelta condizionale, con le caratteristiche di un modello di soglia. L’esito dell’attività di formalizzazione è la costruzione del modello a due stadi dell’influenza dei pari sul consumo di sostanze. Il modello ipotizza l’integrazione tra i due stadi fondamentali del processo: lo stadio della selezione dei pari (1) e lo stadio della socializzazione alla sostanza attraverso l’interazione sociale (2). La distinzione tra i due stadi si riconnette strettamente alle caratteristiche di base del processo di omofilia sociale, impiegato per interpretare il consumo di hashish e marijuana tra pari. Il modello viene sviluppato attraverso nove differenti scenari, in ogni scenario sono introdotte e combinate ipotesi sulle micro condizioni dell’azione sociale. I sistemi multi-agente programmati sono calibrati empiricamente sulla base dei dati trasversali e retrospettivi originati da una rilevazione condotta su quattordici classi scolastiche. Il testo, infine, presenta i risultati delle simulazioni condotte e i risultati della validazione degli scenari simulati. L’obiettivo delle operazioni presentate nel capitolo è quello di vagliare la capacità replicativa delle simulazioni. Nel capitolo sono enucleati, analizzati e discussi i limiti strutturali del modello, legati alla posizione degli attori considerati come innovatori in relazione al fenomeno nelle reti sociali e alla loro partecipazione al processo. La validazione dei risultati consente di mettere in evidenza i limiti delle ipotesi sulle micro condizioni dell’azione sociale introdotte nei diversi scenari.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Dolja-Gore, Xenia. « Predictors and outcomes of the use of mental health services : an analysis of observational data ». Thesis, 2016. http://hdl.handle.net/1959.13/1318486.

Texte intégral
Résumé :
Research Doctorate - Doctor of Philosophy (PhD)
Mental illness is among one of the leading contributors to disease burden and has been ranked in the top ten public health concerns by the World Health Organisation. Global rates of depression in 2002 accounted for 4.5% of the total burden of disease with women more likely than men to be diagnosed. Treatment is a major component of recovery, with the most common treatment for mental illness being psychotherapy services and anti-depressant medications. The Better Access Scheme initiative was introduced in 2006 under Medicare, Australia’s universal healthcare system. The aim of the scheme was to provide affordable and accessible services for patients diagnosed with mental illness. The BAS provides general practitioner referral pathways for treatment therapies, which include subsidised services from allied mental health care practitioners, clinical psychologists, occupational therapists and psychiatrists. The primary purpose of this thesis is to determine factors that predict use of the mental health services provided under Australia’s Better Access Scheme. The thesis investigates the utilisation of the BAS treatment therapies and their impact on the Australian people, specifically, women with mental health problems. The thesis has been divided into two parts: one which examines the use of the mental health services by gender and the second which investigates treatment effects of the mental health services across three cohorts of women over a six year follow-up period. Four research studies are undertaken in this thesis to achieve the research aims and all analyses use observational data linked to administrative datasets. The first part of the thesis examines predictors of mental health service use for both men and women. The study uses a large scale population dataset (the 45 and Up Study dataset) to provide self-reported information on the health and wellbeing of the participants which provides factors for the analysis. The participants were followed for a year after returning their survey and information about service use under the BAS was collected from the Medicare database. The study found that women were twice as likely as men to use the mental health services. In addition, patients with poorer mental health were accessing the government funded mental health services in Australia but this was only a tenth of this subset of the population. The results of this study support other studies that have shown age, being partnered, having higher educational qualifications, living in an urban area and having private health insurance to be key drivers for both men and women accessing the services. The findings also emphasise that men who have two or more alcoholic drinks a week and women classified as overweight or obese have decreased odds of using the services. Furthermore, the study shows men and women with more severe psychosocial distress have at least three times the odds of using the mental health services. The second part of the thesis involves three interlinked studies using linked data from the Australian Longitudinal Study on Women’s Health (ALSWH). The ALSWH data consists of three cohorts of women identified as those born between 1973-78, 1945-51 and 1921-26. Participants were recruited in 1996 and surveyed on an ongoing three year rolling basis. The first study in this part of the thesis investigates the time taken for women to access a mental service under the BAS based on their area of residence. The findings indicate younger women from inner regional areas in Australia are more likely to have the longest time between having a GP mental health assessment and accessing care. The second study investigates treatment effects of the mental health services for women who have been defined as having poor mental health at the time the BAS was introduced. Women from each cohort are grouped into users and non-users of the services and a propensity score analysis is performed to predict the probability of each participant’s need for using the mental health services. The findings show that users of the services are less likely to show improved mental health compared to non-users of the services after first follow-up for women of the 1973-78 and 1946-51 cohort. Treatment effects are not calculated for the 1921-26 cohort due to the small sample of women using the mental health services. The third study follows the 1973-78 cohort for a further follow-up period and finds improved mental health is seen for the user group of women who have successfully concluded treatment at second follow-up, showing an 11.1 mean point improvement in mental health score from their baseline score. Further, latent class analysis examines the different patterns of mental health service use for women of the 1973-78 cohort, showing six patterns of use exist. The research presented in this thesis provides an in-depth analysis based on the Anderson-Newman model framework of the differing social, economic and health characteristics of Australian people but specifically women with mental health conditions. This research extensively examines the characteristics of those who do and do not use the treatment therapies, and identifies inequalities in usage of the BAS services. In conclusion, this thesis demonstrates the mental health outcomes for people using BAS services. Analyses included in the thesis utilise two large population-based datasets linked to administrative medical claims data to enable extensive quantitative analyses, including complex modelling (e.g. analyses using propensity scoring methods) that allows for observational data to be interpreted in a similar manner to that usually reserved for randomised controlled trials. This thesis provides a comprehensive understanding of the mental health care needs and service uptake and outcomes of the Australian people.
Styles APA, Harvard, Vancouver, ISO, etc.
25

DOLENTE, COSIMO. « Natura e cause del digital divide in Italia : uno studio basato sui microdati ». Doctoral thesis, 2017. http://hdl.handle.net/11573/1045676.

Texte intégral
Résumé :
L’effettivo uso di Internet da parte della totalità della popolazione ha un impatto rilevante sulla possibilità di un paese di cogliere davvero le opportunità di sviluppo della propria economia, derivanti dall’uso di questa tecnologia. Partendo dalla constatazione di un effettivo ritardo italiano nella diffusione di Internet tra la popolazione, in termini sia di uso da parte di individui che di adozione di servizi di connettività a banda larga da parte delle famiglie, la ricerca ha l’obiettivo di individuare la natura delle specificità del caso italiano, solo marginalmente analizzato in letteratura. L’obiettivo finale è fornire una descrizione quanto più possibile dettagliata del fenomeno, utile per la messa a punto delle politiche, pubbliche ma anche private (in termini di marketing), atte a favorire l’uso di Internet da parte degli individui e la diffusione delle connessioni a banda larga tra le famiglie, compatibile con gli obiettivi dell’Agenda Digitale Europea. La principale fonte di dati della ricerca è rappresentata dai microdati (le risposte elementari) dell’indagine “Aspetti della Vita Quotidiana” dell’Istat (nel seguito indicata anche come AVQ), relativi al periodo 2005-2014. Al fine di agevolare l’analisi del fenomeno, viene proposto un nuovo modello di digital divide in quattro stadi: infrastruttura, adozione, frequenza d’uso e ricchezza d’uso. Mentre la questione infrastrutturale sembra essere al momento marginale, almeno per velocità di almeno 2 Mbps, il lavoro si concentra sugli altri tre stadi. In particolare, per quanto riguarda lo stadio di adozione di Internet, nella sua duplice natura di uso da parte degli individui e sottoscrizione di una connessione a banda larga da parte delle famiglie, viene dapprima effettuata un’analisi di regressione logistica, i cui risultati indicano, per quel che riguarda l’uso individuale, un ruolo preponderante dell’età, seguita dal livello di istruzione e dalla situazione professionale. Rispetto alla decisione di adottare una connessione da parte della famiglia, qualora vi sia una massa critica significativa di utenti potenziali, il ruolo dei fattori economici è ancora importante, mentre sembrano essere poco importanti i fattori geografici. La questione dell’uso di Internet è approfondita poi attraverso un’analisi esplorativa con algoritmo di classificazione SLAD, al quale, tramite la collaborazione con gli autori di tale algoritmo, vengono proposte due procedure atte ad adattare l’algoritmo allo studio interpretativo di fenomeni socio-economici. Infine, i risultati dell’analisi SLAD vengono utilizzati da un albero di classificazione, ottenendo otto cluster della popolazione italiana rispetto all’uso di Internet. Gli altri due stadi del modello proposto di digital divide, la frequenza e la ricchezza d’uso, vengono analizzati attraverso un’analisi per classi latenti. Questa produce 6 classi di utenti e 3 di non utenti, che mostrano differenze importanti anche all’interno di queste due categorie della popolazione. Nel complesso, i risultati dello studio mostrano che la gran parte dei divari nell’adozione sono dovuti a problemi nella struttura stessa della popolazione italiana, in termini principalmente di età e livelli di istruzione e coinvolgimento attivo nella vita sociale del paese. Inoltre, si evidenzia come ampi segmenti della popolazione sono emarginati socialmente, perché non attivi sul mercato del lavoro o nello studio. Gli effetti negativi delle variabili appena citate sono poi acuite dall’impossibilità di un contagio (almeno nel contesto familiare), in quella parte della popolazione che vive in famiglie in cui non sono presenti utenti, o comunque membri con caratteristiche migliori in una o più delle dimensioni evidenziate. Queste problematiche sono difficilmente superabili nel breve e medio periodo, in quanto intrinseche della struttura della popolazione, come si diceva. Il quadro è aggravato dalla palese difficoltà nell’intervenire in questo tipo di dinamiche attraverso politiche pubbliche o piani di marketing di imprese private. Ancora, tra gli utenti stessi emergono differenze importanti, che non sono spiegabili in termini “classici”, attraverso l’uso delle sole variabili di segmentazione. Vengono riscontati infatti profili di uso di Internet molto diversi, che vanno di pari passo con diversi livelli nei consumi culturali (cinema, teatro, musei ecc.) o nell’uso di servizi finanziari. Queste differenze dovrebbero essere indagati con l’aiuto di dati più fini, ma potrebbero comunque non trovare riscontro in variabili osservabili, dato il ruolo ipotizzato per la cultura personale. In definitiva, il messaggio che emerge dalle differenti analisi dei dati sulla popolazione italiana sul periodo di 10 anni, tra il 2005 e il 2014, è che non si possa più parlare di digital divide al singolare, ma di una pluralità di situazioni di disuguaglianza su indicatori chiave dell’emarginazione sociale. Da una parte, le caratteristiche strutturali della popolazione italiana dividono nettamente, e, stando alle analisi multi-periodo, sempre di più, gli utenti dai non utenti, e le famiglie connesse da quelle non connesse. Dall’altra, anche all’interno di queste categorie, esistono differenze importanti, legate sostanzialmente alle classi sociali e alla cultura personale dei singoli individui, che non sono spiegabili solo attraverso le “classiche” variabili strutturali. Tutto questo dovrebbe essere ulteriormente indagato con l’ausilio di diverse fonti di dati, col fine ultimo di supportare politiche pubbliche e iniziative private di sostegno alla domanda Internet che siano davvero efficaci, perché basate sulla reale comprensione del fenomeno dei digital divide italiani.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie