Dissertations / Theses on the topic 'Simulation of contracts'

To see the other types of publications on this topic, follow the link: Simulation of contracts.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Simulation of contracts.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Phumbua, Sarocha. "Simulation modelling of service contracts within the context of Product-Service Systems (PSS)." Thesis, Cranfield University, 2012. http://dspace.lib.cranfield.ac.uk/handle/1826/7271.

Full text
Abstract:
This thesis deals with the decision support tools for service contracting within the context of Product-Service Systems (PSS). The research contributes to the modelling constructs that can support modellers in developing service contract simulation models in an effective and efficient manner. Overall, the models can assist manufacturers to understand implications of contracting decisions that may either lead to profitable solutions or loss of business opportunities. PSS is recognised as a survival strategy for many manufacturers to sustain their market competitiveness. It is an emerging manufacturing paradigm that integrates services into products to ensure the required capability or availability of products. This concept is often delivered as long-term service contracts which can be made in separation or together with product acquisition. As the contracts can span over decades, the manufacturers need to absorb the future risks. For this reason, a decision support tool that allows the risks and rewards to be visualised and ultimately support contract design is in urgent need. However, PSS has various characteristics beyond the traditional product-selling businesses and involves potential dynamic behaviour. Existing tools are inadequate to effectively analyse the issues and also to be reused across cases or during the contract delivery phase. For this reason, this thesis intends to provide modelling constructs that enhance effective and efficient development of simulation models for PSS offerings To accomplish this aim, various simulation modelling techniques have been first explored from the literature and through the practical model developments to identify the backbone of the constructs. The hybrid Discrete-Event Simulation and Agent-Based Simulation has subsequently been selected as the most suitable technique to represent the PSS cases. This technique was applied in four reported cases to generalise the modelling approach. All the developed models have been verified and validated using several methods. The approach was then analysed and refined to enhance efficiency in building models. The refined approach was used to form the modelling constructs. The constructs were validated using three other cases and tested by three other modellers with different simulation background. The results have demonstrated the applicability, practicality, feasibility, and efficiency of the constructs. The outcomes of this research are the final modelling constructs which provide significant contributions academically and practically. Academically, this research provides a new way of capturing PSS characteristics and dynamic behaviour, and brings together PSS theoretical research, operational planning and decision support tools. Practically, manufacturers can effectively analyse the implication of service contracts and modellers can rapidly develop service contract simulation models.
APA, Harvard, Vancouver, ISO, and other styles
2

Munhoz, Fernando Colli. "Modelo de suporte a decisão para contratação eficiente de energia eletrica." [s.n.], 2008. http://repositorio.unicamp.br/jspui/handle/REPOSIP/264515.

Full text
Abstract:
Orientador: Paulo de Barros Correia
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica
Made available in DSpace on 2018-08-12T15:57:12Z (GMT). No. of bitstreams: 1 Munhoz_FernandoColli_D.pdf: 1039809 bytes, checksum: ed6c8295df5c175f7028fb2f4ca9d988 (MD5) Previous issue date: 2008
Resumo: O mercado brasileiro de energia elétrica é composto por agentes regulados e caracterizado por negociar contratos, grande parte de longo prazo. Os agentes, objetos de estudo neste trabalho, são os que negociam contratos de energia elétrica atuando como vendedores, ou seja, geradores e comercializadores. Os contratos são aqueles provenientes de empreendimentos de geração em operação, denominados de energia existente". Particularmente, os agentes, quando negociam contratos de longo prazo, estão expostos a riscos de preço e a disponibilidade de lastro de energia elétrica. Este trabalho tem como objetivo desenvolver uma metodologia para um agente que atua como vendedor no mercado brasileiro de energia elétrica contratar e cientemente seu lastro de energia elétrica, maximizando o seu benéfico financeiro. Para este propósito, é construído um modelo de otimização, com o emprego de programação linear, cuja função objetivo é maximizar a receita esperada do agente vendedor através da construção de uma carteira ótima de contratos, de acordo com a regulamentação de comercialização de energia elétrica em vigor. Para modelar as incertezas quanto ao preço da energia elétrica é utilizada a técnica de simulação de Monte Carlo. A mensuração do risco é feita com o uso do conceito denominado, neste trabalho, de Receita ao Risco. O resultado do trabalho é um modelo computacional de otimização que fornece um conjunto de carteiras de contratos e, através de simulações de Monte Carlo, calcula a receita esperada e o risco de cada uma destas carteiras.
Abstract: The Brazilian electricity market is performed by regulated agents and characterized to trade long term contracts. This work studies the agents that trade electricity acting by sellers, that is, generation companies and traders. The contracts are those deriving from existing plants, called \existing energy". When these agents trade long term contracts, they are expose at price risk and electricity availability. The objective of this work is to develop a methodology for a seller that works in the Brazilian market to efficiently contract his electricity to maximize the financial benefit. For this purpose, it is developed an optimization model, with emploies linear program, whose objective function aims to maximize the expected revenue of the seller, in agreement with the actual electricity trading legal rules. Then, it is possible to build an optimal portfolio of contracts. To model the uncertainty of the electricity prices of the contracts it is used the Monte Carlo simulation method. The risk is measure using a concept named in this work by Revenue at Risk. The main product of the work is a computational optimization model that provides a set of portfolios contracts and, by Monte Carlo simulations, computes the expected revenue and the risk of each one of these portfolios.
Doutorado
Planejamento de Sistemas Energeticos
APA, Harvard, Vancouver, ISO, and other styles
3

Pyeon, Jae-Ho. "Development of a simulation model to predict the impact of incentive contracts on transportation construction project time performance." [Gainesville, Fla.] : University of Florida, 2005. http://purl.fcla.edu/fcla/etd/UFE0013048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lee, Benjamin David. "A pragmatic value-driven approach to design with applications to energy-conscious buildings." Diss., Georgia Institute of Technology, 2014. http://hdl.handle.net/1853/53094.

Full text
Abstract:
Within the design community, a growing number of researchers have shown interest in extending the value context to include design, such that designers focus on maximizing the 'value' of the product or service, rather than simply satisfying a set of requirements. Thus, by applying a value-driven approach to design, the design community hopes to show that the magnitude of cost and schedule overruns may be reduced, or even eliminated. However, a common criticism of value-driven approaches is that they are difficult to implement, and not sufficiently pragmatic to be used for large scale engineering problems. Further, some argue that less rigorous methods appear to provide reasonable results in practice, and so rigor is not necessary. To reconcile these disparate viewpoints, it must be shown that value-driven approaches contribute to the design process, and can be implemented in practice at a reasonable cost. In response, I propose that the cause for the lack of practicality in value-driven approaches is attributable to the lack of well established and verified methods and tools. This dissertation presents research that attempts to address this deficiency by first developing a better understanding of effectiveness for methods that seek to enable value-driven design. This investigation leads to a concise set of desired characteristics for methods for guiding the development of value-models which then motivate the creation of a Systematic Method for Developing Value Models (SMDVM). To evaluate the SMDVM, it is applied to the design and retrofit of buildings for energy efficiency. A simulation workbench is developed as a tool to automate the development and analysis of value models for building design and retrofit contexts. The workbench enables architects, engineers, and other practitioners to easily incorporate uncertainty into analyses of building energy consumption, as part of a value-driven approach to design and retrofit.
APA, Harvard, Vancouver, ISO, and other styles
5

Carraro, Wendy Beatriz Witt Haddad. "Análise de flexibilidade em contratos com uso de modelagem e simulação." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/15841.

Full text
Abstract:
A presente pesquisa se propõe a modelar uma ferramenta que auxilie os tomadores de decisão, no setor de laboratórios de análises clínicas, frente aos contratos de prestação de serviços. Visa proporcionar avaliação e conhecimento na elaboração de cláusulas contratuais. Realça-se a idéia de flexibilidade, mostrando como cláusulas mais flexíveis em contratos podem aumentar o valor de um contrato tanto para contratados quanto para contratantes. O uso da ferramenta aqui apresentada facilitará que administradores apreciem o valor da sensibilidade de contratos a variações no preço, quantidade, custos variáveis, custos fixos e lucro esperado, ponderando riscos do negócio e incertezas. A pesquisa descrita permite a verificação da aplicabilidade da ferramenta para exame da validade da simulação de flexibilidade na relação contratual.
The purpose of this research is to model a tool to help decision-makers, while facing supplying contracts, in the clinical analysis industry. This tool aims to improve the analysis and evaluation processes to support the elaboration of contractual clauses. It is here emphasized the idea of flexibility, showing how flexible contractual clauses can improve the value of a contract to both suppliers and contractors. Using the tool shall allow managers to appreciate the value of the sensitivity of contracts to variations in price, quantity, variable costs and expected profits, pondering business risks and uncertainty. The here described case study allows to check the usefulness of the tool in order to verify the validity of simulation of flexibility conditions to enhance contractual relationships.
APA, Harvard, Vancouver, ISO, and other styles
6

Pennock, Michael James. "The economics of enterprise transformation." Diss., Atlanta, Ga. : Georgia Institute of Technology, 2008. http://hdl.handle.net/1853/28171.

Full text
Abstract:
Thesis (M. S.)--Industrial and Systems Engineering, Georgia Institute of Technology, 2008.
Committee Chair: Rouse, William; Committee Member: Boff, Kenneth; Committee Member: Cross, Stephen; Committee Member: Griffin, Paul; Committee Member: Keskinocak, Pinar.
APA, Harvard, Vancouver, ISO, and other styles
7

Romenska, Yuliia. "Composants abstraits pour la vérification fonctionnelle des systèmes sur puce." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM019/document.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la modélisation, la spécification et la vérification des modèlesdes Systèmes sur Puce (SoCs) au niveau d’abstraction transactionnel et à un niveau d’abstraction plus élevé.Les SoCs sont hétérogènes: ils comprennent des composants matériels et des processeurs pour réaliser le logicielincorporé, qui est en lien direct avec du matériel. La modélisation transactionnelle (TLM) basée sur SystemCa été très fructueuse à fournir des modèles exécutables des SoCs à un haut niveau d’abstraction, aussi appelésprototypes virtuels (VPs). Ces modèles peuvent être utilisés plus tôt dans le cycle de développement des logiciels,et la validation des matériels réels. La vérification basée sur assertions (ABV) permet de vérifier les propriétés tôtdans le cycle de conception de façon à trouver les défauts et faire gagner du temps et de l’effort nécessaires pourla correction de ces défauts. Les modèles TL peuvent être sur-contraints, c’est-à-dire qu’ils ne presentent pastous les comportements du matériel. Ainsi, ceci ne permet pas la détection de tous les défauts de la conception.Nos contributions consistent en deux parties orthogonales et complémentaires: D’une part, nous identifions lessources des sur-contraintes dans les modèles TLM, qui apparaissent à cause de l’ordre d’interaction entre lescomposants. Nous proposons une notion d’ordre mou qui permet la suppression de ces sur-contraintes. D’autrepart, nous présentons un mécanisme généralisé de stubbing qui permet la simulation précoce avec des prototypesvirtuels SystemC/TLM.Nous offrons un jeu de patrons pour capturer les propriétés d’ordre mou et définissons une transformationdirecte de ces patrons en moniteurs SystemC. Notre mécanisme généralisé du stubbing permet la simulationprécoce avec les prototypes virtuels SystemC/TLM, dans lesquels certains composants ne sont pas entièrementdéterminés sur les valeurs des données échangées, l’ordre d’interaction et/ou le timing. Ces composants nepossèdent qu’une spécification abstraite, sous forme de contraintes entre les entrées et les sorties. Nous montronsque les problèmes essentielles de la synchronisation entre les composants peuvent être capturés à l’aide de notresimulation avec les stubs. Le mécanisme est générique; nous mettons l’accent uniquement sur les concepts-clés,les principes et les règles qui rendent le mécanisme de stubbing implémentable et applicable aux études de casindustriels. N’importe quel language de spécification satisfaisant nos exigences (par ex. le langage des ordresmou) peut être utilisé pour spécifier les composants, c’est-à-dire il peut être branché au framework de stubbing.Nous fournissons une preuve de concept pour démontrer l’intérêt d’utiliser la simulation avec stubs pour ladétection anticipée et la localisation des défauts de synchronisation du modèle
The work presented in this thesis deals with modeling, specification and testing of models of Systems-on-a-Chip (SoCs) at the transaction abstraction level and higher. SoCs are heterogeneous: they comprise bothhardware components and processors to execute embedded software, which closely interacts with hardware.SystemC-based Transaction Level Modeling (TLM) has been very successful in providing high-level executablecomponent-based models for SoCs, also called virtual prototypes (VPs). These models can be used early in thedesign flow for the development of the software and the validation of the actual hardware. For SystemC/TLMvirtual prototypes, Assertion-Based Verification (ABV) allows property checking early in the design cycle,helping to find bugs early in the model and to save time and effort that are needed for their fixing. TL modelscan be over-constrained, which means that they do not represent all the behaviors of the hardware, and thus,do not allow detection of some malfunctions of the prototype. Our contributions consist of two orthogonal andcomplementary parts: On the one hand, we identify sources of over-constraints in TL models appearing due tothe order of interactions between components, and propose a notion of loose-ordering which allows to removethese over-constraints. On the other hand, we propose a generalized stubbing mechanism which allows the veryearly simulation with SystemC/TLM virtual prototypes.We propose a set of patterns to capture loose-ordering properties, and define a direct translation of thesepatterns into SystemC monitors. Our generalized stubbing mechanism enables the early simulation with Sys-temC/TLM virtual prototypes, in which some components are not entirely determined on the values of theexchanged data, the order of the interactions and/or the timing. Those components have very abstract speci-fications only, in the form of constraints between inputs and outputs. We show that essential synchronizationproblems between components can be captured using our simulation with stubs. The mechanism is generic;we focus only on key concepts, principles and rules which make the stubbing mechanism implementable andapplicable for real, industrial case studies. Any specification language satisfying our requirements (e.g., loose-orderings) can be used to specify the components, i.e., it can be plugged in the stubbing framework. We providea proof of concept to demonstrate the interest of using the simulation with stubs for very early detection andlocalization of synchronization bugs of the design
APA, Harvard, Vancouver, ISO, and other styles
8

Pinto, Oliveros Sheraldine. "Critical remarks about simulation of contract in the Peruvian civil code." THĒMIS-Revista de Derecho, 2018. http://repositorio.pucp.edu.pe/index/handle/123456789/123859.

Full text
Abstract:
Simulation is a complex legal operation in which the parties, with the aim of concealing their real intentions, have made two agreements: one apparent and the other one secret. Although simulation is dealt widely in Civil Law countries, the Civil Code of Peru shows some inconsistencies; especially, to employ a doctrinal classification, which describes different aspects of the fattispecie, as various fattispecie. Therefore, the author develops a critical and comparative analysis about simulation of contract in the Peruvian Civil Code.
La simulación es una operación jurídica compleja caracterizada por el acuerdo de las partes para fingir un negocio jurídico o contrato, o para disimularlo, detrás de un negocio jurídico o contrato aparente.A pesar de que la simulación ha sido objeto de amplia atención en distintos ordenamientos jurídicos, el Código civil peruano posee numerosas incongruencias; especialmente, por elevar al rango de fattispecie diversas algunas de las clasificaciones doctrinarias que describen las distintas facetas de una misma fattispecie, es decir, la fattispecie simulatoria. Por ello, la autora desarrolla un análisis crítico de la simulación en el Código civil peruano desde el enfoque del derecho comparado.
APA, Harvard, Vancouver, ISO, and other styles
9

Larsson, Rickard. "Development and application of a tool for assessing the impact of failure modes on performance of underground drill rigs." Thesis, Örebro universitet, Institutionen för naturvetenskap och teknik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-93415.

Full text
Abstract:
Trends such as increasing awareness of sustainable production, shorter product life cycles and personalised products create challenges for the mining industry. A solution to these challenges may be a functional product business model, where the provider sells the hardware’s function under a service contract and is responsible for delivering the combination of hardware and services over the duration of the contract. Under a functional product contract, it is of great importance to predict the availability performance of the hardware. For the mining company to strengthen its competitiveness even further, the reliability and maintainability are also crucial factors to reduce costs, maximise profits, minimise downtime, and improve forecasting of operating hours. The feasibility of performance modelling would be increased if it could be performed by a tool.In prior research related to the reliability of mining vehicles in underground mines, a research gap for drilling rigs was identified. The aim of the thesis was to build a prototype tool and develop a realistic test case to apply it to as a demonstration of how it can help mining vehicle (drilling vehicle) providers understand the impact of their failure modes, particularly from the perspective of providing those vehicles under functional product contracts. The focus was to develop a tool that can be accessible for decision makers within mine operating and mine vehicle provider companies who are not specialists in reliability and maintenance modelling.A simulation model was developed in JaamSim, a graphical user interface developed in Qt designer and the integration between them developed in the Python programming language. A realistic test case was constructed with the purpose of imitating a jumbo drill rig, specifically the Boomer M2 manufactured by Epiroc, used to develop tunnels in an underground mine. Three critical failure modes of the Boomer M2 were identified. Simulations of the test case show that the bent boom arm failure mode had greatest influence on the availability of the drill rig.The developed prototype tool demonstrates the value of decision support tools for measuring the impact of failure modes on functional product contracts and its potential for aiding their negotiation and adoption. The tool has a low complexity regarding usage which should increase its usefulness for decision makers. To increase the tools usefulness further, extending its flexibility of application to other mining vehicles and different maintenance policies has been identified as the next steps for future work.Key words:
APA, Harvard, Vancouver, ISO, and other styles
10

Katz, Jonathan L. "A practicability study on the development of a standard, stand-alone computerized contract pricing model for contract pricing and negotiations." Thesis, Monterey, California : Naval Postgraduate School, 1990. http://handle.dtic.mil/100.2/ADA232012.

Full text
Abstract:
Thesis (M.S. in Management)--Naval Postgraduate School, June 1990.
Thesis Advisor(s): Hart, E. Neil. Second Reader: Liao, Shu. "June 1990." Description based on signature page. DTIC Identifier(s): Contract pricing model, contract administration, pricing, negotiations, computerized simulation, theses. Author(s) subject terms: Pricing model; contract pricing and negotiations. Includes bibliographical references (p. 115). Also available online.
APA, Harvard, Vancouver, ISO, and other styles
11

Muusha, Takura. "Monte Carlo studies of generalized barrier contracts." Thesis, Mälardalen University, Mälardalen University, Department of Mathematics and Physics, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-4317.

Full text
Abstract:

This paper examines the pricing of barrier options using Monte Carlo Simulations. MATLAB based software is developed to estimate the price of the option using Monte Carlo simulation. We consider a generalized barrier option of knock out type, but we let the domain take the shape of a rectangular box. We investigate the price of this kind of barrier options. We investigate how the box is placed and what effect it will have on the price of the option. We compare the number of trajectories that are needed in order to achieve the same accuracy between this box barrier option and an ordinary option.

APA, Harvard, Vancouver, ISO, and other styles
12

Doury, Maxime. "Quantification of tissue perfusion using contrast-enhanced ultrasound : toward robust exam comparison." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066255/document.

Full text
Abstract:
La quantification de la perfusion tissulaire à partir de données dynamiques d’échographie de contraste repose sur une modélisation appropriée de la cinétique de la concentration en agent de contraste dans le tissu étudié. De nombreux facteurs, expérimentaux ou physiologiques, rendent la comparaison inter ou intra-individu de ces paramètres de perfusion difficile. Dans cette thèse, la reproductibilité et la comparaison de différentes méthodes de quantification ont été étudiées dans le cadre d’une étude préclinique de test-retest et sur des simulations numériques. Les méthodes étudiées ont été : le modèle log-normal, le modèle compartimental avec fonction d’entrée et le modèle compartimental avec tissu de référence. Les études précliniques ont montré la difficulté d’estimation d’une fonction d’entrée artérielle et la nécessité de corriger localement le temps d’arrivée de l’agent de contraste dans le tissu pour que l’approximation des cinétiques expérimentales par le modèle soit de qualité suffisante. Une estimation linéaire sous contrainte des paramètres du modèle compartimental avec tissu de référence tirant profit de différentes zones d’intérêt dans l’image a été ensuite proposée pour obtenir à l’échelle régionale et/ou locale des valeurs relatives cohérentes de débit sanguin tissulaire et de volume sanguin tissulaire, exprimées par rapport aux valeurs dans le tissu de référence. Il a été montré que cette approche est la plus robuste et la plus reproductible. L’influence des facteurs tels que la durée d’acquisition, la fréquence d’échantillonnage, le nombre de régions utilisées et l’amplitude du bruit a été étudiée sur des simulations et a permis de formuler des recommandations pour l’acquisition et le traitement des études en échographie de contraste
Quantification of tissue perfusion from dynamic contrast-enhanced ultrasound data relies on appropriate modeling of the curve representing the evolution of the contrast-agent concentration inside the studied tissue. Many factors, experimental or physiological, make inter-subject or intra-subject comparison of these perfusion parameters difficult. In this thesis, the reproducibility and the comparison of various quantification methods was investigated through preclinical test-retest experiments and through simulations. The investigated methods were: the log-normal model, the one-compartment model using an arterial input function, and the one-compartment model using a reference tissue. The preclinical experiments revealed the difficulty to estimate an arterial input function directly from the image, as well as the necessity to locally correct for the time of arrival of the contrast agent in the tissue in order to ensure the model accurately fits the experimental enhancement curves. A regularized linear estimation of the parameters of the one-compartment model using a reference tissue taking advantage of multiple tissue regions was then proposed to obtain homogeneous relative values of the tissue blood flow and tissue blood volume, expressed relatively to the parameter value inside the reference tissue. The improved robustness and reproducibility of the method was demonstrated. The influence of factors such as the exam duration, the sampling frequency, the number of tissue regions in the analysis, and the noise amplitude were investigated through simulations, and allowed us to formulate recommendations regarding the acquisition and the analysis of contrast-enhanced ultrasound studies
APA, Harvard, Vancouver, ISO, and other styles
13

CARVALHO, CARLOS. "Simulation du contraste de topographies en rayonnement blanc synchrotron." Paris 6, 1990. http://www.theses.fr/1990PA066786.

Full text
Abstract:
Nous avons montre theoriquement que l'intensite en un point du film en une topographie au rayonnement blanc synchrotron est la superposition des intensites produites par des points source incoherents situes sur la face d'entree du cristal. Ce mecanisme est le meme que celui du laboratoire, ce qui explique la similitude entre les images de synchrotron et celles en translation. Ceci est du a la taille de la source et a la non-monochromaticite du rayonnement, qui font que la longueur de coherence de celui-ci est negligeable. L'interpretation physique de ce resultat est que la longueur de coherence du rayonnement est negligeable lorsque l'angle sous lequel un point du cristal voit la source est beaucoup plus grand que la largeur du profil de reflexion en ce point. Dans ces conditions le seul effet de la distance cristal-film est une perte de resolution de l'image. Ces conditions ne sont pas remplies par les anneaux a faible emittance, ce qui signifie que les images au synchrotron pourraient alors etre differentes de celles du laboratoire. Nous avons developpe des methodes numeriques plus rapides de calcul du champ diffracte dans le triangle de borrmann. Ces methodes verifient le theoreme de reciprocite. L'usage de celui-ci dans la simulation des topographies en translation permet des reductions importantes du temps de calcul, selon l'echantillonnage de l'image et la precision numerique employes. Il est donc maintenant possible de simuler des images de deformations etendues comme les vibrations piezoelectriques dans le quartz, ou localisees, comme les dislocations, dans tous les cas d'experiences au laboratoire ou au synchrotron
APA, Harvard, Vancouver, ISO, and other styles
14

Durning, Bruno. "Simulation, estimation spectrale et imagerie des agents de contraste ultrasonores." Lyon 1, 2006. http://www.theses.fr/2006LYO10097.

Full text
Abstract:
Dans cette thèse, nous apportons notre contribution aux techniques permettant de rendre l'utilisation des agents de contraste ultrasonore plus performante. Dans un premier temps, nous avons développé un simulateur d'imagerie échographique de contraste (SECI) qui permet de simuler la formation d'images ultrasonores avec agent de contraste. Il prend en compte, la sonde, le milieu de propagation des ultrasons et le comportement individuel, non linéaire, de chaque bulle. Des simulations de bulles isolées, en fonction du MI, de la fréquence incidente et du rayon au repos ont été réalisées. Dans un second temps, nous avons validé SECI avec des acquisitions in vitro. Puis une étude expérimentale de l'agent de contraste a été menée, en fonction du MI. Finalement nous avons proposé des paramètres dédiés à la visualisation des agents de contraste basés sur l'estimation spectrale, la modélisation AR et la projection atomique. Ces paramètres ont été testés sur des acquisitions in vitro et in vivo
In this work, we contribute to make ultrasound contrast agent simpler and more effective to use. First we developed a Simulator of Echo Contrast Imaging (SECI). SECI can simulate ultrasound imaging with contrast agent. It takes into account the probe, the propagating medium, the individual, non linear, response of each bubble. Simulations of bubbles alone, have also been performed, at different MI, transmit frequency, and radius. Then, we validate SECI by comparison with in-vitro experiments. An experimental study of the influence of the MI over the contrast agent behavior has been done. Finally, visualization techniques, based on spectral estimation, auto-regressive modelization, and atomical projection have been tested on in-vitro and in-vivo acquisition
APA, Harvard, Vancouver, ISO, and other styles
15

Stolidi, Adrien. "Développement de méthodes d'imagerie par contraste de phase sur source X de laboratoire." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS076/document.

Full text
Abstract:
L'imagerie par rayons X est fortement développée dans notre société et notamment dans les domaines industriels, médicaux ou sécuritaires. L'utilisation de cette méthode d'imagerie des structures internes (pour la détection d'irrégularité, de contrôle non destructif de pièces ou de menaces) est quotidienne. En radiographie, le contraste produit sur les images est relié à la variation de l'atténuation du flux de rayons X, qui est fonction de la densité, de l'épaisseur du matériau étudié ainsi que de la longueur d'onde utilisée. Ainsi par exemple, des gaines métalliques, des os ou des armes amènent du contraste sur l'image. Mais en plus de leur atténuation, les rayons X vont subir un déphasage qui est d'autant plus important que le matériau est peu atténuant. Ce phénomène va amener du contraste, dit de phase, permettant d'imager des matériaux peu denses tels que des plastiques, composites, tissus mous ou explosifs. Ce travail de thèse présente le développement et l'adaptation, dans le domaine des rayons X, de méthodes d'imagerie par contraste de phase sur des équipements de laboratoire. Le but est de compléter, d'une manière plus accessible et quotidienne, les demandes d'évaluation non destructives. Ce manuscrit se découpe suivant deux axes portant sur la simulation d'une part et sur le développement instrumental d'autre part. Un outil de simulation a été développé portant sur une description hybride alliant optique géométrique et optique ondulatoire. Les limites du modèle et des validations sont présentées. La partie instrumentale se focalise sur l'étude de deux techniques d'imagerie différentielle de phase. La première technique est de l'interférométrie à décalage multilatéral, dont l'adaptation sur tube à rayons X est réalisée pour la première fois. Une exploitation intéressante de la redondance de la mesure que produit la technique sera notamment introduite. La deuxième approche est une technique d'interférométrie de suivi de tavelure, dont nous présenterons une nouvelle exploitation
X-ray imaging is widely used in non-destructive testing dedicated to industry, medical or security domain. In most of the radiographic techniques, the image contrast depends on the attenuation of the X-ray beam by the sample. This attenuation is function of the density and thickness of the object and of the wavelength. Therefore, objects like metal covers, bones or weapons bring contrast on the image. In addition to attenuation, phase shifting happens, in particular for low-attenuating material. This phenomenon brings contrast, called phase contrast, and allows a X-ray image of low-attenuating material as plastics, composites, soft tissues or explosives. This work presents development and adaptation, in the X-ray domain, of phase contrast imaging techniques on laboratory equipment. The goal is to bring phase contrast imaging in daily use. This manuscript is split in two parts, simulation and instrumentation. A simulation tool has been developed, mixing geometrical optic and wave optic. Limits of the model and validation are presented. For the instrumental part, two interferometric techniques have been considered. The first one is multi-lateral interferometry where adaptation on X-ray tube is presented for the first time. Interesting use of the measurement recurrence will be introduced. The second one is speckle tracking interferometry, recently adapted on X-ray tube, for which we present new advancements
APA, Harvard, Vancouver, ISO, and other styles
16

Rognin, Nicolas Georges. "Outils de simulation et de quantification en imagerie de contraste échographique." Lyon 1, 2002. http://www.theses.fr/2002LYO10196.

Full text
Abstract:
Depuis l'avènement des premiers échographes, une volonté constante des constructeurs est l'amélioration de la qualité de l'image par des méthodes de traitement du signal et par des avancées dans la technologie des sondes. Ces améliorations ont pour but d'accroître la puissance diagnostique de cette modalité d'imagerie médicale. Aujourd'hui, s'ajoutent les agents de contraste ultrasonore pour le rehaussement du contraste du sang par rapport aux tissus. Les agents de contraste sont composés de microbulles, qui ont un fort pouvoir de rétrodiffusion. L'injection par voie intraveineuse de ces agents a conduit au développement d'une myriade de modalités d'imagerie pour estimer la perfusion d'un organe, l'ensemble étant désigné par " imagerie de contraste ". Pourtant aucun outil pour l'étude de leurs performances n'existe. Pour répondre à cette problématique, nous avons développé un simulateur d'imagerie quantitative de contraste. Nous entendons par quantitatif une simulation en unité physique. Autrement dit les signaux ultrasonores sont calculés directement en pascal aussi bien pour la réponse du tissu biologique que celle de l'agent. Pour atteindre cet objectif et en collaboration avec un groupe pharmaceutique international, Bracco, nous avons constitué une base de données expérimentales de mesures in vitro de l'agent SonoVueTM pour la validation du simulateur. Cette base couvre plusieurs cas de puissance d'émission pour une série de dilutions de l'agent. En conclusion, notre contribution est la proposition d'un outil permettant de simuler quantitativement différentes modalités d'imageries de contraste, en fonction de la puissance d'émission, de la dilution, et du mouvement tissulaire. Le système permet de surcroît de comparer et d'apprécier les performances de ces différentes modalités. Enfin, nous avons montré la flexibilité et la potentialité de cet outil en l'appliquant au cas particulier de l'échographie endovasculaire.
APA, Harvard, Vancouver, ISO, and other styles
17

Amrani-Zouggar, Aïcha. "Impact des contrats d’approvisionnement sur la performance de la chaîne logistique : modélisation et simulation." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13878/document.

Full text
Abstract:
Dans un contexte industriel où le partenariat d’entreprises devient une réponse stratégique aux exigences accrues du marché, le contrat d’approvisionnement apparaît progressivement comme un élément-clé de la gestion d’une chaîne logistique. La contribution de cette thèse comporte deux volets. Au plan méthodologique, il s’agit de fournir à l’entreprise un cadre d’analyse support à la contractualisation, permettant de relier clause, risque et performance en vue de définir, par une démarche instrumentée, les clauses pertinentes en adéquation avec le contexte industriel et la relation d’approvisionnement. Au plan des outils, un modèle de planification avec prise en compte des contraintes contractuelles et une plateforme de simulation ont été développés. Deux types de contrats d’approvisionnement (contrat d’engagement sur des quantités par période et contrat d’engagement sur des quantités par horizon) ont été simulés, mettant en évidence l’impact de ces derniers sur la performance locale (vue partenaire) et globale (vue de la chaîne logistique)
In high competitive industrial context where the collaborative partnership becomes a strategic answer to face the increased market requirements, supply contract gradually appears to be a key element in supply chain management. The contribution of this thesis is twofold. In one hand, methodological approach aims at providing deciders with contracting framework support that links clause, risk and performance in order to define, by instrumented approach, the relevant clauses to commit in adequacy with industrial context and supplying relationship. In the other hand, planning model including contractual constraints and simulation platform are developed. Two types of supply contracts (commitments on quantities per period and commitments on quantities per horizon) are simulated, highlighting the impact of these one on local performance (partner view) and global performance (supply chain view)
APA, Harvard, Vancouver, ISO, and other styles
18

Saghy-Cadenas, Pedro. "La simulation du contrat. Etude comparée en droit civil français et vénézuélien." Thesis, Paris 2, 2012. http://www.theses.fr/2012PA020011/document.

Full text
Abstract:
La simulation est un mensonge. Cette notion prend des caractéristiques particulières lorsqu’il s’agit de simuler un contrat. La simulation de contrat est une des plus fascinantes institutions du micro univers des contrats. Elle consiste en une convention par laquelle les co-contractants dissimulent soit une partie soit l’intégralité de leur vrai accord. Ni le législateur français ni le législateur vénézuélien ne se sont préoccupés de définir ce qu’on doit comprendre par simulation de contrat en droit civil. Ce vide n’a été rempli ni par la doctrine, ni par la jurisprudence. Chaque auteur, et presque chaque décision, a sa propre notion de simulation de contrat. Cette situation n’apporte aucune sécurité lorsqu’on veut identifier une opération de cette nature. Dans ce travail, nous nous sommes fixés la tâche d’identifier les éléments qui confortent l’opération de simulation de contrat, tant en droit civil français qu’en droit civil vénézuélien
Simulation is a lie. This notion takes on special characteristics when it comes to simulating a contract. The simulation of contract is one of the most fascinating institutions of the micro-world of contracts. A contract is a simulation when, by mutual agreement of the parties, it does not express their true intent. It is an agreement to hide all or part of the true agreement. Neither French law nor Venezuelan legislators have taken the trouble to define what we should understand by simulation of contract in civil law. This loophole has been filled either by doctrine or case law. Every author and almost all decisions have their own notion of contract simulation. This obviously provides no sure footing when seeking to identify a transaction of this nature. In this work, we have set ourselves the task of identifying the fundamental elements behind simulation of contracts, both in French and Venezuelan civil law
APA, Harvard, Vancouver, ISO, and other styles
19

Fierling, Géraldine. "Simulation des phénomènes de relaxation élastique dans les dispositifs opto-électroniques contraints." Ecully, Ecole centrale de Lyon, 1998. http://www.theses.fr/1998ECDL0054.

Full text
Abstract:
Ce travail concerne la simulation des phenomenes physiques resultant des processus de relaxation elastique dans les dispositifs a heterostructures contraints. Il s'agit d'une part de modeliser les processus de relaxation elastique des contraintes a la peripherie des composants opto-electroniques, et d'autre part, d'exploiter ces modelisations pour la mise en uvre d'un nouveau procede de modulation laterale des proprietes electro-optiques, fonde sur la relaxation elastique controlee de couches contraintes micro-usinees. Des outils de simulation mecanique, electronique et optique ont ete developpes. Deux approches sont menees suivant le semiconducteur etudie. Pour des materiaux homogenes, une chaine de modelisation mecano-optique permet de determiner, en tout point, les proprietes electroniques et optiques. Par contre, pour une heterostructure, du fait des phenomenes de quantification, le traitement electro-optique reste specifique a la structure etudiee. Ces outils ont ete valides a travers l'etude theorique et experimentale par imagerie de photoluminescence de rubans volumiques contraints. Leur intensite montre qu'il est necessaire de prendre ces effets en compte dans la conception des dispositifs. Des simulations, appuyees par des etudes experimentales, ont egalement permis de mettre en evidence des confinements lateraux a l'echelle quantique lors de la relaxation de rubans comprenant un puits quantique contraint d'une part, et de la relaxation elastique tridimensionnelle de couches contraintes d'autre part. Dans le premier cas, les proprietes electro-optiques sont modifiees lateralement par l'apparition de fils quantiques sur les bords du ruban. Dans le second cas, le champ piezo-electrique induit par la relaxation elastique cree des boites quantiques pres des coins des structures. Les proprietes electro-optiques laterales sont alors sensiblement modifiees.
APA, Harvard, Vancouver, ISO, and other styles
20

Gerfault, Laurent. "Imagerie des produits de contraste ultrasonore : simulation et approche de la perfusion myocardique." Lyon, INSA, 2000. http://www.theses.fr/2000ISAL0041.

Full text
Abstract:
A l'instar des autres méthodes d'imagerie (IRM, Rayons X), l'échographie est devenue une imagerie de contraste. Elle consiste en l'amélioration des performances de l'imagerie classique par injection intraveineuse d'un produit de contraste, constitué par une population de microparticules gazeuses (diamètre inférieur à 10 pm). L'agent de contraste ultrasonore est strictement vasculaire, il permet d'augmenter l'intensité vidéo sur 1 'image écho graphique et le signal Doppler des zones vascularisées dans le but d'améliorer la visualisation de structures internes du corps humain et d'aborder l'imagerie fonctionnelle telle que la perfusion myocardique. Les performances acoustiques in vitro de ces produits sont avérées. Cependant, l'utilisation de ceux ci dans le corps humain n'a pas permis d'obtenir la même efficacité. Ainsi, ce travail à pour but de mieux connaître le produit et ses interactions avec le milieu intracorporel. Les int1uences du milieu (filtrage pulmonaire, dilution du bolus de l'agent de contraste, diffusion du gaz interne des particules, pression cardiaque,. . . ) et de l'onde acoustique sont abordées pour connaître les modifications physiques du produit in vivo. L'impact de ces paramètres physiques sur la réponse acoustique des particules est étudié à partir d'un modèle acoustique linéaire dont nous précisons le domaine de validité. L'évaluation clinique se réalisant sur l'image échographique, nous présentons une simulation des signaux échographiques des produits de contraste. Cette approche qualitative est complétée par une approche quantitative portant sur la mesure de la perfusion. En premier lieu, nous comparons un modèle basé sur la mécanique des fluides, décrivant la dilution d'un bolus d'agent, à des mesures acoustiques effectuées sur un système circulant tubulaire. En second lieu, nos conclusions sur ce fantôme sont appliquées à l'étude de la perfusion myocardique sur des cœurs isolés de porcs
Like other imaging modalities (MRI or X-Ray), ultrasound scanning has become a contrast imaging modality. It consists in the enhancement of standard ultrasound imaging using an intra-veinously injected ultrasound contrast agent (USCA). Video intensity and Doppler signals of perfused region, reached by the contrast agent, are enhanced. Then, contrast imaging allows a better visualization of perfusion of different organs, and the approach of functional imaging like myocardial perfusion study. In vitro efficiency of USCA has been demonstrated, but its in vivo use has shown a decrease of efficiency. This work studies the interactions between contrast agent and intra-corporal medium, and the influence of measurement method in the aims of understanding this lack of efficiency. The influences of intra-corporal medium actions (pulmonary filtering, dilution of USCA bolus, diffusion of internal gas of USCA micro particles cardiac pressure) and ultrasound waves are inspected to evaluate physical modifications of USCA in in-vivo conditions. The impact of these physical changes on acoustical responses of USCA is then studied. As clinical evaluation is performed on echographic images, simulations of echographic signals are computed. Finally, the feasibility of absolute measurement of blood flow rate is evaluated. A comparison between a newly developed fluid dynamics based model of bolus dilution and acoustical measurements made on a circulating tubular phantom is made. Our conclusions are applied to the study of myocardial perfusion using an isolated pig heart model
APA, Harvard, Vancouver, ISO, and other styles
21

Vu, Van Hoan. "Identification et simulation de la commande motrice des mouvements multi-articulés 3D non-contraints." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS509/document.

Full text
Abstract:
L’objectif de cette thèse vise à identifier les principes sous-tendant la planification des mouvements 3D du membre supérieur tout en tenant compte des différences inter-individuelles régulièrement observées dans ce domaine. Dans cette optique, l’approche choisie combine des expériences originales précisément des tâches de pointage laissant le choix du point final libre) avec des techniques de calcul avancées (ici des méthodes de contrôle optimal inverse numérique). Des mouvements de pointage du bras sans position finale précisément prescrite sont examinés dans différentes conditions de vitesse et/ou de masse afin de laisser émerger des stratégies motrices variées et d’évaluer les éventuels principes de planification motrice sous-jacents. L’idée centrale est de s’écarter du paradigme classique consistant à étudier des mouvements point-à-point (où la cible est généralement indiquée par un point dans l’espace, par exemple une cible lumineuse) et porte sur l’étude d’une tâche dans laquelle le choix du point final du mouvement est laissé libre aux participants afin de faire surgir les différences interindividuelles ainsi que le processus de sélection ou de décision motrice qui a conduit aux stratégies observées. Ce type de tâche permet de mieux décoder les caractéristiques du contrôleur moteur humain. Les résultats empiriques sont ensuite modélisés et interprétés grâce au contrôle optimal inverse dont l’hypothèse associée estque les trajectoires expérimentales découlent de la minimisation d’une certaine fonction de coût qui est éventuellement composite. Cette approche combinée vise à révéler les principes ou règles qui gouvernent le processus de planification de ce type de mouvement des membres supérieurs et d’établir un lien entre les paramètres pertinents du geste, les fonctions de coûts et les caractéristiques individuelles.Les résultats montrent que les sujets produisent des stratégies motrices différentes aux niveaux cinématique et dynamique en fonction de la façon dont ils s’adaptent aux changements de vitesse et/ou de masse. Dans l’ensemble, ces changements ont des effets significatifs sur les trajectoires de la main (par exemple l’emplacement des points finaux choisis par les sujets) et les commandes motrices (notamment sur l’utilisation des couples d’interaction). Pourtant, certains sujets présentaient des dépendances plus exacerbées que d’autres qui ne variaient que peu leur stratégie de pointage par rapport aux changements de vitesse ou de masse induits par la tâche. L’investigation par contrôle optimal inverse a montré que ces résultats pouvaient être expliqués par une optimisation d’un coût composite mélangeant essentiellement des variables cinématique et dynamique durant la phase de planification motrice. Un tel modèle composite surpassait les prédictions des modèles séparés soit cinématique soit dynamique dans la prédiction de l’évolution des caractéristiques importantes du mouvement et des différences interindividuelles. En outre, il a permis de réconcilier des résultats controversés débattus dans des études antérieures en montrant que des comportements adaptatifs divergents peuvent émerger en fonction du poids des fonctions de coût élémentaires qui composent la fonction de coût totale. Dans l’ensemble, nos résultats suggèrent que la planification motrice des mouvements 3D non-contraints du bras mêle nécessairement des variables cinématiques et cinétiques, et que ce compromis semble être idiosyncrasique et ainsi conduire à des différences interindividuelles subtiles
The purpose of this thesis is to identify principles that could guide the planning of 3D upper-limb movements for different individuals. To this aim, the chosen approach combines novel experiments (namely, a “free reach-endpoint" motor task) with advanced computational techniques (here numerical inverse optimal control). Arm pointing movements without a prescribed final hand position are examined under different conditions of speed or load in order to let emerge various motor control strategies and assess the possible underlying motor planning principles. A core idea is to depart from classical point-to-point reaching paradigms (where the target is generally a dot, e.g. a spotlight target) to study a task in which the endpoint is left free to theparticipants in order to emphasize inter-individual differences as well as the selection process and motor decision that led to the observed strategies. This paradigm thus allows to better decipher the characteristics of the human motor controller. Empirical results are then modeled and interpreted in the inverse optimal control framework, hypothesizing that empirical arm trajectories derive from the minimization of a certain, possibly composite, cost function. This combined approach aims at revealing which principle or rule conceivably drives the planning process of these unrestrained upper-limb movements and to stablish a link between relevant motion parameters, cost functions and inter-individual peculiarities.The results show that subjects produced different motor strategies at both kinematic and dynamic levels depending on how they adapted to speed and/or load variations. Overall, significant motor adaptation of hand trajectories (e.g. location of reach endpoints) and motor commands (e.g. use of interaction torque) were found. Yet, some subjects exhibited stronger dependences than others who varied only little their reach strategies with respect to task-induced speed or load changes. When investigated from the optimal control viewpoint, these results could be accounted for by a composite cost essentially weighting kinematic and dynamic variables differentially at the motor planning stage. Such a composite model outperformed separate kinematic and dynamic ones in predicting the evolution of many important motion features and in explaining inter individual differences. Moreover, it allowed reconciling controversial findings of previous studies by showing that divergent adaptive behaviors can emerge depending on the weights of the elementary cost that may compose the total cost function. In sum, the present results suggest that motor planningof unrestrained3D arm movements necessarily mixes kinematic and kinetic variables and that this trade-off may be idiosyncratic and lead to subtle inter individual differences
APA, Harvard, Vancouver, ISO, and other styles
22

L'Hôte, Damien. "Essai d'une théorie générale de l'interposition de personne : de l'action en nom propre pour le compte d'autrui." Nancy 2, 2002. http://docnum.univ-lorraine.fr/public/NANCY2/doc141/2002NAN20006.pdf.

Full text
Abstract:
Dans le langage courant, l'interposition de personne peut être définie comme la méthode qui consiste à recourir à un intermédiaire en vue de servir d'écran à celui qui tire véritablement profit d'une opération. Or, le droit positif français présente, sous des dénominations variables, de nombreux procédés juridiques qui répondent à cette large définition : convention de prête-nom, contrat de commission, clause de réserve de command ou élection d'ami, société-écran, société fictive, etc. L'objectif de la thèse est de démontrer l'opportunité de les regrouper sous un concept juridique unitaire et de reconstruire une théorie générale de l'interposition de personne. En effet, malgré une extrême diversité de formes, de caractéristiques et de qualifications juridiques, tous ces procédés semblent unis par une problématique commune et semblent obéir à quelques principes implicites communs. La mise en évidence de ces éléments communs conduit naturellement à étudier les relations ambigue͏̈s et complexes qu'entretient l'interposition de personne avec plusieurs mécanismes fondamentaux de notre droit, notamment la représentation et la simulation
In the common language, acting through intermediaries can be defined as the method which consists in appealing to an intermediary in oder to serve as e screen for the one who really takes advantage of a contract. In the french law, a lot of legal methods meet, under various designations, this broad definition : "convention de prête-nom" (figurehead clause), "contrat de commission" (messenger contract), "clause de reserve de command" (clause of reserve for a friend), "société-écran" (screen-society), "société fictive" (fictitious society), etc. The aim of the thesis is to show the advisability of gathering them under a unitary legal concept and to build a general theory of action through intermediaries [note : in English law, this theme corresponds more or less to the theory of undisclosed principal]. Indeed, despite a great variety of forms, characteristics and legal definitions, all these methods have in common the same problematics and seem to obey to some common, implicit rules. Underlining these common elements naturally leads to the study of the ambiguous and complex relationship between the action through intermediaries and several basic mechanisms of the french law, in particular "representation" (agency) and "simulation" (shamming)
APA, Harvard, Vancouver, ISO, and other styles
23

L'Hôte, Damien Goubeaux Gilles. "Essai d'une théorie générale de l'interposition de personne de l'action en nom propre pour le compte d'autrui /." Nancy : Université Nancy 2], 2002. http://cyberdoc.univ-nancy2.fr/htdocs/docs_ouvert/doc141/2002NANCY0006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Kasal, Omer Emre. "Enhancing readiness of the Unmanned Aerial Vehicle (UAV) system via use of simulation modeling and contract incentives." Thesis, Monterey California. Naval Postgraduate School, 1999. http://hdl.handle.net/10945/13516.

Full text
Abstract:
The two most important reasons for the inefficiency in the Unmanned Aerial Vehicle (UAV) test system of the Turkish Army Command are the failure to address life cycle cost (LCC) considerations during financial resource allocations and the absence of contract reliability incentives. These problems are not uncommon to newly developed major weapon systems. The objective of this thesis is to develop a life cycle cost based decision support tool and a performance incentive fee contracting model to improve the operational availability of the UAV system. This thesis integrates the spare parts, and repair and replacement cost considerations into life cycle cost calculation of the UAV system and establishes a methodology to determine these costs by exploring the relationship among spare level, service and failure rate in terms of readiness. An increase in the stock level does not improve the UAV system's efficiency in the long run. This thesis also provides a tool for the computation of a performance incentive fee by using modeling and simulation. This study presents a computer aided decision Support tool for more efficient and effective allocation of scarce resources.
APA, Harvard, Vancouver, ISO, and other styles
25

Puiseux, Thomas. "Numerical simulations for phase-contrast magnetic resonance imaging." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS109.

Full text
Abstract:
L'hémodynamique (la manière dont le sang coule) est aujourd'hui considérée par la communauté médicale comme un marqueur prépondérant dans l'apparition et dans l'évolution de certaines pathologies cardiovasculaires (formation d’un caillot sanguin, anévrisme, sténose...). Les récents progrès technologiques ont permis d'adapter l'Imagerie par Résonance Magnétique (IRM) à l'exploration vélocimétrique 3D du système cardiovasculaire grâce à l'IRM de flux 4D. En plus d'être non invasive et non ionisante, cette technique ouvre l'accès à l'évaluation de quantités dérivées du champ de vitesse telles que la pression ou le frottement pariétal, pertinentes lors des diagnostics médicaux, mais difficilement accessibles par imagerie. Néanmoins, les contraintes technologiques (temps d'acquisition, résolution spatiale, dépendance aux vitesses d'encodages) limitent la précision des mesures. De plus, les complexités intrinsèques au processus d’acquisition en IRM rendent difficilement identifiables les sources d'erreurs de mesures.Cette thèse à pour but de développer une méthodologie standardisée permettant l'évaluation systématique des mesures par IRM de flux 4D dans un régime d'écoulement complexe. Dans ce but, un fantôme IRM compatible capable de générer un écoulement typique de ceux observés dans la circulation thoracique (crosse aortique, bifurcation, anévrisme) est conçu et intégré à un banc d'essai expérimental. L'écoulement est prédit par simulation numérique (Mécanique des fluides Numérique) et simultanément mesuré par IRM de flux 4D.Grâce à une évaluation rigoureuse des différences entre ces deux modalités, on montre d’abord que la simulation numérique peut être considérée comme une représentation fidèle du champ de vitesse réel.Une évaluation rigoureuse des différences entre ces deux modalités permet de considérer la simulation numérique comme l’écoulement de référence représentant le champ de vitesse réel. L'analyse met aussi en lumière d'une part des erreurs typiques de mesures du champ de vitesse par IRM de flux 4D, ainsi que des erreurs relatives au calcul de quantités dérivées (pression et le frottement pariétal).Enfin, une méthodologie de simulation du processus d'acquisition en IRM est développée. Couplée avec la MFN, celle-ci permet de reconstruire des images IRM synthétiques correspondant à l'écoulement de référence mesuré par un protocole d'acquisition donné, mais exemptes de toutes erreurs expérimentales. La capacité à produire des images in silico permet notamment d’identifier les sources d’erreurs (matériel, logiciel, séquence) en IRM de flux 4D
Hemodynamics (blood flow dynamics) is now recognized as a key marker in the onset and evolution of many cardiovascular disorders such as aneurysms, stenoses, or blood clot formation. As it provides a comprehensive access to blood flows in-vivo, time-resolved 3D phase-contrast magnetic resonance imaging (or 4D Flow MRI) has gained an increasing interest over the last years and stands out as a highly relevant tool for diagnosis, patient follow-up and research in cardiovascular diseases. On top of providing a non-invasive access to the 3D velocity field in-vivo, this technique allows retrospective quantification of velocity-derived hemodynamic biomarkers such as relative pressure or shear stress, which are pertinent for medical diagnosis but difficult to measure in practice. However, several acquisition parameters (spatio-temporal resolution, encoding velocity, imaging artifacts) might limit the expected accuracy of the measurements and potentially lead to erroneous diagnosis. Moreover, the intrinsic complexities of the MRI acquisition process make it generally difficult to localize the sources of measurement errors.This thesis aims at developing a methodology for the assessment of 4D Flow MRI measurements in complex flow configuration. A well-controlled experiment gathering an idealized in-vitro flow phantom generating flow structures typical of that observed in the cardiovascular system is designed. The flow is simultaneously predicted by means of a high-order Computational Fluid Dynamics (CFD) solver and measured with 4D flow MRI. By evaluating the differences between the two modalities, it is first shown that the numerical solution can be considered very close to the ground truth velocity field. The analysis also reveals the typical errors present in 4D flow MRI images, whether relevant to the velocity field itself or to classical derived quantities (relative pressure, wall shear stress). Finally, a 4D Flow MRI simulation framework is developed and coupled with CFD to reconstruct the synthetic MR images of the reference flow that correspond to the acquisition protocol, but exempted from experimental measurement errors. Thanks to this new capability, the sources of the potential errors in 4D Flow MRI (hardware, software, sequence) can be identified
APA, Harvard, Vancouver, ISO, and other styles
26

Bakni, Michel. "Outil de dimensionnement trans-niveaux de réseaux de capteurs sans fil contraints en énergie." Thesis, Bordeaux, 2021. http://www.theses.fr/2021BORD0087.

Full text
Abstract:
Un Réseau de Capteurs Sans Fil (RCSF) est composé d’un ensemble de noeuds alimentés par batterie, associant des capteurs à une unité de traitement et à un émetteur-récepteur sans fil. De nos jours, les RCSF font l’objet de nombreux travaux de recherche et développement. En effet, ces réseaux constituent une solution intéressante afin d’apporter une réponse à différents enjeux sociaux, sociétaux et économiques tels que le déploiement des Smart Grids ou la supervision à distance de la santé de personnes dans un contexte de vieillissement de la population. Ces RCSF ont la capacité d'être déployé dans des environnements contraints, tels que les forêts, les volcans et les bâtiments, pour atteindre divers objectifs : la localisation d’objets et d’individus mais aussi la surveillance de phénomènes physiques, comme les signaux physiologiques de patients ou la température ambiante d’un bâtiment.Cependant, le déploiement de ces RCSF est souvent rendu critique en raison des contraintes imposées par l'environnement d’application, par exemple, les températures pouvant être subies lors de la supervision d’un volcan, ou la difficulté d’accès aux noeuds lorsque ceux-ci sont utilisés pour la surveillance de l'état structurel d'une autoroute ou d'un bâtiment. Par conséquent, les chercheurs et développeurs de ce type de réseau ont besoin d'outils pour tester et évaluer, dans le cadre du processus de conception d'un RCSF, les performances des noeuds et du réseau avant de le déployer dans un environnement réel.Dans ce contexte, les outils de simulation peuvent apporter une solution permettant un gain de temps, une limitation des coûts et des efforts avant le déploiement d’un tel réseau dans son environnement d’utilisation. Ces outils sont donc aujourd’hui largement répandus et utilisés pour évaluer les performances d’un RCSF mais aussi les propositions issues de travaux de recherche relatifs à ce type de réseau. Néanmoins, la conception d'un RCSF, dédié à une application, doit tenir compte de sa structure multi-niveau : topologie, noeuds et circuits. Ainsi, pour aborder les principaux défis liés au RCSF, tels que la problématique d’autonomie énergétique des noeuds, la modélisation de ces réseaux est considérée comme une tâche complexe car l'approche de modélisation utilisée doit considérer sa structure multi-niveau afin de fournir des résultats exploitables provenant simultanément de niveaux d’abstraction différents.Dans cette thèse, nous définissons, proposons et implémentons un modèle trans-niveaux orienté énergie dédié au RCSF permettant de considérer simultanément différents niveaux d'abstraction : topologie, noeuds et circuits. Ce modèle est capable de tracer la consommation énergétique à partir de différents points de vue : l'activité spécifique d'un circuit, les activités d'un circuit ou d'un noeud, ainsi que son impact sur la durée de vie du RCSF. Notre modèle est ensuite implémenté dans un simulateur de RCSF dédié afin, en considérant différents scénarios, de comparer les résultats obtenus avec un simulateur existant et des noeuds réels dans le but de valider la pertinence de notre approche
Wireless Sensor Network (WSN) is a set of battery-powered nodes that include sensors coupled with processing units and wireless transceivers. Nowadays, WSN is a major topic in the research and development domain. Indeed, it constitutes an interesting solution to give an answer to different situations related to social, societal and economic issues such as the need to manage the Smart Grids or to supervise patient’s health in the context of the aging population. This kind of network has the capacity to be simply deployed in harsh environments, such as forests, volcanoes and buildings, to achieve various goals, like tracking targets, animals or human beings for example, or monitoring physical phenomena, such as patient physiological signals or ambient temperature in a building.However, the deployment of WSNs can be critical because of the difficult conditions imposed by the application environment, for example, the high temperatures in the case of volcano activity supervision, or the impossibility of reaching the nodes after deployment, when the WSN must be used to structural health monitoring of a highway or a building. Therefore, researchers and developers need tools to test and evaluate, in the design process of a WSN, node and network performances before deploying it in real surroundings.In this context, simulation can provide a solution that can save time, cost, and effort before deploying a WSN application in its real environment. This explains that simulation tools are widely used in WSN designing stages and for research works evaluation related to this kind of network. Nevertheless, designing a WSN, dedicated to a specific application, needs to address its multilevel structure: topology, nodes and circuits. Thus, to handle the main challenges of WSN design such as energy issues, WSN modelling is considered a complex task because the adopted modelling approach has to take into account the WSN multilevel structure in order to provide exploitable results from different points of view at the same time.In this thesis, we define, propose and implement a cross-level energy-aware model for WSN that allows considering different levels of abstraction at the same time: circuits, nodes and topology. This energy-oriented model is able to trace the energy consumption from multiple points of view: a specific circuit's activity, circuit or node activities, as well as the impact on the WSN lifetime. The proposed model is implemented in a dedicated WSN simulator, which is used, defining different scenarios, to compare obtained results with a well-known simulator and physical WSN nodes with the aim to validate the relevance of our approach
APA, Harvard, Vancouver, ISO, and other styles
27

Dumas, Antoine. "Développement de méthodes probabilistes pour l'analyse des tolérances des systèmes mécaniques sur-contraints." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0054/document.

Full text
Abstract:
L'analyse des tolérances des mécanismes a pour but d'évaluer la qualité du produit lors de sa phase de conception. La technique consiste à déterminer si, dans une production de grandes séries, le taux de rebuts des mécanismes défaillants est acceptable. Deux conditions doivent être vérifiées: une condition d'assemblage et une condition fonctionnelle. La méthode existante se base sur le couplage de la simulation de Monte Carlo avec un algorithme d'optimisation qui est très couteuse en temps de calcul. L'objectif des travaux de thèse est de développer des méthodes plus efficaces basées sur des approches probabilistes. Dans un premier temps, il est proposé une linéarisation des équations non linéaires du modèle de comportement afin de simplifier l'étape faisant appel à l'algorithme d'optimisation. Une étude de l'impact de cette opération sur la qualité de la probabilité est menée. Afin de minimiser l'erreur d'approximation, deux procédures itératives pour traiter le problème d'assemblage sont proposées. Ils permettent de calculer la probabilité de défaillance d'assemblage de façon précise en un temps de calcul réduit. En outre, les travaux de thèse ont permis le développement d'une nouvelle méthode de résolution basée sur la méthode de fiabilité système FORM (First Order Reliability Method) système. Cette méthode permet de traiter uniquement le problème fonctionnel. Elle a nécessité la mise au point d'une nouvelle formulation du problème d'analyse des tolérances sous forme système. La formulation décompose le mécanisme hyperstatique en plusieurs configurations isostatiques, le but étant de considérer les configurations dominantes menant à une situation de défaillance. La méthode proposée permet un gain de temps considérable en permettant d'obtenir un résultat en quelques minutes, y compris pour atteindre des faibles probabilités
Tolerance analysis of mechanism aims at evaluating product quality during its design stage. Technique consists in computing a defect probability of mechanisms in large series production. An assembly condition and a functional condition are checked. Current method mixes a Monte Carlo simulation and an optimization algorithm which is too much time consuming. The objective of this thesis is to develop new efficient method based on probabilistic approach to deal with the tolerance analysis of overconstrained mechanism. First, a linearization procedure is proposed to simplify the optimization algorithm step. The impact of such a procedure on the probability accuracy is studied. To overcome this issue, iterative procedures are proposed to deal with the assembly problem. They enable to compute accurate defect probabilities in a reduced computing time. Besides, a new resolution method based on the system reliability method FORM (First Order Reliability Method) for systems was developed for the functional problem. In order to apply this method, a new system formulation of the tolerance analysis problem is elaborated. Formulation splits up the overconstrained mechanism into several isoconstrained configurations. The goal is to consider only the main configurations which lead to a failure situation. The proposed method greatly reduces the computing time allowing getting result within minutes. Low probabilities can also be reached and the order of magnitude does not influence the computing time
APA, Harvard, Vancouver, ISO, and other styles
28

Datas, Adrien. "Analyse et simulation de mouvements d'atteinte contraints en position et orientation pour un humanoïde de synthèse." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0005/document.

Full text
Abstract:
La simulation du geste humain est une thématique de recherche importante et trouve notamment une application dans l'analyse ergonomique pour l'aide à la conception de postes de travail. Le sujet de cette thèse concerne la génération automatique de tâches d'atteinte dans le plan horizontal pour un humanoïde. Ces dernières, à partir d'un objectif exprimé dans l'espace de la tâche, requièrent une coordination de l'ensemble des liaisons. L'une des principales difficultés rencontrées lors de la simulation de gestes réalistes est liée à la redondance naturelle de l'humain. Notre démarche est focalisée principalement sur deux aspects : - le mouvement de la main dans l'espace opérationnel (trajectoire spatiale et profil temporel), - la coordination des différentes sous-chaînes cinématiques. Afin de caractériser le mouvement humain, nous avons mené une campagne de capture de mouvements pour des gestes d'atteinte contraignant la position et l'orientation de la main dans le plan horizontal. Ces acquisitions nous ont permis de connaître l'évolution spatiale et temporelle de la main dans l'espace de la tâche, en translation et en rotation. Ces données acquises couplées à une méthode de rejeu ont également permis d'analyser les relations intrinsèques qui lient l'espace de la tâche à l'espace articulaire du mannequin. Le schéma de génération automatique de mouvements réalistes est basé sur une pile de tâche avec une approche cinématique. L'hypothèse retenue pour simuler le geste est de suivre le chemin le plus court dans l'espace de la tâche tout en bornant le coût dans l'espace articulaire. Un ensemble de paramètres permet de régler le schéma. Il en résulte une cartographie de réglages qui permet de simuler une classe de mouvements réalistes. Enfin, ce schéma de génération automatique de mouvements réalistes est validé par une comparaison quantitative et qualitative entre la simulation et le geste humain
The simulation of human movement is an active theme of research, particularly in ergonomic analysis to aid in the design of workstations. The aim of this thesis concerns the automatic generation of reaching tasks in the horizontal plane for a virtual humanoid. An objective expressed in the task space, requires coordination of all joints of the mannequin. The main difficulties encountered in the simulation of realistic movements is related to the natural redundancy of the human. Our approach is focused mainly on two aspects: - Motion of the hand's operator in the task space (spatial and temporal aspect), - Coordination of all kinematic chains. To characterize human movement, we conducted a set of motion capture with position and orientation constraints of the hand in the horizontal plane. These acquisitions allowed to know the spatial and temporal evolution of the hand in the task space, for translation and rotation aspects. These acquired data were coupled with a playback method to analyze the intrinsic relations that link the task space to joint space of the model. The automatic generation scheme of realistic motion is based on a stack of task with a kinematic approach. The assumption used to simulate the action is to follow the shortest path in the task space while limiting the cost in the joint space. The scheme is characterized by a set of parameters. A global map of parameter adjustment enables the simulation of a class of realistic movements. Finally, this scheme is validated quantitatively and qualitatively with comparison between the simulation and the human gesture
APA, Harvard, Vancouver, ISO, and other styles
29

Barrett, Scott M. "A Computer Simulation Model for Predicting the Impacts of Log Truck Turn-Time on Timber Harvesting System Productivity." Thesis, Virginia Tech, 2001. http://hdl.handle.net/10919/31170.

Full text
Abstract:
A computer simulation model was developed to represent a logging contractorâ s harvesting and trucking system of wood delivery from the contractorâ s in-woods landing to the receiving mill. The Log Trucking System Simulation model (LTSS) focuses on the impacts to logging contractors as changes in truck turn times cause an imbalance between harvesting and trucking systems. The model was designed to serve as a practical tool that can illustrate the magnitude of cost and productivity changes as the delivery capacity of the contractorâ s trucking system changes. The model was used to perform incremental analyses using an example contractorâ s costs and production rates to illustrate the nature of impacts associated with changes in the contractorâ s trucking system. These analyses indicated that the primary impact of increased turn times occurs when increased delivery time decreases the number of loads per day the contractorâ s trucking system can deliver. When increased delivery times cause the trucking system to limit harvesting production, total costs per delivered ton increase. In cases where trucking significantly limits system production, total costs per delivered ton would decrease if additional trucks were added. The model allows the user to simulate a harvest with up to eight products trucked to different receiving mills. The LTSS model can be utilized without extensive data input requirements and serves as a user friendly tool for predicting cost and productivity changes in a logging contractorâ s harvesting and trucking system based on changes in truck delivery times.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
30

Ben, Cheikh Mohamed Najeh. "Effet du contraste de la masse volumique sur le déplacement et l'infiltration de substances non réactives en milieu poreux saturé." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL106N.

Full text
Abstract:
L’utilisation de méthodes numériques classiques pour la modélisation du transfert de polluant dans un milieu poreux homogène et saturé se heurte à plusieurs difficultés. Afin de contourner ces obstacles, deux méthodes ont été choisies. La première est celle des éléments finis mixtes hybrides appliquée pour la résolution de l'équation de l'écoulement et des termes dispersif et accumulatif de l'équation de transport. La seconde est la méthode des éléments finis discontinus appliquée pour la résolution du terme convectif de l'équation de transport. Ces méthodes sont soumises à des comparaisons, faisant l'objet d'une synthèse bibliographique, avec d'autres méthodes dans le cas ou le contraste de masse volumique n'est pas pris en compte. Le code de calcul a été généralise pour le cas où la variation de la masse volumique en fonction de la concentration n'est plus négligeable. Le nouveau code est testé sur deux exemples devenus classiques. La zone de mélange lors d'un déplacement, dans un milieu poreux saturé et indéformable, de deux fluides miscibles avec contraste de masse volumique a été étudiée à travers deux types de déplacement. Le déplacement horizontal constitue le premier cas où l'inclinaison du front de polluant a été particulièrement étudiée à travers l'influence des paramètres intervenant dans ce phénomène. Le second type de déplacement est celui de l'infiltration ponctuelle d'une solution saline dans un milieu poreux initialement saturé en eau douce au repos. Une solution théorique simplifiée exprimant l'avancement du front de polluant suivant un axe vertical a été comparée aux résultats des simulations numériques.
APA, Harvard, Vancouver, ISO, and other styles
31

Lasoroski, Aurélie. "Etude de complexes de gadolinium d’intérêt pour l’IRM : simulations ab-initio et propriétés magnétiques." Paris 6, 2013. http://www.theses.fr/2013PA066216.

Full text
Abstract:
Lors d’examens IRM des agents de contraste sont utilisés afin d’affiner les diagnostics. Ces agents sont constitués d’un ion paramagnétique, la plupart du temps le gadolinium, chélaté par un ligand linéaire ou macrocyclique afin d’éviter tout relargage et donc toute toxicité. Dans cette thèse, nous étudions les propriétés magnétiques de complexes de gadolinium. Ces propriétés magnétiques influencent la relaxation d’une molécule d’eau coordinée à l’ion central, relaxation à l’origine des contrastes visibles sur les images IRM. Nous nous sommes intéressés à l’agent de contraste commercial ProHance ainsi qu’à des systèmes dérivés. Après avoir réalisé des simulations de dynamique moléculaire ab initio des espèces à étudier, et les avoir analysées, nous avons sur ces systèmes des calculs de structure électronique explicitant les interactions hyperfines en jeu au sein du système, ainsi que le Zero-Field Splitting. Il a ainsi été possible de définir un tenseur hyperfin moyen pour chacun des systèmes étudiés. De plus, une décomposition du terme en fonction de variables collectives géométriques a permis d’expliciter l’origine des fluctuations rapides du tenseur hyperfin dans le cas du ProHance. Enfin, le ZFS a été décomposé en un terme dit transitoire et un terme dit statique. Ceci permettra par la suite de modéliser la relaxation électronique des systèmes étudiés et la relaxation du proton de la molécule d’eau coordinée
Currently MRI exams use contrast agents to enhance contrast imaging and so diagnostics. A contrast agent is most of the time a gadolinium complex in which a chelate ligand is used to avoid Gd release, thus preventing toxic ion to spread in patient’s body. In this thesis we studied magnetic properties of gadolinium complexes that affect the relaxation of a water molecule coordinated to Gd, which is the source of contrast imaging. We focused on the commercial contrast agent ProHance, and some derivatives. The first step was to compute ab initio molecular dynamics of the different systems and analyse them. Then we calculated using quantum chemistry hyperfine interaction and Zero-Field Splitting. The analysis of hyperfine tensors was achieved for each system, and average terms were estimated. The origin of tensors’ fast fluctuations in ProHance system was identified thanks to geometrical collectives variables decomposition. ZFS was decomposed into two contributions: static and transient. We can now set up from ab initio all the necessary ingredients for modeling the electronic relaxation time and then the water coordinated molecule proton relaxation for each of the studied systems
APA, Harvard, Vancouver, ISO, and other styles
32

Yerly, Fabrice. "Simulation de la structure et de la dynamique d'agents de contraste pour l'imagerie médicale par résonance magnétique /." [S.l.] : [s.n.], 2003. http://library.epfl.ch/theses/?nr=2834.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Huber, Sebastian [Verfasser], Stefan [Akademischer Betreuer] Spinler, and Ove [Akademischer Betreuer] Jensen. "Pricing of full-service repair and maintenance contracts: an analytical and simulative approach / Sebastian Huber. Betreuer: Stefan Spinler ; Ove Jensen." Vallendar : WHU - Otto Beisheim School of Management, 2013. http://d-nb.info/1037792335/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Petersson, Sven. "Simulation of Phase Contrast MRI Measurements from Numerical Flow Data." Thesis, Linköping University, Department of Biomedical Engineering, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-14871.

Full text
Abstract:

Phase-contrast magnetic resonance imaging (PC-MRI) is a powerful tool for measuring blood flow and has a wide range of cardiovascular applications. Simulation of PC-MRI from numerical flow data would be useful for addressing the data quality of PC-MRI measurements and to study and understand different artifacts. It would also make it possible to optimize imaging parameters prior to the PC-MRI measurements and to evaluate different methods for measuring wall shear stress.

Based on previous studies a PC-MRI simulation tool was developed. An Eulerian-Lagrangian approach was used to solve the problem. Computational fluid dynamics (CFD) data calculated on a fix structured mesh (Eulerian point of view) were used as input. From the CFD data spin particle trajectories were computed. The magnetization of the spin particle is then evaluated as the particle travels along its trajectory (Lagrangian point of view).

The simulated PC-MRI data were evaluated by comparison with PC-MRI measurements on an in vitro phantom. Results indicate that the PC-MRI simulation tool functions well. However, further development is required to include some of the artifacts. Decreasing the computation time will make more accurate and powerful simulations possible. Several suggestions for improvements are presented in this report.

APA, Harvard, Vancouver, ISO, and other styles
35

Fransson, Samuel. "Validation and Robustness Analysis of Dynamic Contrast Enhanced MRI." Thesis, Umeå universitet, Institutionen för fysik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-107987.

Full text
Abstract:
In Dynamic Contrast Enhanced MRI there are several steps from the initial signal to obtaining the pharmacokinetic parameters for tumor characterization. The aim of this work was to validate the steps in the flow of data focusing on T1-mapping, Contrast Agent (CA)-quantification and the pharmacokinetical (PK) model, using a digital phantom of a head. In the Digital Phantom tissues are assigned necessary values to obtain both a regular and contrast enhanced (using Parker AIF) representation and simulating an SPGR signal. The data analysis was performed in a software called MICE, as well as the Digital Phantom developed at the department of Radiation Sciences at Umeå University. The method of variable flip angles for the T1-mapping was analyzed with respect to SNR and number of flip angles, finding that the median value in each tissue is correct and stable. A "two point" inversion recovery sequence was tested with optimal combination of inversion times for white matter and CSF and obtaining correct T1-values when the inversion times were close to the tissue T1, otherwise with large deviations seen. Three different methods for CA-quantification were analyzed and a large underestimation was found assuming a linearity between signal and CA-concentration mainly for vessels at about 60%, but also for other tissue such as white matter at about 15%, improving when the assumption was removed. Still there was a noticeable underestimation of 30% and 10% and the quantification was improved further, achieving a near perfect agreement with the reference concentration, taking the T2*-effect into account. Applying Kety-model, discarding the vp-term, Ktrans was found to be stable with respect to noise in the tumor rim but ve noticeably underestimated with about 50%. The effect of different bolus arrival time, shifting the AIF required in the PK-model with respect to the CA-concentration, was tested with values up to 5 s, obtaining up to about 5% difference in Ktrans as well as the effect of a vascular transport function obtained by the means of an effective mean transit time up to 5 s and up to about 5% difference in Ktrans.
APA, Harvard, Vancouver, ISO, and other styles
36

Bambou, Mike. "Création d'un modèle de market-timing à partir de deux modèles industriels : simulation d'une gestion de portefeuille de contrats de matières premières." Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE0508.

Full text
Abstract:
Dans l’industrie, des méthodes de Maîtrise Statistique des Procédés (MSP) sont utilisées pour savoir si des pièces usinées lors d’un processus de fabrication sont non conformes aux spécifications. Les deux méthodes utilisées sont la méthode de Shewhart et la méthode EWMA (moyenne mobile à pondération exponentielle). Une adaptation de ces deux méthodes à la bourse est faite pour créer un modèle qui anticipe les cours sur les marchés à termes de matières premières. Ces deux méthodes sont utilisées simultanément, ce qui est une première. Le modèle présenté différencie plusieurs types de mouvements et plusieurs types d’investisseurs sur les marchés. C’est un modèle prudent. L’obtention de fortes performances est importante mais la diminution du risque et la limitation des pertes le sont également. Une simulation de la gestion d’un portefeuille pouvant être investi dans douze marchés à terme est faite. Ces marchés sont les suivants : le gaz naturel, le pétrole, le blé, le maïs, le soja, le bois, le jus d’orange concentré surgelé, le café, le cacao, le sucre, le coton et le cuivre. Cette simulation dans laquelle le portefeuille n’est pas « en levier » donne des résultats impressionnants. La simulation est faite du 3 janvier 2000 au 31 décembre 2013. Le capital initial est de $ 10 000 000 et à la fin de la simulation il est de $ 189 868 766. Le taux de rendement actuariel est de 23%. La seule rentabilité annuelle négative est celle de 2013 (-0.5%) et la meilleure est celle de 2010 (67%) La volatilité annualisée est de 17%. Le ratio d’information est exceptionnel : 0.85 ! La capacité au market-timing est de 47%. Ce pourcentage est ordinaire mais il recouvre le fait que la performance moyenne d’une position gagnante est de 17% tandis que celle d’une position perdante est de -6%. La performance d’une position gagnante compense, en moyenne, celle de trois positions perdantes
Methods of Statistical Process Control (SPC) are used in the industrial sector to know if work pieces are conforms to specifications. Two methods are used: the Shewhart method and the Exponentially-weighted moving average method (EWMA). An adaptation of these methods to the financial markets is done to create a model which anticipates prices on commodities markets. Both methods are used simultaneously which is the first time. The developed model distinguishes several types of market movements and various types of investors. It is a safe model. Obtaining strong performances is important but reducing risk and limiting losses are too. A simulation of the management of a portfolio which may be invested of twelve commodities is done. The markets are: natural gas, oil, wheat, corn, soybeans, lumber, frozen concentrated orange juice, coffee, cocoa, sugar, cotton and copper. We decide to simulate a portfolio without “leverage” and results are impressive. The simulation is done from January 3rd 2000 to December 31th 2013. The initial capital of the portfolio is $ 10,000,000 and at the end of the simulation is $ 189,868,766. The rate of annual return is 23%. The only negative annual return is that of 2013 (-0.5%) and the best is that of 2010 (67%). The annualized volatility is 17%. The information ratio is exceptional: 0.85! The ability to market timing is 47%. This percentage is ordinary, but the average performance of winning positions is 17% while that of a losing position is -6%. The performance of a winning position, on average, corrects that of three losing positions
APA, Harvard, Vancouver, ISO, and other styles
37

Richert, Michael. "Apport de la polarimétrie en imagerie active : optimisation du contraste polarimétrique et mesure de biréfringence induite par imagerie de Mueller." Toulouse, ISAE, 2009. http://www.theses.fr/2009ESAE0015.

Full text
Abstract:
Les systèmes d'imagerie usuels sont fondés sur la seule mesure de l'intensité de la lumière transmise, réfléchie ou diffusée par l'objet étudié, et n’exploitent pas l'information contenue dans le caractère vectoriel de celle-ci, c'est-à-dire sa polarisation. Cette thèse présente le développement et la validation expérimentale d'un imageur de Mueller en lumière cohérente permettant la mesure complète de cette information polarimétrique. En particulier, elle propose une application de cet instrument pour la mesure de biréfringence induite dans des matériaux transparents, pour la caractérisation des contraintes élastiques. Une validation semi-quantitative de ce phénomène par simulation numérique est présentée. Par ailleurs, cette thèse propose une méthode originale d'optimisation du contraste entre un objet et son fond à partir de l'information polarimétrique complète de la scène en identifiant les états de polarisation incidents et d'analyses qui permettront de maximiser ce contraste. Cette méthode a été validée numériquement et a montré un gain en contraste notable par rapport aux mesures polarimétriques classiques.
APA, Harvard, Vancouver, ISO, and other styles
38

Richefeu, Vincent. "Approche par éléments discrets 3D du comportement de matériaux granulaires cohésifs faiblement contraints." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00012112.

Full text
Abstract:
L'etude porte sur la modélisation du comportement mécanique de matériaux granulaires cohésifs sous faibles niveaux de chargement. Le sujet est abordée par des approches numérique (en éléments discrets), expérimentale et théorique. Un code de calcul tridimensionnel (nommé tapio-K) a été mis au point avec comme spécificité d'intégrer plusieurs lois de cohésion. La confrontation d'essais expérimentaux et numériques de cisaillement direct d'échantillons de billes de verre a permis la validation du code de calcul. En outre, cette confrontation a mis en évidence la nécessité de réaliser des essais faiblement contraints afin de juger de l'influence de la cohésion capillaire. Un nouveau dispositif a été réalisé à cette fin. Les mesures obtenues à l'aide de ce dispositif, les simulations numériques, ainsi qu'une analyse théorique ont permis de mettre en évidence l'importance de la distribution du liquide au sein d'un matériau granulaire humide (phase liquide discontinue) sur la résistance au cisaillement. Enfin, quelques cas tests d'application (compression simple, vidange d'un matériau granulaire humide, traficabilité d'un sol de surface) sont présentés pour montrer les possibilités du code de calcul.
APA, Harvard, Vancouver, ISO, and other styles
39

Bataille, Frédéric. "Evaluation d'une méthode de restitution de contraste basée sur le guidage anatomique de la reconstruction des images cérébrales en tomographie par émission de positons." Paris 11, 2007. http://www.theses.fr/2007PA112044.

Full text
Abstract:
La tomographie par émission de positons est une modalité d'imagerie médicalepermettant d'obtenir in-vivo une image volumique des processus fonctionnels du corps humain, notamment utilisée en imagerie cérébrale pour le diagnostique et le suivi longitudinal des maladies neurodégénératives. L'efficacité de la tomographie est cependant limitée par sa faible résolution spatiale, qui engendre une diminution du contraste local de l'image et une sous-estimation de l'activité des structures cérébrales de petite taille impliquées dans le mécanisme de dégénérescence de ces maladies. Cette dégradation, connue sous le nom d'effet de volume partiel, est généralement corrigée sur les images reconstruites en utilisant une information anatomique dont la résolution spatiale permet de mieux distinguer les différents tissus fonctionnels. Ce type de méthode présente cependant l'inconvénient majeur d'être très sensible aux erreurs résiduelles sur les prétraitements de l'information anatomique. L'alternative que nous avons développée dans cette thèse consiste à compenser la dégradation durant le processus de reconstruction en incorporant dans celui-ci à la fois une modélisation de la réponse impulsionnelle du système ainsi qu'une contrainte anatomique a priori sur l'image à reconstruire. Par comparaison avec une stratégie de correction post-reconstruction, nous avons validé cette méthodologie sur des données issues d'une acquisition sur fantôme anthropomorphique, puis nous avons évalué sa robustesse vis-à-vis des erreurs résiduelles au moyen de la simulation Monte Carlo réaliste d'un examen cérébral. L'algorithme développé a finalement été appliqué à la reconstruction d'examens cliniques
Positron emission tomography is a medical imaging modality providing in-vivo volumetric images of functional processes of the human body, which is used for the diagnosis and the following of neurodegenerative diseases. PET efficiency is however limited by its poor spatial resolution, which generates a decrease of the image local contrast and leads to an under-estimation of small cerebral structures involved in the degenerative mechanism of those diseases. This so-called partial volume effect degradation is usually corrected in a post-reconstruction processing framework through the use of anatomical information, whose spatial resolution allows a better discrimination between functional tissues. However, this kind of method has the major drawback of being very sensitive to the residual mismatches on the anatomical information processing. We developed in this thesis an alternative methodology to compensate for the degradation, by incorporating in the reconstruction process both a model of thesystem impulse response and an anatomically-based image prior constraint. This methodology was validated by comparison with a post-reconstruction correction strategy, using data from an anthropomorphic phantom acquisition and then we evaluated its robustness to the residual mismatches through a realistic Monte Carlo simulation corresponding to a cerebral exam. The proposed algorithm was finally applied to reconstruct clinical data
APA, Harvard, Vancouver, ISO, and other styles
40

Boussaid, Ahlem. "Simulation du contraste d'images de MET à N ondes : application aux ruptures de périodicité d'un sous-joint de torsion [001] du silicium." Grenoble INPG, 2005. http://www.theses.fr/2005INPG0070.

Full text
Abstract:
Depuis quelques années, de nouveaux substrats monocristallins de silicium ont été élaborés par adhésion moléculaire de films ultraminces de silicium sur des substrats de silicium (001) Si. Cette technique ouvre ainsi une voie nouvelle pour la croissance auto-organisée de nanostructures ou pour le gravage chimique à l'échelle nanoscopique. Cette nanostructuration est favorisée par la déformation élastique de la surface libre causée par la présence d'un réseau plan enterré de dislocations intrinsèques formant un sous-joint de torsion. Une étude associant la microscopie électronique à transmission (MET) en " mode deux ondes ", en " faisceau faible " ou en " mode multi-ondes " a été entreprise dans le but d'analyser en détail les défauts structuraux du réseau de dislocations intrinsèques. En effet, les observations en MET indiquent que ce réseau est imparfait à cause d'une petite composante de flexion non désirée, inévitablement introduite lors du collage moléculaire de la couche ultramince sur le substrat (001)Si. Le sous-joint apparaît formé de régions I et II très différentes d'aspect : la région I renferme un motif carré régulier, périodique, de dislocations intrinsèques vis, et la région II inclut des ruptures de périodicité du réseau carré qui se manifestent par des successions de nœuds triples de dislocations. Chaque nœud est séparé de son voisin par une longueur de quelques dizaines de nanomètres. Ces distances très courtes expliquent que ces nœuds triples ne soient pas encore été étudiés quantitativement en MET. Dans ce travail, il s'agit de calculer les contrastes des zones I et II, et donc de déterminer les modules et les sens des vecteurs de Burgers de chaque brin de dislocations. Le contraste de la région I, bipériodique, a été calculé en bâtissant un code de calcul basé sur la théorie dynamique à N ondes (N < 7 faisceaux) et un champ élastique des déplacements u développé en série double de Fourier. La région II, plus complexe, est modélisée en calculant le champ u de deux façons différentes : l'une utilise, de façon répétée, la notion de dislocation angulaire et l'autre le concept de dislocation de Somigliana étendue sur une surface hexagonale
In recent years, new single crystalline silicon substrates have been built from molecular adhesion of ultrathin silicon films onto a (001) silicon wafer. This technique opens therefore a new way to grow self-organized nanostructures or to engrave chemically a silicon substrate at a nanoscale. This nanostructuration is favored by the elastic deformation of the free surface due to the presence of a buried planar network of intrinsic dislocations forming a low angle twist grain boundary. A transmission electron microscopy (TEM) study including “two beam”, “weak beam” and “multi-beam” conditions, has been undertaken in the aim to analyse in details the structural defects of the intrinsic dislocation network. Indeed, TEM observation shows that this network is imperfect because of an undesired small tilt component arising inevitably from the process of molecular adhesion of the ultrathin film onto the (001) silicon substrate. The dislocation network exhibits two regions I and II, the aspects of which are very different : region I exhibits a square, periodic, pattern of intrinsic screw dislocations, while region II includes periodic breaks of the regular square pattern, appearing as successions of triple nodes of dislocations. Each node is separated from its neighbours by distances of a few nanometers. These small distances explain why these triple nodes were never studied quantitatively in TEM. In the present work, the TEM contrasts of the I and II regions have been calculated in order to determine the lengths and the senses of the Burgers vectors of each dislocation segment. The biperiodic contrast of region I was calculated from the construction of a calculation code based on the N-beam dynamical theory (N <7 beams) and a displacement elastic field u developed in double Fourier series. The more complex region II is modelled from two different formulations of the u field : one uses, in a repeated way, the notion of angular dislocation and the other the concept of a Somigliana dislocation extended over a hexagonal surface
APA, Harvard, Vancouver, ISO, and other styles
41

Jiao, Yuanfang. "A simulation comparison of two methods for controlling the experiment-wise Type I error rate of correlated tests for contrasts in one-way completely randomized designs." Kansas State University, 2014. http://hdl.handle.net/2097/17619.

Full text
Abstract:
Master of Science
Department of Statistics
Paul I. Nelson
A Bonferroni and an ordered P-value solution to the problem of controlling the experiment-wise Type I error rate are studied and compared in terms of actual size and power when carrying out correlated tests. Although both of these solutions can be used in a wide variety of settings, here they are only investigated in the context of multiple testing that specified pairwise comparisons of means, selected before data are collected, are all equal to zero in a completely randomized, balanced, one factor design where the data are independent random samples from normal distributions all having the same variance. Simulations indicate that both methods are very similar and effective in controlling experiment wise type error at a nominal rate of 0.05. Because the ordered P-value method has, almost uniformly, slightly greater power, it is my recommendation for use in the setting of this report.
APA, Harvard, Vancouver, ISO, and other styles
42

FELDER, Christophe. "Transport d'une solution saline en cellule de Hele-Shaw - Expériences et simulations numériques." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2003. http://tel.archives-ouvertes.fr/tel-00006120.

Full text
Abstract:
Afin d'étudier l'évolution spatio-temporelle d'un polluant miscible à l'eau et non réactif dans un milieu poreux saturé, un modèle de laboratoire (une cellule de Hele-Shaw transparente) a été développé. La conception de ce dispositif, les plaques sont réalisées en verre optique, a permis de mettre au point une méthode globale et non intrusive de mesure de la concentration dans la zone de mélange. Cette méthode est basée sur les propriétés d'absorption de la lumière par un colorant marquant la solution injectée. L'analogie entre une cellule de Hele-Shaw et un milieu poreux est basée sur la possibilité d'exprimer la vitesse moyenne de l'écoulement entre les deux plaques par la loi de Darcy. En outre, le transport moyen d'un traceur peut être décrit avec un tenseur de dispersion (dispersion de Taylor). Dans le cas d'un fluide hétérogène (e.g. : contrastes de masse volumique ou de viscosité), les conditions d'analogie sont obtenues par une approche analytique de type développement asymptotique et homogénéisation pour prendre en compte la variation de la masse volumique et de la viscosité dynamique en fonction de la concentration. Une nouvelle forme du tenseur de dispersion est établie. Suivant le débit volumique et la fraction massique en sel de la solution injectée dans le milieu homogène, des expériences qualitativement reproductibles montrent que le panache se propage sous la forme d'un ou de deux doigts. Un critère empirique, basé sur le rapport entre la vitesse gravitationnelle et celle à l'injection, est formulé pour prédire le type de propagation. Les simulations, réalisées avec un code numérique développé au laboratoire et incluant la nouvelle forme du tenseur de dispersion, permettent : (i) de reproduire de manière satisfaisante les résultats expérimentaux obtenus en milieu homogène et hétérogène et (ii) d'analyser les influences de la diffusion, de la géométrie de l'injection et du type de régime de dispersion sur les distributions numériques du soluté.
APA, Harvard, Vancouver, ISO, and other styles
43

Salgueiro, Hartard Leandro Sebastian. "Etude expérimentale et simulation d'écoulements de suspensions fibreuses - Application à une caisse de tête." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00395383.

Full text
Abstract:
L'évolution des machines à papier pour obtenir des qualités de papier supérieures a fait évoluer les
équipements papetiers en complexité et en précision. L'injecteur hydraulique de pâte à papier, appelé caisse de tête dans l'industrie, n'a pas échappé à cette règle. Nous avons analysé chaque partie constituant une caisse de tête, en nous basant sur des observations et mesures directes quand les conditions le permettaient, ou sinon grâce à des simulations numériques, pour répondre à des questions essentielles relatives à l'utilité
et au dimensionnement de chaque partie d'une caisse de tˆete moderne. Pour cela, deux approches ont été retenues : la première est l'étude hydrodynamique de la suspension circulant dans chaque élément, surtout en termes d'´echelle et intensité de turbulence ; la deuxième est l'analyse de la réaction de la pâte à cette énergie.
Nous avons remarqué que l'eau peut être utilisée au lieu d'une suspension fibreuse pour établir les paramètres de dimensionnement. Finalement, nous avons étudié les paramêtres géométriques de la buse terminale d'une caisse de tête pour donner des solutions alternatives aux méthodes actuelles servant au contrôe du jet. Nous
avons démontré que les modèles existants pour caractériser le jet ne sont pas toujours applicables aux caisses de tête modernes et avons observé qu'aucune solution alternative n'est proposée actuellement pour calculer correctement l'angle et le coefficient de contraction du jet. Nous avons montré que le calcul de l'angle du jet est possible pour tout type de géométrie et avons mis en évidence la position de la veine contractée. Nous
avons aussi montré que l'utilisation d'un double convergent peut modifier significativement l'angle de jet et cela devrait être pris en compte.
APA, Harvard, Vancouver, ISO, and other styles
44

Savaux, Julien. "Privacité dans les problèmes distribués contraints pour agents basés utilité." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0030.

Full text
Abstract:
Bien que le domaine des systèmes multi-agents ait été largement étudié, les interactions entre agents entraînent des pertes de privacité. En effet, la résolution de problèmes distribués, étant fréquemment combinatoires, impose un échange intensif d’informations entre les agents jusqu’à l’obtention d’un accord. Le problème est que les approches existantes ne considèrent généralement pas la confidentialité des données et se concentrent surtout sur la satisfaction des contraintes des agents pour évaluer les solutions. Les travaux présentés dans cette thèse visent donc à prendre en compte de façon principielle la problématique de la privacité dans le raisonnement distribué. Nous montrons que les travaux existants dans le domaine permettent toutefois aux agents de préserver implicitement un certain degré de privacité. Nous proposons une approche basée sur la théorie de l’utilité, un cadre formel bien défini en Intelligence Artificielle, permettant une approche objective et quantitative des intérêts et comportements raisonnables des agents. Plus précisément, le modèle que nous avons développé inclut non seulement les paramètres habituels mais également l’information sur la privacité des agents quantifiée en termes d’utilité. Nous montrons aussi que ces problèmes doivent être envisagés comme des problèmes de planification où les agents choisissent des actions maximisant leur utilité. Des algorithmes actuels peuvent être décrits comme des plans utilisables comme modèle générique par des planificateurs intelligents. Les expérimentations réalisées ont permis de valider l’approche et d’évaluer la qualité des solutions obtenues tout en montrant que leur efficacité peut être accrue à l’aide de traitements de privacité
Although the field of multi-agent systems has been largely studied, interactions between agents imply privacy loss. Indeed, solving distributed problems, being frequently combinatorial, implies an extensive exchange of information between agents until an agreement is found. The problem is that existing approaches do not generally consider privacy and focus only on the satisfaction of agents’ constraints to evaluate solution. The works presented in this thesis therefore aim at considering systematically the issue of privacy in distributed reasoning. We show that existing works in the field still let agents preserve implicitly some degree of privacy. We propose an approach based on utility theory, a formal setting well defined in Artificial Intelligence, allowing an objective and quantitative approach to the interests and reasonable behaviours of agents. More precisely, the model we have developed includes non only the usual parameters but also information on agents privacy quantified in term of utility. We also show that these problems must be considered as planning problems where agents choose actions maximizing their utility. Common algorithms can be described as plans usable as generic models by intelligent planners. Conducted experiments let us validate the approach and evaluate the quality of obtained solution, while showing that their efficiency can be improved thanks to privacy considerations
APA, Harvard, Vancouver, ISO, and other styles
45

Procaccini, Marco. "Evaluation of the perceived sense of speed in a driving simulator." Thesis, Högskolan i Skövde, Institutionen för kommunikation och information, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-8458.

Full text
Abstract:
In this project we evaluated the perception of speedin a driving simulator. The study provides a preliminary survey that focuses onhow human beings can perceive moving in space. We have developed and implemented some techniques to study how we modify the perception of speed in adriving simulator. We targeted the driving perspective, trying to create certain effects in order to affect the perceived sense of speed. Changing the contrast of the scene we studied how the perception of the speed has been modified. Testing this modification we saw a change in the perception of the speed by the driver, who noticed an increase of the perceived speed through the alteration of the contrast of the scene.
APA, Harvard, Vancouver, ISO, and other styles
46

MARTIN, Vincent. "Simulations multidomaines des écoulements en milieu poreux." Phd thesis, Université Paris Dauphine - Paris IX, 2004. http://tel.archives-ouvertes.fr/tel-00007142.

Full text
Abstract:
Cette thèse traite des simulations multidomaines des écoulements en milieu poreux. Trois aspects sont abordés. Une étude est d'abord menée concernant une méthode de décomposition de domaines avec des maillages non-raccordés, utilisant des conditions d'interface de type Robin, pour les éléments finis mixtes. D'autre part, la méthode est implémentée en parallèle à l'aide du système parallèle OcamlP3l, écrit par des informaticiens dans le langage Ocaml. En OcamlP3l, l'utilisateur programme et débogue en séquentiel, puis obtient le code parallèle par une simple recompilation. Enfin, nous présentons un nouveau modèle d'écoulement dans un mileu poreux contenant de grandes fractures, avec des perméabilités très grandes et/ou très faibles. Dans ce modèle, les fractures sont traitées comme des interfaces entre sous-domaines. Une analyse théorique prouve l'existence et l'unicité de la solution, fournit une estimation d'erreur, qui est confirmée par des tests numériques.
APA, Harvard, Vancouver, ISO, and other styles
47

Ruel, Frédéric. "Le choix du type de contrat." Saint-Etienne, 1995. http://www.theses.fr/1996STETT035.

Full text
Abstract:
Notre droit est dominé par un principe fondamental celui de la liberté contractuelle. Tout individu est libre de contracter ou non, de choisir son cocontractant mais également de choisir le type de contrat qu'il entend utiliser pour réaliser l'opération économique ou sociale qu'il veut mener à bien. Si à une situation donnée, il existe un ou plusieurs contrats qu'ils soit nommés ou innommés, les parties ou l'une d'entre elles peuvent ne pas vouloir se contenter des figures contractuelles que leur offrent le code civil ou la loi et décider de choisir un autre type de contrat. Ainsi, afin de réagir contre une réglementation souvent impérative, les parties cherchent des "contrats de substitution" aux contrats traditionnels. Face à ce choix par les contractants d'un type de contrat à la place d'un autre, notre droit va avoir une réaction qui s'exprime sur trois terrains : le premier est celui d'un contrôle de la réalité du choix d'un type de contrat effectué par les parties ou l'une d'entre elles. En effet, les parties peuvent choisir un contrat dans le but d'en masquer un autre où elle peuvent qualifier inexactement leur relation, volontairement ou non, afin d'éviter certains effets du contrat évincé. Le second est celui où le droit pose des limites à la liberté du choix d'un contrat. Il y a des cas où le choix d'un contrat à la place d'un autre ne va pas être considéré comme licite que ce soit par application de textes préexistants lorsque le législateur propose aux parties le choix d'un contrat ou sur le fondement de la fraude à la loi lorsque la liberté contractuelle s'exprime pleinement. Enfin, le troisième terrain de réaction est celui où les tribunaux vont admettre le choix du contrat opéré par l'une ou les parties tout en cherchant à en limiter les effets. La jurisprudence va alors opérer à des modulations des effets du choix
Our law is dominated by a fundamental principle that of contractual freedom. Every individual is free to contract, to choose his co-contracting party but also to choose the type of contract he intends using to fulfil the economic or social operation he wishes to achieve. If, in a given situation, there is one or several contracts whether nominate or innominate, the parties or one of them may not wish to make do with the contractual forms covered within the civil code or the law and decide to choose another type of contract. Thus, in order to react against an often mandatory regulation, the parties look for "substitution contracts" to the conventional contracts. Given the choice the contracting parties have of one type of contract from another, our law will take on a reaction which is expressed in three grounds: the first, that of a check of the reality of a choice of a type of contract made by the parties or one of them. Indeed, the parties may choose one contract in the aim of covering up another or they may inaccurately qualify their relation, either deliberately or not, in order to avoid certain effects of the contract ruled out. The second is that where the law lays down limits to the freedom of the choice of a contract. There are cases where the choice of one contract rather than another will not be considered as lawful whether in pursuance of pre-existent laws when the legislator offers the parties the choice of a contract or on the grounds of infringement of law when the contractual freedom is used to the full. Finally, the third ground of reaction is that where the court will admit the choice of the contract operated by either one or both parties whilst intending to limit the effects. The jurisprudence will then proceed to modulations of the effects of the choice
APA, Harvard, Vancouver, ISO, and other styles
48

Jahanbin, Tania. "Conception et développement in vitro d'agents de contraste hautement efficace en IRM : apport de la dynamique moléculaire sur le signal RMN." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2566/.

Full text
Abstract:
L'objectif du travail de thèse est de concevoir et développer 2 classes d'agent de contraste (AC) intrinsèquement efficace en IRM. La première classe comprend le Gd (III)-méso-tétra (4-pyridyl) porphyrine (Gd (TPyP)) macromoléculaire. Son efficacité a été comparé avec deux produits de référence : la Mn(III)-méso-tétra(4-sulfonatophenyl)porphyrine (Mn(III)TSPP), et Fe(II)-méso-tétra(N-methylpyridinium)porphyrine (Fe(II)TMPyP) à de deux champs magnétiques de 20 MHz et 60 MHz. En particulier, la relativité r1 la plus grande est obtenue pour le complexe Gd(TPyP) (24 mM-1s-1à 60 MHz) soit une efficacité au moins 6 fois plus importante que pour les complexes de Gd conventionnels. Afin d'améliorer sa biocompatibilité médicale, sa solubilité de l'eau, et augmenter son efficacité en IRM, la Gd-porphyrine a été conjuguée avec les nanoparticules de chitosan. Ainsi, une valeur de 38 mM-1s-1 à 60 MHz 9 fois plus élevée que celle de Dota-Gd a été obtenue dans l'eau. Dans la 2ème partie de la thèse, nous avons développé le concept de greffage de Mn dopé à la surface de nanoparticules ZnS afin d'améliorer l'accessibilité de l'eau au moment magnétique du Mn. Les nanoparticules ont une relaxivité r1 variant de 21. 57 à 74. 12 mM-1s-1 pour un taux de Mn passant de 0. 1 à 0. 3, par rapport au produit commercial Mn DPDP (r1=2. 8 mM-1. S-1 à 42 MHz). Par la suite, l'influence de la granulométrie de Mn0. 3Zn0. 7S sur son efficacité a été étudiée. Leur r1 a diminué de 74. 12 à 42. 81 mM-1s-1 avec l'augmentation de la dimension particulaire. Pour expliquer le mécanisme, une simulation numérique de la dynamique moléculaire de l'eau au voisinage des nanoparticules de MnZnS a été développée. Les résultats de la simulation de la structure cristalline de MnZnS sont concordent avec les valeurs expérimentales par la cristallographie aux rayons X. Le modèle a été amélioré en incluant un effet de la concentration variable au Mn dans un environnement aqueux
The objective of this thesis is design and development of two types of MRI contrast agents (CA) with high efficiency, including macromolecule and nanoparticles. The first substance is Gd(III)-meso-tetra(4-pyridyl)porphyrin (Gd(TPyP)). Its efficiency has been compared with two metalloporphyrin compounds, Mn(III)-meso-tetra(4-sulfonatophenyl) porphyrin (Mn(TSPP)) and Fe(II)-meso-tetra(N-methylpyridiniumyl)porphyrin (Fe(TMPyP)) in presence of two magnetic field of 20 and 60 MHz. Among the metallated porphyrins, Gd(TPyP) exhibits the highest r1 of 24 mM-1s-1 (6-fold higher compared to r1 of Gd-DOTA). In the next step, Gd(TPyP) has been conjugated to chitosan nanoparticles in order to improve its biocompatibility and water solubility. The small water-soluble Gd(TPyP)-conjugated chitosan nanoparticles (~40 nm) show higher (56%) r1 of 38 mM-1. S-1 at 3T than the one of Gd(TPyP) in ethanol and 9-fold greater than r1 of Gd-DOTA. The second complex developed as CA is MnxZn1-xS ( 0. 1 =x=0. 3) nanoparticles while the majority of Mn atoms localized on/ or close to the surface of ZnS nanoparticles to enhance their efficiency as MRI CA. Mn:ZnS nanoparticles exhibits higher r1 compared with the one of commercial Mn-DPDP (r1=2. 8 mM-1s-1 at 42 MHz), which significantly increases from 20. 34 to 75. 5 mM-1s-1 with Mn content in the range of 0. 1-0. 3. Thereafter, effect of particle size on relaxivity of Mn0. 3Zn0. 7S has been investigated. We observed that r1 decreases with increasing particle size due to decreasing the surface to volume ratio from 75. 5 to 42. 81 mM-1s-1. In order to obtain the insight through the relaxivity of Mn:ZnS nanoparticles, computational technique has been carried out to predict the interaction and dynamic of Mn:ZnS and solvent (water) via molecular dynamic simulations (MDs). Thereby, MnxZn1-xS with different dopnat contents ( 0. 1 =x=0. 3) has been modeled via MDs. We achieved to reproduce the crystal structure of MnZnS precisely, within a few percent of experimental values. The study has been completed successfully by adding MnZnS nanoparticles in aqueous solution
APA, Harvard, Vancouver, ISO, and other styles
49

Bsoul, Mohammad. "Economic scheduling in Grid computing using Tender models." Thesis, Loughborough University, 2007. https://dspace.lboro.ac.uk/2134/3094.

Full text
Abstract:
Economic scheduling needs to be considered for Grid computing environment, because it gives an incentive for resource providers to supply their resources. Moreover, it enforces efficient use of resources, because the users have to pay for their use. Tendering is a suitable model for Grid scheduling because users start the negotiations for finding suitable resources for executing their jobs. Furthermore, the users specify their job requirements with their requests and therefore the resources reply with bids that are based on the cost of taking on the job and the availability of their processors. In this thesis, a framework for economic Grid scheduling using tendering is proposed. The framework entities such as users, brokers and resources employ tender/contract-net model to negotiate the prices and deadlines. The brokers' role is acting on behalf of users. During the negotiations, the entities aim to maximise their performance which is measured by a number of metrics. In order to evaluate the entities' performance under different scenarios, a Java- based simulator, called MICOSim, supporting event-driven simulation of economic Grid scheduling is presented. MICOSim can perform a simulation of more than one hundred entities faster than real time. It is concluded from the evaluation that users who are interested in increasing the job success rate and paying less for executing their jobs have to consider received prices to select the most appropriate bids, while users who are interested in improving the job average satisfaction rate have to consider either received completion time or both price and completion time to select the most suitable bids when the submission of jobs is static. The best broker strategy is the one that doesn't take into account meeting the job deadlines in the bids it sends to job owners. Finally, the resource strategy that considers the price to determine if to reply to a request or not is superior to other resource strategies. The only exception is employing this strategy with price that is too low. However, there is a tiny difference between the performances of different user strategies in dynamic submission. It is also concluded from the evaluation that broker strategies have the best performance when the revenue they target from the users is reasonable. Thus, the broker's aim has to be receiving reasonable revenue (neither too low nor too high) from acting on behalf of users. It is observed from the results that the strategy performance is influenced by the behaviour of other entities such as the submission time of user jobs. Finally, it is observed that the characteristics of entities have an effect on the performance of strategies. For example, the two user strategies that consider the received completion time and both price and completion time to determine if to accept a broker bid have similar performance, because of the existence of resources with various prices from cheap to expensive and existence of resources which don't care about the price paid for the execution. So, the price threshold doesn't have a large effect on the performance.
APA, Harvard, Vancouver, ISO, and other styles
50

Draghetti, Davide. "Modelli e metodi simulativi per tracciabilità e smart pricing nelle supply chain di prodotti deperibili." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Obiettivo: fornire un modello di track and trace per prodotti deperibili lungo una cold supply chain, implementando algoritmi di dynamic pricing, al fine di ottenere una funzione dinamica di prezzo che tenga in considerazione la perdita di valore dei prodotti stessi durante il loro ciclo di vita. Il modello proposto verrà infine trattato, a livello teorico, in un contesto tecnologico estremamente attuale come quello della blockchain, un registro digitale che, grazie alle proprie caratteristiche, è in grado di fornire ottimi spunti e implicazioni pratiche al mondo della logistica e della filiera di distribuzione. Metodologia: viene presentato un modello simulativo realizzato sul software AutoMod, in cui i prodotti transitano nei nodi del sistema, nei quali vengono registrate le informazioni di temperatura, valori nutrizionali e tempo di permanenza nel sistema. I nodi del sistema sono in grado di elaborare tali informazioni e, mediante apposito algoritmo, calcolare un prezzo legato proporzionalmente alla perdita di valore. Risultati: la simulazione ha fornito una solida base di dati su cui poter lavorare ed analizzare i modelli di decadimento utilizzati. Lo studio della blockchain, degli smart contract e del progetto VeChain ha portato numerosi spunti di interesse che verranno trattati nella parte finale dell’elaborato. Implicazioni pratiche: le stringenti normative in merito alla sicurezza alimentare e la necessità di garantire ai consumatori prodotti di qualità necessitano di un robusto modello di business che garantisca trasparenza ed efficienza nelle filiere di distribuzione. Grandi aziende del settore del calibro di Walmart e IBM stanno già esplorando numerose soluzioni per l’integrazione della supply chain con le innovazioni tecnologiche dell’IoT e della blockchain. Questo elaborato vuole pertanto fornire una panoramica delle tecnologie che nei prossimi anni potrebbero rivelarsi armi vincente nei processi di supply chain management.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography