Dissertations / Theses on the topic 'Pair approach'

To see the other types of publications on this topic, follow the link: Pair approach.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Pair approach.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ball, Adrian Keith. "How Should a Robot Approach a Pair of People?" Thesis, The University of Sydney, 2016. http://hdl.handle.net/2123/17305.

Full text
Abstract:
This thesis experimentally investigates the comfort of pairs of seated people when they are approached by a robot from different directions. While the effect of robot approach direction on the comfort of a lone person has been investigated previously, the extension to a robot approaching pairs of people has not been explored rigorously. Three maximally-different seating configurations of paired people and eight different robot approach directions were considered. The experiment was augmented with a fourth seating configuration of a lone individual, allowing the responses of grouped and lone participants to be compared. Data obtained from the experiment were analysed using both linear and directional statistics. Results from 180 unique participants showed that the comfort of a person when a robot approached is influenced by the presence and location of a second person. Analysis of these data with directional statistics showed that participant comfort preference clusters into angular regions of ‘suitable for robot approach’ and ‘unsuitable for robot approach’. This finding shows the importance of avoiding robot approach directions of low comfort, rather than selecting a singular robot approach direction of high comfort. Rayleigh’s test of uniformity, a directional statistics method, also shows across all participant configurations that robot approach directions that minimize participant discomfort align spatially with regions that allow for good line of sight of the robot by both people, and are centred on the largest open space that a robot could approach the group from. Participants who were grouped also regarded the robot as having more social agency than did lone experimental participants. Grouped participants were less frustrated with the experimental task and also found it less physically and temporally demanding in comparison to lone experimental participants.
APA, Harvard, Vancouver, ISO, and other styles
2

Lawrence, Elliot. "Developing hydrogen oxidation electrocatalysts using a frustrated Lewis pair approach." Thesis, University of East Anglia, 2015. https://ueaeprints.uea.ac.uk/52523/.

Full text
Abstract:
In order for hydrogen to be utilised as an energy vector, precious metals such as platinum are often employed as electrocatalysts, to enable the efficient conversion of hydrogen into electrical energy. However, the low abundance and high cost of such metals limits their economic viability. Frustrated Lewis pairs (FLPs) are capable of heterolytically cleaving hydrogen, and have found application in hydrogenation chemistry. In this thesis, the hydrogen-activating ability of FLPs is exploited for the development of new, metal-free electrocatalysts for hydrogen oxidation. In essence, this approach combines FLP hydrogen activation with the electrochemical oxidation of the resulting borohydride. Initially, a fundamental study into the single-electron reduction of the archetypal Lewis acid, tris(pentafluorophenyl)borane, was undertaken in low donor strength solvents. This allowed pertinent thermodynamic, kinetic and mechanistic information to be obtained. The redox chemistry of the archetypal FLP system, tris(pentafluorophenyl)borane/tri-t-butylphosphine, was then studied for the first time. FLP pre-activation of hydrogen was found to decrease the required potential for non-aqueous hydrogen oxidation by 610 mV at inexpensive and abundant carbon electrodes. This system was then extended to include platinum electrode materials, where strong surface electrocatalytic effects were exhibited. The combined electrochemical-frustrated Lewis pair approach was applied to a series of carbene-stabilised borenium cations. Their efficacy towards the electrocatalytic oxidation of hydrogen was assessed. The borenium cation derived from 9-borabicyclo[3.3.1]nonane decreased the required voltage for hydrogen oxidation by 910 mV. This system also exhibited improved catalyst recyclability compared with the original tris(pentafluorophenyl)borane system. Finally, the cyclic voltammetry of two regioisomers of tris[bis(trifluoro-methyl)phenyl]borane was explored for the first time. Solutions of tris[3,5-bis(trifluoromethyl)phenyl]borane in the donor solvent tetrahydrofuran were highly effective for facile hydrogen cleavage. Replacing the Lewis basic component of conventional FLP systems with donor solvents is a new approach to FLP chemistry, and proffers many advantages for electrochemical-FLP systems.
APA, Harvard, Vancouver, ISO, and other styles
3

Teague, Madonna Margaret. "Pedagogy of introductory computer programming : a people-first approach." Thesis, Queensland University of Technology, 2011. https://eprints.qut.edu.au/46255/1/Donna_Teague_Thesis.pdf.

Full text
Abstract:
Students struggle with learning to program. In recent years, not only has there been a dramatic drop in the number of students enrolling in IT and Computer Science courses, but attrition from these courses continues to be significant. Introductory programming subjects traditionally have high failure rates and as they tend to be core to IT and Computer Science courses can be a road block for many students to their university studies. Is programming really that difficult — or are there other barriers to learning that have a serious and detrimental effect on student progression? In-class experiments were conducted in introductory programming units to confirm our hypothesis that that pair-programming would benefit students' learning to program. We investigated the social and cultural barriers to learning programming by questioning students' perceptions of confidence, difficulty and enjoyment of programming. The results of paired and non-paired students were compared to determine the effect of pair-programming on learning outcomes. Both the empirical and anecdotal results of our experiments strongly supported our hypothesis.
APA, Harvard, Vancouver, ISO, and other styles
4

Ghorbani, Ghomeshi Ramin. "Pair Production and the Light-Front Vacuum." Thesis, Umeå universitet, Institutionen för fysik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-83444.

Full text
Abstract:
Dominated by Heisenberg's uncertainty principle, vacuum is not quantum mechanically an empty void, i.e. virtual pairs of particles appear and disappear persistently. This nonlinearity subsequently provokes a number of phenomena which can only be practically observed by going to a high-intensity regime. Pair production beyond the so-called Sauter-Schwinger limit, which is roughly the field intensity threshold for pairs to show up copiously, is such a nonlinear vacuum phenomenon. From the viewpoint of Dirac's front form of Hamiltonian dynamics, however, vacuum turns out to be trivial. This triviality would suggest that Schwinger pair production is not possible. Of course, this is only up to zero modes. While the instant form of relativistic dynamics has already been at least theoretically well-played out, the way is still open for investigating the front form. The aim of this thesis is to explore the properties of such a contradictory aspect of quantum vacuum in two different forms of relativistic dynamics and hence to investigate the possibility of finding a way to resolve this ambiguity. This exercise is largely based on the application of field quantization to light-front dynamics. In this regard, some concepts within strong field theory and light-front quantization which are fundamental to our survey have been introduced, the order of magnitude of a few important quantum electrodynamical quantities have been fixed and the basic information on a small number of nonlinear vacuum phenomena has been identified. Light-front quantization of simple bosonic and fermionic systems, in particular, the light-front quantization of a fermion in a background electromagnetic field in (1+1) dimensions is given. The light-front vacuum appears to be trivial also in this particular case. Amongst all suggested methods to resolve the aforementioned ambiguity, the discrete light-cone quantization (DLCQ) method is applied to the Dirac equation in (1+1) dimensions. Furthermore, the Tomaras-Tsamis-Woodard (TTW) solution, which expresses a method to resolve the zero-mode issue, is also revisited. Finally, the path integral formulation of quantum mechanics is discussed and, as an alternative to TTW solution, it is proposed that the worldline approach in the light-front framework may shed light on different aspects of the TTW solution and give a clearer picture of the light-front vacuum and the pair production phenomenon on the light-front.
APA, Harvard, Vancouver, ISO, and other styles
5

Seyam, Mohammed Saad. "Multifaceted Approach for Teaching Mobile Software Development: Class Experiences With Lectures, Tutorials, and Pair Programming." Diss., Virginia Tech, 2017. http://hdl.handle.net/10919/85330.

Full text
Abstract:
The currently mainstream mobile application development became part of several programming classes, and courses are being developed focused on mobile app development. There are fundamental differences in programming topics for mobile, including the small screen and finger-based interactions, connectivity using different communication channels, and a large number of sensors. Because of these differences, there is a need to explore different approaches to teach the concepts of mobile development. Integrated approaches and collaborative learning are key to handle the multi-platform environment of mobile development and the diversity of its devices. One practice that has been used in educational contexts for collaborative learning is Pair Programming (PP); an approach that features two developers working on the same development task. Since it became popular in the 1990s, Pair Programming (PP) has been used by developers who worked on desktop and web applications. During the past two decades, PP has been studied in both industrial and classroom settings. Several studies have shown that PP is a pedagogical tool that can help students enhance their productivity and performance. However, PP has not been studied for mobile development courses before. With the challenging nature of mobile development topics, we saw potential benefits for pair-based learning. To cover the challenges of mobile development, we developed an approach that integrates Lectures, hands-on Tutorials, and in-class Pair Programming (PP) sessions (the LTP approach). Although PP has been studied previously in classroom settings, LTP provides an adapted version that better fits the requirements of mobile application development. Integrating PP as a core element of mobile development classes aims at giving opportunities to students to collaborate, share experiences, and solve problems together. Moreover, providing multiple teaching approaches ensures that students would benefit from the variety of education methods. The LTP approach aims at helping Computer Science (CS) educators to develop curricula and manage classes for teaching mobile app development.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
6

Teixeira, Ariel Amadeu Edwards. "Pair trading in Bovespa with a quantitative approach: cointegration, Ornstein-Uhlenbeck equation and Kelly criterion." reponame:Repositório Institucional do FGV, 2014. http://hdl.handle.net/10438/11605.

Full text
Abstract:
Submitted by ARIEL TEIXEIRA (ateixeira@fgvmail.br) on 2014-03-14T15:38:35Z No. of bitstreams: 1 Pair trading in Bovespa with a quantitative approach cointegration, Ornstein-Uhlenbeck equation and Kelly criterion.pdf: 857529 bytes, checksum: d324d9458357fb950c816b5a8bfd11d2 (MD5)
Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2014-03-14T16:29:51Z (GMT) No. of bitstreams: 1 Pair trading in Bovespa with a quantitative approach cointegration, Ornstein-Uhlenbeck equation and Kelly criterion.pdf: 857529 bytes, checksum: d324d9458357fb950c816b5a8bfd11d2 (MD5)
Approved for entry into archive by Maria Almeida (maria.socorro@fgv.br) on 2014-04-09T14:58:17Z (GMT) No. of bitstreams: 1 Pair trading in Bovespa with a quantitative approach cointegration, Ornstein-Uhlenbeck equation and Kelly criterion.pdf: 857529 bytes, checksum: d324d9458357fb950c816b5a8bfd11d2 (MD5)
Made available in DSpace on 2014-04-09T14:58:29Z (GMT). No. of bitstreams: 1 Pair trading in Bovespa with a quantitative approach cointegration, Ornstein-Uhlenbeck equation and Kelly criterion.pdf: 857529 bytes, checksum: d324d9458357fb950c816b5a8bfd11d2 (MD5) Previous issue date: 2014-02-17
Pair trading is an old and well-known technique among traders. In this paper, we discuss an important element not commonly debated in Brazil: the cointegration between pairs, which would guarantee the spread stability. We run the Dickey-Fuller test to check cointegration, and then compare the results with non-cointegrated pairs. We found that the Sharpe ratio of cointegrated pairs is greater than the non-cointegrated. We also use the Ornstein-Uhlenbeck equation in order to calculate the half-life of the pairs. Again, this improves their performance. Last, we use the leverage suggested by Kelly Formula, once again improving the results.
APA, Harvard, Vancouver, ISO, and other styles
7

Nikoloski, Zoran. "Graph-theoretic Approach to Modeling Propagation and Control of Network Worms." Doctoral diss., University of Central Florida, 2005. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/3164.

Full text
Abstract:
In today's network-dependent society, cyber attacks with network worms have become the predominant threat to confidentiality, integrity, and availability of network computing resources. Despite ongoing research efforts, there is still no comprehensive network-security solution aimed at controling large-scale worm propagation. The aim of this work is fivefold: (1) Developing an accurate combinatorial model of worm propagation that can facilitate the analysis of worm control strategies, (2) Building an accurate epidemiological model for the propagation of a worm employing local strategies, (3) Devising distributed architecture and algorithms for detection of worm scanning activities, (4) Designing effective control strategies against the worm, and (5) Simulation of the developed models and strategies on large, scale-free graphs representing real-world communication networks. The proposed pair-approximation model uses the information about the network structure--order, size, degree distribution, and transitivity. The empirical study of propagation on large scale-free graphs is in agreement with the theoretical analysis of the proposed pair-approximation model. We, then, describe a natural generalization of the classical cops-and-robbers game--a combinatorial model of worm propagation and control. With the help of this game on graphs, we show that the problem of containing the worm is NP-hard. Six novel near-optimal control strategies are devised: combination of static and dynamic immunization, reactive dynamic and invariant dynamic immunization, soft quarantining, predictive traffic-blocking, and contact-tracing. The analysis of the predictive dynamic traffic-blocking, employing only local information, shows that the worm can be contained so that 40\% of the network nodes are not affected. Finally, we develop the Detection via Distributed Blackholes architecture and algorithm which reflect the propagation strategy used by the worm and the salient properties of the network. Our distributed detection algorithm can detect the worm scanning activity when only 1.5% of the network has been affected by the propagation. The proposed models and algorithms are analyzed with an individual-based simulation of worm propagation on realistic scale-free topologies.
Ph.D.
School of Computer Science
Engineering and Computer Science
Computer Science
APA, Harvard, Vancouver, ISO, and other styles
8

Lange, Clemens. "A novel approach to precision measurements of the top quark-antiquark pair production cross section with the ATLAS experiment." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät I, 2013. http://dx.doi.org/10.18452/16786.

Full text
Abstract:
In dieser Dissertation werden drei Messungen des Produktionswirkungsquerschnitts von Top-Quark-Antiquark-Paaren in Proton-Proton-Kollisionen bei einer Schwerpunktsenergie von 7 TeV vorgestellt. Die Daten wurden mit dem ATLAS-Experiment am Large Hadron Collider in den Jahren 2010 und 2011 aufgezeichnet. Für die Analyse werden Endzustände mit genau einem Myon oder Elektron, mindestens drei Jets sowie großem fehlenden Tranversalimpuls selektiert. Während eine Analyse ausschließlich kinematische Informationen für die Trennung von Signal- und Untergrundprozessen verwendet, nutzen die anderen beiden zusätzlich Informationen zur Identifizierung von Bottom-Quark-Jets. Mit Hilfe von multivariaten Methoden werden die präzisesten Messungen in dieser Ereignistopologie erreicht. Dies ist für zwei der Analysen insbesondere dank der Profile-Likelihood-Methode möglich, welche sorgfältig untersucht wird. Desweiteren wird zum ersten Mal ein sogenannter sichtbarer Wirkungsquerschnitt in Top-Quark-Ereignissen gemessen. Alle Ergebnisse sind in Übereinstimmung mit den theoretischen Vorhersagen in angenäherter nächstnächstführender Ordnung der Störungstheorie (approx. NNLO).
This doctoral thesis presents three measurements of the top quark-antiquark pair production cross section in proton-proton collisions at a centre-of-mass energy of 7TeV recorded in 2010 and 2011 with the ATLAS Experiment at the Large Hadron Collider. Events are selected in the single lepton topology by requiring an electron or muon, large missing transverse momentum and at least three jets. While one analysis relies on kinematic information only to discriminate the top quark-antiquark pair signal from the background processes, the other two also make use of b-tagging information. With the help of multivariate methods the most precise measurements in this topology are obtained. This is for two of the measurements in particular possible due to the use of a profile likelihood method which is studied in detail. For the first time a fiducial inclusive cross section measurement for top quark events is performed allowing a measurement almost independent of theoretical uncertainties. All measurements are in agreement with theory predictions performed in perturbation theory at approximate NNLO.
APA, Harvard, Vancouver, ISO, and other styles
9

Alekseeva, A. "COMBINED NMR/LC-MS APPROACH FOR STRUCTURAL CHARACTERIZATION OF HEPARINS AND NON-ANTICOAGULANT GLYCOL-SPLIT HEPARINS." Doctoral thesis, Università degli Studi di Milano, 2014. http://hdl.handle.net/2434/243373.

Full text
Abstract:
Heparin is a sulfated polysaccharide extracted from animal organs, which is successfully used since more than fifty years in clinics as anticoagulant and antithrombotic drug. There is also a growing interest in investigating and exploiting “new” activities of heparin, especially for cancer therapy. Nowadays, a number of non-anticoagulant glycol-split (gs) heparins, obtained by periodate oxidation/borohydride reduction are being considered as potential anticancer due to a potent inhibitory effect on heparanase, overexpressed by tumors. Additionally, the majority of their biological properties are preserved upon glycol-splitting. It is also worth noting that glycol-splitting of glucuronic acid within antithrombin binding region (ATBR) causes a drastic decrease of heparin anticoagulant activity, helping avoiding undesirable effects when being used for clinical therapy. Gs-derivatives of low molecular weight heparins (LMWHs) are of higher interest due to their better bioavailability. In spite of the numerous studies on their biological activity, detailed structural analysis of gs heparins as well as structure–activity relationship have not been reported yet. Their structural characterization remains a very challenging task, firstly, due to the high microheterogeneity of the starting heparin (significantly depending on tissue and animal sources), and to the various side reactions that can occur under sometimes uncontrolled reaction conditions. In the case of more bioavailable and, consequently, more pharmacologically attractive, low molecular weight heparins (LMWHs) used as starting material, the end groups introduced by the depolymerisation processes induce additional heterogeneity of the corresponding gs-derivatives. Evidently, an appropriate analytical approach is required for a pharmaceutical development of these potential drugs. The present study is focused on the development and application of an efficient analytical approach combining advanced techniques, such as NMR and LC-MS methods, for structural characterization of various gs-heparins and gs-LMWHs. The structural information obtained for gs-samples was expected to provide structural details about the sequences of the parent heparin/LMWH material. The long-term aim of this project includes the exploration of structural basis of heparin-related gs-oligosaccharide sequences for their optimal binding motif with heparanase and other target proteins. In Chapter I the state-of-art of the present topic is overviewed. Structural features, biosynthesis and interaction with proteins of heparin and HS as well as structure and bioactivity of LMWHs are discussed. The potential anticancer and anti-inflammation activity of gs-heparins/gs-LMWHs and the main problems in their preparation and structural analysis are also highlighted. In the last part of the Chapter I the main analytical techniques used for analysis of heparin-related samples (NMR, LC-MS, SEC-TDA) are reviewed. The overall goal of the study and the short-term objectives are described in Chapter II. Chapter III is focused on the development of the combined NMR/LC-MS approach using a gs-derivative of a porcine mucosal heparin (PMH) sample as a model. The potentiality of this method for both characterization and differentiation of gs-products originated from heparins of various tissue and animal sources are discussed in terms of average monosaccharide composition determined by NMR as well as LC-MS qualitative and quantitative analysis of the enzymatically digested samples. The advantages of the combination of glycol-splitting and enzymatic depolymerisation for the characterization of gs-products and starting heparin samples are also discussed. A particular attention has been dedicated to the relevance of the diversity of antithrombin binding region (ATBR) in different heparins and to the length of undersulfated domains within their chains. Molecular weight measurements as well as the dependence of the hydrodynamic properties on the introduced glycol-split units (determined by SEC-TDA) are also described. The possible control and monitoring of glycol-splitting reaction (including side-reactions) using the applied techniques is discussed. The applications of the developed approach for the characterization of the more biologically attractive but often more complex gs-LMWHs (gs-tinzaparin, gs-enoxaparin, gs-dalteparin) are reported in Chapter IV. The developed LC-MS method for direct qualitative profiling of gs-LMWHs (possible because of the molecular weight lower than for unfractionated heparins) is discussed as a possible additional analytical tool for their compositional and structural analysis. The studied susceptibility to periodate oxidation/borohydride reduction of particular end-groups (at both reducing and non-reducing ends) of all the three LMWHs is highlighted. Among those, one of the most unexpected result was the oxidation of the enoxaparin 1,6-anhydro-D-mannosamine-N-sulfate, which was studied in detail. The potential application of the LC-MS method for the heparin sequencing is shown for sequences adjacent to the linkage region tetrasaccharide. General conclusions and future perspectives are discussed in Chapter V.
APA, Harvard, Vancouver, ISO, and other styles
10

Masur, Oliver [Verfasser], and Denis [Akademischer Betreuer] Usvyat. "A fragment-based embedded approach for periodic systems and enhanced weak-pair treatment of molecular LCCSD, both based on direct-local-ring-CCD / Oliver Masur ; Betreuer: Denis Usvyat." Regensburg : Universitätsbibliothek Regensburg, 2016. http://d-nb.info/1116080214/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Lange, Clemens [Verfasser], Ulrich [Akademischer Betreuer] Husemann, Heiko [Akademischer Betreuer] Lacker, and Lucia [Akademischer Betreuer] Masetti. "A novel approach to precision measurements of the top quark-antiquark pair production cross section with the ATLAS experiment / Clemens Lange. Gutachter: Ulrich Husemann ; Heiko Lacker ; Lucia Masetti." Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät I, 2013. http://d-nb.info/1038762596/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Lange, Clemens Gregor [Verfasser], Ulrich [Akademischer Betreuer] Husemann, Heiko [Akademischer Betreuer] Lacker, and Lucia [Akademischer Betreuer] Masetti. "A novel approach to precision measurements of the top quark-antiquark pair production cross section with the ATLAS experiment / Clemens Lange. Gutachter: Ulrich Husemann ; Heiko Lacker ; Lucia Masetti." Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät I, 2013. http://nbn-resolving.de/urn:nbn:de:kobv:11-100211456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Brini, Emiliano [Verfasser], Nico F. A. van der [Akademischer Betreuer] Vegt, and Florian [Akademischer Betreuer] Müller-Plathe. "Conditional Reversible Work method: a novel approach to obtain pair potentials for coarse-grained simulation of soft matter / Emiliano Brini. Betreuer: Nico F. A. van der Vegt ; Florian Müller-Plathe." Darmstadt : Universitäts- und Landesbibliothek Darmstadt, 2012. http://d-nb.info/1106257332/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Nguyen, Gia Hien. "Fiabilité des réponses fournies par un réseau logique pair-à-pair." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00342652.

Full text
Abstract:
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations.
APA, Harvard, Vancouver, ISO, and other styles
15

Tressou, Benjamin. "Contribution à l'homogénéisation des milieux viscoélastiques et introduction du couplage avec la température par extensions d'une approche incrémentale directe." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2016. http://www.theses.fr/2016ESMA0004/document.

Full text
Abstract:
Cette thèse traite de la modélisation micromécanique de composites viscoélastiques via une approche incrémentale(Al) proposée par Lahellec et Suquet (2007). En plus d'être fondée sur un cadre thermodynamique rigoureux, 1' Al permet une résolution du problème local dans l'espace-temps réel (i.e. sans passage dans l'espace de Laplace). Le premier objectif est d'élargir le spectre d'application de I' Al en termes de lois viscoélastiques locales et de microstructures. Le second objectif est de tenter d'introduire au sein de l'AI la prise en compte des effets de couplage entre la viscoélasticité et la température (couplage thermoélastique mais aussi l'échauffement induit par la dissipation viscoélastique). Tout d'abord, I' Al est codée en Python• puis le programme validé pour des lois viscoélastiques linéaires simples, des microstructures et des chargements déjà étudiés dans les travaux de Lahellec et Suquet. Une seconde partie opère une généralisation théorique de l'AI à de multiples variables internes, non nécessairement déviatoriques et des phases non nécessairement isotropes. Les différentes extensions sont validées progressivement par confrontations aux solutions exactes de référence (champs complets) et en particulier l'efficacité de I' Al étendue à traiter des matrices de type Maxwell généralisé (sans et avec déformations volumiques anélastiques). Cette partie se termine par une démonstration concrète de la possible associat on de l'AI à trois schémas d'homogénéisation (Mori-Tanaka, Double Inclusion, schéma de Malekmohammadi et al. (2014)) en vue de traiter diverses morphologies (composites à fibres, à particules, et à copeaux anisotropes de bois lamellés). La dernière partie traite du couplage entre la viscoélasticité et la température au sein de l'AI. Les versions initiale et discrétisée dans le temps du problème hétérogène thermoviscoélastique fortement couplé sont formulées. Puis, plusieurs degrés de couplage sont envisagés selon une approche progressive des difficultés. Le cas du seul couplage thermoélastique est tout d'abord étudié (couplage de la thermique vers la mécanique, sans résolution de l'équation de la cha leur). les estimations obtenues pour plusieurs chargements thermomécaniques imposés à un milieu périodique contenant des fibres élastiques, thermoélastiques puis thermoviscoélastiques,dans une matrice thermoviscoélastique sont confrontées avec succès aux solutions de référence. Enfin, la résolution simultanée de l'équation de la chaleur est abordée en intégrant comme terme source la dissipation viscoélastique au sein de la matrice en plus du terme de couplage thermoélastique, les fibres étant considérées élastiques. Les évolutions de la température et de la réponse globales révèlent des tendances cohérentes
This study is devoted to the micromechanical modeling of viscoelastic composites using an incremental approach (IA) due to Lahellec and Suquet (2007). ln addition to be based on a rigorous thermodynamic framework, the IA allows solving the heterogeneous viscoelastic problem in the real time domain (i.e. without the Laplace transform). The first aim is to extend the IA application range in terms of local linear viscoelastic laws and microstructures. The second one is to attempt to introduce the coupling effects between the viscoelasticity and the temperature within the IA framework. First, the IA is coded in Python• and the program validated for simple viscoelastic laws, and for microstructures and loading paths already studied in Lahellec and Suquet (2007). The second part focuses on a theoretical generalization of the IA for many internal variables which are not necessarily deviatoric and for anisotropie phases. The resulting estlmates are progressively validated by confrontation to reference so lutions (full -field simulations) and especially the IA ability to deal with matrices described by generalized Maxwell laws (without and with volumetric anelastic strains). This part ends with a demonstration of the possible association of the IA with three linear homogenization schemes (Mori-Tanaka, Lielen's interpolation, scheme of Malekmohammadi et al. (2014)) in order to deal with various morphologies (fiber or part icle reinforced composites, wood strand-based composites). The last part focuses on the coupling between the viscoelasticity and the temperature within the IA framework. The initial and time discretized versions of the strongly coupled local problem are formulated. Then, increasing coupling levels are envisioned for a progressive approach of the solving procedure. The thermoelastic coupling, alone, is first studied (effect of the thermies on mechanics, without solving the heat equation). The resulting estimates for a periodic microstructure with elastic, thermoelastic then thermoviscoelastic fibers, in a thermoviscoelastic matrix are successfully compared to reference solutions. At last, the heat equation is simultaneously solved by taklng into account the viscoelastic dissipation within the matrix as a source term, in addition to the thermoelastic coupling term. The evolutions of the global temperature and response reveal relevant tendencies
APA, Harvard, Vancouver, ISO, and other styles
16

El, Haddad Fadi. "Modélisation des problèmes de grandes déformations multi-domaines par une approche Eulérienne monolithique massivement parallèle." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0011/document.

Full text
Abstract:
La modélisation des problèmes multi-domaine est abordée dans un cadre purement Eulérien. Un maillage unique, ne représentant plus la matière, est utilisé. Les différentes frontières et leur évolution sont décrites via des outils numériques tels que la méthode Level Set. Les caractéristiques locales de chaque sous domaines sont déterminées par des lois de mélange.Ce travail est une des premières tentations appliquant une approche Eulérienne pour modéliser de problèmes de grandes déformations. Dans un premier temps, la capacité de l'approche est testée afin de déterminer les développements nécessaires.Le frottement entre les différents objets est géré par un lubrifiant ajouté dans une couche limite. Combinée avec une technique d'identification, une nouvelle loi de mélange quadratique est introduite pour décrire la viscosité du lubrifiant. Des comparaisons ont été effectuées avec Forge® et les résultats sont trouvés satisfaisants. Pour traiter le contact entre les différents objets, un solveur directionnel a été développé. Malgré que les résultats soient intéressants, il reste le sujet de nouvelles améliorations. La scalabilité de l'approche dans un environnement massivement parallèle est testée aussi. Plusieurs recommandations ont été proposées pour s'assurer d'une performance optimale. La technique du maillage unique permet d'obtenir une très bonne scalabilité. L'efficacité du parallélisme ne dépend que de la partition d'un seul maillage (contrairement aux méthodes Lagrangiennes). La méthode proposée présente des capacités indéniables mais reste loin d'être complète. Des pistes d'amélioration sont proposées en conséquence
Modeling of multi-domain problems is addressed in a Purely Eulerian framework. A single mesh is used all over the domain. The evolution of the different interacting bodies is described using numerical tools such as the Level Set method. The characteristics of the subdomains, considered as heterogeneities in the mesh, are determined using mixture laws.This work is one of the first attempts applying fully Eulerian Approach to Model large deformation problems. Therefore, the capacity of this approach is tested to determine necessary developments. The friction between the different objects is managed by adding a boundary layer implying the presence of a lubricant. Combined with an identification technique, a new quadratic mixture Law is introduced to determine the lubricant viscosity. Comparisons have been performed with Forge® and results were found satisfactory. To treat the contact problem between the different objects, a directional solver was developed. Despite the interesting results, it remains the topic of further improvements. The scalability of the approach in a massively parallel environment is tested as well. Several recommendations were proposed to ensure an optimal performance. The technique of a single mesh guarantees a very good scalability since the efficiency of parallelism depends of the partition of a single mesh (unlike the Lagrangian Methods). The proposed method presents undeniable capacities but remains far from being complete. Ideas for future Improvements are proposed accordingly
APA, Harvard, Vancouver, ISO, and other styles
17

Vu, Ngoc tru. "Contribution à l'étude de la corrosion par carbonatation du béton armé : approche expérimentale et probabiliste." Thesis, Toulouse, INSA, 2011. http://www.theses.fr/2011ISAT0008/document.

Full text
Abstract:
La corrosion de l’acier par carbonatation du béton est un phénomène de dégradation majeur des structures en béton armé, qui débute par la dépassivation de l'acier due à l'abaissement du pH de la solution interstitielle, se concrétise par une initiation effective avant de se propager. Nous nous sommes focalisé sur la dépassivation et l'initiation effective. Une large campagne expérimentale a permis de comprendre l'incidence des conditions d'exposition, de la nature des ciments utilisés dans les bétons et des conditions de carbonatation de l'enrobage, sur la dépassivation des armatures et le démarrage effectif de la corrosion. Au total 27 configurations ont été étudiées. Le potentiel libre de corrosion et la résistance de polarisation ont été mesurés au cours de l'expérimentation sur une durée voisine d'une année. Parallèlement, à échéances régulières, les coefficients de Tafel et la masse de produits de corrosion ont été également mesurés. L'ensemble des données a été analysé pour conduire, à partir du calcul des probabilités de bonne ou de mauvaise alarme, aux seuils de détection du démarrage effectif de la corrosion associés aux paramètres électrochimiques ainsi que la masse seuil de produits de corrosion correspondant à cette détection. Alimentée par les résultats des essais de caractérisation des bétons, une simulation numérique par éléments finis du démarrage de la corrosion a été développée permettant de corroborer de façon satisfaisant les résultats expérimentaux
The steel corrosion induced by carbonation is a major cause of degradation of the reinforced concrete structures. Two stages arise: the steel depassivation due to the decrease of pH of the pore solution and the effective initiation, and then the propagation. A wide experimental study was carried out focusing on the first stage, in order to emphasize the effect of the exposure conditions, the type of cement and the concrete mixes, and the carbonation conditions of the concrete cover. In all a set of 27 configurations was investigated. The free potential of corrosion and the resistance of polarization were measured in the course of the experiment during one year. Regularly the Tafel coefficients along with the mass of corrosion products were also measured. The set of data was analyzed in order to derive the detection thresholds of the effective onset of corrosion associated with the electrochemical parameters, from the calculation of the probabilities of good or bad alarm. The threshold of the mass of corrosion products corresponding to this detection was also derived. The tests on concrete probes (porosity, permeability, etc.) supplied data that were used to calibrate a finite element model of the onset of corrosion: this model was found in fairly good agreement with the experimental results
APA, Harvard, Vancouver, ISO, and other styles
18

Oumarou, Mairagouna Mamane. "Approche probabiliste du comportement mécanique des composites thermoplastiques assemblés par soudage laser." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00819162.

Full text
Abstract:
Les matériaux composites à matrice thermoplastique occupent de plus en plus un large domaine d'application grâce à leur aptitude à être recyclés et à être assemblés par fusion du polymère, encore appelée soudage. Parmi ces modes d'assemblage, le soudage laser propose de meilleures alternatives. Car, outre le fait qu'elle assure une meilleure tenue mécanique et un meilleur aspect esthétique, cette technique d'assemblage ne crée pas d'endommagement au sein du composite, à l'instar de certaines méthodes comme le rivetage, le vissage ou le boulonnage.L'objectif de ce travail est de proposer un modèle de rupture probabiliste de l'assemblage par faisceau laser d'un composite thermoplastique à fibres continues.Une description fine du matériau est d'abord effectuée par une approche multi-échelles dont le but était de pouvoir prédire le comportement macroscopique du composite de base connaissant les fluctuations locales de sa microstructure.La caractérisation mécanique de l'assemblage est ensuite effectuée par des essais multiaxiaux au moyen d'un dispositif spécifiques (Arcan-Mines) qui prend en compte l'état de confinement du joint soudé. Ce qui a permis de proposer un modèle de comportement élasto-plastique basé sur le critère de Drucker-Prager généralisé.Des tests par émission acoustique ont permis de faire l'hypothèse de l'existence d'un maillon faible au sein du joint soudé. La rupture est alors évaluée par le modèle statistique de Weibull. Un critère de rupture probabiliste basé sur le premier et le second invariant du tenseur des contraintes est finalement proposé.
APA, Harvard, Vancouver, ISO, and other styles
19

Joannette, Sonia. "Signification accordée à l'approche oncogériatrique intégrée par des personnes âgées atteintes de cancer." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8190.

Full text
Abstract:
Résumé: Introduction : En raison du parcours de la maladie et de son traitement multimodal, les personnes âgées atteintes de cancer sont particulièrement exposées aux problèmes de fragmentation des soins. Les experts au niveau international s’entendent pour dire qu’il est nécessaire de mettre en œuvre une approche oncogériatrique intégrée (AOGI). Cette approche vise à offrir aux personnes âgées atteintes de cancer des soins de qualité. Or, la signification accordée à l’AOGI varie en fonction des disciplines, des acteurs et des contextes. Par ailleurs, la perspective des personnes âgées atteintes de cancer, premières concernées, par cette approche, n’est pas abordée dans les études. Objectif : L’objectif de cette étude est de comprendre la signification de l’approche oncogériatrique intégrée selon la perspective de la personne âgée atteinte de cancer. Méthode : L’étude phénoménologique herméneutique est basée sur la méthode de van Manen (1990) et s’appuie sur le cadre théorique de la théorie de l’Humain en devenir (Parse, 1992). Elle s’est effectuée auprès de 10 personnes âgées de plus de 70 ans, atteintes de divers cancers, avec différents parcours de soins et traitées dans un centre intégré de cancérologie. Les données ont été recueillies lors d’entrevues semi-structurées enregistrées en audio numériques. Les verbatim ont été transcrits. Les analyses qualitatives ont été interprétatives (unités de sens, catégories, thèmes). Résultats : Les résultats présentent la description riche des cinq thèmes essentiels de la signification accordée à l’AOGI: être avec la personne transformée, dans la singularité de l’expérience vécue, pour l’aider à composer avec les paradoxes liés au vieillissement, au cancer et à son traitement afin qu’elle puisse continuer d’être ce qu’elle est. Conclusion : Cette étude pose les balises, fondées sur la perspective des personnes âgées atteintes de cancer pour l’amélioration de la qualité et de l'intégration des soins dans un contexte où l’AOGI est émergente.
Abstract: Introduction: Due to the course of the disease and its multimodal treatment, elderly persons affected with cancer are particularly vulnerable to problems of fragmentation of care. Internationally, experts agree that it is essential to implement an integrated oncogeriatric approach (IOGA). This approach aims to provide quality of care to the elderly to meet the globality of their needs. However, the meaning attributed to IOGA varies between disciplines, stakeholders and contexts. Furthermore, there is limited information in the literature about the perspective of the elderly person affected with cancer, even though they are at the center of this approach. Objective: The objective of this study is to understand the meaning of an integrated oncogeriatric approach from the perspective of the elderly person affected with cancer. Method: The hermeneutic phenomenological study is based on van Manen (1990) and follows the theoretical frame of The human becoming theory (Parse, 1992). It was conducted among 10 elderly persons of 70 years and older, with different types of cancers, with different care pathways, treated at an integrated cancer center. Data was collected using semi-structured interviews and recorded in digital audio. Verbatim were transcribed. The qualitative analyses were interpretative (meaning units, categories, themes). Results: The results provide rich descriptions of the five key themes of the meaning attributed to AOGI: Being with the transformed individual in the singularity of the lived experience in order to help him/her deal with the paradoxes linked to aging, to cancer and its treatment in order for them to continue to be what he/she is. Conclusion: This study, based on the perspective of the elderly person treated for cancer, lays down the guidelines for the improvement of the quality and integration of cares he development of better care in a context where IOGA is emerging.
APA, Harvard, Vancouver, ISO, and other styles
20

Zouaoui-Elloumi, Salma. "Reconnaissance de comportements de navires dans une zone portuaire sensible par approches probabiliste et événementielle : application au Grand Port Maritime de Marseille." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00737678.

Full text
Abstract:
Cette thèse s'est déroulée dans le cadre du projet SECMAR qui visait à sécuriser le Grand Port Maritime de Marseille. Notre objectif était d'aider les personnels du port à identifier les comportements menaçant des navires afin de pouvoir agir efficacement en cas de danger réel. A ce titre, nous avons développé un système d'analyse et de reconnaissance de comportements de navires formé de deux sous-modules complémentaires. Le premier est construit à partir de l'approche probabiliste Modèle de Markov Cachée et traite principalement des comportements nominaux des gros bateaux qui se caractérisent par un déplacement régulier et récurrent dans le port. Le second est construit à partir du langage réactif synchrone Esterel et prend en compte les comportements agressifs et transgressifs de tous types de navires, notamment ceux des petits bateaux qui circulent librement et aléatoirement dans le port. Le système global d'aide à la décision a permis une bonne reconnaissance en temps-réel des différents comportements de navires au cours de leurs évolutions dans le port. Au regard des résultats prometteurs que nous avons obtenu à travers ce module, il est envisageable de le généraliser à d'autres ports mondiaux ainsi qu'à d'autres domaines d'application, notamment le domaine aéroportuaire.
APA, Harvard, Vancouver, ISO, and other styles
21

Schmidt, Arlen David. "Pairs Trading: A Cointegration Approach." Thesis, Discipline of Finance, 2009. http://hdl.handle.net/2123/4072.

Full text
Abstract:
This study uses the Johansen test for cointegration to select trading pairs for use within a pairs trading framework. A long-run equilibrium price relationship is then estimated for the identified trading pairs, and the resulting mean-reverting residual spread is modeled as a Vector-Error-Correction model (VECM). The study uses 5 years of daily stock prices starting from the beginning of July, 2002. The search for trading pairs is restricted to 17 financial stocks listed on the ASX200. The results show that two cointegrated stocks can be combined in a certain linear combination so that the dynamics of the resulting portfolio are governed by a stationary process. Although a trading rule is not employed to access the profitability of this trading strategy, plots of the residual series show a high rate of zero crossings and large deviations around the mean. This would suggest that this strategy would likely be profitable. It can also be concluded that in the presence of cointegration, at least one of the speed of adjustment coefficients must be significantly different from zero.
APA, Harvard, Vancouver, ISO, and other styles
22

Schmitt, Lucie. "Durabilité des ouvrages en béton soumis à la corrosion : optimisation par une approche probabiliste." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0009/document.

Full text
Abstract:
La maîtrise de la durabilité des ouvrages neufs et la nécessité de prolonger la durée de vie des structures existantes correspondent à des enjeux sociétaux de tout premier ordre et s’inscrivent dans les principes d’une économie circulaire. La durabilité des ouvrages en béton occupe ainsi une position centrale dans le contexte normatif. Ces travaux de thèse font suite à ceux de J. Mai-Nhu* et ont pour objectif d’étendre le domaine d’application du modèle SDReaM-crete en intégrant les bétons à base d’additions et en définissant un critère d’état limite basé sur une quantité de produits corrodés. Une approche basée sur une optimisation numérique des calculs prédictifs est mise en place pour réaliser des calculs d’indices de fiabilité en considérant les principaux mécanismes liés à la corrosion des armatures, carbonatation et chlorures. Ce modèle permet d’optimiser le dimensionnement des enrobages et les performances du béton en intégrant davantage les conditions environnementales telles qu’elles sont définies dans les normes
Mastering the durability of new structures and the need to extand the lifespan of existing constructions correspond to social issues of the highest order and are part of the principles of a circular economy. The durability of concrete structures thus occupies a central position in the normative context. This thesis works follow those of J. Mai-Nhu* and aims at extending the field of application the SDReaM-crete model by integrating mineral additions based concretes and by defining a limit state criterion based on a quantity of corroded products. An approach based on a numerical optimization of predictive computations is set up to perform reliability analyses by considering the main mechanisms related to the corrosion of reinforcement, carbonation and chlorides. This model enables the optimization of the sizing of the concrete covers and performances by further integrating the environmental conditions as defined by the standards
APA, Harvard, Vancouver, ISO, and other styles
23

Bui, Truong Son. "Caractérisation et modélisation de l’endommagement des géomatériaux par méthode ultrasonore." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2018/document.

Full text
Abstract:
Ce travail de recherche est consacré à l’étude de l’endommagement des géomatériaux en utilisant la méthode non destructive par ultrasons. Pour atteindre cet objectif, nous développons dans un premier temps un dispositif à ultrasons modern et novateur qui, en combinant avec un système de sollicitation mécanique, permet de caractériser le processus de l’endommagement du matériau au cours des essais telle que la compression uniaxiale/triaxiale. Plus précisément, le système ultrasonore construit comporte 96 voies et au cours des essais il est capable de mesurer de manière continue les trois types des ondes grâces aux capteurs piézoélectriques spécifiques.L’application de ce système ultrasonore à la caractérisation de l’endommagement des géomatériaux à matrice cimentaire a montré l’efficacité de cette approche. Au cours des essais de compression uniaxiale, l’évolution de la vitesse et de l’atténuation de trois types d’onde a été mise en évidence comme conséquence de l’endommagement au sein du matériau. Nous nous intéressons dans un deuxième temps l’application du système ultrasonore à capturer les images d’endommagement progressif à travers les tomographies des vitesses et de l’atténuation des ondes. L’étude sur les éprouvettes de mortier donne des résultats concordants avec les observations, surtout à la rupture, bien que la résolution reste assez grossière. La dernière partie de ce travail de recherche vise à modéliser l’endommagement du matériau par une approche dite changement d’échelle. Un modèle conceptuel est proposé pour ce type de matériau qui permet de prendre en compte deux mécanismes principaux d’endommagement : la propagation des fissures au sein de la matrice cimentaire et la décohésion entre les inclusions et la matrice. Via un schéma d’homogénéisation en deux étapes, l’influence de ces mécanismes sur l’évolution des vitesses des ondes ultrasonores a été élucidée. Une comparaison des prédictions numériques avec les résultats expérimentaux permet de valider le modèle utilisé
This research is devoted to study the damage of geomaterials using the nondestructive method like ultrasound. To this aim, we develop in the first step a modern and innovative system of ultrasound which, in combining with a mechanical system, can characterize the process of damage in material during the tests such as uniaxial/triaxial compression. More specifically, our ultrasonic system comprises 96 channels and can be able to measure continuously the three types of waves thanks to the specific piezoelectric sensors.The application of the developped system for characterization of the damage of a cement-based géomatériaux showed the efficacy of this approach. Under uniaxial loading, the evolution of the ultrasonic velocities and the attenuation of three types of wave have been detected as a result of damage within the material.We are interested in the second step the application of the ultrasonic system on the tomography (such as the velocities and attenuation) of damage during loading of materials. The study on some mortar specimens give good agreement between the obtained results and the observations, especially at failure , although the resolution is fairly coarse. The last part of this research is to model the damage of material by using a so-called up-scaling approach. A conceptual model is proposed for this type of material that allows to take into account two main damage mechanisms: crack in the cement matrix and debonding effect between the matrix and inclusions. Via a scheme of homogenization in two steps, the impact of such mechanisms on the evolution of velocities of the ultrasonic waves has been elucidated. The comparison of numerical predictions with experimental results allows validating the model
APA, Harvard, Vancouver, ISO, and other styles
24

Augustine, Cecilia. "Pairs trading: a copula approach." Master's thesis, University of Cape Town, 2014. http://hdl.handle.net/11427/8532.

Full text
Abstract:
Includes bibliographical references.
Pairs trading is an arbitrage strategy that involves identifying a pair of stocks known to move together historically and trading on them when relative mispricing occurs. The strategy involves shorting the overvalued stock and simultaneously going long on the undervalued stock and closing the positions once the prices have returned to fair values. The cointegration method and the distance method are the most common techniques used in pairs trading strategy. However under these methods, the measure of divergence between the stocks or the spread is assumed to be symmetrically distributed about the mean zero. In addition, the spread is assumed to be a stationary time series (cointegration method) or mean-reverting (distance method). These assumptions are the main drawbacks of these methods and may lead to missed and/or inaccurate trading signals. The purpose of this dissertation is to explore an alternative approach to pairs trading by use of copulas. This dissertation aims to investigate if copulas can improve the profitability of pairs trading. To achieve this aim, results of pairs trading by use of copulas are compared against those of cointegration and distance methods.
APA, Harvard, Vancouver, ISO, and other styles
25

Benjelloun, Omar. "Active XML : une approche des services Web centrée sur les données." Paris 11, 2004. http://www.theses.fr/2004PA112087.

Full text
Abstract:
Cette thèse introduit Active XML (AXML, en abrégé), un modèle déclaratif mettant à profit la technologie des services Web pour la gestion de données distribuées et mis en oeuvre dans une architecture pair-à-pair. Un document AXML est un document XML pouvant contenir des appels de services Web, dont l'invocation enrichit le document. Un service AXML est un service Web échangeant des document AXML. Un "pair" AXML est un entrepôt de documents AXML, jouant d'une part le rôle de client, en invoquant les appels de services inclus dans ses documents, et d'autre part celui de serveur, en fournissant des services AXML pouvant être définis comme des requêtes ou mises-à-jour sur ses documents. L'approche AXML permet de combiner harmonieusement données extensionnelles (en XML) et intensionnelles (les appels de services). La capacité des pairs AXML à échanger de tels documents conduit à un paradigme puissant de gestion de données distribuées. L'approche AXML génère des questions importantes également étudiées dans cette thèse. Nous nous intéressons d'abord au contrôle de l'échange de documents AXML, en proposant l'utilisation de schémas déclaratifs et en fournissant des algorithmes pour leur vérification statique. Puis, nous envisageons l'évaluation "paresseuse" de requêtes sur des documents AXML, en introduisant des techniques analysant la pertinence pour les requêtes des appels de services inclus dans les documents. Notre implantation des pairs AXML, conforme aux standards du W3C est également présentée dans la thèse
This thesis introduces Active XML (AXML, for short), a declarative framework that harnesses Web services for distributed data management, and is put to work in a peer-to-peer architecture. An AXML document is an XML document that may contain embedded calls to Web services, whose invocation enriches the document. An AXML service is a Web service that exchanges AXML documents. An AXML "peer" is a repository of AXML documents. On the one hand, it acts as a client, by invoking the service calls embedded in its documents. On the other hand, a peer acts as a server, by providing AXML services that can be declaratively specified as queries or updates over the AXML documents of its repository. The AXML approach allows for gracefully combining stored information with data defined in an intensional manner (as service calls). The fact that AXML peers can exchange a mix of materialized and intensional data (via AXML documents) leads to a very powerful distributed data management paradigm. The AXML approach leads to a number of important problems that are studied in the thesis. First, we address the issue of controlling the exchange of AXML data. We propose to use declarative schema specifications, and provide algorithms to statically enforce them. Second, we propose techniques for the "lazy evaluation" of queries on AXML documents, that detect which embedded service calls may contribute to query answers. An implementation of AXML peers compliant with W3C standards is also described in the thesis
APA, Harvard, Vancouver, ISO, and other styles
26

Bardolle, Frédéric. "Modélisation des hydrosystèmes par approche systémique." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAH006/document.

Full text
Abstract:
Dans l'état actuel des connaissances, il est impossible de poser correctement toute la physique permettant de modéliser les hydrosystèmes dans leur ensemble, notamment à cause de la dynamique très contrastée des différents compartiments. Les modèles systémiques simplifient la représentation des hydrosystèmes en ne considérant que leurs flux d’échange. L’objet de ce travail est de proposer un outil de modélisation systémique fournissant des informations sur le fonctionnement physique des hydrosystèmes, tout en étant simple et parcimonieux. Ce modèle nommé MASH (pour Modélisation des Hydrosystèmes par Approche Systémique) est basé sur l’utilisation de fonctions de transfert paramétriques choisies en fonction de leur faible paramétrisation, leur caractère général et leur interprétation physique. Il est versatile, dans le sens que son architecture est modulable et que le nombre d’entrées, le nombre de fonctions de transfert en série et le type de fonctions de transfert utilisé est laissée à la discrétion de l’utilisateur. Ce modèle est inversé en utilisant de récentes avancées en apprentissage automatique grâce à une famille d’heuristiques basée sur l’intelligence en essaim nommé « optimisation par essaim de particule » (ou PSO pour « Particle Swarm Optimization »). Le modèle et ses algorithmes d’inversion sont testés sur un cas d’école synthétique, puis sur un cas d’application réel
In the light of current knowledge, hydrosystems cannot be modelled as a whole since underlying physical principles are not totally understood. Systemic models simplify hydrosystem representation by considering only water flows. The aim of this work is to provide a systemic modelling tool giving information about hydrosystem physical behavior while being simple and parsimonious. This model, called HMSA (for Hydrosystem Modelling with a Systemic Approach) is based on parametric transfer functions chose for their low parametrization, their general nature and their physical interpretation. It is versatile, since its architecture is modular, and the user can choose the number of inputs, outputs and transfer functions. Inversion is done with recent machine learning heuristic family, based on swarm intelligence called PSO (Particle Swarm Optimization). The model and its inversion algorithms are tested first with a textbook case, and then with a real-world case
APA, Harvard, Vancouver, ISO, and other styles
27

Noehren, Brian. "A mechanistic approach to the etiology and treatment of patellofemoral pain syndrome." Access to citation, abstract and download form provided by ProQuest Information and Learning Company; downloadable PDF file, 112 p, 2009. http://proquest.umi.com/pqdweb?did=1885755661&sid=5&Fmt=2&clientId=8331&RQT=309&VName=PQD.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Blackwelder, Reid B. "Practical Approach to Chronic Pain Management." Digital Commons @ East Tennessee State University, 2012. https://dc.etsu.edu/etsu-works/6980.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Blackwelder, Reid B. "Patient-Centered Approach to Pain Management." Digital Commons @ East Tennessee State University, 2011. https://dc.etsu.edu/etsu-works/6981.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Aynaud, Claude. "Localisation précise et fiable de véhicules par approche multisensorielle." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22637/document.

Full text
Abstract:
La localisation d’un véhicule est une étape cruciale dans le développement des véhicules intelligents. Les recherches sur ce sujet ont connu un grand essor ces dernières années. L’accent est souvent porté sur la précision de la localisation, nous présentons ici une méthode de localisation sur carte existante dont l’objectif est d’estimer la position du robot non seulement de façon précise mais également de manière fiable. Pour ce faire, l’algorithme développé se présente en deux étapes principales : une étape de sélection et de perception des informations les plus pertinentes et une étape de mise à jour de la position estimée et de la fiabilité, cette dernière étape permet également de détecter et réparer ou éliminer les précédentes erreurs. La perception de l’environnement est réalisée à travers différents capteurs associés à des détecteurs spécifiques. L’humain utilise aussi différents capteurs pour se localiser et va intuitivement sélectionner le plus performant, s’il fait jour il utilisera ses yeux, sinon son oreille ou le toucher. Nous avons développé une approche similaire pour le robot qui tient compte des contraintes environnementales et de l’estimation actuelle pour sélectionner à chaque instant l’ensemble capteur, indice de la scène et détecteur le plus pertinent. La phase de perception, étant pilotée par un processus Top-Down, peut bénéficier d’informations déjà connues permettant ainsi de se focaliser sur l’indice recherché et d’améliorer les phases de détection et d’associations de données. Cette approche Top-Down s’appuie sur un réseau bayésien. Ce dernier permet de modéliser les interactions entre les différents événements qui se produisent en gérant l’incertitude. Il permet une prise en compte facile des différents événements. Par ailleurs le réseau bayésien présente une grande flexibilité pour l’ajout d’événements supplémentaires pouvant engendrer des non-détections (tels que dysfonctionnement de capteurs, conditions météorologiques, etc.). Les données de l’environnement sont rendues disponibles grâce à une carte géoréférencée préalablement fournie. Avec le développement de cartes disponibles facilement sur internet, cette façon de faire permet d’exploiter au mieux l’information déjà fournie. L’utilisation d’une carte géoréférencée permet d’avoir un référentiel commun entre tous les véhicules ou éléments de l’infrastructure facilitant ainsi l’échange d’informations et ouvrant du coup la possibilité d’interaction simplifiées dans le cas de flottes par exemple. Les résultats montrent que l’approche développée est pertinente pour une localisation précise et fiable aussi bien statique que dynamique. L’ajout de nouveaux capteurs se fait naturellement et sans nécessiter d’heuristique particulière. La localisation obtenue est suffisamment précise et fiable pour permettre des applications de conduite autonome utilisant, entre autres, cet algorithme
Vehicle localization is a crucial step in the development of smart vehicles. The research in this domain has been growing in recent years. Generally, the effort is focused on the localization accuracy, we present here a localization method on existing map where the objective is to estimate the robot position not only with accuracy but also with confidence. To achieve this , the algorithm developed has two main steps : one, selection and perception of the most relevant informations and two, position estimation and confidence update. This last step also allows to detect and eliminate the previous errors. Environment perception is well achieved, thanks to different sensors associated with specific detectors. Humans use different senses, shifting automatically in order to localize themselves depending on the situation of the environment, for e.g if there is enough illumination we depend on eyes, else the ear or the touch otherwise. We have developed a similar approach for the robot that takes into account the specific environmental constraints and actual position estimation to select at each instant the most relevant set of sensor, landmark and detector. The perception step, led by a top-down process, can use already known informations allowing a focus on the searched landmark and an improvement of the detection and data associations steps. This top-down approach is well implemented, thanks to a Bayesian network. Bayesian network allows to model the interactions between the different probable events with management of the uncertainty. With this network, it is very easy to take into account those different events. Moreover, a Bayesian network has a great flexibility to take into consideration additional events that can cause false detections (like sensor failure, meteorological conditions and others). The environment data is obtained with a Georeferenced map (from GIS). With the already available maps on the internet, allows to exploit an already existing information. The use of a Georeferenced map facilitates the communication of informations between a vehicle and several other vehicles or with an element of the infrastructure, that can be very useful for multi vehicle coordination, for example. The results shows that the developed approach is very accurate and reliable for localization, whether static or dynamic, and can be applied for autonomous driving. Moreover, new sensors can be added at ease
APA, Harvard, Vancouver, ISO, and other styles
31

Diharce, Julien. "Étude par modélisation moléculaire de systèmes multienzymatiques impliqués dans la biosynthèse des flavonoïdes." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4095/document.

Full text
Abstract:
Les flavonoïdes, molécules naturelles possédant des propriétés antiradicalaires et antioxydantes, sont produits au cours de cascades enzymatiques impliquant plusieurs enzymes. Il a récemment été proposé que certaines de ces enzymes s'assembleraient pour former un complexe multienzymatique transitoire, appelé métabolon, ancré à la membrane cellulaire. Cette structure rendrait possible des phénomènes de transfert direct de métabolites d'un site actif à l'autre (substrate channeling), réduisant ainsi les temps de diffusion et minimisant les effets de solvatation/désolvatation du substrat. L'objectif de ce travail est de proposer un premier modèle de ce type de complexe, impliquant trois enzymes de la biosynthèse des flavonoïdes : la dihydroflavonol-4-réductase (DFR), la flavonoïd-3'-hydroxylase (F3’H) et la leucoanthocyanidine réductase (LAR). L'étude de ces complexes moléculaires requiert la mise en œuvre d'une méthodologie multi-échelles basée sur l’utilisation i) de méthodes hybrides QM/MM pour l'étude de la réactivité enzymatique, ii) de simulations de dynamique moléculaire à résolution atomique se déroulant sur des échelles de temps de l'ordre de la microseconde pour estimer des propriétés thermodynamiques et cinétiques, iii) de calculs de docking protéine-protéine en résolution gros grain. L'application des différents niveaux de théorie nous a permis d'établir un premier modèle de métabolon à trois enzymes en interaction avec une membrane cellulaire
Flavonoids, some natural compounds exhibiting antioxidant properties, are synthesized along enzymatic cascades involving several enzymes. It has been recently proposed that some of these enzymes are involved in the formation of large transient macromolecular edifices, called metabolon, interacting with cellular membrane. Such molecular complexes should allow direct metabolites transfer from one active site to the other (substrate channeling phenomenon), minimizing diffusion time and solvation effects. The present work aims to establish a first model of a metabolon involving 3 enzymes of the flavonoid biosynthesis: the dihydroflavonol 4-reductase (DFR), the flavonoid 3'-hydroxylase (F3'H) and the leucoanthocyanidin reductase (LAR). The study of such large molecular system requires a multiscale approach based on i) hybrid QM/MM methods to decipher enzymatic mechanism, ii) molecular dynamic simulations in microsecond timescale to estimate thermodynamic and kinetic properties and iii) protein-protein docking at coarse-grained resolution. These different levels of theory allow us to establish a first model of a three-enzymes-metabolon in interaction with a model of cellular membrane
APA, Harvard, Vancouver, ISO, and other styles
32

Kanso, Haydar. "Influence des phases magnétiques désordonnées sur les propriétés d'anisotropie d'échange des nanoplots F/AF : Etude par simulations Monte Carlo et comparaison à l'expérience." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR071/document.

Full text
Abstract:
Notre objectif est d’améliorer la compréhension du phénomène d’anisotropie d’échange dans les nanoplots en comparaison aux films continus et d’étudier les effets du désordre magnétique à l’interface dans la couche AF sur les propriétés d’anisotropie d’échange. Dans un premier temps, nous avons utilisé un modèle granulaire qui prend en compte les phases magnétiques désordonnées à l’interface F/AF et nous modélisé ces phases par la présence de grains moins stables à l’interface dans la couche AF. De plus, dans le cas des nanoplots, nous avons pris en compte des grains moins stables localisés sur les bords de la couche AF pour reproduire les effets dus à la méthode de fabrication. Nous avons trouvé qu’il existe deux mécanismes de retournement de la couche F en dépendant de la valeur du couplage ferromagnétique. Si le couplage ferromagnétique faible, le retournement de la couche F s’amorce sur plusieurs centres de nucléation et s’effectue sans propagation. Alors que si le couplage ferromagnétique fort, le retournement de la couche F s’amorce en un seul centre de nucléation situé à un coin du nanoplot puis se propage à partir de ce coin. Ensuite notre modèle a permis d’expliquer les principales caractéristiques des comportements observés expérimentalement dans les bicouches Co/IrMn et NiFe/IrMn (pour différentes tailles latérales), à différentes températures de mesure et pour différentes épaisseurs de la couche AF. Plus précisément, les valeurs du champ d’échange simulé dans les films continus, à température ambiante, sont plus grandes que dans les nanoplots pour les faibles épaisseurs de la couche IrMn alors que c’est le contraire lorsque cette épaisseur augmente. Dans un deuxième temps, Nous avons utilisé un modèle atomique qui prend en compte la frustration magnétique dans la couche AF et la présence de défauts structuraux tels que les joints de grains et l’interdiffusion. Nous avons trouvé que l’effet combiné de la frustration, des joints de grains et de la surface induit des configurations magnétiques non colinéaires complexes (présence de domaines magnétiques) dans la couche AF à l’interface. Nos résultats montrent que la non-colinéarité des moments AF à l’interface diminue le couplage effectif à l’interface F/AF et diminue la constante d’anisotropie effective de la couche AF. Nos résultats montrent également que la présence de joints de grains lorsqu’il y a de la frustration renforce la stabilité de la couche AF à 0K alors qu’elle la diminue à température non nulle. Enfin, nous avons trouvé que l’interdiffusion diminue fortement le champ d’échange et rend la couche AF plus stable, ce qui correspond à une diminution du couplage effectif à l’interface. Il est important de noter que les valeurs du champ d’échange simulé sont dans ce cas réalistes, ce qui met en évidence que l’interdiffusion est probablement un des facteurs essentiels pour lesquels les champs d’échange mesurés expérimentalement sont nettement plus faibles que ceux prévus par les modèles simples
Our goal is to improve the comprehension of the exchange bias (EB) in nanodots in comparison with the continuous films and to study the effects of the interfacial magnetic disorder on the EB properties. Firstly, we use a granular model which considers disordered interfacial phases by considering less stable magnetic grains at the interface in the antiferromagnetic (AF) layer. We further model the effect of the nanofabrication process by considering less stable magnetic grains at the edges, due to grain cutting. Our results evidence two different mechanisms of the ferromagnetic (F) layer reversal depending on the magnitude of the coupling between F grains. In the weak coupling regime relative to the anisotropy, the exchange field is independent of the coupling. By contrast, in the strong coupling regime, the exchange field depends on the coupling. Our model also well explain some experimental features observed in NiFe/IrMn and Co/IrMn nanodots (for various lateral sizes) and continuous films, at various measurement temperatures and various AF thicknesses. More precisely, the simulated values of the exchange field in the continuous films, at room temperature, are larger than in the nanodots for small values of the AF thicknesses. However, it is the opposite when this thickness increases. Secondly, we use an atomic model which considers the magnetic frustration inside the AF layer and the presence of structural defects such as grain boundaries and interdiffusion. We found that the combination effect of grain boundaries, frustration and surface can result in complex magnetic configurations in the AF layer at the interface (magnetic domains). Our results show that the non-collinearity of the AF moments at the interface decreases the effective coupling at the interface and decreases the effective anisotropy constant of the AF layer. Our findings indicate that combination effect of grain boundaries and frustration make the AF layer more stable at 0 Kelvin and less stable at non-zero temperature. Our results show that the interdiffusion decrease the simulated values of the exchange field and make the AF more stable which corresponds to a decrease of the effective coupling at the interface. It is important to note that the simulated values of the exchange field are realistic values, which highlights that the interdiffusion is probably one of the essential factors which can give simulated values close to the experimental values
APA, Harvard, Vancouver, ISO, and other styles
33

Judge, Stephanie T. "OPTIMISM AND PAIN INTERFERENCE IN AGING WOMEN." UKnowledge, 2017. https://uknowledge.uky.edu/psychology_etds/125.

Full text
Abstract:
Pain interferes with people's daily lives and often limits the extent to which they can pursue goals and engages in activities that promote well-being. The present study test how optimism affects and is affected by pain interference and activity among older women. Every three months for two years, middle- and older-age women (N = 199) complete daily diaries at home for a seven-day period, reporting their daily pain, pain interference, and activity. Optimism was measured at baseline and end-of-study. Multilevel models test the between- and within-person relationships among pain, optimism, pain interference and activity. Pain best predicted pain interference and optimism best predicted activity. Accumulated activity and pain interference across the study predicted longitudinal changes in optimism over two years. Optimism may play a protective role in disruptions caused by pain, leading to decreased pain interference and increased activity. In turn, less interference and more activity feed forward into increased optimism, resulting in a cycle that enhances optimism and well-being among older women.
APA, Harvard, Vancouver, ISO, and other styles
34

Bautista, Angeli Jean-Romain. "Etude de faisabilité de la micro-méthanisation par co-digestion à l'échelle des quartiers." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0133/document.

Full text
Abstract:
Notre société évolue constamment et se positionne vis-à-vis du monde qui l’entoure. Cette évolution la pousse à se réorganiser atour d’énergie provenant de source locale et renouvelable. Pour ces raisons, il semble pertinent de concevoir une évolution possible de la méthanisation par des unités localisées. On parle alors de micro-méthanisation à l’échelle urbaine. La rédaction de cette thèse a ainsi eu pour objectif d’apporter des éléments de réponse quant à la question de la faisabilité d’intégrée cette micro-méthanisation dans des quartiers. Pour cela, il a été réalisé : i) Une analyse des retours d’expérience issus de villes porteuses de projet de méthanisation urbaine. ii) Une approche expérimentale, dans le but d’obtenir un processus de méthanisation des déchets urbains à l’échelle laboratoire. iii) Ces données d’entrée ont ensuite permis l’établissement d’un modèle de valorisation des déchets dans un quartier. Ces résultats mettent en avant la nécessité d’une approche systémique afin de pouvoir intégrer la méthanisation dans un quartier. Ils permettent de plus, de recommander l’utilisation de certains procédés et l’emploie de déchets, afin d’améliorer la mise en œuvre du processus dans l’espace urbain. Dans des conditions définies la méthanisation urbains est possible et stable dans le temps. De plus, le bilan énergétique s’avère bénéfique pour le quartier. On note que l’énergie ainsi produite, l’est majoritairement sous forme de chaleur ce qui met en avant l’intérêt d’un processus intégré, proche des habitations
Our society is constantly evolving and positioning itself in relation to the world around it. This evolution pushes it to reorganize itself around energy from local and more renewable sources. For these reasons, it seems appropriate to design a possible evolution of anaerobic digestion (AD) by localized units. This is referred to a micro-AD at urban scale. The purpose of this thesis was to provide some answers to the question of the feasibility of integrating this micro-AD into a neighbourhood.To this end, it was carried out: i) An analysis of feedback from cities with urban AD projects. ii) An experimental approach, with the aim of obtaining a stable AD process of urban waste atlaboratory scale. iii) These input data then made it possible to establish a waste recovery model in a district. These results highlight the need for a systemic approach in order to be able to integrate AD in a neighbourhood. They also make it possible to recommend processes and wastes, in order to improve the implementation of the process in urban areas. Under defined conditions, urban AD is possible and stable over time. In addition, the energy balance is beneficial for the district. It should be noted that the energy thus produced is mainly in the form of heat, which highlights the importance of an integrated process, close to homes
APA, Harvard, Vancouver, ISO, and other styles
35

Ngo, Quoc Dung. "Diagnostic de systèmes hybrides incertains par génération automatique de relations de redondance analytique symboliques évaluées par approche ensembliste." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00830791.

Full text
Abstract:
Les activités industrielles peuvent induire des risques de nature diverse, voire conduire à des événements catastrophiques. De façon à réduire ces risques à des niveaux acceptables, à en limiter les coûts aussi bien humains, matériels que financiers et à respecter la réglementation, il est crucial d'en prévenir la survenue (prévention) et à identifier des situations anormales en fonction d'informations récupérées sur le terrain. Ceci nécessite de résoudre deux points essentiels : détecter l'anomalie et faire un diagnostic, d'où l'importance des modèles de bon comportement qui modélisent des systèmes physique réels et les méthodes associées permettant d'effectuer la surveillance en continu. L'approche la plus utilisée dans la communauté FDI est l'approche structurelle qui consiste à construire des relations de redondance analytique (RRA). Le principe de l'approche structurelle est de prendre en compte seulement l'existence des relations entre les variables induites par les équations du modèle. En basant sur cette approche, ma thèse consiste à trouver une réponse qui satisfait un triple objectif :1. Extraire les relations valides à partir du modèle de bon comportement d'un système afin de prendre en compte l'évolution du système en éliminant les relations et des mesures invalides ayant pour but d'effectuer le diagnostic en ligne2. Construire, en utilisant une analyse symbolique couplée avec la théorie des graphes, les relations de redondance analytique symboliques (RRAS) pour la détection des défauts dans le système.3. Evaluer ces RRAS en utilisant le calcul par intervalle, an de prendre en compte les incertitudes présents dans les mesures, lors des tests de cohérence.
APA, Harvard, Vancouver, ISO, and other styles
36

Brown, Kara Mutso Amelia Tuttle Alexander H. "Sex dependent affiliation behavior and empathic approach in Mus musculus." Diss., Connect to the thesis, 2008. http://hdl.handle.net/10066/1430.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Jain, Tushar. "Contribution à la synthèse de commandes tolérantes aux défauts par l'approche comportementale." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00767015.

Full text
Abstract:
La théorie des systèmes a acquis un statut interdisciplinaire au cours des cinq dernières décennies, et un aspect important de cette théorie concerne la commande automatique des systèmes dynamiques. Un dispositif de commande, appelé contrôleur ou régulateur, est un dispositif qu'on interconnecte à un système donné, qu'on désigne aussi sous le terme de procédé ou processus, de manière à réaliser un système global ayant un comportement désiré ou des performances spécifiées. Dans cette thèse, nous traitons de la problématique de la commande automatique des systèmes dynamiques sujets à des défaillances. Cette problématique est fortement motivée par les exigences de sûreté de fonctionnement des systèmes en milieu industriel où la commande tolérante aux défauts constitue un moyen pour améliorer la fiabilité et accroître la disponibilté des systèmes tout en assurant les performances souhaitées. Le travail présenté dans cette thèse porte essentiellement sur la synthèse de techniques de commande en ligne en vue de garantir une tolérance aux pannes à tout moment pour le système bouclé. Deux approches sont proposées, à savoir une première approche basée sur une banque de contrôleurs pré-conçus et une seconde approche basée sur la conception en ligne des commandes. L'originalité de ces approches réside dans le fait qu'aucune information a priori sur le procédé n'est exigée ou n'est disponible en temps réel. En particulier, aucune identification ni estimation des paramètres du procédé n'est effectuée en temps réel. La reconfiguration des contrôleurs suite à une défaillance du procédé se base uniquement sur les trajectoires réelles (signaux) issues du procédé. Nous utilisons l'approche comportementale des systèmes comme paradigme de modélisation mathématique pour le développement des solutions proposées. Dans ce cadre mathématique, le concept d'interconnexion entre deux systèmes dynamiques, à savoir le contrôleur et le procédé, joue un rôle important dans la formulation et la solution du problème de commande et permet de déterminer l'ensemble admissible des trajectoires du procédé qui sont compatibles avec les spécifications de performance. Du point de vue pratique, la réduction des transitoires lors de la reconfiguration des contrôleurs est l'une des exigences importantes dans les algorithmes de commandes tolérantes aux défauts. La dernière partie de la thèse traite de la gestion de ces transitoires à l'aide d'une technique d'implantation des contrôleurs en temps réel qui assure une transition sans-à-coup lors des reconfigurations. En outre, on illustre dans cette dernière partie de la thèse les solutions de commandes obtenues pour la tolérance aux fautes sur des exemples issus du monde réel, à savoir un procédé hydraulique constitué de deux bacs à niveau, un avion en phase d'approche à l'atterrissage, et une éolienne NREL de 5 mégawatts.
APA, Harvard, Vancouver, ISO, and other styles
38

Fruquiere, Antoine. "Canaux calciques de type T spinaux et sensibilité douloureuse." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTT061.

Full text
Abstract:
Alors que la douleur physiologique est essentielle à la survie de l'individu, les douleurs chroniques sont purement délétères pour l'organisme et la qualité de la vie. Malheureusement, les traitements actuels se limitent à des médicaments peu efficaces ou présentant un mauvais rapport bénéfice / risque. Il est donc urgent de mieux comprendre les mécanismes d'établissement et de persistance des douleurs chroniques, comme les douleurs neuropathiques, afin de concevoir des stratégies thérapeutiques efficaces contre ces pathologies. De nombreuses études ont montré que les canaux calciques de type T sont impliqués dans les états douloureux chroniques. Par exemple, le sous-type Cav3.2, est exprimé tout au long du circuit neuronal nociceptif. Dans le système nerveux périphérique, les canaux Cav3.2 ont un rôle pronociceptif et sont désormais validées comme cibles pour la recherche de thérapies innovantes. En revanche, le rôle du canal Cav3.2 au niveau central, et en particulier dans la moelle épinière, un point névralgique de convergence, d'intégration et de transmission des informations nociceptives, reste à explorer.Grâce à un modèle murin Cav3.2GFP-Lox knock-in créé par l'équipe, nous avons pu identifier/localiser précisément les neurones Cav3.2 positifs dans tout le système nerveux et induire une délétion tissulaire spécifique de Cav3.2 par l’action de la Cre recombinase, pour ensuite en évaluer les effets sur la sensibilité à la douleur. Dans la moelle épinière, nous avons constaté que Cav3.2 est fortement exprimé dans les neurones des laminae superficielles, et sont principalement des neurones excitateurs. La suppression de Cav3.2 spinal par une approche virale a démontré comportementalement : i) l’abolition de l’allodynie au froid et mécanique, de l’hyperalgésie mécanique, ainsi que des douleurs spontanées, en condition neuropathiques chez les mâles et les femelles, ii) une altération de la perception au chaud en condition neuropathique avec un effet différentiel dépendant du sexe, et iii) une réduction de l’anxiété associée aux douleurs chroniques, iv) la suppression des effets analgésiques d’un traitement systémique d’un bloqueur pharmacologique de canaux calciques de type T. Mécanistiquement, les enregistrements extracellulaires in vivo des neurones de projection spinaux démontrent une diminution de l'intégration et de la transmission des messages nociceptifs pathologiques des fibres périphériques C et A-delta lorsque le canal Cav3.2 est délété dans les réseaux spinaux. Cette approche de délétion a été développée avant et après l'induction du modèle de douleur neuropathique pour en évaluer les effets préventifs et curatifs.Les résultats démontrent que la délétion du canal spinal Cav3.2 a des effets préventifs et curatifs sur les symptômes des douleurs neuropathiques. Dans une perspective clinique pour le développement d'analgésiques basés sur les inhibiteurs calciques de type T, nous suggérons de cibler Cav3.2 spinal en plus des canaux dans les neurones afférents primaires par des molécules pénétrant le système nerveux central
Physiological pain is essential for individual survival, but chronic pains are purely deleterious for the organism and the life quality. Unfortunately, current therapies are limited to drugs with a low efficacy or with a bad benefit/risk ratio. It is thus urgently necessary to better understand the establishment and persistence mechanisms of those chronic pains, like neuropathic pain in order to design efficient therapeutic strategies against this pathology. Many studies have shown that T-type calcium channels are involved in chronic pain states, like Cav3.2 subtypes, all along the nociceptive circuit. In the peripheral nervous system, Cav3.2 channels have pronociceptive impact and are now approved as a target for innovative therapies development. In contrast, the role of Cav3.2 channel in the central nervous system, and especially in the spinal cord, a crucial hotspot of nociceptive information convergence, integration and transmission, remains to be explored.Thanks to a Cav3.2-GFP-Lox murine model created by the team, we were able to i/ identify and precisely localize Cav3.2 positive neurons in all the nervous system and ii/ induce tissue specific deletion of Cav3.2 by the Cre recombinase action, to evaluate effects on pain sensitivity. At the spinal level, we found that Cav3.2 is prominently expressed in lamina II neurons comprising mostly excitatory neurons. Knocking-out spinal Cav3.2 by a viral approach has demonstrated behaviorally i) an abolition of cold and mechanical allodynia, mechanical hyperalgesia and spontaneous pain like behaviors under neuropathic conditions in males and females, ii) an alteration of the hot perception, under pathological pain conditions, with a differential effect in a sex dependent manner, and iii) a modification of anxiety associated to chronic pain, iv) a suppression of the analgesia induced by a systemic treatment with a brain penetrant T-type channel blocker. Mechanistically, extracellular in vivo recordings of spinal projection neurons demonstrate a decrease in integration and transmission of pathologic nociceptive messages from peripheral C- and A-delta fibers by Cav3.2 ablation in spinal networks. This approach has been developed before and after induction of the pain model to evaluate the preventive and curative effect of the treatment.Altogether, the results demonstrate that spinal Cav3.2 channel deletion has preventive and curative effects regarding neuropathic pains symptoms. In a clinical perspective for the development of analgesics based on T-type calcium channel blockers, we suggest the utility of targeting spinal Cav3.2 additionally to channels in primary afferent neurons, a notion already well established
APA, Harvard, Vancouver, ISO, and other styles
39

Zimmer, Matthieu. "Apprentissage par renforcement développemental." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0008/document.

Full text
Abstract:
L'apprentissage par renforcement permet à un agent d'apprendre un comportement qui n'a jamais été préalablement défini par l'homme. L'agent découvre l'environnement et les différentes conséquences de ses actions à travers des interactions avec celui-ci : il apprend de sa propre expérience, sans avoir de connaissances préétablies des buts ni des effets de ses actions. Cette thèse s'intéresse à la façon dont l'apprentissage profond peut aider l'apprentissage par renforcement à gérer des espaces continus et des environnements ayant de nombreux degrés de liberté dans l'optique de résoudre des problèmes plus proches de la réalité. En effet, les réseaux de neurones ont une bonne capacité de mise à l'échelle et un large pouvoir de représentation. Ils rendent possible l'approximation de fonctions sur un espace continu et permettent de s'inscrire dans une approche développementale nécessitant peu de connaissances a priori sur le domaine. Nous cherchons comment réduire l'expérience nécessaire à l'agent pour atteindre un comportement acceptable. Pour ce faire, nous avons proposé le cadre Neural Fitted Actor-Critic qui définit plusieurs algorithmes acteur-critique efficaces en données. Nous examinons par quels moyens l'agent peut exploiter pleinement les transitions générées par des comportements précédents en intégrant des données off-policy dans le cadre proposé. Finalement, nous étudions de quelle manière l'agent peut apprendre plus rapidement en tirant parti du développement de son corps, en particulier, en procédant par une augmentation progressive de la dimensionnalité de son espace sensorimoteur
Reinforcement learning allows an agent to learn a behavior that has never been previously defined by humans. The agent discovers the environment and the different consequences of its actions through its interaction: it learns from its own experience, without having pre-established knowledge of the goals or effects of its actions. This thesis tackles how deep learning can help reinforcement learning to handle continuous spaces and environments with many degrees of freedom in order to solve problems closer to reality. Indeed, neural networks have a good scalability and representativeness. They make possible to approximate functions on continuous spaces and allow a developmental approach, because they require little a priori knowledge on the domain. We seek to reduce the amount of necessary interaction of the agent to achieve acceptable behavior. To do so, we proposed the Neural Fitted Actor-Critic framework that defines several data efficient actor-critic algorithms. We examine how the agent can fully exploit the transitions generated by previous behaviors by integrating off-policy data into the proposed framework. Finally, we study how the agent can learn faster by taking advantage of the development of his body, in particular, by proceeding with a gradual increase in the dimensionality of its sensorimotor space
APA, Harvard, Vancouver, ISO, and other styles
40

Beatrix, Christopher. "Justifications dans les approches ASP basées sur les règles : application au backjumping dans le solveur ASPeRiX." Thesis, Angers, 2016. http://www.theses.fr/2016ANGE0026/document.

Full text
Abstract:
L’ Answer Set Programming (ASP) est un formalisme capable de représenter des connaissances en Intelligence Artificielle à l’aide d’un programme logique au premier ordre pouvant contenir des négations par défaut. En quelques années, plusieurs solveurs performants ont été proposés pour calculer les solutions d’un programme ASP que l’on nomme answer sets.Nous nous intéressons ici plus particulièrement au solveur ASPeRiX qui instancie les règles au premier ordre à la volée durant le calcul des answer sets. Pour réaliser cela, ASPeRiX applique un chaînage avant sur les règles à partir de littéraux précédemment déterminés.L’étude de ce solveur nous amène notamment à considérer la notion de justification dans le cadre d’une approche de calcul d’ answer sets basée sur les règles. Les justifications permettent d’expliquer pourquoi certaines propriétés sont vérifiées. Parmi celles-ci, nous nous concentrons particulièrement sur les raisons d’échecs qui justifient pourquoi certaines branches de l’arbre de recherche n’aboutissent pas à un answer set.Cela nous conduit à implémenter une version d’ ASPeRiX proposant du backjumping qui évite de parcourir systématiquement toutes les branches de l’arbre de recherche grâce aux informations fournies par les raisons d’échecs
Answer set programming (ASP) is a formalism able to represent knowledge in Artificial Intelligence thanks to a first order logic program which can contain default negations. In recent years, several efficient solvers have been proposed to compute the solutions of an ASP program called answer sets. We are particularly interested in the ASPeRiX solver that instantiates the first order rules on the fly during the computation of answer sets. It applies a forward chaining of rules from literals previously determined. The study of this solver leads us to consider the concept of justification as part of a rule-based approach for computing answer sets. Justifications enable to explain why some properties are true or false. Among them, we focus particularly on the failure reasons which justify why some branches of the search tree does not result in an answer set. This encourages us to implement a version of ASPeRiX with backjumping in order to jump to the last choice point related to the failure in the search tree thanks to information provided by the failure reasons
APA, Harvard, Vancouver, ISO, and other styles
41

Thai, Le Vinh. "Modèles et outils pour favoriser l’articulation entre la généricité d’un assistant intelligent et les spécificités de son usage en EIAH." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1096/document.

Full text
Abstract:
Cette thèse en informatique se situe dans le domaine des Environnements Informatiques pour l'Apprentissage Humain (EIAH), et plus particulièrement au sein du projet AGATE (an Approach for Genericity in Assistance To complEx tasks) qui vise à proposer des modèles génériques et des outils unifiés pour permettre la mise en place de systèmes d'assistance dans des applications existantes. Dans ce projet, l'éditeur d'assistance SEPIA permet aux concepteurs d'assistance de définir un système d'assistance épiphyte grâce à des règles respectant le langage aLDEAS. Ce système d'assistance peut ensuite être exécuté par le moteur d'assistance de SEPIA pour fournir de l'assistance aux utilisateurs finaux sur les applications-cibles diverses. Dans le contexte éducatif, des enseignants peuvent souhaiter mettre en place des systèmes d'assistance pour compléter les logiciels pédagogiques ou non-pédagogiques utilisés par les apprenants. Des ingénieurs pédagogiques endossent donc le rôle de concepteurs d'assistance, alors que les apprenants sont les utilisateurs finaux des applications assistées. Notre thèse traite la problématique suivante : « Comment mettre en place un système d'assistance épiphyte en contexte éducatif en adoptant une approche générique ? Nous avons abordé cette problématique de recherche en deux étapes : tout d'abord l'étude d'assistances existantes au sein d'applications utilisées en contexte éducatif, puis l'exploitation et l'enrichissement des modèles et outils du projet AGATE pour les adapter au contexte éducatif. Dans un premier temps, nous avons étudié des applications variées utilisées par des enseignants au sein de leurs cours, ainsi que des travaux existants qui proposent des systèmes d'assistance. Nous avons ainsi identifié les caractéristiques de l'assistance, et nous les avons classées selon qu'elles permettent de proposer de l'assistance technique (utilisation de l'application, prise en main) ou de l'assistance pédagogique (feedbacks pédagogiques, guidage pédagogique). Nous avons ajouté à cette classification les différents modes de déroulement d'une assistance dans le contexte éducatif. Dans un second temps, nous avons confronté les modèles et outils proposés précédemment dans le projet AGATE aux caractéristiques de l'assistance ainsi identifiées dans le contexte éducatif. Les limites des modèles et outils précédents nous ont amené à proposer deux contributions au langage aLDEAS et au système SEPIA pour les adapter au contexte éducatif. Cette nouvelle version de SEPIA adaptée au contexte éducatif est nommée SEPIA-edu. La première limite concernait la complexité de définition de systèmes d'assistance variés en termes de déroulement. Que ce soit dans un contexte éducatif ou non, il est important de pouvoir définir facilement et de manière explicite plusieurs modes d'articulation entre les différents éléments d'un système d'assistance. Nous avons donc proposé un modèle d'articulation entre les règles aLDEAS explicitant le déroulement d'une assistance et permettant de définir des systèmes d'assistance comprenant des éléments qui se déroulent de manière successive, interactive, simultanée, progressive, indépendante. Nous avons associé à ce modèle un processus d'application automatique des contraintes des modes d'articulation aux règles qui permet de générer et/ou modifier automatiquement les règles aLDEAS en faisant en sorte qu'elles soient toujours compatibles avec le moteur d'exécution d'assistance de SEPIA. Ce modèle et ce processus ont été implémentés dans SEPIA-edu. La seconde limite est propre au domaine éducatif. Elle concernait la complexité à définir un guidage pédagogique proposant un parcours entre différentes activités au sein d'une application existante. Nous avons tout d'abord proposé un modèle d'activité permettant de délimiter les activités au sein des applications
This thesis in computer science take place in the ILE domain (Interactive Learning Environment) and was realized within the AGATE project (an Approach for Genericity in Assistance To complEx tasks) that aims at proposing generic models and unified tools to make possible the setup of assistance systems in various existing applications. In this project, an assistance editor allows assistance designers to define assistance systems and a generic assistance engine executes these assistance systems on the various target-applications without disturbing them to help final users. These assistance systems are defined by the assistance rules that respect the aLDEAS language. In the educational context, teachers can want to set up assistance system to complete the pedagogical or non-pedagogical software used by learners. Pedagogical engineers therefore have the role of assistance designers and learners are end-users of such assisted applications. Our PhD thesis address the following research question: “How to set up an epiphytic assistance system in the educational context by adopting a generic approach?” In order to answer this research question, we realized this thesis in two steps: first, the study of existing assistances within applications used in the educational context, then the exploitation and enrichment of models and tools of the AGATE project to adapt them to the educational context. In the first step, we studied the applications used by teachers in their courses as well as existing works proposing assistance system. We identified the characteristics of assistance, and classified them by the way they propose the technical assistance (use, handling of applications) and the pedagogical assistance (pedagogical feedback, pedagogical guidance) as well as different modes to sequence assistance elements in the educational context. In the second step, we confronted the models and tools proposed previously in the AGATE project to the characteristics of the assistance identified in educational context. The limitations of the previous models and tools led us to propose two contributions to the aLDEAS language and the SEPIA system in order to adapt them to the educational context. The first limitation relates to the complex definition of various assistance systems in terms of sequence of assistance elements. Whether in an educational context or not, it is important to be able to define easily and explicitly several modes of articulation between the different elements of an assistance system. We therefore proposed a model of articulation between aLDEAS rules in five modes: successive, interactive, simultaneous, progressive, independent. We associated this model with a process of automatic application of constraints of the articulation modes to the rules. This process makes it possible to automatically generate and / or modify the aLDEAS rules by making sure that they are always compatible with the execution of SEPIA assistance engine. This model and this process have been implemented in SEPIA-edu. The second limitation is specific to the educational context. It concerns the complex definition of a pedagogical guidance proposing different learning activities within an existing application. We first proposed an activity model to delimit activities within applications. Then, a pedagogical guidance model allows to define different types of pedagogical guidance (free, sequential, contextualized, temporal, personalized). A pedagogical guidance pattern was proposed to define a composed pedagogical guidance which can combine several types of pedagogical guidance. Finally, a process of the transformation of a pedagogical guidance into aLDEAS rules allows to automatically generate and modify aLDEAS rules. This model of activity, this pedagogical guidance pattern and this process have been implemented in SEPIA-edu
APA, Harvard, Vancouver, ISO, and other styles
42

Masi, Enrica. "Étude théorique et numérique de la modélisation instationnaire des écoulements turbulents anisothermes gaz-particules par une approche Euler-Euler." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0030/document.

Full text
Abstract:
Le contexte général de cette thèse s'inscrit dans le cadre de la modélisation eulérienne instationnaire des écoulements turbulents anisothermes gaz - particules. La modélisation de ces écoulements est cruciale pour de nombreuses applications industrielles et pour la prédiction de certains phénomènes naturels. Par exemple, la combustion diphasique dans les moteurs automobiles et aéronautiques est précédée par l'injection et la dispersion de carburant liquide dans la chambre de combustion. Les phénomènes mis en jeu exigent alors une prédiction locale tenant compte du caractère instationnaire de l'écoulement turbulent et de la présence de géométries complexes. De plus, de nombreuses études expérimentales et numériques récentes ont mis en évidence le rôle prépondérant de l'inertie des particules sur les mécanismes de dispersion et de concentration préférentielle en écoulement turbulent. Ceci rend donc indispensable la prise en compte de ces mécanismes dans la modélisation diphasique. Au cours de ce travail de thèse, une approche eulérienne locale et instantanée a été développée pour prédire les écoulements gaz-particules anisothermes et turbulents. Elle est basée sur l'approche statistique du Formalisme Eulérien Mésoscopique (MEF) introduite par Février et al. (JFM, 2005). Cette approche a été ici étendue aux variables thermiques pour la prise en compte du caractère anisotherme de l'écoulement. Cette approche a été ensuite utilisée dans le cadre de la méthode des moments (Kaufmann et al., JCP, 2008), et un système d'équations locales et instantanées pour la phase dispersée a été proposé. La modélisation au premier ordre exige la fermeture des moments de second ordre apparaissant dans les équations de la quantité de mouvement et de l'énergie. La proposition de telles relations constitutives fait l'objet d'une partie de la thèse. Afin de fournir une méthode capable de prédire le comportement local, instantané et anisotherme de la phase dispersée dans des configurations `a une échelle réaliste, les équations pour la phase dispersée ont été filtrées et une modélisation aux grandes échelles (LES) est effectuée. Cette modélisation étends, par la prise en compte des variables thermiques, le travail de Moreau et al. (FtaC, 2010) sur l'approche LES Euler-Euler en conditions isothermes. L'approche complète est enfin appliquée aux résultats de simulation numérique d'un jet plan turbulent gazeux froid, chargé en particules, dans une turbulence homogène isotrope chaude monophasique
The aim of this thesis is to provide an Eulerian modeling for the dispersed phase interacting with unsteady non-isothermal turbulent flows. The modeling of these flows is crucial for several industrial applications and for predictions of natural events. Examples are the combustion chambers of areo engines where the combustion is preceded by the injection and dispersion of liquid fuel. The prediction of such phenomena involves a local modeling of the mixture for taking into account the unsteady behavior of the turbulent flow and the presence of complex geometries. Moreover, many experimental and numerical studies have recently highlighted the significant role of the particle inertia on the mechanisms of dispersion and preferential concentration. Accounting for such mechanisms is therefore essential for modeling the particle-laden turbulent flows. In this thesis, a local and instantaneous Eulerian approach able to describe and to predict the local behavior of inertial particles interacting with non-isothermal turbulent flows has been developed. It is based on the statistical approach known as Mesoscopic Eulerian formalism (MEF) introduced by Février et al. (JFM, 2005). The statistical approach has been extended to the thermal quantities in order to account for the non-isothermal conditions into the modeling. This formalism is then used in the framework of the moment approach (Kaufmann et al., JCP, 2008) and a system of local and instantaneous equations for the non-isothermal dispersed phase has been suggested. The first order modeling requires to close second-order moments appearing in momentum and energy equations. The proposal of such constitutive relations makes the object of a part of this study. In order to provide an Eulerian approach usable in real configurations at industrial scale, the equations of the dispersed phase are filtered and the approach developed in the framework of the Large-Eddy Simulations. From the work of Moreau et al. (FTaC, 2010), the Eulerian-Eulerian LES approach is then extended to non-isothermal conditions. The whole modeling is then a priori tested against numerical simulations of a cold planar turbulent particle-laden jet crossing a homogeneous isotropic decaying hot turbulence
APA, Harvard, Vancouver, ISO, and other styles
43

Gouba, Oussoulare. "Approche conjointe de la réduction du facteur de crête et de la linéarisation dans le contexte OFDM." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00931304.

Full text
Abstract:
Les amplificateurs de puissance sont au centre des systèmes actuels de télécommunications. Leur linéarité (pour préserver la qualité des données transmises) et leur rendement énergétique (pour faire des économies d'énergie) sont très importants et constituent les préoccupations majeures des concepteurs. Cependant, ce sont des composants analogiques intrinsèquement non-linéaires et leur utilisation avec des signaux à enveloppes non-constantes génèrent des distorsions à savoir des remontées spectrales hors-bandes et une dégradation du taux d'erreurs. Les signaux OFDM à la base de nombreux standards comme le Wifi, le Wi-Max, la télévision numérique, le LTE, etc. ont de fortes variations de puissance encore appelées PAPR (Peak-to-Average Power Ratio) qui aggravent ces problèmes de non-linéarité de l'amplificateur et réduit son rendement. Le traitement conjoint des non-linéarités et l'amélioration du rendement de l'amplificateur est l'objectif de cette thèse.Pour cela, l'accent est mis sur une approche conjointe de la linéarisation et de la réduction du PAPR. Ces deux méthodes jusqu'à présent abordées séparément dans la littérature sont en fait complémentaires et interdépendantes. Cela a été prouvé grâce à une étude analytique que nous avons menée. Grâce à l'approche conjointe, on peut simplement les associer, on parle dans ce cas d'approche non-collaborative ou leur permettre en plus d'échanger des informations et de s'adapter l'une par rapport à l'autre et/ou vice versa. Ce dernier cas est l'approche collaborative. Nous avons ensuite proposé des algorithmes d'approche conjointe collaborative basés sur les techniques d'ajout de signal. La réduction du PAPR et la prédistorsion (choisie comme méthode de linéarisation) sont fusionnées sous une seule formulation d'ajout de signal. Un signal additionnel conjoint est alors généré pour à la fois compenser les non-linéarités de l'amplificateur de puissance et réduire la dynamique du signal à amplifier.
APA, Harvard, Vancouver, ISO, and other styles
44

Ghamri-Doudane, Samir. "Une approche pair à pair pour la découverte de ressources à large échelle." Paris 6, 2008. http://www.theses.fr/2008PA066450.

Full text
Abstract:
Ces dernières années ont vu la consécration du pair à pair comme modèle de référence pour le partage de ressources. Toutefois, les technologies proposées arrivent difficilement à concilier efficacité de fonctionnement, flexibilité des recherches et distribution complète de l’architecture. Dans cette thèse, nous étudions les différentes approches existantes et nous détaillons notre proposition pour un système de découverte de ressources qui puisse répondre aux différents besoins applicatifs tout en exhibant des propriétés d’adaptation à des environnements de déploiement hétérogènes. Le système ainsi proposé offre un outil de recherche déterministe, efficace et flexible. Ses performances sont comparées à celles d’autres systèmes existants. Puis, nous concentrons notre étude sur la répartition de charge en proposant des mécanismes complémentaires, dont l’évaluation montre que leur utilisation combinée garantit une répartition équitable des charges de stockage, de traitement et de routage.
APA, Harvard, Vancouver, ISO, and other styles
45

Williams, Anna M. "Acute pain management in children : an ethnographic approach." Thesis, University of London, 2012. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.589765.

Full text
Abstract:
This ethnographic study explores how children's pain is managed in the context of a general paediatric ward. Fieldwork was conducted on one ward over a period of 11 months. Data were collected using observations and informal interviews. Children (n=5) aged 8-16 years, their mothers (n=4) and nurses (n=5) participated in in-depth interviews exploring understandings and experiences of pain and pain management. A symbolic interactionist stance was taken, using the key concepts of pain work and the ceremonial order of the ward. In the context of the ward, pain is a eo-constructed phenomenon, incorporating the perspectives, interpretations and interactions of those involved. Nurses drew on expected and unexpected trajectories and their interactions with children to construct pain as a working or 'clinical' entity. They conceptualised pain in three main ways; routine/normal pain, fear as pain and complex pain. Children's accounts of pain revealed how pain was interpreted using temporal and causal dimensions with their mothers being central to their experiences of pain management. Mothers also drew on causal and temporal dimensions to interpret pain, contextualising this in their knowledge of their child. Nurses carried out various forms of work which served to sustain the ceremonial order ofthe ward. This included pain work, identity work, and emotion work. Pain work was also negotiated by nurses within the wider social context of the ward, showing how the division of labour, spatio-ternporal features, and the social organisation of the ward shaped pain management practices. The key findings taken together reveal multiple conceptualisations of pain at work, and multiple dynamics of interaction, in which nurses play a pivotal role. This thesis therefore develops new understandings of children's pain and pain management in using an ethnographic approach, and by applying sociological concepts to develop an integrated and theorised analysis of acute pain management on a paediatric ward.
APA, Harvard, Vancouver, ISO, and other styles
46

Fleau, Solène. "Modélisation des écoulements eau-vapeur « tous régimes d’écoulements » par une approche multi-champ." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1081/document.

Full text
Abstract:
La compréhension des écoulements à bulles dans les centrales nucléaires demeure encore un élément limitant dans l’analyse des opérations et de la sûreté des installations. Pour ne citer qu’un exemple, l’amélioration de la durée de vie etde la performance des générateurs de vapeur nécessite d’appréhender les régimes d’écoulement au sein des tubes qui sont responsables de leur vibration. Cependant, pour simuler avec précision ces écoulements, les codes de simulation numérique doivent relever de nombreux défis parmi lesquels la capacité à simuler des inclusions ayant des tailles très variées. Dans cette thèse, une nouvelle approche, appelée approche multi-champ, est implémentée dans le code NEPTUNE_CFD, basé sur un modèle bi-fluide. Cette approche inclut une méthode de suivi d’interface pour les grandes structures déformables et prend en compte les effets liés à la turbulence et aux changements de phase.Pour simuler de tels écoulements complexes en limitant le coût CPU, l’approche multi-champ considère séparément les petites inclusions sphériques des grandes inclusions déformables. Ainsi, les petites structures sphériques sont définies via un champ eulérien dispersé évoluant au sein d’un champ continu porteur, comme c’est habituellement le cas avec le modèle bi-fluide. Les grosses bulles déformables sont considérées comme des interfaces entre deux champs continus, un champ liquide et un champ gaz. Si on prend l’exemple d’un écoulement diphasique avec de l’eau et des bulles d’air de différentes tailles, trois champs sont alors définis pour cet écoulement: un champ continu liquide, un champ continu gaz et un champ dispersé gaz contenant les petites bulles sphériques. Cependant, simuler avec précision des interfaces entre deux champscontinus avec le modèle bi-fluide nécessite le développement de traitements spécifiques afin de coupler les deux champs à l’interface et de limiter la diffusion de cette interface.Après avoir amélioré la simulation des interfaces dans des écoulements laminaires, les effets liés à la turbulence sont étudiés. Une étude a priori de simulations aux grandes échelles est proposée pour identifier les termes sous-mailles et comparer différents modèles de turbulence disponibles dans la littérature. L’implémentation et la validation du modèle de turbulence retenu suite à l’étude sont détaillées. Les changements de phase sont ensuite explorés via le développement d’un modèle spécifique pour le terme de transfert de masse. Pour finir, des simulations trois champs sont présentées. De nouveauxcritères sont définis pour modéliser la fragmentation des grandes inclusions déformables en petites bulles sphériques ainsi que la coalescence de ces dernières pour former de grandes bulles déformables.A chaque étape de l’implémentation des différents modèles évoqués, des validations basées sur des données analytiques et issues d’expériences sont présentées afin de s’assurer que les phénomènes physiques sont bien prédits. Des cas tests dans des configurations industrielles sont également détaillés pour montrer la capacité de l’approche développée à simuler des écoulements complexes
Bubbly flows occurring in nuclear power plants remain a major limiting phenomenon for the analysis of operation and safety. As an example, the improvement of steam generator lifetime and performance relies on the comprehension of flow regimes inside the tubes responsible for tube vibrations. However, to ensure an accurate simulation of these flows, theComputational Multi-Fluid Dynamics (CMFD) codes have to take up many challenges, among others the ability of dealing with a variety of inclusion sizes. The classical two-fluid model allows simulating small spherical inclusions but is not able to compute large deformable inclusions. Thus, in this thesis, a new approach, called the multifield approach, is implementedin the CMFD code NEPTUNE_CFD, based on a two-fluid model. This approach includes an interface tracking method for large and deformable structures and takes into account turbulence and phase change effects.To simulate such complex flows with reasonable computational costs, the multifield approach considers separately the small spherical inclusions and the large deformable ones. Thus, the small spherical structures are defined as a dispersed field evolving in a continuous carrier field, as usually done in the two-fluid model. The large deformable bubbles are considered as interfaces between two continuous phases treated as two different fields in the two-fluid model. In the example of a two-phase flow with water and air bubbles of different sizes, three fields are defined: a continuous liquid field, a continuous gas field and a dispersed gas field containing the small spherical bubbles. However, the accurate simulation of interfaces between the two continuous fields within the two-fluid model requires specific treatments to couple the two fields at the interface and to limit the interface smearing.After improving the interface simulation in laminar flows, turbulence effects are investigated. An a priori Large Eddy Simulation (LES) study is performed to identify the predominant subgrid terms and to compare different availableturbulence models. The implementation and validation of the most suitable model is proposed. Phase change interfaces are then explored with the development of a specific model for the mass transfer term. Finally, three fields simulations are performed. New criteria are defined for the breakup of the large deformable inclusions into small spherical bubbles and for the coalescence of the latter forming large deformable bubbles.Validation at each step of the models implementations are presented using analytical and experimental data to ensure that the physical phenomena are well predicted. Test cases in industrial configurations are finally performed to show the ability of the developed approach to deal with complex flows
APA, Harvard, Vancouver, ISO, and other styles
47

Levieil, Bruno. "Prise en compte des contraintes résiduelles dans le dimensionnement en fatigue oligocyclique par des méthodes simplifiées." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0070/document.

Full text
Abstract:
Les contraintes résiduelles, introduites lors de la fabrication des pièces mécaniques, influent sur leur durée de vie en fatigue et doivent donc être prises en compte. Ce travail vise à développer une méthode de dimensionnement rapide en fatigue oligocyclique permettant leur prise en compte, aussi bien sous chargement de traction que de compression. L’idée principale est de calculer analytiquement le cycle stabilisé uniquement au point critique de la structure à l’aide d’une méthode simplifiée en plasticité confinée. Cette dernière est basée sur une loi de localisation, qui étend les méthodes énergétiques de type Neuber au cas général multiaxial. La loi de localisation permet de relier le chargement appliqué à la structure à celui observé localement au point critique. Elle est calibrée à l’aide d’une simulation éléments finis sous chargement monotone de la structure. Pour cela, le comportement élasto-plastique du matériau est d’abord caractérisé à partir d’un essai de traction avec charges-décharges. A l’aide de ce seul essai, la loi de comportement est identifiée de manière séquentielle, en utilisant des écrouissages cinématique et isotrope à seuil. Ce seuil permet d’améliorer la prévision de la contrainte moyenne stabilisée, utilisée dans le critère de fatigue proposé. Ce dernier a été identifié sur des essais purement alterné (Rε=-1), puis validé pour des chargements de traction alternée (Rε>-1) et de compression alternée (Rε<-1). L’application de la démarche en plasticité confinée est réalisée sur des éprouvettes à double encoche présentant initialement différents états de contraintes résiduelles. L’évolution des contraintes locales sous chargement cyclique nominal de traction répétée (Rσ=0) ou de compression répétée (Rσ=-∞) est mesurée. Cette évolution est ensuite comparée aux prévisions numériques et analytiques obtenues à l’aide de la loi de comportement et de la méthode simplifiée. L’application du critère de fatigue aux données stabilisées prévues par les modèles a permis d’obtenir des durées de vie avec un conservatisme indépendant du rapport de charge et de l’état initial. Enfin, une application de la démarche complète sur des joints soudés en T est réalisée afin d’élargir le spectre d’application de la méthode
Residual stresses are inherent to the manufacturing processes and can have a strong effect on the fatigue life of structures. Therefore, they shall be taken into account in fatigue design. In this PhD thesis, a fast design method is developed to take residual stresses into account in low cycle fatigue, either under tensile or compressive loadings. The main idea is to calculate analytically the stabilised stress-strain curve, at the critical point, by using a simplified method for confined plasticity. This method is based on a localisation law that extends energetic methods like Neuber to general multiaxial stress states. The localization law links the applied load to the local load at the critical point. It has to be identified on a finite element analysis of the structure under monotonic load. For this purpose, the elasto-plastic behaviour of the material is characterised from one single tensile test with loadings-unloadings. The behaviour law, identified sequentially, includes isotropic and kinematic hardenings with thresholds. This improves the stabilised mean stress prediction, which is used in the proposed fatigue criterion to represent the influence of the load ratio on the fatigue life. This criterion is identified on purely alternated tests (Rε=-1), and then validated under various tensile load ratios (Rε>-1) as well as compressive load ratios (Rε<-1). The methodology is validated on plate specimens with two semi-circular notches, which initially present different residual stresses states. The experimental evolution of local stresses during cyclic compressive (Rσ=-∞) and tensile (Rσ=0) repeated applied loads have been studied experimentally and compared to the numerical and analytical predictions. The same work has been achieved on the fatigue lives predictions. It shows that a slight conservatism, independent from the load ratio and the initial state, is obtained. Finally, an application of the method on T-Joints is realised to enlarge the scope of the method
APA, Harvard, Vancouver, ISO, and other styles
48

Schenk, Kathleen Ketring. "Active Suffering: An Examination of Spinoza's Approach to Tristita." Scholar Commons, 2017. http://scholarcommons.usf.edu/etd/6756.

Full text
Abstract:
Humans' capacity to attain knowledge is central to Spinoza's philosophy because, in part, knowing things enables humans to deal properly with their affects. But it is not just any sort of knowledge that humans should attain. There are different types of knowledge, but only two of them–rational and intuitive knowledge–enable humans who attain them to know things clearly. Because rational knowledge attends to universals whereas intuitive knowledge attends to particulars, intuitive knowledge is better than rational knowledge at enabling humans to deal with their affects. Most scholars recognize both the importance of knowledge to humans' dealing with their affects and the superiority of intuitive knowledge at enabling them to do this. But these points are particularly relevant to the affect that Spinoza calls "tristitia," which is usually translated as either "pain" or "sadness." I argue in this dissertation that attaining knowledge– especially intuitive knowledge–enables humans to deal properly with their experiences of pain. This ability that humans acquire by knowing things is what I call "active suffering." A person suffers passively when she merely reacts to her pain, in this way allowing an external force to control her. She suffers actively when she uses knowledge to respond to her pain, in this way being in control of herself. This knowledge she uses to deal actively with her pain bears a relation to Spinoza's theory of freedom, since it entails a realization that all events (such as a person's experience of pain) happen necessarily and that embracing this necessity is the same as being free.
APA, Harvard, Vancouver, ISO, and other styles
49

Thiebaut, Lonjaret Lucie. "Approche surfacique en IRM fonctionnelle cérébrale : projection corticale par résolution d'un problème inverse." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0627.

Full text
Abstract:
Cette thèse traite d’imagerie par résonance magnétique fonctionnelle (IRMf) cérébrale. Jusqu’à présent, cette modalité est principalement employée dans le domaine des neurosciences dans le but d’étudier les processus cognitifs et la relation entre anatomie et fonction. L’emploi de l’IRMf est toutefois restreint en comparaison des perspectives qu’elle offre. En effet, trois caractéristiques intrinsèques au signal observé en IRMf posent problème. D’abord, le signal ne constitue pas l’observation directe de l’activité cérébrale. Il en résulte un flou temporel ne permettant pas la localisation temporelle précise de l’activité neuronale. Ensuite, seules les variations temporelles du signal IRMf déterminent la présence ou l’absence d’une telle activité. Or ces fluctuations sont faibles vis-à-vis de l’amplitude du signal et du bruit. Enfin, de nombreuses ambiguïtés de localisation spatiale existent, et cela particulièrement au niveau du ruban cortical du fait de ses nombreuses circonvolutions. Plusieurs approches proposent, en conséquence, d’étudier les données IRMf sur la surface corticale. Toutefois, toutes se basent sur des méthodes directes d’interpolation ou de rétro-projection, omettant ainsi que le signal d’intérêt acquis est originaire du ruban cortical. L’originalité du travail réalisé durant cette thèse consiste à considérer le problème de projection comme un problème inverse. La méthode procède alors simultanément à la projection surfacique, et à la restauration des propriétés spatio-temporelles d’origine des données fonctionnelles sur la surface
This thesis deals with cerebral functional magnetic resonance imaging (fMRI). Until now, fMRI is mainly used in the field of neurosciences as a tool to understand cognitive processes and the links between anatomy and function. However, fMRI use is limited compared to the perspectives it offers. Indeed, three properties of the fMRI signal are problematic. First, this signal is not a direct representation of cerebral activities, thus resulting in a temporal blur that opposes the accurate localization of neuronal activities in time. Then, only the temporal variations of the fMRI signal can determine the presence or absence of those activities. Yet, those fluctuations are small compared to the overall signal and noise magnitudes. And last but not least, ambiguities related to spatial localization of cerebral activities are numerous and especially troublesome around the cortical ribbon due to its highly convoluted shape. Therefore, several approaches offer to study fMRI data onto the cortical surface. However, they all consider the problem as an interpolation one, neglecting the origin of the acquired signal of interest : the cortical ribbon. The original idea behind the work achieved in this thesis consists in posing the projection problem as an inverse problem to solve. This way we achieve both the surface-based projection and the recovering of the original cortical signal spatio-temporal properties
APA, Harvard, Vancouver, ISO, and other styles
50

Mazars, Vincent. "Étude des endommagements sur CMC par une approche de modélisation micro-méso alimentée par des essais in situ." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0251/document.

Full text
Abstract:
Les composites SiC/SiC pr´esentent d’excellentes propri´et´es thermom´ecaniques `a hautes temp´eratures. Ils apparaissent donc comme des candidats cr´edibles pour remplacer les alliages m´etalliques dans les zones chaudes de moteurs a´eronautiques civils afin d’en r´eduire l’impact environnemental. Comprendre et pr´evoir l’apparition des premiers endommagements constitue donc un enjeu industriel majeur. La d´emarche multi-´echelle propos´ee permet d’int´egrer dans des mod`eles num´eriques les sp´ecificit´es du mat´eriau. Elle s’articule autour d’une phase exp´erimentale de caract´erisation des endommagements et d’une phase de mod´elisation par ´el´ements finis aux ´echelles microscopique et m´esoscopique. Des essais in situ sous microscopes et sous micro-tomographie X (μCT) sont e↵ectu´es pour visualiser et quantifier les m´ecanismes d’endommagement `a des ´echelles compatibles avec les mod`eles num´eriques. Sur la base des observations exp´erimentales, des calculs d’endommagement sont r´ealis´es `a l’´echelle microscopique afin de simuler la fissuration transverse des torons. Des essais virtuels permettent alors d’identifier des lois d’endommagement `a l’´echelle sup´erieure et de mod´eliser l’apparition des premi`eres fissures dans des textures tiss´ees 3D `a l’´echelle m´esoscopique. Cela permet de mettre en ´evidence les liens entre l’organisation du mat´eriau aux di↵´erentes ´echelles et l’initiation des premiers endommagements. Des confrontations essais/calculs sont finalement propos´ees, en comparant notamment les sites d’amor¸cage des endommagements observ´es exp´erimentalement lors des essais in situ sous μCT avec ceux pr´edits par les simulations
SiC/SiC composites display excellent thermomechanical properties at high temperatures. They appear as promising candidates to replace metallic alloys in hot parts of aircraft engines to reduce their environmental impact. Thus, to understand and to predict the onset of damage in such materials is critical. An integrated multi-scale approach is developed to construct numerical models that integrate the specificities of the material at the di↵erent relevant scales. This work is twofold : an experimental characterization of the damage, and finite element modeling at the microscopic and mesoscopic scales. In situ tensile tests are carried out under microscopes and X-ray micro-tomography (μCT). Images are analyzed to visualize and quantify the damage mechanisms at scales consistent with the numerical models. Based on these observations, damage calculations are performed at the microscopic scale to simulate the transverse yarns cracking. Virtual tests are then used to identify damage laws at the upper scale and to simulate the first cracks in 3D woven composites at the mesoscopic scale. Through these simulations, we highlight the links between the organization of the material at di↵erent scales and the initiation of the damages. Comparisons between experiments and calculations are finally performed. In particular, the predicted damage events are compared to those obtained experimentally on the same specimen during in situ μCT tensile tests
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography