To see the other types of publications on this topic, follow the link: Méthode RAGE.

Dissertations / Theses on the topic 'Méthode RAGE'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode RAGE.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Barret, Julien. "Clonage, ingénierie et transfert de grands fragments de génome chez Bacillus subtilis." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0458.

Full text
Abstract:
L’ingénierie des génomes des micro-organismes est devenue un standard dans les biotechnologies microbiennes. En 2010, des technologies prometteuses de biologie de synthèse utilisant la levure comme plateforme pour l’assemblage et l’ingénierie de génomes synthétiques bactériens suivi de leur transplantation dans une cellule receveuse ont vu le jour. Ces technologies ont conduit à la création des premières cellules synthétiques et ouvert de nouvelles voies vers la construction de cellules aux propriétés biologiques entièrement contrôlées. Le transfert de ces outils à des micro-organismes d’intérêt industriel comme la bactérie Gram+ Bacillus subtilis (Bsu), modèle dans le secteur des biotechnologies, constituerait une avancée majeure. C’est précisément l’objectif du projet ANR « Bacillus 2.0 », qui réunit deux équipes INRAE et qui se propose d’adapter l’ensemble de ces outils de biologie de synthèse à Bsu afin d’être en mesure de partir d’une conception, assistée par ordinateur, de génomes semi-synthétiques de Bsu jusqu’à l’obtention de nouvelles souches industrielles. Cependant, les premiers travaux réalisés sur ce projet ont montré que le génome entier de Bsu ne pouvait pas être cloné et maintenu en l’état dans la levure. Ces résultats risquaient de remettre en question la faisabilité du projet dans son ensemble et en particulier la pertinence d’utiliser la levure comme plateforme d’assemblage du génome semi-synthétique de Bsu.L’objectif de ma thèse a consisté à démontrer que la levure restait un hôte pertinent pour le projet « Bacillus 2.0 ». Elle s’est déclinée en 3 parties. Dans la première partie, une méthode de clonage de génome récemment développée au laboratoire et dénommée CReasPy-Fusion, a progressivement été adaptée à Bsu. Les résultats obtenus ont montré (i) le transfert possible d'ADN plasmidique entre protoplastes bactériens et sphéroplastes de levure, (ii) l'efficacité d'un système CRISPR-Cas9 porté par les cellules de levure pour capturer/modifier cet ADN plasmidique pendant la fusion Bsu/levure, puis (iii) l'efficacité de ce même système pour capturer des fragments de génome d’une centaine de kb à partir de trois souches différentes. Des observations en microscopie à fluorescence ont également été réalisées et ont mis en évidence deux types d’interactions qui permettraient de passer d’un contact protoplastes/sphéroplastes à un ADN bactérien cloné dans la levure. Dans la seconde partie de ma thèse, la méthode CReasPy-Fusion a été mise à profit pour tenter de cloner de grands fragments du génome de Bsu dans la levure. Des fragments génomiques jusqu’à ~1 Mb ont pu être clonés dans la levure, mais leur capture a nécessité l’ajout préalable d’un grand nombre d’ARS sur le génome de Bsu pour stabiliser les constructions génétiques. La dernière partie a été l’adaptation de la méthode RAGE à Bsu. Cette méthode permet le transfert, non pas d’un génome entier mais de portions de génomes bactériens depuis la levure vers la bactérie à éditer. Une preuve de concept a été réalisée avec l’échange d’un premier fragment de génome de 155 kb par une version réduite de 44 kb.En conclusion, les travaux réalisés au cours de cette thèse ont montré la pertinence d’utiliser la levure comme plateforme d’ingénierie dans les modifications à grande échelle du génome de Bsu. D’une part, nous avons montré que des fragments d’une centaine de kb peuvent être clonés dans la levure, modifiés et transférés dans une cellule receveuse de façon à générer des Bsu mutants. Cette stratégie offre une véritable alternative à la transplantation de génome. D’autre part, nous avons montré que de grands fragments du génome de Bsu (jusqu’à 1Mb) peuvent également être clonés dans la levure à condition de contenir de nombreux ARS dans leurs séquences. Grâce à ces résultats, le clonage d’un génome réduit de Bsu chez la levure est redevenu un objectif réalisable
Genome engineering of microorganisms has become a standard in microbial biotechnology. In 2010, promising synthetic biology technologies using yeast as a platform for the assembly and engineering of synthetic bacterial genomes followed by their transplantation into a recipient cell have emerged. These technologies have led to the creation of the first synthetic cells and opened new avenues towards the construction of cells with fully controlled biological properties. Transferring these tools to microorganisms of industrial interest such as the Gram+ bacterium Bacillus subtilis (Bsu), a model in the biotechnology sector, would be a major step forward. This is precisely the aim of the ANR "Bacillus 2.0" project, which brings together two INRAE teams and aims to adapt all these synthetic biology tools to Bsu so as to be able to go from computer-aided design of semi-synthetic Bsu genomes to the production of new industrial strains. However, initial work on this project showed that the entire Bsu genome could not be cloned and maintained in yeast in its current state. These results threatened to call into question the feasibility of the entire project and, in particular, the relevance of using yeast as a platform for assembling the semi-synthetic Bsu genome.The goal of my thesis was to demonstrate that yeast remained a relevant host for the Bacillus 2.0 project. It was divided into 3 parts. In the first part, a genome cloning method recently developed in the laboratory, called CReasPy-Fusion, was progressively adapted to Bsu. The results obtained showed (i) the possible transfer of plasmid DNA between bacterial protoplasts and yeast spheroplasts, (ii) the efficiency of a CRISPR-Cas9 system carried by yeast cells to capture/modify this plasmid DNA during Bsu/yeast fusion, and then (iii) the efficiency of the same system to capture genomic fragments of about a hundred kb from three different strains. Fluorescence microscopy observations were also carried out revealing two types of interaction that would enable the transition from protoplast/spheroplast contact to cloned bacterial DNA in yeast. In the second part of my thesis, the CReasPy-Fusion method was used in an attempt to clone large Bsu genome fragments in yeast. Genomic fragments of up to ~1 Mb could be cloned in yeast, but their capture required the prior addition of a large number of ARS to the Bsu genome to stabilize the genetic constructs. The final part was the adaptation of the RAGE method to Bsu. This method allow the transfer, not of a whole genome, but of portions of bacterial genomes from yeast to the bacteria to be edited. Proof of concept was achieved by exchanging a 155 kb genome fragment with a reduced 44 kb version.In conclusion, the work carried out during this thesis has shown the relevance of using yeast as an engineering platform for large-scale modifications of the Bsu genome. On the one hand, we have shown that fragments of around 100 kb can be cloned in yeast, modified and transferred into a recipient cell to generate Bsu mutants. This strategy offers a real alternative to genome transplantation. On the other hand, we have shown that large fragments of the Bsu genome (up to 1 Mb) can also be cloned in yeast, provided they contain numerous ARS in their sequences. Thanks to these results, cloning a reduced Bsu genome in yeast has once again become an achievable goal
APA, Harvard, Vancouver, ISO, and other styles
2

Gonzalez, Camacho Juan-Manuel. "Modélisation stochastique d'une irrigation à la raie." Montpellier 2, 1991. http://www.theses.fr/1991MON20302.

Full text
Abstract:
Le present travail est une contribution a la modelisation mathematique d'une irrigation a la raie en vue de son evaluation a l'echelle parcellaire. Nous avons etudie l'incidence de la variabilite spatiale de l'infiltration entre raies infiltration identifiee a partir de mesures de surface et les consequences de cette variabilite sur la qualite d'un arrosage. Une approche basee sur la theorie de la similitude nous a permis de decrire la variabilite l'infiltration entre les raies a l'aide des facteurs d'echelle. Le chapitre ii rappelle les principes de l'ecoulement d'une irrigation a la raie, et les criteres de qualite d'un arrosage. Le chapitre iii rappelle les differentes approches utilisees pour decrire une irrigation a la raie. On y etudie une methode d'identification des parametres de la loi d'infiltration de parlange et al. , 1982. Le chapitre iv enonce les principes de la mise en facteur d'echelle et developpe une methode d'identification de ces facteurs. Nous presentons, dans le chapitre v, la methodologie experimentale mis en uvre durant 1989 et 1990, dans le sud-est de la france. Dans le chapitre vi nous presentons le traitement des donnees permettant de quantifier la variabilite et de valider la methodologie proposee. Une comparaison entre une approche non stochastique et une approche stochastique est enfin effectuee
APA, Harvard, Vancouver, ISO, and other styles
3

Dong, Jia. "Fast Estimation of Bit Error Rate of any digital Communication System." Télécom Bretagne, 2013. http://www.telecom-bretagne.eu/publications/publication.php?idpublication=14186.

Full text
Abstract:
Dans cette thèse, nous proposons d'étudier les estimations du taux d'erreurs binaire (BER) pour n'importe quel système de communications numériques. Dans la majorité des cas, le BER est un paramètre clé de la conception du système. Les simulations de type Monte-Carlo (MC) sont alors classiquement utilisées pour estimer les taux d'erreurs ; mais elles se révèlent très coûteuse en temps de simulation lorsque les taux d'erreurs sont très faibles. De plus, elles ne sont pas applicables au cas le taux d'erreurs doit être estimé en aveugle au niveau du récepteur. Par conséquent, nous proposons de mettre en oeuvre des techniques d'estimation de densités de probabilités (PDF) des observations souples en sortie du récepteur afin de réduire le nombre d'échantillons nécessaires pour estimer les taux d'erreurs binaires du système de communications numériques étudié. Dans un premier temps, nous avons étudié l'estimation non-paramétrique appelée "méthode du noyau" (Kernel) pour estimer la PDF. Le BER est calculé par intégration (analytique) de la PDF estimée. Les résultats des simulations pour différents systèmes de communications numériques ont été analysés. Par rapport à la méthode MC, la méthode du noyau permet d'obtenir une estimation plus précise. Ensuite, nous avons utilisé le modèle de mélanges de gaussiennes (GMM), qui est une méthode semi-paramétrique souvent employées en reconnaissance de forme, pour estimer le BER. Par rapport à la méthode du noyau, la méthode GMM permet de réaliser les meilleures performances dans le sens de la minimisation de la variance de l'estimateur. Enfin, nous avons étudié l'estimation du BER de façon aveugle, c'est à dire sans utiliser la connaissance des informations binaires transmises. Cette estimation est basée sur l'algorithme SEM (Stochastic Expectation-Maximization), en combinaison avec les méthodes du noyau et de la GMM vues précédemment. A partir des résultats des simulations, nous constatons que le BER estimé de façon aveugle peut être très proche de la valeur réelle tout en utilisant peu d'échantillons. Cette méthode pourrait s'avérer très avantageuse pour l'estimation en ligne et en temps réel du BER au niveau du récepteur.
This thesis is related to the Bit Error Rate (BER) estimation for any digital communication system. In many designs of communication systems, the BER is a Key Performance Indicator (KPI). The popular Monte-Carlo (MC) simulation technique is well suited to any system but at the expense of long time simulations when dealing with very low error rates. In this thesis, we propose to estimate the BER by using the Probability Density Function (PDF) estimation of the soft observations of the received bits. First, we have studied a non-parametric PDF estimation technique named the Kernel method. Simulation results in the context of several digital communication systems are proposed. Compared with the conventional MC method, the proposed Kernel-based estimator provides good precision even for high SNR with very limited number of data samples. Second, the Gaussian Mixture Model (GMM), which is a semi-parametric PDF estimation technique, is used to estimate the BER. Compared with the Kernel-based estimator, the GMM method provides better performance in the sense of minimum variance of the estimator. Finally, we have investigated the blind estimation of the BER, which is the estimation when the sent data are unknown. We denote this case as unsupervised BER estimation. The Stochastic Expectation-Maximization (SEM) algorithm combined with the Kernel or GMM PDF estimation methods has been used to solve this issue. By analyzing the simulation results, we show that the obtained BER estimate can be very close to the real values. This is quite promising since it could enable real-time BER estimation on the receiver side without decreasing the user bit rate with pilot symbols for example. This thesis is related to the Bit Error Rate (BER) estimation for any digital communication system. In many designs of communication systems, the BER is a Key Performance Indicator (KPI). The popular Monte-Carlo (MC) simulation technique is well suited to any system but at the expense of long time simulations when dealing with very low error rates. In this thesis, we propose to estimate the BER by using the Probability Density Function (PDF) estimation of the soft observations of the received bits. First, we have studied a non-parametric PDF estimation technique named the Kernel method. Simulation results in the context of several digital communication systems are proposed. Compared with the conventional MC method, the proposed Kernel-based estimator provides good precision even for high SNR with very limited number of data samples. Second, the Gaussian Mixture Model (GMM), which is a semi-parametric PDF estimation technique, is used to estimate the BER. Compared with the Kernel-based estimator, the GMM method provides better performance in the sense of minimum variance of the estimator. Finally, we have investigated the blind estimation of the BER, which is the estimation when the sent data are unknown. We denote this case as unsupervised BER estimation. The Stochastic Expectation-Maximization (SEM) algorithm combined with the Kernel or GMM PDF estimation methods has been used to solve this issue. By analyzing the simulation results, we show that the obtained BER estimate can be very close to the real values. This is quite promising since it could enable real-time BER estimation on the receiver side without decreasing the user bit rate with pilot symbols for example
APA, Harvard, Vancouver, ISO, and other styles
4

Hu, Peng. "Méthodes particulaires et applications en finance." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14530/document.

Full text
Abstract:
Cette thèse est consacrée à l’analyse de ces modèles particulaires pour les mathématiques financières.Le manuscrit est organisé en quatre chapitres. Chacun peut être lu séparément.Le premier chapitre présente le travail de thèse de manière globale, définit les objectifs et résume les principales contributions. Le deuxième chapitre constitue une introduction générale à la théorie des méthodes particulaire, et propose un aperçu de ses applications aux mathématiques financières. Nous passons en revue les techniques et les résultats principaux sur les systèmes de particules en interaction, et nous expliquons comment ils peuvent être appliques à la solution numérique d’une grande variété d’applications financières, telles que l’évaluation d’options compliquées qui dépendent des trajectoires, le calcul de sensibilités, l’évaluation d’options américaines ou la résolution numérique de problèmes de contrôle et d’estimation avec observation partielle.L’évaluation d’options américaines repose sur la résolution d’une équation d’évolution à rebours, nommée l’enveloppe de Snell dans la théorie du contrôle stochastique et de l’arrêt optimal. Les deuxième et troisième chapitres se concentrent sur l’analyse de l’enveloppe de Snell et de ses extensions à différents cas particuliers. Un ensemble de modèles particulaires est alors proposé et analysé numériquement
This thesis is concerned with the analysis of these particle models for computational finance.The manuscript is organized in four chapters. Each of them could be read separately.The first chapter provides an overview of the thesis, outlines the motivation and summarizes the major contributions. The second chapter gives a general in- troduction to the theory of interacting particle methods, with an overview of their applications to computational finance. We survey the main techniques and results on interacting particle systems and explain how they can be applied to the numerical solution of a variety of financial applications; to name a few: pricing complex path dependent European options, computing sensitivities, pricing American options, as well as numerically solving partially observed control and estimation problems.The pricing of American options relies on solving a backward evolution equation, termed Snell envelope in stochastic control and optimal stopping theory. The third and fourth chapters focus on the analysis of the Snell envelope and its variation to several particular cases. Different type of particle models are proposed and studied
APA, Harvard, Vancouver, ISO, and other styles
5

Jegourel, Cyrille. "Rare event simulation for statistical model checking." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S084/document.

Full text
Abstract:
Dans cette thèse, nous considérons deux problèmes auxquels le model checking statistique doit faire face. Le premier concerne les systèmes hétérogènes qui introduisent complexité et non-déterminisme dans l'analyse. Le second problème est celui des propriétés rares, difficiles à observer et donc à quantifier. Pour le premier point, nous présentons des contributions originales pour le formalisme des systèmes composites dans le langage BIP. Nous en proposons une extension stochastique, SBIP, qui permet le recours à l'abstraction stochastique de composants et d'éliminer le non-déterminisme. Ce double effet a pour avantage de réduire la taille du système initial en le remplaçant par un système dont la sémantique est purement stochastique sur lequel les algorithmes de model checking statistique sont définis. La deuxième partie de cette thèse est consacrée à la vérification de propriétés rares. Nous avons proposé le recours à un algorithme original d'échantillonnage préférentiel pour les modèles dont le comportement est décrit à travers un ensemble de commandes. Nous avons également introduit les méthodes multi-niveaux pour la vérification de propriétés rares et nous avons justifié et mis en place l'utilisation d'un algorithme multi-niveau optimal. Ces deux méthodes poursuivent le même objectif de réduire la variance de l'estimateur et le nombre de simulations. Néanmoins, elles sont fondamentalement différentes, la première attaquant le problème au travers du modèle et la seconde au travers des propriétés
In this thesis, we consider two problems that statistical model checking must cope. The first problem concerns heterogeneous systems, that naturally introduce complexity and non-determinism into the analysis. The second problem concerns rare properties, difficult to observe, and so to quantify. About the first point, we present original contributions for the formalism of composite systems in BIP language. We propose SBIP, a stochastic extension and define its semantics. SBIP allows the recourse to the stochastic abstraction of components and eliminate the non-determinism. This double effect has the advantage of reducing the size of the initial system by replacing it by a system whose semantics is purely stochastic, a necessary requirement for standard statistical model checking algorithms to be applicable. The second part of this thesis is devoted to the verification of rare properties in statistical model checking. We present a state-of-the-art algorithm for models described by a set of guarded commands. Lastly, we motivate the use of importance splitting for statistical model checking and set up an optimal splitting algorithm. Both methods pursue a common goal to reduce the variance of the estimator and the number of simulations. Nevertheless, they are fundamentally different, the first tackling the problem through the model and the second through the properties
APA, Harvard, Vancouver, ISO, and other styles
6

Walter, Clément. "Using Poisson processes for rare event simulation." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC304/document.

Full text
Abstract:
Cette thèse est une contribution à la problématique de la simulation d'événements rares. A partir de l'étude des méthodes de Splitting, un nouveau cadre théorique est développé, indépendant de tout algorithme. Ce cadre, basé sur la définition d'un processus ponctuel associé à toute variable aléatoire réelle, permet de définir des estimateurs de probabilités, quantiles et moments sans aucune hypothèse sur la variable aléatoire. Le caractère artificiel du Splitting (sélection de seuils) disparaît et l'estimateur de la probabilité de dépasser un seuil est en fait un estimateur de la fonction de répartition jusqu'au seuil considéré. De plus, les estimateurs sont basés sur des processus ponctuels indépendants et identiquement distribués et permettent donc l'utilisation de machine de calcul massivement parallèle. Des algorithmes pratiques sont ainsi également proposés.Enfin l'utilisation de métamodèles est parfois nécessaire à cause d'un temps de calcul toujours trop important. Le cas de la modélisation par processus aléatoire est abordé. L'approche par processus ponctuel permet une estimation simplifiée de l'espérance et de la variance conditionnelles de la variable aléaoire résultante et définit un nouveau critère d'enrichissement SUR adapté aux événements rares
This thesis address the issue of extreme event simulation. From a original understanding of the Splitting methods, a new theoretical framework is proposed, regardless of any algorithm. This framework is based on a point process associated with any real-valued random variable and lets defined probability, quantile and moment estimators without any hypothesis on this random variable. The artificial selection of threshold in Splitting vanishes and the estimator of the probability of exceeding a threshold is indeed an estimator of the whole cumulative distribution function until the given threshold. These estimators are based on the simulation of independent and identically distributed replicas of the point process. So they allow for the use of massively parallel computer cluster. Suitable practical algorithms are thus proposed.Finally it can happen that these advanced statistics still require too much samples. In this context the computer code is considered as a random process with known distribution. The point process framework lets handle this additional source of uncertainty and estimate easily the conditional expectation and variance of the resulting random variable. It also defines new SUR enrichment criteria designed for extreme event probability estimation
APA, Harvard, Vancouver, ISO, and other styles
7

Chang, Bingbing. "Évaluation du stress au travail et méthodes de prévention." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS214.

Full text
Abstract:
Cette thèse a pour objectif de développer et de valider expérimentalement une méthode d’évaluation du stress au travail inspirée du modèle « Job Demands-Ressources » dans une entreprise, puis dans une population de doctorants. Deux questionnaires adaptés à ces deux populations (employés vs doctorants) ont été créés et validés. Les résultats montrent que ces deux questionnaires sont fiables, valides, et adaptés à divers contextes professionnels. Des mesures du coping, du bien-être et du mode de vie viennent compléter l’évaluation du stress et de ses répercussions sur l’individu. À l’aide de l’analyse de Cluster, les profils de stress et les combinaisons du coping permettent une meilleure compréhension des complexités psychologiques. Une dernière partie est consacrée à un protocole d’induction du stress en laboratoire pour mesurer et traiter spécifiquement un état de stress ponctuel inhérent à un contexte professionnel. Le protocole d’induction du stress inspiré du Trier Social Stress Test a été mis en place pour étudier les associations entre traits de personnalité, coping, émotions et variabilité du rythme cardiaque. L’anxiété-trait, le névrosisme, l’extraversion et le caractère consciencieux jouent des rôles importants sur le stress, le coping et la variabilité du rythme cardiaque. La peur et la honte ont été identifiées comme les émotions négatives du stress. Des atténuations de certaines émotions positives ont été révélées sous l’effet du stress. Ces études offrent de nouvelles pistes pour la prévention des risques psychosociaux et peuvent servir de base à l’élaboration d’outils innovants, peu coûteux et adaptés à une plus grande variété de professions pour la détection et la gestion du stress au travail
This thesis aims to develop and validate experimentally a method of assessing professional stress inspired by the “Job Demands-Resources” model in a company and in Ph.D students. Two questionnaires customized to these two populations (employees vs. Ph.D students) were created and validated. The results show that our two questionnaires are reliable, valid and flexible to various professional contexts. Measures of coping, well-being and lifestyle allow for an overall assessment of the stressful situation and its repercussions on the individual. Stress profiles and coping combinations identified by Cluster analysis provide a better understanding of the complexities of psychological problems. The final part is devoted to a protocol of induction of psychological stress in a laboratory setting to evaluate and treat an inherent state of stress in a professional context. This protocol of stress induction inspired by the Trier Social Stress Test was set up to study the associations among personality, coping, emotions and heart rate variability. Anxiety traits, neuroticism, extraversion, and consciousness play important roles in stress, coping, and heart rate variability. Fear and shame have been identified as the negative emotions of stress. Mitigation of certain positive emotions has been revealed under stress. These studies offer new directions for the psychological risks’ prevention and serve as a basis for an innovative, inexpensive and adapted tool to a wider variety of professions for the detection and management of occupational stress
APA, Harvard, Vancouver, ISO, and other styles
8

Imhoff, Jean-François. "Modélisation magnétique et mécanique des machines électriques par la méthode des éléments finis." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0115.

Full text
Abstract:
Ce document comprend deux parties : l'une est orientée sur l'analyse vibratoire des machines à courant continu et l'autre porte sur l'étude des problèmes à frontière ouverte. Dans la première partie, nous nous intéressons à la modélisation numérique des vibrations d'origine électromagnétique dans les machines à courant continu. Une étude qualitative préalable permet de mettre en évidence certains phénomènes à l'origine des vibrations. Mais pour optimiser les machines sur le plan vibratoire, il est nécessaire de réaliser des calculs quantitatifs. Afin de fournir au concepteur un moyen d'analyse des vibrations magnétiques dans les machines tournantes, nous développons un outil informatique qui permet de calculer par la méthode des éléments finis la fonction de transfert de données électromagnétiques vers la mécanique prend en compte le mouvement du rotor et détermine la réponse mécanique à partir d'une analyse de Fourier des forces magnétiques. Nous appliquons cet outil sur une machine à courant continu industrielle et nous comparons les résultats numériques aux mesures expérimentales. Dans la deuxième partie, nous considérons les problèmes électromagnétiques pour lesquels le champ magnétique loin du dispositif à étudier ne peut être négligé. Nous développons une technique basée sur l'utilisation de transformations géométriques qui permet de calculer la répartition du champ de manière rigoureuse en tout point de l'espace par la méthode des éléments finis
APA, Harvard, Vancouver, ISO, and other styles
9

Reynal, Sylvain. "Phase transitions in long-range spin models : the power of generalized ensembles." Cergy-Pontoise, 2005. http://tel.archives-ouvertes.fr/docs/00/04/84/71/PDF/tel-00010256.pdf.

Full text
Abstract:
Dans cette thèse, nous explorons le comportement critiques de chaînes de spins gouvernées par des interactions à décroissance algébrique. Dans une première partie, nous étudions le diagramme de phase d'une chaîne de Potts en utilisant un algorithme multicanonique. Nous proposons une nouvelle méthode de détection de l'ordre des transitions de phase exploitant les points spinodaux. A l'aide de cette méthode, nous localisons la ligne séparant les transitions du premier et du second ordre avec une précision sans précédent, et mettons en évidence un effet de taille finie inhabituel. Dans une deuxième partie, nous introduisons une nouvelle méthode multicanonique intégrant un algorithme de mise-à-jour collective des spins. Cette méthode, extrêmement souple, étend considérablement l'intervalle de tailles simulables, et s'avère bien plus précise que les méthodes multicanoniques usuelles. Nous appliquons cette méthode à l'étude d'effets de taille finie dans le cadre de transitions du premier ordre : les résultats suggèrent fortement que les configurations correspondant à des phases en coexistence sont caractérisées par une dimension fractale dépendent du taux de décroissance de l'interaction. Dans un dernier chapitre, nous étudions une chaîne d'Ising régie par des interactions à longue portée en présence de champs aléatoires à distribution bimodale, et prouvons l'existence d'un point tricritique pour des interactions à décroissance lente
This thesis uses generalized ensembles Monte Carlo methods to explore the critical behavior of spin chains with algebraically decaying interactions. The first part of this thesis investigates the phase diagram of a long-range Potts chain using a multicanonical algorithm. A new method based on spinodal points is proposed to detect the order of phase transitions. The boundary between first- and second-order transitions is located with unprecedented accuracy using this method, and a new, unusual finite-size effect is observed. The second part of this thesis formulates a new, versatile multicanonical method that includes cluster updates, considerably extending the range of attainable lattice sizes. The method is shown to be far more accurate than standard multicanonical methods. It is applied to the investigation of finite-size effects at first-order transitions, where strong evidence suggests that the mixed-phase configuration has a fractal dimension depending on the decay parameter of the interaction. Finally, a long-range Ising chain with bimodal random fields is studied. The existence of a tricritical point for slowly decaying interactions is demonstrated
APA, Harvard, Vancouver, ISO, and other styles
10

Saadani, Ahmed. "Méthodes de simulations rapides du lien radio pour les systèmes 3G." Phd thesis, Télécom ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00000651.

Full text
Abstract:
Les simulations du lien radio des systèmes à étalement de spectre de troisième génération sont très lentes à exécuter à cause de la complexité des traitements réalisés. Cette complexité provient principalement de la simulation de la corrélation temporelle du canal multi-trajets et du récepteur en râteau qui fonctionne avec plusieurs échantillons par chip. Dans ce travail de thèse nous proposons principalement trois approches pour accélérer le temps de simulations: - La première consiste à exploiter la propriété de bande limitée du spectre Doppler du canal et à générer le canal par une chaîne de Markov de premier ordre suivie d'une interpolation. - La deuxième consiste à remarquer le fait que le spectre de l'énergie utile à la sortie du récepteur en râteau est aussi à bande limitée et à générer directement la sortie du récepteur par une chaîne de Markov d'ordre variable suivie d'une interpolation. - Lorsque les retards du canal ne sont pas des multiples de la durée d'un chip, le récepteur fonctionne avec plusieurs échantillons par chip permettant ainsi d'évaluer correctement les performances du système. La troisième approche consiste à trouver un canal multi-trajets équivalent au canal réel mais ayant des retards mutuellement indépendants et multiples de la durée d'un chip. Ceci permet d'éviter la simulation des filtres d'émission et de réception. Ces approches peuvent être combinées afin d'avoir des outils rapides de simulation du lien radio. Un autre aspect traité dans cette thèse est l'étude de l'effet de l'estimation usuelle du canal à partir des symboles pilotes sur les performances du système. Cette estimation a un impact important sur la boucle de contrôle de puissance pour les canaux ayant des retards inférieurs à la durée d'un chip.
APA, Harvard, Vancouver, ISO, and other styles
11

Jung, Matthieu. "Evolution du VIH : méthodes, modèles et algorithmes." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20052/document.

Full text
Abstract:
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leur lien de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent.Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares, basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global.L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3 500) du sous-type C du VIH-1 (VIH de type 1), responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes
Nucleotide sequences data enable the inference of phylogenetic trees, or phylogenies, describing their evolutionary re-lationships during evolution. Combining these sequences with their sampling date or country of origin, allows inferring the temporal or spatial localization of their common ancestors. These data and methods are widely used with viral sequences, and particularly with human immunodeficiency virus (HIV), to trace the viral epidemic history over time and throughout the globe. Using sequences sampled at different points in time (or heterochronous) is also a mean to estimate their substitution rate, which characterizes the speed of evolution. The most commonly used methods to achieve these tasks are accurate, but are computationally heavy since they are based on complex models, and can only handle few hundreds of sequences. With an increasing number of sequences avail-able in the databases, often several thousand for a given study, the development of fast and accurate methods becomes essential. Here, we present a new distance-based method, named Ultrametric Least Squares, which is based on the princi-ple of least squares (very popular in phylogenetics) to estimate the substitution rate of a set of heterochronous sequences and the dates of their most recent common ancestors. We demonstrate that the criterion to be optimized is piecewise parabolic, and provide an efficient algorithm to find the global minimum.Using sequences sampled at different locations also helps to trace transmission chains of an epidemic. In this respect, we used all available sequences (~3,500) of HIV-1 subtype C, responsible for nearly 50% of global HIV-1 infections, to estimate its major migratory flows on a worldwide scale and its geographic origin. Innovative tools, based on the principle of parsimony, combined with several statistical criteria were used to synthesize and interpret information in a large phylogeny representing all the studied sequences. Finally, the temporal and geographical origins of the HIV-1 subtype C in Senegal were further explored and more specifically for men who have sex with men
APA, Harvard, Vancouver, ISO, and other styles
12

Tola, Pascal. "Détection visible de l'EXAFS : une nouvelle méthode de détection de la structure fine des spectres d'absorption X." Nancy 1, 1992. http://www.theses.fr/1992NAN10002.

Full text
Abstract:
La détection visible de l'EXAFS (extended x-ray absorption fine structure) est une méthode spectroscopique récente qui permet dans certains cas de l'enregistrement du spectre de photoabsorption X et de ses oscillations fines. Le principal avantage escompté est la sélectivité de sites cristallochimiques, qui n'est pas obtenue par les méthodes classiques. Comme l'EXAFS, elle requiert l'emploi du rayonnement synchrotron monochromatisé, et le montage expérimental s'apparente aux techniques XEOL (x-ray emission optical luminescence). Après un rappel de la théorie mise en jeu dans les techniques d'absorption et de fluorescence X. Une analyse XEOL de quelques composés (semiconducteurs, terres rares, porphyrines) est proposée dans une partie expérimentale dont le critère principal est la recherche d'une grande intensité dans les pannes d'émission. Les premiers résultats montrent que l'on a bien également accès, par transformée de Fourier du spectre d'excitation de luminescence, aux distances entre proches voisins dans les systèmes étudies. La sélectivité de site recherchée est atteinte dans l'exemple caractéristique du mélange hétérogène zno/zn tpp. Un transfert d'énergie cohérent est détecté dans certains cas (ex. Zns: tm). Les conditions expérimentales de mesure ont été trouvées déterminantes (échantillons minces, mode réflexion). De plus, la corrélation responsable de la forme exacte du spectre obtenu en détection visible avec les spectres d'absorption ne semble pas élémentaire. Il pourrait donc subsister d'autres limitations a cette méthode.
APA, Harvard, Vancouver, ISO, and other styles
13

Doyen, Matthieu. "Méthodes probabilistes pour le monitoring cardio-respiratoire des nouveau-nés prématurés." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S049/document.

Full text
Abstract:
La surveillance des nouveau-nés prématurés placés en unité de soins intensifs a conduit à la notion de monitoring et à l'acquisition de nombreux signaux physiologiques. Si ces informations sont bien utilisées pour le diagnostic et la prévention des situations d'urgence, force est de constater qu'à ce jour, elles le sont beaucoup moins dans un objectif prédictif. La difficulté d'extraction d'informations fiables en temps réel, sans aucun contrôle visuel, à partir de signaux non stationnaires, en est vraisemblablement la cause. Ce mémoire vise donc à proposer des méthodes robustes, adaptées au contexte des unités de soins intensifs néonatals et du temps réel. Pour cela, un ensemble de méthodes génériques appliquées à la variabilité cardiaque, mais capable d'être adaptées à d'autres constantes physiologiques telles que la respiration, ont été développées et testées en contexte clinique. Quatre grandes parties illustrent notre propos : - La proposition d'une méthode originale de détection temps réel probabiliste multicaractéristique permettant de répondre à une problématique d'extraction robuste d'événements d'intérêt à partir de signaux physiologiques bruités. Générique, cette solution est appliquée à la détection robuste du QRS d'un signal ECG. Elle est basée sur le calcul temps réel de plusieurs probabilités a posteriori, concernant les propriétés du signal, qui sont ensuite fusionnées au sein d'un nœud de décision reposant sur l'utilisation pondérée de la divergence de Kullback-Leibler. Comparée à deux méthodes classiques de la littérature sur deux bases de données bruitées, elle obtient un taux d'erreur de détection inférieur (20.91% vs 29.02% (ondelettes) et 33.08% (Pan-Tompkins) sur la base de test). - La proposition d'une méthode impliquant plusieurs modèles semi-markoviens cachés, visant la segmentation de périodes au sein desquelles le détecteur temps réel probabiliste multicaractéristique fournit les détections d'évènements les plus fiables. En comparaison à deux méthodes de la littérature, la solution proposée obtient de meilleures performances, le critère d‘erreur obtenu est significativement plus faible (entre -21.37% et -74.98% selon la base et l'approche évaluée). - La sélection d'un détecteur optimal pour le monitoring d'événements d'apnée-bradycardie, en termes de fiabilité et précocité, à partir de données ECG obtenues chez le nouveau-né. Les performances du détecteur retenu seront comparées aux alarmes générées par un dispositif industriel de suivi continu classiquement utilisé en service de néonatalogie (moniteur Philips IntelliVue). La méthode basée sur le changement abrupt de la moyenne des RR obtient les meilleurs résultats au regard du délai (3.99 s vs 11.53 s pour le moniteur IntelliVue) et de la fiabilité (critère d'erreur de 43.60% vs 80.40%). - La conception et le développement d'une plateforme logicielle SYNaPSE (SYstem for Noninvasive Physiological Signal Explorations) permettant l'acquisition de divers signaux physiologiques en très grande quantité, et de façon non invasive, au sein des unités de soins. La conception modulaire de cette plateforme, ainsi que ses propriétés temps réel, permettent l'intégration simple et rapide de méthodes de traitement du signal complexes. Son intérêt translationnel est montré dans le dépouillement d'une base de données cherchant à étudier l'impact de la bilirubine sur la variabilité cardiaque
The surveillance of premature newborns placed in intensive care units led to the notion of monitoring and the acquisition of many physiological signals. While this information is well used for the diagnosis and prevention of emergency situations, it must be acknowledged that, to date, it is less the case for predictive purposes. This is mainly due to the difficulty of extracting reliable information in real time, without any visual control, from non-stationary signals. This thesis aims to propose robust methods, adapted to the context of neonatal intensive care units and real time. For this purpose, a set of generic methods applied to cardiac variability, but capable of being adapted to other physiological constants such as respiration, have been developed and tested in clinical context. Four main parts illustrate these points : - The proposal of an original multicharacteristic probabilistic real time detection method for robust detection of interest events of noisy physiological signals. Generic, this solution is applied to the robust QRS complex detection of the ECG signals. It is based on the real time calculation of several posterior probabilities of the signal properties before merging them into a decision node using the weighted Kullback-Leibler divergence. Compared to two classic methods from the literature on two noisy databases, it has a lower detection error rate (20.91% vs. 29.02% (wavelets) and 33.08% (Pan-Tompkins) on the test database). - The proposal of using hidden semi-markovian models for the segmentation of temporal periods with most reliable event detections. Compared to two methods from the literature, the proposed solution achieves better performance, the error criterion obtained is significantly lower (between -21.37% and -74.98% depending on the basis and approach evaluated). - The selection of an optimal detector for the monitoring of apnea-bradycardia events, in terms of reliability and precocity, based on ECG data obtained from newborns. The performance of the selected detector will be compared to the alarms generated by an industrial continuous monitoring device traditionally used in neonatology service (Philips IntelliVue monitor). The method based on the abrupt change of the RR average achieves the best results in terms of time (3.99 s vs. 11.53 s for the IntelliVue monitor) and reliability (error criterion of 43.60% vs. 80.40%). - The design and development of SYNaPSE (SYstem for Noninvasive Physiological Signal Explorations) software platform for the acquisition of various physiological signals in large quantities, and in a non-invasive way, within the care units. The modular design of this platform, as well as its real time properties, allows simple and fast integration of complex signal processing methods. Its translational interest is shown in the analysis of a database in order to study the impact of bilirubin on cardiac variability
APA, Harvard, Vancouver, ISO, and other styles
14

Hajj, Paméla El. "Méthodes d'aide à la décision thérapeutique dans les cas des maladies rares : intérêt des méthodes bayésiennes et application à la maladie de Horton." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS037/document.

Full text
Abstract:
Les maladies rares sont celles qui touchent un nombre restreint de personnes. Par conséquent, des problèmes spécifiques sont dus par cette rareté.Pour cette raison nous avons systématiquement recherché dans la littérature les publications concernant les caractéristiques des différentes méthodes mathématiques qui ont été utilisées pour l'étude des maladies rares. L'objectif est d'identifier des approches novatrices pour la recherche qui ont été, ou peuvent être, utilisées afin de surmonter les difficultés méthodologiques inhérentes à l'étude des maladies rares.Les méthodes bayésiennes sont recommandées par plusieurs auteurs et dans le cas de ces méthodes il faut introduire une loi informative a priori sur l'effet inconnu du traitement.La détermination de la loi a priori dans le modèle bayésien est difficile. Nous avons travaillé sur les méthodes qui permettent de déterminer de la loi a priori en incluant la possibilité de considérer des informations provenant des études historiques et/ou des données provenant d'autres études "voisines".D'une part, on décrit un modèle bayésien qui a pour but de vérifier l'hypothèse de non-infériorité de l'essai qui repose sur l'hypothèse que le méthotrexate est plus efficace que le corticostéroïde seul.D'autre part, notre travail de thèse se repose sur la méthode epsilon- contamination, qui se base sur le principe de contaminer une loi a priori pas entièrement satisfaisante par une série de lois provenant des informations d'autres études ayant même pathologie de maladie, même traitement ou même population.Enfin, toutes les informations a priori peuvent être résumées par la distribution a priori déterminer à partir des opinions d'experts, leur avis sont recueillis lors d'une réunion où ils ont répondu à un questionnaire qui montre leurs a priori sur les paramètres du modèle bayésien
In recent years, scientists have difficulties to study rare diseases by conventional methods, because the sample size needed in such studies to meet a conventional frequentist power is not adapted to the number of available patients. After systemically searching in literature and characterizing different methods used in the contest of rare diseases, we remarked that most of the proposed methods are deterministic and are globally unsatisfactory because it is difficult to correct the insufficient statistical power.More attention has been placed on Bayesian models which through a prior distribution combined with a current study enable to draw decisionsfrom a posterior distribution. Determination of the prior distribution in a Bayesian model is challenging, we will describe the process of determining the prior including the possibility of considering information from some historical controlled trials and/or data coming from other studies sufficiently close to the subject of interest.First, we describe a Bayesian model that aims to test the hypothesis of the non-inferiority trial based on the hypothesis that methotrexate is more effective than corticosteroids alone.On the other hand, our work rests on the use of the epsilon-contamination method, which is based on contaminating an a priori not entirely satisfactory by a series of distributions drawn from information on other studies sharing close conditions,treatments or even populations. Contamination is a way to include the proximity of information provided bythese studies
APA, Harvard, Vancouver, ISO, and other styles
15

Silva, lopes Laura. "Méthodes numériques pour la simulation d'évènements rares en dynamique moléculaire." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1045.

Full text
Abstract:
Dans les systèmes dynamiques aléatoires, tels ceux rencontrés en dynamique moléculaire, les événements rares apparaissent naturellement, comme étant liés à des fluctuations de probabilité faible. En dynamique moléculaire, le repliement des protéines, la dissociation protéine-ligand, et la fermeture ou l’ouverture des canaux ioniques dans les membranes, sont des exemples d’événements rares. La simulation d’événements rares est un domaine de recherche important en biophysique depuis presque trois décennies.En dynamique moléculaire, on est particulièrement intéressé par la simulation de la transition entre les états métastables, qui sont des régions de l’espace des phases dans lesquelles le système reste piégé sur des longues périodes de temps. Ces transitions sont rares, leurs simulations sont donc assez coûteuses et parfois même impossibles. Pour contourner ces difficultés, des méthodes d’échantillonnage ont été développées pour simuler efficacement ces événement rares. Parmi celles-ci les méthodes de splitting consistent à diviser l’événement rare en sous-événements successifs plus probables. Par exemple, la trajectoire réactive est divisée en morceaux qui progressent graduellement de l’état initial vers l’état final.Le Adaptive Multilevel Splitting (AMS) est une méthode de splitting où les positions des interfaces intermédiaires sont obtenues de façon naturelle au cours de l’algorithme. Les surfaces sont définies de telle sorte que les probabilités de transition entre elles soient constantes et ceci minimise la variance de l’estimateur de la probabilité de l’événement rare. AMS est une méthode avec peu de paramètres numériques à choisir par l’utilisateur, tout en garantissant une grande robustesse par rapport au choix de ces paramètres.Cette thèse porte sur l’application de la méthode adaptive multilevel splitting en dynamique moléculaire. Deux types de systèmes ont été étudiés. La première famille est constituée de modèles simples, qui nous ont permis d’améliorer la méthode. La seconde famille est faite de systèmes plus réalistes qui représentent des vrai défis, où AMS est utilisé pour avancer nos connaissances sur les mécanismes moléculaires. Cette thèse contient donc à la fois des contributions de nature méthodologique et numérique.Dans un premier temps, une étude conduite sur le changement conformationnel d’une biomolécule simple a permis de valider l’algorithme. Nous avons ensuite proposé une nouvelle technique utilisant une combinaison d’AMS avec une méthode d’échantillonnage préférentiel de l’ensemble des conditions initiales pour estimer plus efficacement le temps de transition. Celle-ci a été validée sur un problème simple et nos résultats ouvrent des perspectives prometteuses pour des applications à des systèmes plus complexes. Une nouvelle approche pour extraire les mécanismes réactionnels liés aux transitions est aussi proposée dans cette thèse. Elle consiste à appliquer des méthodes de clustering sur les trajectoires réactives générées par AMS. Pendant ce travail de thèse, l’implémentation de la méthode AMS pour NAMD a été améliorée. En particulier, ce manuscrit présente un tutoriel lié à cette implémentation. Nous avons aussi mené des études sur deux systèmes moléculaires complexes avec la méthode AMS. Le premier analyse l’influence du modèle d’eau (TIP3P et TIP4P/2005) sur le processus de dissociation ligand– β -cyclodextrine. Pour le second, la méthode AMS a été utilisée pour échantillonner des trajectoires de dissociation d’un ligand du domaine N-terminal de la protéine Hsp90
In stochastic dynamical systems, such as those encountered in molecular dynamics, rare events naturally appear as events due to some low probability stochastic fluctuations. Examples of rare events in our everyday life includes earthquakes and major floods. In chemistry, protein folding, ligandunbinding from a protein cavity and opening or closing of channels in cell membranes are examples of rare events. Simulation of rare events has been an important field of research in biophysics over the past thirty years.The events of interest in molecular dynamics generally involve transitions between metastable states, which are regions of the phase space where the system tends to stay trapped. These transitions are rare, making the use of a naive, direct Monte Carlo method computationally impracticable. To dealwith this difficulty, sampling methods have been developed to efficiently simulate rare events. Among them are splitting methods, that consists in dividing the rare event of interest into successive nested more likely events.Adaptive Multilevel Splitting (AMS) is a splitting method in which the positions of the intermediate interfaces, used to split reactive trajectories, are adapted on the fly. The surfaces are defined suchthat the probability of transition between them is constant, which minimizes the variance of the rare event probability estimator. AMS is a robust method that requires a small quantity of user defined parameters, and is therefore easy to use.This thesis focuses on the application of the adaptive multilevel splitting method to molecular dynamics. Two kinds of systems are studied. The first one contains simple models that allowed us to improve the way AMS is used. The second one contains more realistic and challenging systems, where AMS isused to get better understanding of the molecular mechanisms. Hence, the contributions of this thesis include both methodological and numerical results.We first validate the AMS method by applying it to the paradigmatic alanine dipeptide conformational change. We then propose a new technique combining AMS and importance sampling to efficiently sample the initial conditions ensemble when using AMS to obtain the transition time. This is validatedon a simple one dimensional problem, and our results show its potential for applications in complex multidimensional systems. A new way to identify reaction mechanisms is also proposed in this thesis.It consists in performing clustering techniques over the reactive trajectories ensemble generated by the AMS method.The implementation of the AMS method for NAMD has been improved during this thesis work. In particular, this manuscript includes a tutorial on how to use AMS on NAMD. The use of the AMS method allowed us to study two complex molecular systems. The first consists in the analysis of the influence of the water model (TIP3P and TIP4P/2005) on the β -cyclodextrin and ligand unbinding process. In the second, we apply the AMS method to sample unbinding trajectories of a ligand from the N-terminal domain of the Hsp90 protein
APA, Harvard, Vancouver, ISO, and other styles
16

Gérard, Anthony. "Bruit de raie des ventilateurs axiaux : Estimation des sources aéroacoustiques par modèles inverse et Méthodes de contrôle." Phd thesis, Université de Poitiers, 2006. http://tel.archives-ouvertes.fr/tel-00162200.

Full text
Abstract:
Malgré les progrès accomplis dans la réduction du bruit des ventilateurs axiaux subsoniques, le bruit de raie basse fréquence, composante gênante du bruit, demeure difficile à contrôler. Aux basses fréquences, l'ajout de matériaux absorbants est inefficace et les silencieux encombrants et coûteux. Il faut alors faire appel à des "mesures curatives", comme le contrôle actif acoustique ou le contrôle actif à la source. Les contributions de ces travaux de doctorat sont : 1) l'estimation des sources aéroacoustiques du bruit de raie par modèle inverse, 2) une méthode de contrôle actif nécessitant un seul haut-parleur et 3) une méthode de contrôle passif adaptatif basée sur l'ajout d'obstructions dans l'écoulement. Les développements théoriques menés dans cette thèse sont valides pour les ventilateurs axiaux subsoniques et les expériences ont été réalisées sur un ventilateur de radiateur d'automobile.
APA, Harvard, Vancouver, ISO, and other styles
17

Gérard, Anthony. "Bruit de raie des ventilateurs axiaux : estimation des sources aéroacoustiques par modèles inverses et méthodes de contrôle." Thèse, Université de Sherbrooke, 2006. http://savoirs.usherbrooke.ca/handle/11143/1798.

Full text
Abstract:
Despite the efforts made during the last decades to control noise from subsonic fans, low frequency tonal noise is still of major concern. For those frequencies, passive techniques are bulky and inefficient but active techniques are better adapted and have a great potential for a control at the source. The contributions of this PhD work are (1) the estimation of tonal aeroacoustic sources using inverse models, (2) an acoustic noise control method using a single loudspeaker and (3) an adaptive passive control method using flow control obstructions. Theoretical developments provided in the thesis are valid for subsonic axial fans and experiments were carried out, for an automotive engine cooling fan.
APA, Harvard, Vancouver, ISO, and other styles
18

Mosnier, Jean-Paul. "Spectre d'émission X d'ions silicium par la méthode "faisceau-feuille"." Paris 6, 1986. http://www.theses.fr/1986PA066025.

Full text
Abstract:
Analyse du spectre de rayons X émis après la traversée d'une feuille de C par un faisceau d'ions de Si de 44mev. Identification des raies satellites observées à partir de résultats théoriques par la méthode de Dirac-fock multiconfigurationnelle; mise en évidence de plusieurs configurations ayant un électron m. Par analyse des spectres à partir des valeurs calculées des rapports de branchement, confirmation d'un processus de population statistique des états excités initiaux associés à une même configuration électronique. Effet de la réponse du gaz d'électrons libres de la cible sur l'énergie de la raie de résonnance.
APA, Harvard, Vancouver, ISO, and other styles
19

Dubois, Franck. "Cuprates à intercroissance double couche pérovskite-couche AO type NaCl, substitués par une terre rare de "petite taille" : cristallochimie et propriétés électriques." Orléans, 2001. http://www.theses.fr/2001ORLE2023.

Full text
Abstract:
Trois familles de cuprates de type P2/RS déficitaire en oxygène, de formulation La1,9-yREySr(Ca)1,1Cu2O6-?, et Nd1,3-yREySr1,7Cu2O5,66 ont été retenues pour étudier la substitution de leur terre rare majeure, lanthane ou néodyme, par une terre rare de "petite taille" - r(RE3+) ? 1 Å - tels que Y, Ho, Er, Yb, Lu. Douze solutions solides nouvelles ont été préparées ; leur domaine d'existence et leurs caractéristiques cristallographiques déterminées par DRX. La moindre taille de ces cations et le caractère ionique de leur liaison avec les oxygènes affaibli par rapport au cas de La(Nd)3+ créent des conditions favorables à leur mise en ordre sur les différents sites A. Ceci a été confirmé dans les trois familles de cuprates et expliqué sous la forme de différents mécanismes de substitution. Des relations structurales entre le type P2/RS déficitaire en oxygène et le type T* (P/RS/P/CF) ont été mises à jour. Le réseau polyédrique A-On de l'édifice P2/RS est constitué d'une unité de type T* et d'une demi-unité de type T. Cette analyse a été confirmée par l'étude de la décomposition thermique du cuprate La1,2Er0,7Sr1,1Cu2O5,95 dont le résultat majeur est la mise en évidence d'un cuprate La0,95Er0,7Sr0,35CuO4-? de type T*. Généralement, la présence de ces terres rares augmente le caractère semi-conducteur à très basse température (T < 30 K), mais les recuits sous PO2 (130 bars) abaissent la résistivité des composés au strontium. Une conductivité métallique existe à température ambiante dans deux composés Sr/Ho. L'absence d'une transition vers un état supraconducteur chez les composés au calcium, semble être connectée au fait que le calcium se trouve chassé des sites A(1) vers les sites A(2).
APA, Harvard, Vancouver, ISO, and other styles
20

Gaudrat, Véronique. "Quelques méthodes pour l'optimisation de la coulée continue de l'acier dans le cas non stationnaire." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Guinet, Mickaël. "Première détermination de la constante de Boltzmann par une méthode optique." Phd thesis, Université Paris-Nord - Paris XIII, 2006. http://tel.archives-ouvertes.fr/tel-00121051.

Full text
Abstract:
Ce manuscrit présente une expérience totalement nouvelle visant à mesurer la constante de Boltzmann par une méthode de spectroscopie laser. Cette constante est déduite de la largeur à mi-hauteur d'un profil d'absorption linéaire d'un gaz d'ammoniac à température contrôlée. Sur le plan théorique, cette expérience nécessite une analyse très poussée de la forme de raie en absorption linéaire.
Dans ce mémoire, je décris les solutions apportées pour obtenir un faisceau laser de fréquence parfaitement contrôlée, largement accordable autour de 10 µm et d'intensité constante. Je décris également les options retenues pour le contrôle en température du gaz d'ammoniac.
Les résultats obtenus sont très encourageants, nous avons après seulement 2 ans déjà obtenu une première mesure de la constante de Boltzmann avec une incertitude relative de 1,9X10-4: k=1,38065(26)X10-23 J.K-1.
Dans ce manuscrit, je présente également plusieurs voies d'amélioration à court et moyen termes.
Je présente enfin une expérience de franges de Ramsey-Bordé référencée sur l'étalon primaire de fréquence localisé à Paris (au SYRTE). La chaîne de mesure absolue de fréquence atteint une résolution de 10-14 et l'incertitude pour la mesure de la frange centrale est également de l'ordre de 10-14. A moyen terme, ce système de mesure par rapport à l'étalon primaire pourra être utilisé pour contrôler la fréquence du laser à CO2 dans les futures expériences de mesure de la constante de Boltzmann.
APA, Harvard, Vancouver, ISO, and other styles
22

Guinet, Mickaël. "Première détermination de la constante de Boltzmann par une méthode optique." Phd thesis, Paris 13, 2006. http://www.theses.fr/2006PA132029.

Full text
Abstract:
Ce manuscrit présente une expérience totalement nouvelle visant à mesurer la constante de Boltzmann par une méthode de spectroscopie laser. Cette constante est déduite de la largeur à mi-hauteur d’un profil d’absorption linéaire d’un gaz d’ammoniac à température contrôlée. Sur le plan théorique, cette expérience nécessite une analyse très poussée de la forme de raie en absorption linéaire. Dans ce mémoire, je décris les solutions apportées pour obtenir un faisceau laser de fréquence parfaitement contrôlée, largement accordable autour de 10 µm et d’intensité constante. Je décris également les options retenues pour le contrôle en température du gaz d’ammoniac. Les résultats obtenus sont très encourageants, nous avons après seulement 2 ans déjà obtenu une première mesure de la constante de Boltzmann avec une incertitude relative de 2,110-4: k=1,38062(29)10-23 J. K-1. Dans ce manuscrit, je présente également plusieurs voies d’amélioration à court et moyen termes.
APA, Harvard, Vancouver, ISO, and other styles
23

Turati, Pietro. "Méthodes de simulation adaptative pour l’évaluation des risques de système complexes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC032/document.

Full text
Abstract:
L’évaluation de risques est conditionnée par les connaissances et les informations disponibles au moment où l’analyse est faite. La modélisation et la simulation sont des moyens d’explorer et de comprendre le comportement du système, d’identifier des scénarios critiques et d’éviter des surprises. Un certain nombre de simulations du modèle sont exécutées avec des conditions initiales et opérationnelles différentes pour identifier les scénarios conduisant à des conséquences critiques et pour estimer leurs probabilités d’occurrence. Pour les systèmes complexes, les modèles de simulations peuvent être : i) de haute dimension ; ii) boite noire ; iii) dynamiques ; iv) coûteux en termes de calcul, ce qu’empêche l’analyste d’exécuter toutes les simulations pour les conditions multiples qu’il faut considérer.La présente thèse introduit des cadres avancés d’évaluation des risques basée sur les simulations. Les méthodes développées au sein de ces cadres sont attentives à limiter les coûts de calcul requis par l’analyse, afin de garder une scalabilité vers des systèmes complexes. En particulier, toutes les méthodes proposées partagent l’idée prometteuse de focaliser automatiquement et de conduire d’une manière adaptive les simulations vers les conditions d’intérêt pour l’analyse, c’est-à-dire, vers des informations utiles pour l'évaluation des risques.Les avantages des méthodes proposées ont été montrés en ce qui concerne différentes applications comprenant, entre autres, un sous-réseau de transmission de gaz, un réseau électrique et l’Advanced Lead Fast Reactor European Demonstrator (ALFRED)
Risk assessment is conditioned on the knowledge and information available at the moment of the analysis. Modeling and simulation are ways to explore and understand system behavior, for identifying critical scenarios and avoiding surprises. A number of simulations of the model are run with different initial and operational conditions to identify scenarios leading to critical consequences and to estimate their probabilities of occurrence. For complex systems, the simulation models can be: i) high-dimensional; ii) black-box; iii) dynamic; and iv) computationally expensive to run, preventing the analyst from running the simulations for the multiple conditions that need to be considered.The present thesis presents advanced frameworks of simulation-based risk assessment. The methods developed within the frameworks are attentive to limit the computational cost required by the analysis, in order to keep them scalable to complex systems. In particular, all methods proposed share the powerful idea of automatically focusing and adaptively driving the simulations towards those conditions that are of interest for the analysis, i.e., for risk-oriented information.The advantages of the proposed methods have been shown with respect to different applications including, among others, a gas transmission subnetwork, a power network and the Advanced Lead Fast Reactor European Demonstrator (ALFRED)
APA, Harvard, Vancouver, ISO, and other styles
24

Beaumont, Catherine. "Application de la méthode du maximum de vraisemblance restreint (REMI) à l'estimation des paramètres génétiques des trois premières lactations en race Montbéliarde." Paris 11, 1988. http://www.theses.fr/1988PA112064.

Full text
Abstract:
Ce travail a pour but l’estimation des paramètres génétiques des 3 premières lactations des femelles Montbéliardes et porte sur les principales caractéristiques laitières (productions, ajustement pour la durée de lactation de lait et de matières utiles, grasses et protéiques, taux butyreux et protéique). Une étude bibliographique détaillée des méthodes de décomposition de la variance et de la covariance est présentée qui justifie le choix de l’estimateur du maximum de vraisemblance restreint (REMI). Deux fichiers sont étudiés. Ils rassemblent les performances de 30. 751 femelles issues de 128 taureaux de testage et de 52 taureaux de service. Ceux-ci sont introduits dans l’analyse pour améliorer les connexions entre troupeaux. Le modèle comporte l’effet aléatoire père de testage et les effets fixés père de service âge au premier vêlage et durée du tarissement de la lactation précédente. L’apparentement des reproducteurs mâles est considéré. L’algorithme «Short cut» de MEYER est testé mais mène à des estimations de corrélation génétique supérieures à 1. Un algorithme de type F-M est donc retenu pour l’analyse. Les corrélations génétiques des 6 caractères, toujours supérieures à 0. 89 sont légèrement plus faibles pour les lactations 1 et 3. Pour les caractères de production, l’héritabiblité varie de 0. 17 à 0. 27. Les corrélations phénotypiques voisines de 0. 7 et pratiquement indépendantes du couple de lactations considérés. Ces résultats indiquent que les différentes lactations peuvent être traitées comme des répétitions d’un même caractère. Ce modèle, dit de répétabilité permet d’alléger les calculs sans diminuer l’efficacité de la sélection
Genetic parameters of the first three lactations of Montbéliarde cows were estimated for the main dairy traits (milk, fat, protein and "useful" yields adjusted for lactation length, fat and protein contents). Literature about variance and covariance components estimators was rewieved emphasizing the optimal properties of the Restricted Maximum Likelihood (REML) estimator. Two data sets were analysed including records on 30. 751 cows born from 128 young sires and 52 proven sires Daughters performances from the most widely used proven sires were incorporated in order to improve the degree of connectedness between herds. The model fitted young sires as random and proven sires, herd-year, season-year of calving, age at first calving and length of the previous lactation as fixed effects. The relationships among young bulls were included. MEYER's "Short cut" algorithm was first considered. Since it gave estimates that laid outside the parameter space, a different: approach, an "E-M" type algorithm was used. All genetic correlations were larger than 0. 89. Correlations between the first and third lactations were slightly lower than the ethers. Heritabilities of milk, fat, protein and useful yields ranged from 0. 17 to 0. 27. Phenotypic correlations between successive lactations were higher than 0. 6 and those between lactations 1 and 3 lower than 0. 55. Heritabilities of fat and protein contents were higher than 0. 44 with phenotypic correlations being stable at about 0. 7. It was concluded that, in this breed, the "repeatability model" which considers all lactation records as a single trait could be considered in genetic evaluation procedures for dairy traits without significant lasses in efficiency
APA, Harvard, Vancouver, ISO, and other styles
25

Pigneur, Judith. "Mise au point d’une méthode intégrée d’analyse des impacts des filières de matières premières minérales." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC093.

Full text
Abstract:
Le sujet de la thèse est la mise au point d’une méthode intégrée d’analyse des coûts sociaux et environnementaux de l’épuisement dans les filières exploitant des métaux. La thèse qui est défendue est que l’épuisement des ressources métalliques, au-delà de la question des limites économiques de l’exploitation, est un démultiplicateur des coûts sociaux et environnementaux générés par nos modes de production et de consommation actuels. La thèse a été réalisée dans le cadre du projet de recherche du Bureau d'Analyse Sociétale pour une Information Citoyenne (le Basic) portant sur la mise au point d’indicateurs de soutenabilité. La thèse se situe dans une approche transdisciplinaire, croisant une approche issue des sciences de gestion, soit l’analyse des chaînes globales de valeurs (CGV), mobilisée pour comprendre l’influence de l’organisation des filières mondialisées dans les impacts sociaux et environnementaux, et une approche issue des sciences économiques, celle des coûts sociaux, telle que développée par Karl William Kapp, qui s’intéresse aux coûts liés aux dommages sociaux et environnementaux inhérents à notre système économique. La thèse vise à contribuer à la fois au renforcement du cadre méthodologique des coûts sociétaux développé par le Basic, mais aussi à la recherche émergente sur la prise en compte de l’épuisement dans la mise au point d’indicateurs de soutenabilité. La recherche vise à explorer les liens entre épuisement, augmentation des coûts sociaux et environnementaux de l'exploitation, et influence des filières mondialisées sur ces coûts. Cette problématique générale se décline en deux parties. Une première partie théorique, composée du chapitre 1 et 2, contribue à définir l’épuisement des métaux dans une perspective de soutenabilité forte et à formaliser un cadre d’évaluation des coûts sociaux cohérent avec cette définition. Dans le chapitre 1 l’épuisement est redéfini comme deux phénomènes conjoints, continus et irréversibles : perte de quantité (perte de matière tout au long de la filière) et de qualité (diminution des teneurs du gisement et difficultés du recyclage) de la ressource d’une part ; et comme un démultiplicateur d’impacts environnementaux, sanitaires et sociaux des filières exploitant des métaux d’autre part. Le chapitre 2 propose un nouveau cadre de prise en compte de l’épuisement et de ses coûts sociaux, faisant le lien entre les travaux de l’économie écologique et de l’économie institutionnelle sur la base des travaux de Karl William Kapp. Cette méthodologie développe une approche tournée vers l’études des causes des coûts sociaux et des leviers pour diminuer ces coûts. Une deuxième partie empirique applique le cadre d’évaluation au cas d’étude de la chaîne du néodyme utilisé dans les aimants Nd-Fe-B. Cette étude de cas montre que, bien que l’épuisement des réserves de terres rares ne soit pas perçu comme un danger imminent, les coûts sociaux de l’épuisement sont déjà importants et que des actions pourraient être mise en œuvre pour diminuer ces coûts. Cette étude de cas permet de démontrer la pertinence d'un point de vue social et écologique de l'analyse de l'épuisement par les coûts sociaux
The subject of the thesis is the development of an integrated method of analysis of the social and environmental costs of depletion in the metal value chains. The supported thesis is that the depletion of metallic resources, beyond the question of the economic limits of exploitation, is a multiplier of the social and environmental costs generated by our current modes of production and consumption. The thesis was carried out as part of the Bureau for Appraisal of Social Impacts for Citizen information (Basic) research and development project on the development of sustainability indicators. The thesis is part of a transdisciplinary approach, combining an approach from the management sciences, namely the analysis of global value chains (GVC), mobilized to understand the influence of the organization of globalized chains on social and environmental impacts, and an economics-based approach, that of social costs, as developed by Karl William Kapp, which looks at the costs of social and environmental damage inherent in our economic system. The thesis aims to contribute to both the reinforcement of the methodological framework of social costs developed by the Basic, but also to the emerging research on depletion within the field of development of sustainability indicators. The research aims to explore the links between depletion, increased social and environmental costs of exploitation, and the influence of globalized chains on the occurrence of these costs. This general problem is divided into two parts. A first theoretical part, composed of chapters 1 and 2, contributes to define the depletion of metals in a perspective of strong sustainability and to formalize a framework of evaluation of the social costs coherent with this definition. In Chapter 1, depletion is redefined as two joint, continuous and irreversible phenomena: 1) loss of quantity (loss of material throughout the supply chain) and quality (diminution of ore grades and difficulties of recycling) of the resource.2) as a multiplier of environmental, health and social impacts of the metal value chains. Chapter 2 proposes a new framework to account for depletion and its social costs, linking the work of ecological economics and institutional economics based on the work of Karl William Kapp. This methodology develops an approach focused on studying the causes of social costs and levers to reduce these costs. A second empirical part applies the evaluation framework to the case study of the neodymium chain used in Nd-Fe-B magnets. This case study shows that, although the depletion of rare earth reserves is not perceived as an imminent danger, the social costs of depletion are already significant and that actions could be implemented to reduce these costs. This case study demonstrates the social and ecological relevance of the analysis of social cost depletion
APA, Harvard, Vancouver, ISO, and other styles
26

Bonnaud, Céline. "Vers une méthode de recyclage et de valorisation des aimants permanents à base de terres rares par électrochimie en milieux liquides ioniques." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI039/document.

Full text
Abstract:
Les terres rares (TR) sont aujourd’hui les « vitamines » des nouvelles technologies, elles se retrouvent dans tous les objets technologiques du quotidien et contribuent notablement au développement d’énergies vertes principalement par l’intermédiaire d’aimants permanents à base de terres rares (APTR). Ces derniers, de type NdFeB ou SmCo, représentent actuellement plus de 50 % du marché des TR et offrent un fort potentiel de recyclage. La présente étude se concentre sur le recyclage et la valorisation des APTR, principalement grâce au développement de l’électrochimie en milieu liquide ionique (LI) qui permet d’atteindre les potentiels de réduction des TR (< -2 V vs. ENH). Samarium, néodyme, dysprosium, praséodyme et cobalt ont effectivement été électrodéposés dans [C1C4Pyrr][Tf2N] suivant une méthode potentiométrique à 25 °C et sur une électrode de carbone vitreux.Deux méthodes globales de recyclage sont finalement proposées et ont été appliquées à des APTR industriels. La première est entièrement électrochimique. Elle est basée sur une phase d’électrodissolution de l’APTR dans le LI puis d’une électrodéposition sélective permettant de récupérer les métaux de transition. Une électrodéposition des TR est ensuite envisageable. La deuxième méthode s’appuie sur une lixiviation acide afin de séparer efficacement les métaux de transition des TR grâce à la formation de sels phosphatés. Une dissolution des sels obtenus dans un LI permettrait ensuite d’électrodéposer les ions métalliques
Rare earth elements (REE) are currently essential for new technologies development; from everyday life objects to green energies devices, they are especially used in permanent magnets. NdFeB and SmCo permanent magnets represent more than 50% of the REE market and offer a high recycling opportunity. The present study focuses on their recycling, mainly via electrochemistry in ionic liquid medium (IL), which enables to reach the reduction potentials of REE (< -2 V vs. ENH).Samarium, neodymium, dysprosium, praseodymium and cobalt were successfully electrodeposited in [C1C4Pyrr] [Tf2N] according to a potentiometric method at 25 ° C and on a glassy carbon electrode.Two general recycling methods are finally proposed and have been applied to industrial permanent magnets. The first uses only electrochemistry and is based on a first magnet electrodissolution step in the IL followed by a selective electroplating to recover the transition metals. Electrodeposition of REE could then be possible. The second method starts by an acid leaching of the magnet in order to efficiently separate the transition metals from REE via the formation of phosphate salts. Dissolution of the salts obtained in LI would then enable to electrodeposit the metal ions
APA, Harvard, Vancouver, ISO, and other styles
27

Dalloz, Richard, and Jean Huot. "L'entraînement sportif par la méthode des créneaux : Application et validation sur le terrain." Nancy 1, 1988. http://www.theses.fr/1988NAN10482.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Meyer, Françoise. "Élaboration de couches minces métalliques sur semiconducteur par méthodes ioniques : caractérisation des films et de leurs interfaces." Paris 11, 1989. http://www.theses.fr/1989PA112297.

Full text
Abstract:
Nous présentons dans cette thèse l'étude de différents contacts méta/semiconducteur élaborés par pulvérisation ionique dans des bâtis ultravide. Nous avons étudiés différents couples: Mo/AsGa, Ni/AsGa, Mo/Si et W/Si et mis en œuvre de nombreux moyens de caractérisation afin de mettre en évidence l'influence de la méthode de dépôt sur les propriétés des films et des interfaces et en particulier le rôle des particules rapides. Les modes de croissance des films métalliques ainsi que leur réactivité avec le substrat en fonction de la température de dépôt ou de recuit ont été suivis par analyses Auger in situ. Nous avons observé la formation de siliciures à des températures relativement basses, en l'occurrence 350°C pour MoSi2 et 450°C pour WSi2. L'utilisation d'ions incidents xénon conduit toujours à de meilleurs résultats électriques (résistivité des films et caractéristiques de diodes Schottky) que celle d'ions argon. Nous avons mis en évidence une variation linéaire de la résistivité des films de tungstène en fonction de la quantité d'argon incorporé. Notons que cette quantité correspond aux ions incidents rétrodiffusés sur la cible et heurtant le film en formation avec une énergie supérieure à l'énergie seuil d'incorporation. Une évaluation de l'énergie des espèces rétrodiffusées et pulvérisées permet de mieux comprendre l'origine des contraintes dans les couches élaborées par pulvérisation
This thesis reports a study of meta/semiconductor contacts prepared by Ion Bearn Sputter Deposition in ultrahigh vacuum systems. Mo/GaAs, Ni/GaAs, Mo/Si and W/Si contacts have been investigated and a lot of characterizations have been carried out to determine the influence of the deposition method on the properties of the layers and of the interfaces and the effects of fast particles on the growing film in particular. Growth mechanisms of metallayers and thermal stability have been studied by in situ Auger analyses. Silicide formation has been observed at rather low temperatures: 350°C and 450°C for MoSi2and WSi2 respectively. The use of xenon leads to better electrical results (resistivity of the films and characteristics of Schottky diodes) than that of argon. We correlate fairly well the embedded argon atoms with the incident ions backscattered by the target and striking the growing film with an energy higher than the threshold incorporation energy. We evidence a lincar relationship between the argon content and the resistivity of W films. An evaluation of the energy of backscattered and sputtered species allow a better understanding of the origin of stresses in films deposited by sputtering
APA, Harvard, Vancouver, ISO, and other styles
29

Jacquemart, Damien. "Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S186/document.

Full text
Abstract:
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative
The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error
APA, Harvard, Vancouver, ISO, and other styles
30

Dalce, Rejane. "Méthodes de localisation par le signal de communication dans les réseaux de capteurs sans fil en intérieur." Thesis, Toulouse, INSA, 2013. http://www.theses.fr/2013ISAT0020/document.

Full text
Abstract:
Depuis quelques années, la thématique de la localisation a connu un regain d’intérêt,motivé en grande partie par le développement des réseaux de capteurs sans fil. Lespropositions ayant pour objectif d’apporter une réponse à cette problématique peuvent êtreclassées en deux catégories : les méthodes range-based, retenues pour cette thèse, dont lacaractéristique est de se fonder sur des mesures en temps réel du signal pour générer uneestimation relativement fiable de la distance, et les solutions range-free, économes enressources car se limitant à l’exploitation d’hypothèses concernant la connectivité des noeudsdans le réseau. Les contributions peuvent se focaliser sur l’un des trois aspects fondamentauxde la question : le développement d’une couche physique performante, la proposition d’unalgorithme de calcul permettant des résultats plus précis, et la mise en place d’un protocole decollecte de mesures.La contribution de cette thèse est par conséquent multiple : en premier lieu, nousproposons un nouveau protocole de mesure du temps de vol, nommé Parallel SymmetricDouble-Sided Two-Way Ranging (PSDS-TWR), dont l’objectif est la réduction de la chargeprotocolaire du service. Deuxièmement, nous avons mis en place un algorithme de calcul dela position désigné par interRing Localization Algorithm (iRingLA). Basé sur une recherchelinéaire, iRingLA accepte des données inexactes et en extrait une estimation de la positiondont l’erreur est inférieure à 2m dans 70% des cas, ceci en s’exécutant directement sur unnoeud mobile léger. Les données concernant l’algorithme ont été collectées grâce à unprototype utilisant la technologie Chirp Spread Spectrum tandis que l’étude de performancedu protocole a impliqué la conception d’un simulateur nommé DokoSim
The development of Wireless Sensor Networks has given a new life to research in thefield of localization. Many proposals have been made which can be classified as either rangefreeor range-based solutions. The range-free category relies on a priori knowledge of thenetwork while the latter uses the available hardware to measure signal characteristics fromwhich distance information can be derived. Although the information origin can vary, allproposals either introduce a new protocol, a novel algorithm or a new and improved physicallayer.Our work led to the definition of a new protocol and an efficient algorithm. Aside fromallowing the nodes to collect Time Of Flight related data, the Parallel Symmetric Double-Sided Two-Way Ranging protocol (PSDS-TWR) reduces overhead and energy consumption,making the localization service affordable for the network. The performance of this protocol,in terms of duration, has been studied using a homemade simulator named DokoSim. We alsointroduce an algorithm based on rings and linear search. This inter-Ring LocalizationAlgorithm (iRingLA) achieves a localization error of less than 2m in 70% of the cases whilebeing tested on our Chirp Spread Sprectrum based prototype
APA, Harvard, Vancouver, ISO, and other styles
31

Youbi, Abdelaziz. "Méthode d'analyse des réponses cardio-vasculaire de sujets à des changements posturaux et d'activité." Paris 6, 1988. http://www.theses.fr/1988PA066607.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Sayin, Halil. "Balance sympatho-vagale chez le rat éveillé : méthodes d’étude et application à la fibrillation atriale." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1149/document.

Full text
Abstract:
Ce travail a eu pour but (1) de comparer les différentes méthodes d'évaluation de la balance sympatho-vagale (BSV) actuellement utilisées chez le rat, et (2) d'évaluer les effets d'une altération de la BSV en faveur d'une prédominance vagale sur l'instabilité électrique atriale spontanée chez le rat spontanément hypertendu (SHR) vieillissant. L'électrocardiogramme a été mesuré chez les rats éveillés grâce à une sonde télémétrique chroniquement implantée. La méthode de référence pour l'estimation de la BSV repose sur le calcul du rapport de la fréquence cardiaque (FC) de repos à la FC intrinsèque. Selon que l'index est supérieur ou inférieur à 1, on peut conclure respectivement à une prédominance sympathique ou à une prédominance vagale. La FC intrinsèque est obtenue par l'administration combinée d'antagonistes sélectifs des deux branches du système nerveux autonome, c'est-à-dire un bloqueur β-adrénergique (aténolol) et un antagoniste des récepteurs muscariniques (méthylatropine). Les autres méthodes (mesure séparée des tonus autonomes, index extraits de l'analyse de la variabilité sinusale) fournissent des résultats incohérents ou contradictoires. L'administration chronique d'un inhibiteur de l'acétylcholinestérase (pyridostigmine) chez des rats SHR vieillissants induit une hypertonie vagale relative (BSV=0,81±0,02) par rapport aux rats non traités (BSV=1,06±0,01) qui s'accompagne d'une bradycardie sinusale et d'une augmentation de la fréquence et de la durée des épisodes de tachyarythmie atriale. Ces études démontrent l'intérêt de la méthode de référence pour l'estimation de la BSV chez le rat éveillé. La potentialisation de l'activité vagale endogène aggrave l'instabilité électrique atriale chez le rat SHR vieillissant, ce qui confirme le rôle pathogénique du système nerveux parasympathique dans ce modèle
The aim of the present work was (1) to compare the different methods currently used to assess sympathovagal balance (SVB) in rats, and (2) to assess SVB alterations towards vagal predominance on atrial electrical instability in aging spontaneously hypertensive rats (SHR). The electrocardiogram was measured in conscious rats using chronically implanted telemetric probes. The reference method to estimate SVB is based on the calculation of the ratio of intrinsic heart rate (HR) to resting HR. Depending on whether the index is greater or lower than 1, one can conclude to sympathetic or vagal predominance, respectively. Intrinsic HR is obtained after the combined administration of selective antagonists of both branches of the autonomic nervous system, i.e. β- adrenergic blocker (atenolol) and muscarinic receptor antagonist (methylatropine). Other methods (autonomic tones measured separately, calculation of indices derived from heart rate variability analysis) provide inconsistent or conflicting results. The chronic infusion of an acetylcholinesterase inhibitor (pyridostigmine) in aging SHRs induced relative vagal hypertonia (SVB=0.81±0.02) in comparison with untreated rats (SVB=1.06±0.01) along with sinus bradycardia and increased frequency and duration of atrial tachyarrhythmia episodes. These studies highlight the value of the reference method for evaluating SVB in conscious rats. Potentiation of endogenous vagal activity aggravates atrial electrical instability in aging SHRs, consistent with a pathogenic role of the parasympathetic nervous system in this model
APA, Harvard, Vancouver, ISO, and other styles
33

Bernhardt, Stéphanie. "Performances et méthodes pour l'échantillonnage comprimé : Robustesse à la méconnaissance du dictionnaire et optimisation du noyau d'échantillonnage." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS443/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à deux méthodes permettant de reconstruire un signal parcimonieux largement sous-échantillonné : l’échantillonnage de signaux à taux d’innovation fini et l’acquisition comprimée.Il a été montré récemment qu’en utilisant un noyau de pré-filtrage adapté, les signaux impulsionnels peuvent être parfaitement reconstruits bien qu’ils soient à bande non-limitée. En présence de bruit, la reconstruction est réalisée par une procédure d’estimation de tous les paramètres du signal d’intérêt. Dans cette thèse, nous considérons premièrement l’estimation des amplitudes et retards paramétrisant une somme finie d'impulsions de Dirac filtrée par un noyau quelconque et deuxièmement l’estimation d’une somme d’impulsions de forme quelconque filtrée par un noyau en somme de sinus cardinaux (SoS). Le noyau SoS est intéressant car il est paramétrable par un jeu de paramètres à valeurs complexes et vérifie les conditions nécessaires à la reconstruction. En se basant sur l’information de Fisher Bayésienne relative aux paramètres d’amplitudes et de retards et sur des outils d’optimisation convexe, nous proposons un nouveau noyau d’échantillonnage.L’acquisition comprimée permet d’échantillonner un signal en-dessous de la fréquence d’échantillonnage de Shannon, si le vecteur à échantillonner peut être approximé comme une combinaison linéaire d’un nombre réduit de vecteurs extraits d’un dictionnaire sur-complet. Malheureusement, dans des conditions réalistes, le dictionnaire (ou base) n’est souvent pas parfaitement connu, et est donc entaché d’une erreur (DB). L’estimation par dictionnaire, se basant sur les mêmes principes, permet d’estimer des paramètres à valeurs continues en les associant selon une grille partitionnant l’espace des paramètres. Généralement, les paramètres ne se trouvent pas sur la grille, ce qui induit un erreur d’estimation même à haut rapport signal sur bruit (RSB). C’est le problème de l’erreur de grille (EG). Dans cette thèse nous étudions les conséquences des modèles d’erreur DB et EG en terme de performances bayésiennes et montrons qu’un biais est introduit même avec une estimation parfaite du support et à haut RSB. La BCRB est dérivée pour les modèles DB et EG non structurés, qui bien qu’ils soient très proches, ne sont pas équivalents en terme de performances. Nous donnons également la borne de Cramér-Rao moyennée (BCRM) dans le cas d’une petite erreur de grille et étudions l’expression analytique de l’erreur quadratique moyenne bayésienne (BEQM) sur l’estimation de l’erreur de grille à haut RSB. Cette dernière est confirmée en pratique dans le contexte de l’estimation de fréquence pour différents algorithmes de reconstruction parcimonieuse.Nous proposons deux nouveaux estimateurs : le Bias-Correction Estimator (BiCE) et l’Off-Grid Error Correction (OGEC) permettant de corriger l'erreur de modèle induite par les erreurs DB et EG, respectivement. Ces deux estimateurs principalement basés sur une projection oblique des mesures sont conçus comme des post-traitements, destinés à réduire le biais d’estimation suite à une pré-estimation effectuée par n’importe quel algorithme de reconstruction parcimonieuse. Les biais et variances théoriques du BiCE et du OGEC sont dérivés afin de caractériser leurs efficacités statistiques.Nous montrons, dans le contexte difficile de l’échantillonnage des signaux impulsionnels à bande non-limitée que ces deux estimateurs permettent de réduire considérablement l’effet de l'erreur de modèle sur les performances d’estimation. Les estimateurs BiCE et OGEC sont tout deux des schémas (i) génériques, car ils peuvent être associés à tout estimateur parcimonieux de la littérature, (ii) rapides, car leur coût de calcul reste faible comparativement au coût des estimateurs parcimonieux, et (iii) ont de bonnes propriétés statistiques
In this thesis, we are interested in two different low rate sampling schemes that challenge Shannon’s theory: the sampling of finite rate of innovation signals and compressed sensing.Recently it has been shown that using appropriate sampling kernel, finite rate of innovation signals can be perfectly sampled even though they are non-bandlimited. In the presence of noise, reconstruction is achieved by a model-based estimation procedure. In this thesis, we consider the estimation of the amplitudes and delays of a finite stream of Dirac pulses using an arbitrary kernel and the estimation of a finite stream of arbitrary pulses using the Sum of Sincs (SoS) kernel. In both scenarios, we derive the Bayesian Cramér-Rao Bound (BCRB) for the parameters of interest. The SoS kernel is an interesting kernel since it is totally configurable by a vector of weights. In the first scenario, based on convex optimization tools, we propose a new kernel minimizing the BCRB on the delays, while in the second scenario we propose a family of kernels which maximizes the Bayesian Fisher Information, i.e., the total amount of information about each of the parameter in the measures. The advantage of the proposed family is that it can be user-adjusted to favor either of the estimated parameters.Compressed sensing is a promising emerging domain which outperforms the classical limit of the Shannon sampling theory if the measurement vector can be approximated as the linear combination of few basis vectors extracted from a redundant dictionary matrix. Unfortunately, in realistic scenario, the knowledge of this basis or equivalently of the entire dictionary is often uncertain, i.e. corrupted by a Basis Mismatch (BM) error. The related estimation problem is based on the matching of continuous parameters of interest to a discretized parameter set over a regular grid. Generally, the parameters of interest do not lie in this grid and there exists an estimation error even at high Signal to Noise Ratio (SNR). This is the off-grid (OG) problem. The consequence of the BM and the OG mismatch problems is that the estimation accuracy in terms of Bayesian Mean Square Error (BMSE) of popular sparse-based estimators collapses even if the support is perfectly estimated and in the high Signal to Noise Ratio (SNR) regime. This saturation effect considerably limits the effective viability of these estimation schemes.In this thesis, the BCRB is derived for CS model with unstructured BM and OG. We show that even though both problems share a very close formalism, they lead to different performances. In the biased dictionary based estimation context, we propose and study analytical expressions of the Bayesian Mean Square Error (BMSE) on the estimation of the grid error at high SNR. We also show that this class of estimators is efficient and thus reaches the Bayesian Cramér-Rao Bound (BCRB) at high SNR. The proposed results are illustrated in the context of line spectra analysis for several popular sparse estimator. We also study the Expected Cramér-Rao Bound (ECRB) on the estimation of the amplitude for a small OG error and show that it follows well the behavior of practical estimators in a wide SNR range.In the context of BM and OG errors, we propose two new estimation schemes called Bias-Correction Estimator (BiCE) and Off-Grid Error Correction (OGEC) respectively and study their statistical properties in terms of theoretical bias and variances. Both estimators are essentially based on an oblique projection of the measurement vector and act as a post-processing estimation layer for any sparse-based estimator and mitigate considerably the BM (OG respectively) degradation. The proposed estimators are generic since they can be associated to any sparse-based estimator, fast, and have good statistical properties. To illustrate our results and propositions, they are applied in the challenging context of the compressive sampling of finite rate of innovation signals
APA, Harvard, Vancouver, ISO, and other styles
34

Qin, Liang. "Application of irreversible Monte Carlo in realistic long-range systems." Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLE009.

Full text
Abstract:
Cette thèse étudie le comportement de la chaîne d'événements de Monte Carlo (ECMC) dans les systèmes de particules à interaction de longue portée. Les deux premiers chapitres présentent les méthodes actuelles de simulation moléculaire, en soulignant leurs difficultés à traiter l'interaction de Coulomb, et donnent les bases de l'ECMC. Le troisième chapitre présente notre cadre d'échantillonnage du système de Coulomb à l'aide de l'ECMC. Dans le cadre de la convention "tin-foil", la formulation constituée d’interaction à deux corps pour l'électrostatique peut être appliquée directement à la méthode "cell-veto". En ajoutant à cela, la factorisation dipolaire obtient un algorithme en O(NlogN)-par-balayage pour les systèmes dipolaires. Les chapitres quatre et cinq décrivent notre développement d'une application scientifique appelée JeLLyFysh pour la simulation moléculaire par ECMC. La conception de son médiateur et le traitement de toutes les opérations en flux continu sont les mieux adaptés aux extensions futures. Le chapitre six décrit les performances de l'ECMC pour les grands systèmes d'eau à l’aide de JeLLyFysh. La dynamique qui en résulte implique qu'un schéma plus sophistiqué est nécessaire pour équilibrer la polarisation. Enfin, au chapitre sept, on teste la stratégie d'échantillonnage avec changement de direction séquentiel. L'évolution du dipôle présente une dynamique particulière, et l'ensemble des choix de direction ainsi que l'ordre de sélection s'avèrent tous deux cruciaux pour atteindre la distribution stationnaire de l'orientation du dipôle
This thesis studies the behavior of event-chain Monte Carlo (ECMC) in long-range particle systems. In the first two chapters, we introduce established methods for molecular simulation, highlighting their difficulties in dealing with Coulomb interaction, and gives the basic of ECMC. The third chapter presents our framework of Coulomb system sampling using ECMC. Under the tin-foil convention, the formulation consisting of pairwise terms for electrostatics can be directly applied to the cell-veto method. Together with dipole factorization, we obtain an O(NlogN)-per-sweep algorithm for dipole systems. Chapters four and five describe our development of a scientific application called JeLLyFysh for molecular simulation through ECMC. Its mediator design and stream processing of all operations can best accommodate future extensions. Using JeLLyFysh, we profile the performance of ECMC for large water systems in chapter six. The resulting dynamics imply that a more sophisticated scheme is needed to equilibrate the polarization. Finally, in chapter seven, we test the sampling strategy with sequential direction change. The dipole evolution exhibits distinct dynamics, and the set of direction choices and the order to select prove both crucial in mixing the dipole's orientation
APA, Harvard, Vancouver, ISO, and other styles
35

Hafienne, Imen. "Matériaux dopés terres rares pour la détection tout-optique de méthane." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC220.

Full text
Abstract:
Ce travail de thèse concerne le développement d’un capteur de gaz tout optique grâce à la conversion du signal infrarouge (IR) de détection en un signal proche IR ou visible. Cette conversion en longueur d’onde rend possible le transport du signal de sonde sur de longues distances par le biais de fibres optiques en silice, augmentant ainsi considérablement les applications possibles. Le capteur envisagé comporte deux parties principales, à savoir une source infrarouge autour de 3.5 µm capable de sonder le méthane et un convertisseur de fréquence constitué d'une fibre dopée Er3+. Le principe du capteur est donc de développer tout d'abord une source IR qui génère un signal à 3.5 µm. Ce signal IR est ensuite envoyé dans une cellule de méthane afin d’en sonder l’absorption, à la suite de quoi le signal transmis est injecté dans une fibre dopée Er3+. Dans cette fibre, le signal IR, transmis à travers la cellule de gaz, est converti en un signal visible à 660 nm par un phénomène d’absorption dans l’état excité suite à l’excitation simultanée de la fibre à 808 nm (pompe) et à 3.5µm (sonde). Ce signal de conversion à 660 nm peut ensuite être transporté sur de longues distances via des fibres silices classiques. Une description des phénomènes d’up-conversion dans les matériaux dopés terres-rares est faite dans trois matrices: verres de sulfures, ZBLAN et KPb2Cl5. Une comparaison est faite entre ces trois matrices dopées Er3+ pour identifier le meilleur matériau pour une conversion de fréquence efficace. Les résultats de la conversion d’énergie de 3.4µm vers 660 nm sont discutés d’une part dans 3 échantillons massifs et d’autre part dans des fibres dopées Er3+ et, dans les deux cas, comparés aux résultats d’une simulation spécifique. Dans le but de développer une source IR efficace autour de 3.5 µm capable de sonder le méthane. Quatre matrices différentes: GeGaSbS (2S2G) dopée Pr3+, GeGaSbSe(2S2G) dopée Pr3+, GeGaSbSe (2S2G) dopée Dy3+.et ZBLAN dopée Pr3+ - Yb3+ont été étudiées en détail. Une simulation ayant pour objectif l’optimisation de la fluorescence IR dans ces quatre matrices sous forme fibrée est décrite en détail. Les résultats du modèle ont ensuite été validés avec succès par comparaison avec des mesures expérimentales. Finalement, un assemblage du prototype de capteur tout-optique comprenant la source IR réalisée avec une fibre GeGaSbSe(2S2G) dopée Pr3+ et la fibre de conversion de fréquence constituée d'une fibre GeGaSbS(2S2G) dopée Er3+. Plusieurs tests de détection de méthane sont réalisés pour déterminer dans quelles conditions d’opération l’on obtient la meilleure sensibilité de détection. Enfin de cette thèse, un test de détection simultanée de CO2 avec ce même prototype a été réalisé avec succès en mettant à profit la large bande d’émission de la transition 3H6 -> 3H4 de l’ion Pr3+ qui couvre à la fois une partie de la bande d’émission du méthane et du dioxyde de carbone, combiné à un deuxième processus de conversion de fréquence de 4.3µm à 808nm permis par le même matériau de conversion dopé Er3+
This work is devoted to the all optical gas sensor development using an IR signal conversion to a visible signal, making possible to transport the probe signal through a silica optical fiber over large distances thus considerably increasing the scope of possible applications. The envisaged sensor falls into two main parts, the first an infrared source around 3.5 µm that probes the methane absorption and the second a frequency converter consisting of an Er3+ doped fiber. The principle of the sensor is, first of all, to develop an IR source around 3.5 µm. This IR signal is then passed to a methane cell to probe its absorption, after that the transmitted signal is injected into a doped Er3+ fiber. In this fiber, the IR signal, transmitted through the gas cell, is converted into a visible light at 660 nm by the excited state absorption phenomenon following the simultaneous excitation of the fiber at 808 nm (pump) and at 3.5 µm (probe). This 660 nm converted signal can then be transported over long distances via conventional silica fibers. A description of up-conversion phenomena in earth-rare doped materials is made in three matrixes: sulphide glasses, ZBLAN and KPb2Cl5. A comparison is made between these three Er3+ doped materials to identify the best material for an efficient frequency conversion process. The results of the energy conversion from 3.4µm to 660 nm are discussed, on the one hand, in three bulk samples and on the other hand in Er3+ doped fibers and, in both cases, compared to the results of a specific simulation. In order to develop an efficient IR source around 3.5 µm that probes the methane absorption. Four different materials: Pr3+ doped GeGaSbS (2S2G), Pr3+ doped GeGaSbSe (2S2G), Dy3+ doped GeGaSbSe (2S2G), Pr3+- Yb3 doped ZBLAN were comprehensively studied. A simulation aimed to optimize the IR fluorescence in these four fibers is described in detail. Model results have been validated successfully by comparison with experimental measurements. Finally, an assembly of the all-optical sensor prototype including the IR source made with a Pr3+ doped GeGaSbSe (2S2G) fiber and the frequency conversion fiber consisting of an Er3+ doped GeGaSbS (2S2G) fiber. Several methane detection tests were conducted to find the best operation conditions for the IR source and the frequency converter to reach the best detection sensitivity. Finally, a simultaneous CO2 detection test with this same prototype was successfully validated by taking advantage of the wide emission band of the 3H6 -> 3H4 Pr3+ ion transition, covering both part of the methane and carbon dioxide absorption and the 4.3µm to 808nm conversion also permitted by the same Er3+ doped converter
APA, Harvard, Vancouver, ISO, and other styles
36

Benkaddour, Mourad. "Céramiques conductrices oxydes à base de bismuth, terre rare et vanadium : élaboration, microstructure et propriétés électriques." Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-408.pdf.

Full text
Abstract:
Les conducteurs par ions oxydes a base de bismuth, terre rare et vanadium presentent des domaines significatifs de trempe a l'air d'une solution solide de type fluorine derivant de la variete bi 2o 3. Parmi ceux-ci, l'oxyde mixte bi 0 , 8 5pr 0 , 1 0 5v 0 , 0 4 5o 1 , 5 4 5 presente une interessante combinaison stabilite - conductivite electrique ( = 0,2 - 1cm - 1 a 700\c). Des ameliorations ont ete realisees au niveau de la preparation des ceramiques par utilisation d'une methode de broyage par attrition. Cette derniere a permis d'obtenir une poudre homogene et fine avec des tailles de particules de l'ordre de 0,5m. L'etude du frittage des echantillons, elabores a partir de cette poudre a revele un domaine de densification tres important entre 600 et 780\c, puis une croissance des grains au dela de 780\c. Le traitement thermique des echantillons a 900\c a permis d'obtenir des compacites elevees (> 95%). La spectroscopie d'impedance a montre que les diagrammes obtenus a 200\c, sont caracterises par un seul demi cercle, avec aucune separation distincte des reponses des grains, des joints de grains et des pores n'est observee. La croissance de la taille des grains a peu d'influence sur les spectres d'impedance, ce qui permet de dire que les joints de grains s'averent non bloquants vis a vis de la conductivite dans ce cas. Les resultats des affinements structuraux sur poudre par la methode de rietveld, effectues sur la base du modele de willis ont ete discutes et correles aux evolutions de la stabilite et des proprietes conductrices des materiaux.
APA, Harvard, Vancouver, ISO, and other styles
37

Lelièvre, Nicolas. "Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC045/document.

Full text
Abstract:
Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l’augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L’estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d’appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d’un modèle mathématique représentatif du modèle coûteux avec un temps d’évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu’elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l’estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d’évaluation du métamodèle, un nouveau critère d’arrêt sur l’apprentissage plus stricte permettant d’assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l’estimation de probabilités de défaillance en grande dimension, c’est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d’entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l’objet d’une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018
Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018
APA, Harvard, Vancouver, ISO, and other styles
38

Estecahandy, Maïder. "Méthodes accélérées de Monte-Carlo pour la simulation d'événements rares. Applications aux Réseaux de Petri." Thesis, Pau, 2016. http://www.theses.fr/2016PAUU3008/document.

Full text
Abstract:
Les études de Sûreté de Fonctionnement (SdF) sur les barrières instrumentées de sécurité représentent un enjeu important dans de nombreux domaines industriels. Afin de pouvoir réaliser ce type d'études, TOTAL développe depuis les années 80 le logiciel GRIF. Pour prendre en compte la complexité croissante du contexte opératoire de ses équipements de sécurité, TOTAL est de plus en plus fréquemment amené à utiliser le moteur de calcul MOCA-RP du package Simulation. MOCA-RP permet d'analyser grâce à la simulation de Monte-Carlo (MC) les performances d'équipements complexes modélisés à l'aide de Réseaux de Petri (RP). Néanmoins, obtenir des estimateurs précis avec MC sur des équipements très fiables, tels que l'indisponibilité, revient à faire de la simulation d'événements rares, ce qui peut s'avérer être coûteux en temps de calcul. Les méthodes standard d'accélération de la simulation de Monte-Carlo, initialement développées pour répondre à cette problématique, ne semblent pas adaptées à notre contexte. La majorité d'entre elles ont été définies pour améliorer l'estimation de la défiabilité et/ou pour les processus de Markov. Par conséquent, le travail accompli dans cette thèse se rapporte au développement de méthodes d'accélération de MC adaptées à la problématique des études de sécurité se modélisant en RP et estimant notamment l'indisponibilité. D'une part, nous proposons l'Extension de la Méthode de Conditionnement Temporel visant à accélérer la défaillance individuelle des composants. D'autre part, la méthode de Dissociation ainsi que la méthode de ``Truncated Fixed Effort'' ont été introduites pour accroitre l'occurrence de leurs défaillances simultanées. Ensuite, nous combinons la première technique avec les deux autres, et nous les associons à la méthode de Quasi-Monte-Carlo randomisée. Au travers de diverses études de sensibilité et expériences numériques, nous évaluons leur performance, et observons une amélioration significative des résultats par rapport à MC. Par ailleurs, nous discutons d'un sujet peu familier à la SdF, à savoir le choix de la méthode à utiliser pour déterminer les intervalles de confiance dans le cas de la simulation d'événements rares. Enfin, nous illustrons la faisabilité et le potentiel de nos méthodes sur la base d'une application à un cas industriel
The dependability analysis of safety instrumented systems is an important industrial concern. To be able to carry out such safety studies, TOTAL develops since the eighties the dependability software GRIF. To take into account the increasing complexity of the operating context of its safety equipment, TOTAL is more frequently led to use the engine MOCA-RP of the GRIF Simulation package. Indeed, MOCA-RP allows to estimate quantities associated with complex aging systems modeled in Petri nets thanks to the standard Monte Carlo (MC) simulation. Nevertheless, deriving accurate estimators, such as the system unavailability, on very reliable systems involves rare event simulation, which requires very long computing times with MC. In order to address this issue, the common fast Monte Carlo methods do not seem to be appropriate. Many of them are originally defined to improve only the estimate of the unreliability and/or well-suited for Markovian processes. Therefore, the work accomplished in this thesis pertains to the development of acceleration methods adapted to the problematic of performing safety studies modeled in Petri nets and estimating in particular the unavailability. More specifically, we propose the Extension of the "Méthode de Conditionnement Temporel" to accelerate the individual failure of the components, and we introduce the Dissociation Method as well as the Truncated Fixed Effort Method to increase the occurrence of their simultaneous failures. Then, we combine the first technique with the two other ones, and we also associate them with the Randomized Quasi-Monte Carlo method. Through different sensitivities studies and benchmark experiments, we assess the performance of the acceleration methods and observe a significant improvement of the results compared with MC. Furthermore, we discuss the choice of the confidence interval method to be used when considering rare event simulation, which is an unfamiliar topic in the field of dependability. Last, an application to an industrial case permits the illustration of the potential of our solution methodology
APA, Harvard, Vancouver, ISO, and other styles
39

Beaucaire, Paul. "Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00836759.

Full text
Abstract:
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d'une valeur nominale et d'un intervalle de tolérance, à des dimensions de pièces. En particulier, l'analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l'inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d'estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d'exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s'agit de la probabilité que l'exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s'appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L'objectif de cette thèse est d'explorer le domaine de l'analyse et de la synthèse des tolérances afin d'identifier et d'exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l'analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l'approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l'évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L'analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l'utilisation d'une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d'aider à identifier les cotes ayant le plus d'influence sur le TNC d'un mécanisme. Enfin, l'optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d'Essuyages, concepteurs et fabricants de produits pour l'automobile et l'aéronautique, ont proposé des cas d'études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l'ingénierie des incertitudes, développe et commercialise un outil informatique professionnel.
APA, Harvard, Vancouver, ISO, and other styles
40

Cheikh, Khalfa Nadia. "Détection de ruptures de signaux physiologiques en situation in vivo via la méthode FDpV : cas de la fréquence cardiaque et de l'activité électrodermale de marathoniens." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066653/document.

Full text
Abstract:
Cette thèse a été réalisée dans un cadre pluridisciplinaire alliant protocole expérimental, instrumentation dans des conditions de mesures in vivo, détection de ruptures associées à des changements d'états physiologiques et identification et prétraitement d'artefacts de mesures chez des coureurs de marathons. Nous avons considéré l'analyse de la variabilité du rythme cardiaque (VRC) et l'analyse de l'activité électrodermale (AED) pendant une course et lors des phases qui la précèdent et la suivent. La détection de ruptures de moyenne et de tendance est effectuée par la méthode Filtered Derivative with p-Value (FDpV) tout au long de cette thèse. La méthode FDpV est basée sur une analyse dynamique faisant appel à un modèle stationnaire par morceaux. Elle a permis en particulier d'introduire un indice de régulation cardiaque pour les coureurs. Un suivi des changements des états d'éveil et de motivation à travers l'AED par la détection de ruptures de la tendance pendant la course d'un semi-marathonien est également proposée. Ceci a permis de définir des signatures de début et de fin de course. Une attention particulière a été apportée à la composante tonique de l'AED reflétant le niveau d'activation affectif. Nous avons comparé trois méthodes d'extraction du niveau tonique en tenant compte des artefacts potentiels présents. Ce travail concerne des études de cas; il peut être étendu à une cohorte et englober plus de paramètres physiologiques (VO2, EEG,...). Ainsi, une classification des états d'éveil et de motivation peut être envisagée et représente des éléments significatifs de caractérisation des données physiologiques in vivo pour l'optimisation des performances sportives
This thesis was carried out in a multidisciplinary approach that combines experimental protocol, instrumentation, in vivo measurements, physiological change detection instants and identification and preprocessing of measurement artefacts for marathon runners. We considered the analysis of the heart rate variability (HRV) and the electrodermal activity (EDA) recorded during a semi-marathon including pre and post competition periods. A study of the HRV and EDA change detection was carried based on the mean and the trend using the Filtered Derivative with pValue method (FDpV) throughout this thesis. This segmentation method is based on a dynamical approach using a piece-wise stationary model. As a result, itallowed to introduce an index of cardiac regulation for semi-marathon runners. Physiological state changes tracking of affective dimension i.e. "stress" and motivation via the EDA by change detection on its tonic component which reflects the EDA general trend throughout a semi-marathon was also proposed. This enabled us to characterize start and finish phases of a race which are key elements in any competition. A special attention was given to the tonic component of the EDA reflecting the overall level of affective activation. We compared three methods of tonic level extraction by taking into account the present potential artefacts. Thiswork focused on case studies; It can be generalized over a cohort and include more physiological parameters such that VO2 or EEG. Hence, a classification of stress states may also be considered and represent other significant features for characterizing in vivo physiological data for sport performance optimization
APA, Harvard, Vancouver, ISO, and other styles
41

Ogloblinsky, Marie-Sophie. "Statistical strategies leveraging population data to help with the diagnosis of rare diseases." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0039.

Full text
Abstract:
La forte hétérogénéité génétique et les modes de transmission complexes des maladies rares posent le défi d'identifier le variant causal si un seul patient le porte, en utilisant des données de séquençage et des méthodes d'analyse standard. Pour aborder ce problème, la méthode PSAP utilise des distributions nulles par gène de scores de pathogénicité CADD pour évaluer la probabilité d'observer un génotype donné dans la population générale. L'objectif de ce travail était de répondre au manque de diagnostic des maladies rares grâce à des méthodes statistiques. Nous proposons PSAP-genomic-regions, une extension de la méthode PSAP au génome non codant, en utilisant comme unités de test des régions prédéfinies reflétant la contrainte fonctionnelle à l'échelle du génome entier. Nous avons implémenté PSAP-genomic regions et sa version initiale PSAP-genes dans Easy-PSAP, un workflow Snakemake intuitif et adaptable, accessible aussi bien aux chercheurs qu'aux cliniciens. Appliqué à des familles touchées par de l'infertilité masculine, Easy-PSAP a permis la priorisation de variants candidats pertinents dans des gènes connus et nouveaux. Nous nous sommes ensuite concentrés sur le digénisme, le mode le plus simple de transmission complexe, qui implique l'altération simultanée de deux gènes pour développer une maladie. Nous avons décrit et évalué les méthodes actuelles publiées dans la littérature pour détecter le digénisme et proposé de nouvelles stratégies pour améliorer le diagnostic de ce mode de transmission complexe
High genetic heterogeneity and complex modes of inheritance in rare diseases pose the challenge of identifying an n-of-one sequencing data and standard analysis methods. To tackle this issue, the PSAP method uses gene-specific null distributions of CADD pathogenicity scores to assess the probability of observing a given genotype in a healthy population. The goal of this work was to address rare disease lack of diagnosis through statistical strategies. We propose PSAP-genomic-regions an extension of the PSAP method to the non-coding genome, using as testing units predefined regions reflecting functional constraint at the scale of the whole genome.We implemented PSAP-genomic-regions and the initial PSAP-genes in Easy-PSAP a user-friendly and versatile Snakemake workflow, accessible to both researchers and clinicians. When applied to families affected by male infertility, Easy-PSAP allowed the prioritization of relevant candidate variants in known and novel genes. We then focused on digenism, the most simple mode of complex inheritance, which implicates the simultaneous alteration of two genes to develop a disease. We reviewed and benchmarked current methods in the literature to detect digenism and put forward new strategies to improve the diagnostic of this complex mode of inheritance
APA, Harvard, Vancouver, ISO, and other styles
42

Thao, Nguyen Thi Phuong. "Analyse statistique et analyse spatiale des valeurs extrêmes de précipitation : application de cette méthode pour cartographie des caractéristiques pluviométriques de la région Cévennes-Vivarais." Grenoble INPG, 1993. http://www.theses.fr/1993INPG0034.

Full text
Abstract:
Ce travail consiste a choisir une methode statistique d'ajustement des valeurs extremes et a l'appliquer aux precipitation extremes dans la region cevennes-vivarais. La premiere partie est realise a partir de valeurs simulees. La methode non parametrique de villasenor qui n'impose pas au debut de l'analyse une loi statistique a la serie de donnees, et se base sur une source riche de donnees (deux series de donnees), realise un lissage sur 30% des valeurs les plus grandes de la serie, est choisie comme la meilleurs methode parmi les cinq methodes d'ajustements. Dans la deuxieme partie les caracteristiques pluviometriques de la region cevennes-vivarais sont calculees a partir de mesures horaires de 52 stations par la methode choisie. La structure spatiale de la region est etudiee grace a la fonction du variogramme spherique. Ensuite, la cartographie des caracteristiques pluviometriques de cette region est realisee par les methodes: spline et krigeage. La methode krigeage donne une meilleure interpolation que celle de spline, et fournit encore des informations sur la structure spatiale de la region. Enfin, nous sommes arrives a exprimer la distribution spatiale des valeurs extremes de precipitation. Elle decrit bien la realite de la pluie de la region cevennes-vivarais
APA, Harvard, Vancouver, ISO, and other styles
43

Omar, Ahmad. "Développement et validation d'un modèle aux éléments discrets de comportement du béton sous chargement dynamique." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GRENI014/document.

Full text
Abstract:
Ce travail concerne l'analyse de la vulnérabilité des structures de protection et des ouvrages sensibles en béton soumis à des actions dynamiques sévères (impacts, explosions) dues à des risques anthropiques d'origine accidentelle ou non. L'objet est la mise au point d'outils prévisionnels de simulation capables de décrire de manière objective le comportement dynamique du béton. Pour cela, une approche numérique novatrice reposant sur la méthode des Eléments Discrets (MED) est développée. Une première partie de cette thèse concerne la simulation des essais quasi-statiques de compression et traction uniaxiales. Une loi de transfert de moment (LTM) a été introduite pour pallier au problème de fragilité en compression simple. Ensuite, la procédure d'identification des paramètres du modèle modifié a été optimisée pour bien reproduire le comportement macroscopique du béton. Enfin, le modèle a été validé en représentant correctement le comportement quasi-statique de plusieurs types de béton. La deuxième partie du travail traite la simulation des essais de traction dynamique du béton aux barres de Hopkinson. Les résultats ont montré la nécessité de prendre l'effet de vitesse de déformation dû au matériau pour bien reproduire le comportement expérimental. Ensuite, Les paramètres du modèle permettant de reproduire cet effet de vitesse ont été identifiés. Enfin, des essais avec des taux de déformation très élevés ont été simulés et les résultats numériques ont été en accord avec le comportement observé expérimentalement
This work concerns the analysis of the vulnerability of sensitive concrete structures subjected to severe dynamic actions such as impacts due to natural hazards or human factors. The object is to develop a numerical tool that can describe objectively the dynamic behaviour of concrete. Then, a 3D discrete element method (DEM) was developed and used to perform the analysis. The first part of this thesis focuses on the simulation of quasi-static uniaxial compression and traction tests. A moment transfer law (MTL) was introduced to overcome the problem of brittle compressive behavior. Then, the identification procedure of the modified DEM model has been optimized in order to reproduce very well the macroscopic behaviour of concrete. Finally, the model has been validated by representing properly the real quasi-static behavior of different types of concrete. The second part of the study deals with the simulation of the dynamic Hopkinson traction bar tests of concrete. The results showed that a local rate effect has to be introduced to reproduce the strain rate dependency, which would then be a material-intrinsic effect. Then, the parameters of the model have been identified. Finally, simulations were run at high strain rates and showed consistent results with respect to experimental behaviour
APA, Harvard, Vancouver, ISO, and other styles
44

Cheikh, Khalfa Nadia. "Détection de ruptures de signaux physiologiques en situation in vivo via la méthode FDpV : cas de la fréquence cardiaque et de l'activité électrodermale de marathoniens." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066653.

Full text
Abstract:
Cette thèse a été réalisée dans un cadre pluridisciplinaire alliant protocole expérimental, instrumentation dans des conditions de mesures in vivo, détection de ruptures associées à des changements d'états physiologiques et identification et prétraitement d'artefacts de mesures chez des coureurs de marathons. Nous avons considéré l'analyse de la variabilité du rythme cardiaque (VRC) et l'analyse de l'activité électrodermale (AED) pendant une course et lors des phases qui la précèdent et la suivent. La détection de ruptures de moyenne et de tendance est effectuée par la méthode Filtered Derivative with p-Value (FDpV) tout au long de cette thèse. La méthode FDpV est basée sur une analyse dynamique faisant appel à un modèle stationnaire par morceaux. Elle a permis en particulier d'introduire un indice de régulation cardiaque pour les coureurs. Un suivi des changements des états d'éveil et de motivation à travers l'AED par la détection de ruptures de la tendance pendant la course d'un semi-marathonien est également proposée. Ceci a permis de définir des signatures de début et de fin de course. Une attention particulière a été apportée à la composante tonique de l'AED reflétant le niveau d'activation affectif. Nous avons comparé trois méthodes d'extraction du niveau tonique en tenant compte des artefacts potentiels présents. Ce travail concerne des études de cas; il peut être étendu à une cohorte et englober plus de paramètres physiologiques (VO2, EEG,...). Ainsi, une classification des états d'éveil et de motivation peut être envisagée et représente des éléments significatifs de caractérisation des données physiologiques in vivo pour l'optimisation des performances sportives
This thesis was carried out in a multidisciplinary approach that combines experimental protocol, instrumentation, in vivo measurements, physiological change detection instants and identification and preprocessing of measurement artefacts for marathon runners. We considered the analysis of the heart rate variability (HRV) and the electrodermal activity (EDA) recorded during a semi-marathon including pre and post competition periods. A study of the HRV and EDA change detection was carried based on the mean and the trend using the Filtered Derivative with pValue method (FDpV) throughout this thesis. This segmentation method is based on a dynamical approach using a piece-wise stationary model. As a result, itallowed to introduce an index of cardiac regulation for semi-marathon runners. Physiological state changes tracking of affective dimension i.e. "stress" and motivation via the EDA by change detection on its tonic component which reflects the EDA general trend throughout a semi-marathon was also proposed. This enabled us to characterize start and finish phases of a race which are key elements in any competition. A special attention was given to the tonic component of the EDA reflecting the overall level of affective activation. We compared three methods of tonic level extraction by taking into account the present potential artefacts. Thiswork focused on case studies; It can be generalized over a cohort and include more physiological parameters such that VO2 or EEG. Hence, a classification of stress states may also be considered and represent other significant features for characterizing in vivo physiological data for sport performance optimization
APA, Harvard, Vancouver, ISO, and other styles
45

Saggadi, Samira. "Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S055.

Full text
Abstract:
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel
Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling
APA, Harvard, Vancouver, ISO, and other styles
46

Chronopoulos, Dimitrios. "Prediction of the vibroacoustic response of aerospace composite structures in a broadband frequency range." Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00787864.

Full text
Abstract:
During its mission, a launch vehicle is subject to broadband, severe, aeroacoustic and structure-borne excitations of various provenances, which can endanger the survivability of the payload and the vehicles electronic equipment, and consequently the success of the mission. Aerospace structures are generally characterized by the use of exotic composite materials of various configurations and thicknesses, as well as by their extensively complex geometries and connections between different subsystems. It is therefore of crucial importance for the modern aerospace industry, the development of analytical and numerical tools that can accurately predict the vibroacoustic response of large, composite structures of various geometries and subject to a combination of aeroacoustic excitations. Recently, a lot of research has been conducted on the modelling of wave propagation characteristics within composite structures. In this study, the Wave Finite Element Method (WFEM) is used in order to predict the wave dispersion characteristics within orthotropic composite structures of various geometries, namely flat panels, singly curved panels, doubly curved panels and cylindrical shells. These characteristics are initially used for predicting the modal density and the coupling loss factor of the structures connected to the acoustic medium. Subsequently the broad-band Transmission Loss (TL) of the modelled structures within a Statistical Energy Analysis (SEA) wave-context approach is calculated. Mainly due to the extensive geometric complexity of structures, the use of Finite Element(FE) modelling within the aerospace industry is frequently inevitable. The use of such models is limited mainly because of the large computation time demanded even for calculations in the low frequency range. During the last years, a lot of researchers focus on the model reduction of large FE models, in order to make their application feasible. In this study, the Second Order ARnoldi (SOAR) reduction approach is adopted, in order to minimize the computation time for a fully coupled composite structural-acoustic system, while at the same time retaining a satisfactory accuracy of the prediction in a broadband sense. The system is modelled under various aeroacoustic excitations, namely a diffused acoustic field and a Turbulent Boundary Layer (TBL) excitation. Experimental validation of the developed tools is conducted on a set of orthotropic sandwich composite structures. Initially, the wave propagation characteristics of a flat panel are measured and the experimental results are compared to the WFEM predictions. The later are used in order to formulate an Equivalent Single Layer (ESL) approach for the modelling of the spatial response of the panel within a dynamic stiffness matrix approach. The effect of the temperature of the structure as well as of the acoustic medium on the vibroacoustic response of the system is examined and analyzed. Subsequently, a model of the SYLDA structure, also made of an orthotropic sandwich material, is tested mainly in order to investigate the coupling nature between its various subsystems. The developed ESL modelling is used for an efficient calculation of the response of the structure in the lower frequency range, while for higher frequencies a hybrid WFEM/FEM formulation for modelling discontinuous structures is used.
APA, Harvard, Vancouver, ISO, and other styles
47

Stepan, Jiri. "Etude du transfert du rayonnement polarisé dans l'atmosphère solaire." Phd thesis, Observatoire de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00608761.

Full text
Abstract:
L'interprétation des spectres compliqués de l'atmosphère solaire magnétisée requiert des modèles théoriques adéquats de transfert radiatif hors ETL. Dans la première partie, la théorie quantique de la polarisation est revue ainsi que celle du transfert radiatif hors ETL de 2$^{\rm e}$ espèce. Une notation générale est introduite pour traiter numériquement la matrice densité atomique. Une technique de ''lambda-operator splitting'' est présentée et utilisée pour développer une méthode originale de préconditionnement analogue à l'algorithme itératif de Jacobi. De nombreux processus sont pris en compte: l'effet Zeeman, l'effet Paschen-Back, l'effet Hanle, la polarisation atomique, les croisements de niveaux, le pompage optique, la (dé)polarisation par collisions. Une technique multigrille non linéaire est développée dans le cadre du transfert de rayonnement polarisé et l'efficacité de la méthode est discutée. Les possibilités de ce nouveau solveur sont démontrées sur l'exemple d'une raie optiquement épaisse d'un atome multiterme dans le régime de l'effet Paschen-Back. Dans la deuxième partie, la polarisation par impact de la raie H-alpha de l'hydrogène est étudiée. Les modèles semi-empiriques de la chromosphère éruptive sont utilisés pour déterminer les effets différentiels du faisceau de protons sur les profils d'intensité et de polarisation. Il est montré qu'il est improbable que les faisceaux de protons soient la source de la polarisation linéaire observée. Dans le dernier chapitre, il est montré que les courants électriques de retour sont un ingrédient significatif de la formation des raies et ils sont proposés comme une source possible de la polarisation observée.
APA, Harvard, Vancouver, ISO, and other styles
48

Courreau, Jean-François. "Etude génétique des qualités de travail dans l'espèce canine : application des méthodes de la génétique quantitative aux épreuves de concours de chiens de défense en race berger belge." Paris 11, 2004. http://www.theses.fr/2004PA112250.

Full text
Abstract:
Le but de l'etude est d'evaluer l'heritabilite h² des caracteres lies a la defense chez le berger belge, les valeurs genetiques des chiens et les effets de certains facteurs du milieu. 15772 resultats obtenus en concours par 2427 chiens ont ete etudies. 6 a 19 epreuves composent les concours selon le niveau de difficulte (5 niveaux). Elles ont ete regroupees en 8 aptitudes generales : saut, suite au pied, rapport d'objet, attaque, garde, obeissance, mordant, reussite globale. L'analyse a ete faite en parallele sur deux types de variables obtenues a partir des notes aux epreuves et a distributions proches de la normale : d'une part, des scores calcules d'apres le rang de classement intra-concours, d'autre part, les notes elevees a une puissance. Les parametres genetiques ont ete evalues a partir d'un modele animal mixte en utilisant la methode du maximum de vraisemblance restreint. Les effets genetiques et du milieu ont ete evalues par la methode du blup. Les resultats les plus interessants sont obtenus avec les scores. Les valeurs de h² sont faibles (0,07 pour suite et reussite globale) a moderees (0,13-0,18 pour les autres aptitudes). Les valeurs de repetabilite sont assez elevees (0,39-0,59). Les correlations genetiques entre les aptitudes sont moderees a elevees, sauf avec le saut qui semble independant. L'effet du sexe est a l'avantage du male. L'effet de la variete est a l'avantage du malinois. L'effet de l'age montre un optimum entre 3 et 7 ans. Les valeurs genetiques ont ete calculees pour 2284 competiteurs ; leur precision est correcte (cd = 0,25). Ces resultats permettent d'envisager une selection sur les aptitudes comportementales du berger belge
The aim the present study was to evaluate the heritability h² of defence capacity traits in the belgian shepherd dog and to calculate the breeding values of the dogs and the role of particular environmental factors. 15 772 competition results from 2427 defence dogs were used. A competition included 6 to 19 tests and according to their difficulty, 5 levels. The tests were grouped together to form 8 general ability measures: jumping, following at heel, fetching an object, attacking, guarding, obedience, biting and global success. The analysis was performed in parallel on two types of variable obtained from the marks of the tests. Firstly, on the calculated scores after the dogs had been ranked within a competition. Secondly, on the marks raised to a specific power. The genetic parameters were estimated using a mixed animal model using the restricted maximum likelihood method. The effects of the model were estimated by the blue method. The most pertinent results were obtained with the scores. The h² estimates are low (0. 07 for following at heel and global success) to moderate (0. 13-0. 18 for the other criteria). The repeatability of results was relatively high (0. 39-0. 59). The genetic correlations between abilities were moderate to high, except for jumping which appears to be independent. The males performed better than the females. The malinois was the best variety of dog. The age was optimal between 3 and 7 years-of-age. The breeding values were calculated for 2284 competitors; the precision was moderate (dc = 0. 25). These results indicate that it should be possible to select belgian shepherd dogs for behavioural characteristics
APA, Harvard, Vancouver, ISO, and other styles
49

Labouret, Stéphane. "Détermination du taux de vide d'un champ de bulles de cavitation ultrasonore par une méthode hyperfréquence : corrélation du taux de vide et de la puissance du bruit de cavitation." Valenciennes, 1998. https://ged.uphf.fr/nuxeo/site/esupversions/e5dc6fee-0e7e-4a6e-8d10-b4209ceaf46f.

Full text
Abstract:
Ce travail est consacré à l'étude des champs de bulles produits par cavitation ultrasonore, et qui sont à l'origine de nombreux phénomènes chimiques, physiques et mécaniques. Son objectif est de caractériser le volume total des bulles, ou taux de vide, et d'évaluer leur distribution en tailles. L’évolution du taux de vide est déterminée en suivant le décalage que provoque la présence des bulles sur de la fréquence de résonance d'une cavité électromagnétique résonante hyperfréquence (400 mhz) contenant le milieu insonifié. Sous certaines conditions, le décalage de fréquence est proportionnel au taux de vide. La distribution en tailles des bulles est déterminée en analysant la dissipation du taux de vide après la fin de l'insonification, à partir de la loi de dissolution des bulles libres. La distribution en tailles obtenue est celle des bulles présentes dans la cavité 40 secondes après la fin de l'insonification. Les évolutions du taux de vide et de la distribution en tailles des bulles ont été étudiées en fonction des paramètres suivants : pression acoustique, viscosité de l'eau, durée d'insonification, concentration en air dissous, mode d'insonification continu ou découpé et fréquence acoustique. Plusieurs seuils caractéristiques du comportement des bulles ont été mis en évidence. Pour une eau saturée en gaz, la croissance du taux de vide est corrélée avec la puissance du bruit de cavitation. Les contributions à la puissance du bruit de cavitation des oscillations fortement non linéaires et des implosions ont pu être estimées. La méthode de mesure mise au point est un outil bien adapte à l'étude des champs de bulles produit par cavitation ultrasonore.
APA, Harvard, Vancouver, ISO, and other styles
50

Beluffi, Camille. "Search for rare processes with a Z+bb signature at the LHC, with the matrix element method." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAE022/document.

Full text
Abstract:
Cette thèse présente une étude détaillée de l'état final avec un boson Z se désintégrant en deux leptons, produit dans le détecteur CMS au LHC. Pour identifier cette topologie, des algorithmes sophistiqués d'étiquetage des jets b ont été utilisés, et la calibration de l'un d'entre eux, Jet Probability, est exposée. Une étude de la dégradation de cet algorithme à hautes énergies a été menée et une amélioration des performances a pu être notée. Cette étude est suivie par une recherche du boson de Higgs du modèle standard (MS) se désintégrant en deux quarks b, et produit en association avec un boson Z (canal ZH), à l'aide de la Méthode des Éléments de Matrice (MEM) et deux algorithmes d'étiquetage des jets b: JP et Combined Secondary Vertex (CSV). La MEM est un outil perfectionné qui produit une variable discriminante par événement, appelée poids. Pour l'appliquer, plusieurs lots de fonctions de transfert ont été produits. Le résultat final renvoie une limite observée sur le taux de production de ZH avec le rapport d'embranchement H → bb de 5.46xσMS en utilisant CSV et de 4.89xσMS en faisant usage de JP : un léger excès de données est observé seulement pour CSV. Enfin, à partir de l'analyse précédente, une recherche de nouvelle physique modèle-indépendante a été faite. Le but était de discriminer entre eux les processus du MS afin de catégoriser l'espace de phase Zbb, à l'aide d'une méthode récursive basée sur les poids de la MEM. Des paramètres libres ont été ajustés pour obtenir la meilleure limite d'exclusion pour le signal ZH. En utilisant la meilleure configuration trouvée, la limite calculée est de 3.58xσMS, proche de celle obtenue avec l'analyse précédente
This thesis presents a detailed study of the final state with the Z boson decaying into two leptons, produced in the CMS detector at the LHC. In order to tag this topology, sophisticated b jet tagging algorithms have been used, and the calibration of one of them, the Jet Probability (JP) tagger is exposed. A study of the tagger degradation at high energy has been done and led to a small gain of performance. This investigation is followed by the search for the associated production of the standard model (SM) Higgs boson with a Z boson and decaying into two b quarks (ZH channel), using the Matrix Element Method (MEM) and two b-taggers: JP and Combined Secondary Vertex (CSV). The MEM is an advanced tool that produces an event-by-event discriminating variable, called weight. To apply it, several sets of transfer function have been produced. The final results give an observed limit on the ZH production cross section with the H → bb branching ratio of 5.46xσSM when using the CSV tagger and 4.89xσSM when using the JP algorithm: a small excess of data is observed only for CSV. Finally, based on the previous analysis, a model-independent search of new physics has been performed. The goal was to discriminate all the SM processes to categorize the Zbb phase space, with a recursive approach using the MEM weights. Free parameters had to be tuned in order to find the best exclusion limit on the ZH signal strength. For the best configuration, the computed limit was 3.58xσSM, close to the one obtained with the dedicated search
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography