Siga este link para ver outros tipos de publicações sobre o tema: Analyse corrélative.

Teses / dissertações sobre o tema "Analyse corrélative"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Analyse corrélative".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Pouget, Fabien. ""Système distribué de capteurs pots de miel: discrimination et analyse corrélative des processus d'attaques"". Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001751.

Texto completo da fonte
Resumo:
Il est difficilement concevable de construire les systèmes de sécurité sans avoir une bonne connaissance préalable des activités malveillantes pouvant survenir dans le réseau. Malheureusement, celle-ci n'est pas aisément disponible, ou du moins elle reste anecdotique et souvent biaisée. Cette thèse a pour objectif principal de faire progresser l'acquisition de ce savoir par une solide méthodologie. Dans un premier temps, il convient de travailler sur un ensemble intéressant de données. Nous avons déployé un réseau distribué de sondes, aussi appelées pots de miel, à travers le monde. Ces pots de miel sont des machines sans activité particulière, qui nous ont permis de capturer un gros volume de données suspectes sur plusieurs mois. Nous présentons dans cette thèse une méthodologie appelée HoRaSis (pour Honeypot Traffic Analysis), qui a pour but d'extraire automatiquement des informations originales et intéressantes à partir de cet ensemble remarquable de données. Elle est formée de deux étapes distinctes: i) la discrimination puis ii) l'analyse corrélative du trafic collecté. Plus précisément, nous discriminons d'abord les activités observées qui partagent une empreinte similaire sur les sondes. La solution proposée s'appuie sur des techniques de classification et de regroupement. Puis, dans une seconde phase, nous cherchons à identifier les précédentes empreintes qui manifestent des caractéristiques communes. Ceci est effectué sur les bases d'une technique de graphes et de recherche de cliques. Plus qu'une technique, l'approche HoRaSis que nous proposons témoigne de la richesse des informations pouvant être récupérées à partir de cette vision originale du trafic malicieux de l'Internet. Elle prouve également la nécessité d'une analyse rigoureuse et ordonnée du trafic pour parvenir à l'obtention de cette base de connaissances susmentionnée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Gainnier, Marc. "Analyse corrélative des événements physiologiques, électrophysiologiques et biochimiques au cours du travail musculaire dynamique". Aix-Marseille 2, 2002. http://www.theses.fr/2002AIX20673.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Guyot, Claire. "Analyse chimique avancée des diodes électroluminescentes organiques". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT029.

Texto completo da fonte
Resumo:
Depuis les années 80, l’électronique organique connaît un essor considérable, plus particulièrement avec la commercialisation de diodes électroluminescentes organiques (OLEDs) dans les années 2000. Néanmoins, l’intégration de ces dispositifs à certaines applications rencontre plusieurs défis, notamment en terme d’efficacité, de durée de vie et de stabilité. Afin d’améliorer les performances électro-optiques des OLEDs, il est essentiel de comprendre les mécanismes de dégradation en jeu lors du fonctionnement de ces dispositifs afin de proposer de nouvelles structures, molécules et dopants.La spectrométrie de masse à temps de vol (ToF-SIMS) et la spectroscopie de photoémission des rayons X (XPS) sont deux techniques couramment employées pour étudier la composition chimique de multicouches. Avec le développement de nouvelles sources d’abrasion innovantes comme les agrégats d’argon dans les années 2000, une analyse fiable des multicouches et des interfaces organiques par acquisition de profils en profondeur est possible. Cependant, lors de ces acquisitions, les faisceaux d’analyse peuvent endommager les molécules organiques et ainsi masquer les dégradations liées au vieillissement des OLEDs.Une nouvelle méthodologie a été développée lors de ces travaux de thèse permettant de minimiser les dégradations extrinsèques liées aux faisceaux d’analyse, et de corréler les résultats ToF SIMS et XPS. Cette méthodologie est basée sur l’analyse de la surface d’un cratère en biseau possédant un angle très rasant (de l’ordre de 0,01°). Celui-ci est fabriqué en balayant la surface d’un échantillon avec le faisceau d’abrasion d’agrégats d’argon. Le temps d’exposition par pixel de ce faisceau varie linéairement selon un axe, permettant de révéler l’empilement organique. Par conséquent, l’information en profondeur des multicouches est convertie en information spatiale à la surface du cratère. Cette méthodologie apporte une information en profondeur similaire à celle obtenue par l’acquisition de profils en profondeur ainsi qu’une corrélation des données ToF-SIMS et XPS.Ce protocole a été employé pour analyser des OLEDs après vieillissement électrique. Plusieurs mécanismes de dégradation ont été mis en évidence. Au cours du fonctionnement de l’écran, les molécules organiques se fragmentent, entraînant l’accumulation de pièges de porteurs de charges ainsi que la formation de centres de recombinaison non radiatifs. Les analyses XPS indiquent l’apparition de barrières d’énergies qui dégradent l’équilibre des charges et déplacent la zone de recombinaison. Les couches responsables du transport des électrons et la couche émissive sont particulièrement liées à la perte de performances des dispositifs, démontrant l’intérêt du développement de nouvelles molécules ou dopants stables pour le transport des électrons.Enfin, ces travaux de thèse se sont penchés sur l’étude comparative de deux éléments inorganiques (argent et calcium) pour le dopage de la couche de transport des électrons à base de BPhen. Dans le cas d’un dopage à base d’argent, les mesures ToF-SIMS et XPS ont mis en évidence la formation d’un complexe [(BPhen)Ag]. Une comparaison avec le dopant actuel (calcium) indique un niveau de dopage et des caractéristiques électro-optiques (I-V-L) similaires. Une meilleure stabilité électrique des dispositifs « electron-only device » ainsi qu’une meilleure stabilité suite à l’exposition à l’air est obtenue avec un dopage à base d’argent. Ce dopage est prometteur pour améliorer les performances électro-optique des OLEDs
Since their invention in 1987 by Tang and Van Slyke, organic light-emitting diodes (OLEDs) have achieved tremendous progress leading to their commercialization twenty years later. Nevertheless, the integration of these devices in certain applications faces a number of challenges, notably in terms of efficiency, lifetime and stability. To improve the electro-optical performance of OLEDs, it is essential to understand the degradation mechanisms at play during device operation, in order to propose new structures, molecules and dopants.Time of flight secondary ion mass spectrometry and X-ray photoelectron spectroscopy (XPS) are routinely used to study chemical composition of multilayers. With the development in the early 2000s of new cluster ion sputtering sources such as argon clusters, a reliable analysis of organic multilayer and interfaces has become possible. However, analysis can damage organic molecules and therefore hide small chemical changes related to the aging of OLEDs.A new methodology has been developed to minimize those damages related to analysis and also correlate both characterization techniques. This method is based on the analysis of the surface of a shallow angle bevel crater (with an angle of about 0,01°). The crater is fabricated by varying the fluence of the sputtering beam over the surface of the sample, therefore revealing the organic stack over the surface of the crater. The in-depth information is converted into lateral information over the surface of the bevel crater. This method enables the correlation of ToF-SIMS and XPS results on the same area whilst providing similar depth information compared to dual-beam depth profiling.This protocol was used to analyze electrically aged OLEDs. Multiple degradation mechanisms were highlighted. A dissociation of the organic molecules has been observed with aging, inducing the accumulation of charge carrier traps as well as the formation of non-radiative recombination centers. XPS analysis reveal the apparition of energy barriers that degrade the charge carrier equilibrium and shift the recombination zone. Finally, the emissive layer as well as the electron transport layers are particularly linked to the loss of performances of the devices, demonstrating the interest in developing new stable molecules or dopants for electron transport.Two inorganic elements (calcium and silver) for the doping of the electron transport layer were studied. The formation of a complex between BPhen molecules and silver was observed by ToF-SIMS and XPS. The doping and electro-optical characteristics (I-V-L) of both layers are similar. A better electrical and air-exposure stability was demonstrated for the doping with silver atoms. This doping is very promising to increase the electro-optical performances of OLEDs
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Gemin, Olivier. "Analyse morphométrique et modélisation d'épines des dendrites basales de neurones pyramidaux des couches 2-3 du cortex somato-sensoriel : une étude en microscopie corrélative optique-électronique". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEE039.

Texto completo da fonte
Resumo:
Les épines dendritiques reçoivent la majorité des contacts synaptiques excitateurs dans le cortex, et leur morphologie module la compartimentation des signaux synaptiques. L’objectif de ma thèse a été de développer une approche de microscopie corrélative optique-électronique (CLEM) qui permette de quantifier les paramètres morphologiques d’épines dendritiques identifiées in vivo. J’ai utilisé la CLEM pour caractériser l’ultrastructure d’épines portées par les dendrites basales de neurones identifiés. Les mesures ont été utilisées pour paramétrer un modèle de l’intégration dendritique qui prenne en compte la diversité morphologique des épines. Ce modèle nous a permis de quantifier la proportion d’épines qui compartimentent effectivement les signaux électriques, et d’aborder la fonction des épines dites doublement innervées, qui reçoivent un contact inhibiteur dont le rôle demeure incompris. Notre modèle fournit un mécanisme de signalisation spécifique des épines doublement innervées, où le signal inhibiteur atténue l’influx calcique produit dans l’épine par le signal excitateur sans amortir sa composante électrique, en fonction de l’intervalle entre ces deux signaux synaptiques, ce qui peut influencer la plasticité synaptique
Dendritic spines receive most excitatory synaptic contacts in the cortex, and spine morphology shapes the compartmentalization of synaptic signals. The aim of my thesis has been to develop a correlative light-electron microscopy (CLEM) approach in order to quantify the morphological parameters of identified dendritic spines in intact cortical circuits. I used CLEM to characterize spine ultrastructure along basal dendrites of identified neurons. These measurements were used to constrain a model of dendritic integration. Our model enabled quantifying which proportion of reconstructed spines effectively compartmentalized electrical signals, and we used it to approach the function of a subset of spines that harbour a supernumerary inhibitory contact, the role of which is yet unknown. Our modeling effort unveils a signaling mechanism, prominent in dually-innervated spines, by which an inhibitory signal can attenuate the calcium influx generated in the spine head by an excitatory signal, while depolarization amplitude is unabated, which potentially impacts synaptic plasticity
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Partouche, David. "Analyse de l’assemblage de peptides amyloïdes bactériens". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX084/document.

Texto completo da fonte
Resumo:
Hfq est une protéine bactérienne qui a un rôle pleiotropique. La principale fonction de la protéine Hfq bactérienne consiste à répondre aux stress que peut rencontrer la bactérie lors d’un changement environnemental, en utilisant essentiellement un contrôle post-transcriptionnel. La protéine, par sa capacité à interagir avec les ARN et notamment les petits ARN non codant, permet ainsi une régulation rapide de l’expression génétique. En outre la protéine interagit aussi avec l’ADN qu’elle aide à se structurer. Les mutations dans le gène qui code pour Hfq ont des effets pleïotropes (déterminant plusieurs caractères phénotypiques).D’un point de vue structural, la protéine adopte un repliement de type Sm, caractérisé par un oligomère toroïdal reposant sur la formation d’un feuillet β continu à 30 brins. Cependant, outre cette région Sm N-terminale, Hfq possède également une région C-terminale (CTR) de taille et de séquence variables selon les bactéries. Mon travail de thèse a porté sur l’analyse de cette région CTR chez la bactérie Escherichia coli. Cette région a en effet la capacité de former une structure de type amyloïde : structures auto-assemblées in vivo, à proximité de la membrane interne et dans le nucléoïde.Par l’utilisation de diverses techniques physico-chimiques (microscopie moléculaire, spectroscopie et microscopie infrarouge, dichroïsme circulaire et diffusion aux petits angles), mon travail a consisté à caractériser l’assemblage de cette région de Hfq ainsi que les facteurs l’influençant en particulier la présence d’acide nucléique. Une partie de mon travail de thèse a aussi consisté à mettre en place une méthode d’imagerie corrélative innovante permettant d’analyser la signature chimique et morphologique d’une fibre amyloïde unique. Mon travail a enfin porté sur l’analyse de l’effet de composés inhibant l’agrégation de la structure amyloïde, ce qui pourrait constituer une piste pour développer une nouvelle classe d’antibiotiques
Hfq is a pleiotropic bacterial protein that determines several phenotypic characteristics. Its main function is to facilitate responses to stresses that bacteria may encounter during environmental changes, mainly by using post-transcriptional genetic control. The protein, by its capacity to interact with RNA, in particular small non-coding RNA, enables a rapid regulation of gene expression. In addition, the protein also interacts with DNA and compacts it. From a structural point of view, the protein adopts an Sm-like fold, characterized by a toroidal oligomer formed by a continuous 30-stranded β-sheet. Besides its conserved N-terminal Sm domain, Hfq also possesses a C-terminal region (CTR) that can vary in size and sequence between bacteria. My PhD work focused on the analysis of this CTR region in Escherichia coli bacteria. Indeed, this region has the capacity to form an amyloid structure. This structural dynamic is related to the formation of self-assembled structures in vivo, in the proximity of the inner membrane and in the nucleoid.Using various physicochemical techniques (molecular microscopy, spectroscopy and infrared microscopy, circular dichroism and small angle X-ray scattering), my work consisted in characterizing the assembly of this region of Hfq, as well as the factors influencing its assembly (in particular, the presence of nucleic acids). A part of my work consisted in setting up an innovative correlative–imaging method to analyze the chemical and morphological signature of a single amyloid fibre. Finally, my work focused on the analysis of the effect of compounds that inhibit the aggregation of the amyloid structure, which could constitute a new way to develop a novel class of antibiotics
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Bouziane, Ahmed. "Étude corrélative d'un plasma multipolaire d'oxygène et des diélectriques formés dans ce plasma sur un substrat semi-conducteur : application à la passivation du phosphure d'indium". Nancy 1, 1993. http://www.theses.fr/1993NAN10039.

Texto completo da fonte
Resumo:
Ce travail consiste à étudier la passivation du phosphure d'indium (semi-conducteur III-V) dans un plasma multipolaire d'oxygène en adoptant deux types d'excitation: 1) excitation avec une cathode chaude; 2) excitation avec micro-onde (RCEL). L'optimisation du procédé a été basée essentiellement sur le diagnostic du plasma réalisé par deux méthodes: 1) diagnostic par sonde électrostatique; 2) étude de la propagation d'une onde acoustique ionique dans le plasma. Une caractérisation électrique des structures mis élaborées permet de tester les qualités de l'oxyde et de déterminer les paramètres physiques caractérisant l'isolant et son interface avec le semi-conducteur. Une caractérisation physico-chimique identifie la composition chimique de l'isolant
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Orgambide, Guy. "Exopolysaccharides de Pseudomonas solanacearum : analyse structurale et corrélation avec la virulence". Toulouse 3, 1990. http://www.theses.fr/1990TOU30013.

Texto completo da fonte
Resumo:
Pseudomonas solanacearum est une bacterie phytopathogene qui provoque le fletrissement des solanacees. Ce travail porte sur la caracterisation structurale de l'exopolysaccharide (eps) produit par cette bacterie et sur l'etude de son implication dans le pouvoir pathogene du microorganisme. Des fractionnements de l'eps par permeation de gel et par chromatographie d'echange d'anions en conditions dissociantes ont montre son heterogeneite et permis de discriminer trois composantes distinctes. La fraction polyosidique majeure (fraction eps acide) a ete caracterisee comme une structure basee sur la repetition du motif trisaccharidique suivant: n-acetyl-d-galactosamine/acide n-acetyl-l-galactosaminuronique/2-n-acetyl-4-n-(3-hydroxybutyryl)-d-bacillosamine. Des mutations dans une region genomique controlant le pouvoir pathogene n'induisent pas de modification structurale de la fraction eps acide produite par les mutants avirulents correspondants. Les deux autres composantes de l'eps sont de poids moleculaires plus faibles. La seconde fraction est majoritairement non glycosidique et sa structure fait intervenir de nombreux groupements methylenes et amides; la troisieme fraction est constituee d'un melange d'homopolymeres de glucose
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Diallo, Mamadou Hawa Hann. "Analyse quantitative tomodensitométrique des poumons de patients emphysémateux : corrélation radio-fonctionnelles". Bordeaux 2, 2000. http://www.theses.fr/2000BOR28808.

Texto completo da fonte
Resumo:
De nombreux paramètres de la courbe de densité des poumons peuvent servir à quantifier l'emphysème, cependant seuls la densité moyenne (Dm)i. E. Le moment d'ordre 1(m1) de la distribution et le 5° percentile ont été utilisés couramment dans ces études quantitatives. Une diminution de Dm peut correspondre à une distension, une perte de tissu ou une combinaison de ces deux altérations, et peut ne pas être correctement interprété sur des bases morphologiques. Les buts de la présente étude étaient d'établir, 1) si les paramètres de l'histogramme de densité étaient des indices valides pour quantifier l'emphysème, 2) si une perte tissulaire se produisait dans l'emphysème 3) de corréler ces altérations à la fonction. Des coupes TDM contiques de 8 mm furent obtenues chez 115 emphysémateux et 18 sujets sains à la Capacité Résiduelle Fonctionnelle (CRF). Les histogrammes ont été étudiés de -1000 à -350 UH par les statistiques descriptives. La masse pulmonaire (M), Dm et Dm corrigée pour la distension (Dc) ont été déterminées. L'assymétrie et l'aplatissement étaient plus élevés chez les emphysémateux. Le mode (Mo), la médiane (mé) et m1 étaient significativement plus bas que chez les sujets sains et étaient corrélés significativement à l'obstruction et à la distension, cependant les paramètres fonctionnels ne pouvaient expliquer que 51 à 67 % des variations des modèles d'estimation de ces paramètres. M était normale ou augmentée dans la majorité des cas (>80 %), mais la perte tissulaire a été rapportée aussi et était localisée à la base des poumons. Dans ces groupes de faible M il y avait une tendance à la diminution du poids corporel et de la fonction pulmonaire, il existait une liaison significative entre les caractéristiques structurales des poumons et les types cliniques d'emphysème. Les paramètres de la courbe de densité sont des indices valides pour caractériser l'emphysème. Ils apportent des informations supplémentaires par rapport à la fonction. Les types cliniques d'emphysème sont rattachés à des individualités structurales
Numerous parameters derived from the lung histogram could be used to assess emphysema, nevertheless only the average lung density (Dm) i. E. The first moment (m1) of the distribution and the fifth percentile were currently used in these quantitative studies. Decrease in Dm could be related to either distension, tissue loss or a combination of the two abnormalities and may not be interpreted accurately on morphological basis. The aims of the present study were to establish, 1) if the parameters of the histogram curve are valid indewes for quantifying emphysema, 2) if tissue loss occurs in emphysematous lungs and 3) to relate these changes to lung function. Contiguous 8 mm thick scans of the whole lungs, were obtained at Functional Residual Capacity (FRC) in 115 emphysematous patients and 18 healthy subjects. Histograms were sampled between -1000 to -350 HU and studied using descriptive statistics. Lung mass (M density (Dm) and distension corrected density (Dc) were computed. Skewness and kurtosis were higher in the emphysema group. The mode (Mo) median (me) and m1, were significantly lower than in healthy subjects and were correlated significantly to the parameters of obstruction and distension, however functional parameters could explain only between 51 and 67 % of the models estimate of the parameters. Lung mass was normal or increase in most cases (> 80 %), but significant loss of tissue was reported in the lung base in some patients. In this group with low lung mass there was a trend of alteration in body weight and lung function. Multivariate analysis showed that there was a significant relationship between structural lung characteristics and the clinical types of emphysema. Parameters of the histogram are valid indexes for characterisation of emphysema and give supplementary informations compared to function. The clinical types of emphysema were related to structural individualities
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Rincon, Mejia Carlos Andrés. "Caractérisation des émissions gazeuses et des odeurs en compostage : étude de la corrélation entre la concentration d'odeur et la composition chimique des émissions". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S019/document.

Texto completo da fonte
Resumo:
La valorisation des déchets par le compostage et la méthanisation est encouragée par les politiques de l'UE. Cependant, ces technologies de recyclage des déchets sont confrontées à un défi crucial en matière de libération et de contrôle des émissions de gaz odorants. En effet, la pollution par les odeurs est la principale cause d'opposition du public au traitement des déchets, ce qui a entraîné la fermeture et des poursuites en justice pour les unités de traitement des déchets. À l'heure actuelle, les inventaires des émissions d'odeurs et de produits chimiques pour appuyer les plans de gestion des odeurs et de la pollution atmosphérique font défaut, en raison de la complexité des évaluations des odeurs, impliquant généralement des analyses sensorielles et chimiques. L'objectif de cette thèse était donc de caractériser de manière détaillée les émissions de gaz et les odeurs lors du processus de compostage. À cette fin, les émissions d’odeurs et de polluants ont tout d’abord été étudiées au cours des différentes étapes opérationnelles du processus de compostage, à savoir le stockage, la phase active, le retournement et la maturation. Les résultats ont montré que la phase active et le retournement jouent un rôle essentiel dans les générations de nuisances olfactives causées principalement par les composés soufrés volatils (CSV). Des efforts supplémentaires ont ensuite été consacrés à la caractérisation des émissions de gaz au cours de la phase active de compostage de quinze déchets solides et du digestat, permettant ainsi de corroborer l’importance des CSV sur la production d’odeurs lors du compostage et de différencier l’impact des émissions de gaz sur les odeurs en fonction des matières premières des déchets. La dernière partie de ce travail de recherche a été consacrée à la corrélation des mesures sensorielles et chimiques, par le biais de méthodes de régression simple et multiple visant à faciliter et à renforcer le contrôle des odeurs dans les unités de traitement des déchets. Notamment, un modèle des moindres carrés partiels améliore la prévision de la concentration d'odeurs grâce à la composition chimique des gaz émis
Waste valorization through composting and methanization are actively promoted by the EU policies. However, these waste recycling technologies face a crucial challenge regarding the release and control of odorous and hazardous gas emissions. Indeed, odor pollution is the principal cause for public opposition to waste processing, leading to the closure and lawsuits for waste treatment units. Currently, there is a lack of odor and chemical emissions inventories to support odor and air pollution management plans due to the complexity of odor assessments, generally involving sensory and chemical analysis. Hence, the aim of this PhD thesis was to characterize extensively the gas emissions and odors released during the composting process. To this end, the patterns of odor and pollutant emissions were first traced throughout different operational stage of composting process, namely, storage, active phase, turning and curing. The results showed that the active phase and turning played a pivotal role in odor nuisance generations which were mainly caused by volatile sulfur compounds (VSC). Then, further efforts were focused on characterizing the gas emissions released along the composting active phase of fifteen solid wastes and digestate. The results corroborated the relevance of VSC on odors production during composting and enabled to differentiate the odor impact of gas emissions as a function of the wastes’ feedstock. The last part of this research work was devoted to correlate both, sensory and chemical measurements, through univariate and multivariate regression analysis to ease and strength odor monitoring in waste treatment units. Notably, a partial least squares model improved odor concentration prediction based on the chemical composition of emitted gases
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Handika, Nuraziz. "Multi-fissuration des structures en béton armé : analyse par corrélation d'images et modélisation". Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0001/document.

Texto completo da fonte
Resumo:
La modélisation de la fissuration du béton armé à l'aide de la méthode des éléments finis nécessite de prendre en compte, outre l'endommagement du béton, trois phénomènes : la spécificité de la liaison acier-béton, l’autocontrainte due au retrait, et l'effet d'échelle probabiliste dû à l'hétérogénéité du béton. Cette recherche s'appuie sur une campagne expérimentale pour obtenir le comportement de la liaison et les caractéristiques des fissures sur des éléments de structures. La technique de corrélation d'images numériques a été utilisée pour observer l'espacement et l'ouverture des fissures.La liaison acier-béton est considérée dans la modélisation à l'aide d'éléments d'interface élasto-plastiques basés sur les résultats expérimentaux des tests de pull-out. Les effets du retrait sont pris en compte via un cadre poro-mécanique. Enfin, l'effet d'échelle probabiliste est intégré dans la modélisation via une méthode de champs aléatoires, puis de maillon faible. La modélisation est appliquée à l'élément de structure en béton armé étudié en laboratoire ce qui permet de quantifier l'importance relative de la liaison acier-béton, des contraintes induites par le retrait empêché, et de l'hétérogénéité du matériau
The modelling of cracking of reinforced concrete using the finite element method requires taking into account, in addition to the concrete damage, three phenomena: the specificity of the steel-concrete bond, the self-stress due to shrinkage, and the probabilistic scale effect due to the heterogeneity of concrete. This research is based on an experimental campaign to obtain the behaviour of the bond and the characteristics of the cracks on structural elements. The technique of digital image correlation was used to observe the spacing and opening of the cracks.The steel-concrete bond is considered in modelling using elastoplastic interface elements based on the experimental results of the pull-out tests. The effects of shrinkage are taken into account via a poro-mechanical framework. Finally, the probabilistic scale effect is integrated into the modelling via a random field method and then a weakest link one. Modelling is applied to the reinforced concrete structural element studied in the laboratory, which makes it possible to quantify the relative importance on cracking of the steel-concrete bond, the stresses induced by shrinkage, and the tensile strength heterogeneity of the material
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Vergne, Maxime. "Analyse du relief, corrélation avec le drainage : application au bassin de la Garonne". Toulouse 3, 1994. http://www.theses.fr/1994TOU30101.

Texto completo da fonte
Resumo:
Cette etude concerne une caracterisation systematique de la structure 3d de la topographie a l'interieur d'un bassin fluvial. La detection de signatures liees aux processus de tectonique, d'erosion et de transport des materiaux est probable. L'application est faite sur le bassin meso-echelle de la garonne (55000 km#2), issu de la chaine pyreneenne et du massif central. Les echelles spatiales analysees varient de 1 km a 100 km. L'analyse hypsometrique du bassin permet de tester un modele morphologique unidimensionnel suggerant l'existence d'un equilibre dynamique global de la topographie. Des outils d'analyse statistique sont developpes mettant en avant les proprietes d'orientation, d'echelle, de variance et d'allongement (polarisation) du relief, parametres par l'altitude l'etude de la distribution de la pente et du plan d'ajustement du relief met en evidence une forte anisotropie du relief a grande echelle due a la derive d'origine tectonique. L'amplitude de celle-ci predomine pour des echelles superieures a 10 km dans les pyrenees et 15 a 35 km dans le reste du bassin, dependant en partie de la lithologie. A plus petite echelle, des fluctuations apparaissent. Ces structures sont isotropes, peu polarisees et d'amplitude importante dans les domaines amont ; dans les domaines aval, une anisotropie est associee a des domaines fortement polarises. Pour de plus petites echelles, inferieures ou egales a 2 km, une forte tendance vers une distribution a nouveau isotrope des structures est observee. D'autre part, la mise en evidence de lois de croissance de la variance du relief perpendiculairement a la derive, et de la rugosite pour une echelle donnee, en fonction de l'altitude moyenne, revele la presence de discontinuites et donc de seuils d'altitude. Ceci souligne le role important du potentiel de gravite a l'interieur d'un bassin fluvial dans l'organisation des petites et moyennes echelles. Ce type de transition est susceptible de mieux contraindre l'identification des domaines de production et de transfert de masse
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Martin, Guillaume. "Méthode de corrélation calcul/essai pour l'analyse du crissement". Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0012/document.

Texto completo da fonte
Resumo:
Le crissement de frein est une nuisance sonore récurrente dans l’automobile qui, bien qu’il n’existe pas de solution robuste lors de la conception, se traduit souvent par des pénalités économiques envers les équipementiers. La simulation numérique et les caractérisations expérimentales sont les deux voies classiques pour analyser les phénomènes crissants. La simulation permet une analyse fine des comportements vibratoires et l’évaluation de l’impact de modifications de conception, mais les modèles sont imparfaits et leur domaine de validité doit être établi. La mesure garantit que tous les paramètres sont pris en compte, mais elle est souvent spatialement pauvre et peu adaptée à la prédiction de modifications. Dans ce contexte, les objectifs de la thèse sont de faire un bilan des méthodes d’exploitation des essais, de fournir des outils permettant une interaction facilitée entre les équipes d’essai et de simulation et de mettre en œuvre les développements dans une application métier.Après un rappel sur les hypothèses et les méthodes pour l’identification modale, une analyse critique des résultats d’identification aboutit à la caractérisation des biais et à l’introduction de critères détaillés permettant d’évaluer la qualité du résultat. La corrélation calcul/essai permet de qualifier les modèles et des outils sont intégrés pour faciliter sa mise en œuvre. Plusieurs critères sont définis pour mettre en évidence les sources de mauvaise corrélation venant de la mesure d’une part et du modèle d’autre part. Les sources de mauvaise corrélation sont également identifiées avec l’algorithme d’expansion MDRE, dont les limitations sont comparées à celles des expansions statiques et dynamiques.Le recalage des modèles est ensuite traité par une procédure systématique imbriquant les étapes de recalage de la géométrie, des propriétés matériau et des contacts entre composants. Une paramétrisation du contact est proposée avec une réduction multi-modèle permettant des temps de calculs compatibles avec le temps industriel. Elle permet également des études de sensibilités avec l’introduction de la notion de modes de composant dans un assemblage.Une analyse détaillée d’une campagne de mesure sur un système de frein en conditions crissantes est enfin réalisée. Un parallèle entre les évolutions du cycle limite et le degré de couplage des modes complexes est proposé. Dans le domaine temps-fréquence, la variabilité, la répétabilité, la reproductibilité et la possibilité d’agréger des mesures séquentielles sont évaluées. Le résultat obtenu est finalement étendu sur le modèle éléments finis, ce qui permet des interprétations utiles
Brake squeal is a nuisance commonly encountered in the car industry which often results in financial penalties towards brake manufacturers, even if no robust solution exists for the conception. Numerical simulation and experimental characterizations are the classical two-track approaches to analyze squeal phenomena. Numerical simulation allows a fine analysis of vibration behaviors and the evaluation of conception modification impacts, but models are not perfect and their validity domain must be defined. Measurement guarantees that every parameter is taken into account, but it is often spatially poor and not really suited for modification prediction. In this context, the thesis objectives are to make an overview of test operating methods, to provide tools allowing an easier interaction between both test and simulation teams and to enforce the developments in a business application.After a review of the hypotheses and methods for modal identification, a critical analysis of the identification results leads to the characterization of biases and the introduction of detailed criteria to evaluate the quality of the result. Calculation/test correlation allows to qualify the models and tools are integrated to facilitate its implementation. Several criteria are defined to highlight the sources of bad correlation coming from the measure on the one hand and the model on the other hand. Sources of poor correlation are also identified with the MDRE expansion algorithm, whose limitations are compared with those of static and dynamic expansions.Model updating is then processed by a systematic procedure imbricating the steps of updating of geometry, material properties and contacts between components. A contact parametrization is proposed with a multi-model reduction allowing calculation times compatible with industrial time. It also allows sensitivity studies with the introduction of the notion of component modes in an assembly.Finally, a detailed analysis of a measurement campaign on a braking system under squeal conditions is carried out. A parallel between the changes of the limit cycle and the degree of coupling of the complex modes is proposed. In the time-frequency domain, variability, repeatability, reproducibility and the ability to aggregate sequential measurements are evaluated. The result is finally extended on the finite element model, which allows useful interpretations
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

COULAIS, PHILIPPE. "Traitement d'images de granulats : application à leur analyse granulométrique : corrélation avec l'analyse par tamisage". Poitiers, 1991. http://www.theses.fr/1991POIT2401.

Texto completo da fonte
Resumo:
Ce travail a pour objet l'analyse de granulats par traitement d'images. Il met en uvre un systeme developpe autour d'une carte matrox pip-1024. Nous avons compare les analyses granulometriques obtenues par les techniques de tamisage et de traitement d'images sur divers echantillons de granulats. Cela nous a permis d'etablir que le mesodiametre est le parametre visible a l'image caracterisant le mieux le passage d'un granulat dans la maille d'un tamis. Les granulometries obtenues par la methode de tamisage etant exprimees de facon ponderale, nous avons recherche une methode permettant d'estimer la masse des granulats par modelisation d'une courbe liant la masse du granulat a sa surface apparente. Trois techniques de transformation permettant d'etalonner les courbes granulometriques obtenues par traitement d'images avec celles obtenues par tamisage sont ainsi proposees. Differents resultats acquis a partir de divers echantillons de granulats sont presentes et discutes. L'analyse de granulats jointifs est abordee. Nous presentons une methode de separation des particules basee sur le principe de la ligne de partage des eaux et utilisant la morphologie mathematique. L'algorithme mis en uvre est compare a un autre algorithme implante sur le meme type de materiel. Les performances de ces algorithmes sont presentees et discutees a partir d'images tests
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Hanatani, Yoshito. "Trompette à six trous ou Analyse sémantique de corrélation dans les bases de données". Paris 11, 1987. http://www.theses.fr/1987PA112488.

Texto completo da fonte
Resumo:
Cette thèse propose, dans le cadre des bases de données relationnelles: (1) un modèle de propagation de mises à jour, appelé propagation à deux niveaux et (2) une théorie de la représentation des contraintes de dépendances. La propagation à deux niveaux a pour but les mises à jour auto-déductives avec une optimisation du coût de propagation en boucle tout en respectant strictement la sémantique de l'Univers. La théorie de la représentation est développée comme outil de la consultation de la sémantique pour la conception du schéma correspondant. Par une réduction radicale de la complexité d'expressions due à l'utilisation des objets simples appelés "bases" des contraintes, cette théorie permet de saisir la puissance déductive et les autres caractéristiques des contraintes, qui sont nécessaires pour la conception du schéma correspondant Partant d'une représentation uniforme des contraintes FD + MVD (dépendances fonctionnelles et multi-valuées), nous sommes amenés à comprendre que son extension aux contraintes FD + multi-JD (dépendances de jointure) est plus naturelle et plus significative. Le fondement de cette extension nous a conduit à une méthode de saisie directe de la contrainte utilisant la CDDO qui peut être considérée comme expression de dépendance d'une nouvelle catégorie
This thesis addresses the following two issues of relational database theory: (1) a two-level update propagation model and (2) a representation theory of dependency constraints. The two-level propagation model is proposed for the auto-deductive updates with the minimum loop cost and with the strict respect of the semantics of the Universe. The theory of representation of constraints is developed as a design tool. By virtue of its radical reduction of the expression complexity through the use of the simple abject called "bases" of constraints, this theory enables us to seize the deductive power and all other characteristics of the constraints, which are necessary for the conception of the database scheme. Starting from a uniform representation of the FD + MVD constraints, we see that its extension to the FD + multi-JD constraints is more natural and significant. The foundation of this extension leads us to the direct grasp of the constraint using a configuration CDDO, which can be seen as a dependency expression of new category
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Nkiet, Guy Martial. "Mesures d'association et analyse canonique". Toulouse 3, 1994. http://www.theses.fr/1994TOU30171.

Texto completo da fonte
Resumo:
Ce travail est essentiellement consacre a l'etude des mesures d'association que l'on peut construire a partir de l'analyse canonique (ac). Nous introduisons une notion de mesure d'association de sous-espaces hilbertiens definie par une serie d'axiomes et, a partir du resultat sur l'invariance, nous montrons qu'une telle mesure s'exprime en fonction des coefficients canoniques au moyen d'une fonction croissante symetrique. Soit (, a, p) un espace de probabilite et deux variables aleatoires (v. A. ) Definies sur cet espace. En considerant les sous-espaces de l#2 (p) engendres par les coordonnees des variables aleatoires (supposes alors multidimensionnels), on montre que la notion precedente permet d'introduire une classe de mesures d'association de variables aleatoires vectorielles definie a partir de l'ac lineaire. Cette classe comprend plusieurs mesures d'association existant dans la litterature. D'autre part, considerant les sous-espaces de l#2 (p) constitues des variables aleatoires reelles mesurables par rapport aux sous-tribus completees de a, engendrees par les variables aleatoires definies precedemment (qui ne sont plus supposes multidimensionnels), on definit une classe de mesures d'association de variables aleatoires fondee sur l'ac non lineaire et on en etudie les proprietes fondamentales. Enfin, on aborde le probleme de l'estimation de ces mesures au vu d'un echantillon i. I. D. , Aussi bien dans le cas de l'ac lineaire que dans celui de l'ac non lineaire. Puis, on etudie les tests de l'hypothese de nullite des coefficients canoniques, utilisant ces mesures. On montre que cette hypothese correspond a la non-correlation (ou absence de liaison) dans le cas de l'ac lineaire et a l'independance des v. A. Dans le cas de l'ac non lineaire. Dans ce premier cas, on obtient des resultats generaux permettant de retrouver, comme cas particuliers, plusieurs resultats trouves dans la litterature. Dans le cas de l'ac non lineaire, on introduit une classe de tests convergents d'independance qui comprend, en particulier, le classique test du khi-deux et des tests construits en utilisant les spline polynomiales d'ordre quelconque. Une etude experimentale par simulation est realisee afin d'estimer les puissances approchees de differents tests appartenant a cette classe et de les comparer a celles de tests usuels. C'est ainsi que l'on met en evidence (pour les exemples consideres), d'une part, une convergence plus rapide (vers 1) de la puissance des tests fondes sur les spline polynomiales par rapport a celle correspondant au test du khi-deux et, d'autre part, une superiorite, lorsque l'on n'est pas dans le cas gaussien, des tests de la classe introduite sur des tests classiques comme celui base sur le coefficient de correlation lineaire empirique ou encore ceux utilisant le rho de Spearman ou le tau de Kendall.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Grün, Marc. "Analyse de la dynamique de solitons photoréfractifs". Metz, 2007. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2007/Grun.Marc.SMZ0703.pdf.

Texto completo da fonte
Resumo:
Les faisceaux laser se propageant dans un cristal photoréfractif sont à l'origine de la formation de solitons spatiaux nommés solitons photoréfractifs, dans le cadre d'un phénomène nommé filamentation. Leur dynamique complexe et sensible aux conditions initiales suggère la présence d'un chaos spatial, pressenti par les simulations numériques de propagation de faisceau. De manière à caractériser ce supposé chaos, nous utilisons d'abord un programme de modélisation basé sur une interprétation système des solitons ; la méthode de conformations d'événements quantifie alors la divergence entre deux dynamiques issues de populations de solitons très proches. La plupart des résultats montrent une décorrélation rapide ; mais la dynamique ainsi modélisée ne peut pas être qualifiée de chaotique étant donnée sa dégradation tendancielle. Revenant aux simulations, nous construisons dans le cadre d'une approche statistique des estimateurs nommés forces de complexité quantifiant la divergence entre deux simulations ; ceux-ci s'avèrent être directement proportionnels au coefficient non-linéaire, un paramètre physique du cristal simulé. Une identique dégradation de la dynamique empêche celle-ci d'être identifiée à un chaos ; néanmoins, elle esquisse une pareille sensibilité aux conditions initiales. Cette méthode est ensuite adaptée à des données expérimentales, où la décorrélation dans le temps et l’espace a pu être quantifiée avec succès grâce à un concept nouveau de multicorrélation. Puis utilisant des concepts de dimension fractale et d'estimateurs issus de l'économétrie, nous avons caractérisé comment s'organise des points de vue nodal et redistribution de l'énergie la dynamique solitonique. Enfin, nous avons conclu qu'en dépit d'une absence de validation rigoureuse de certains critères de chaos, la dynamique présente une forte décorrélation dont les caractérisations quantitatives montrent une analogie empirique avec un système chaotique
Laser beams propagating in a photorefractive crystal create spatial solitons called photorefractive solitons, in a phenomenon labelled filamentation. Their dynamics, complex and sensitive to initial conditions, make us assume the presence of spatial chaos, as would suggest beam propagation simulations. In order to characterize this assumed chaos, we first used a Modelling Program based upon a system interpretation of solitons ; Event Conformation Method then quantized the divergence between two dynamics from near but different solitons populations. Most results showed fast decorrelations ; but the dynamics we thus characterized cannot be labelled chaotic, because of their tendency to decay. Coming back to simulations, we built statistical estimators called ‘divergence strengths’ quantizing the divergence between two simulations ; these estimators show to be proportional to nonlinear coefficient, a parameter of the modelled crystal. Because of an identical decay, these dynamics cannot be qualified as chaotic ; nevertheless, the high initial condition sensitiveness is on par with a chaotic system. This method was then adapted to experimental data, where time and space decorrelation has been successfully characterized thanks to an innovative concept of multicorrelation. Then, using concepts based on fractal dimensions and estimators from econometrics, we characterized the organizing of solitons dynamics, node-wise and energy redistribution-wise. Thus we concluded that despite the absence of validation of a few chaos criteria, dynamics there show strong decorrelations whose numerical characterizations display empirical resemblance to a standard chaotic system
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Rovira, Hervé-Pierre. "Analyse acoustique et glottographique de la voix prothétique du laryngectomisé : essai de corrélation anatomo-physiologique". Bordeaux 2, 1990. http://www.theses.fr/1990BOR23026.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Ariaudo, Myriam. "Analyse théorique de la génération optoélectronique d'impulsions ultrabrèves par photoconduction". Limoges, 1996. http://www.theses.fr/1996LIMO0049.

Texto completo da fonte
Resumo:
Les travaux de recherche presentes dans ce memoire traitent de l'analyse de la generation d'impulsions electromagnetiques ultracourtes par phenomene de photoconduction. L'utilisation grandissante de ces signaux dans des dispositifs optoelectroniques, tels qu'un interrupteur, un echantillonneur ou un autocorrelateur, necessite une connaissance et une maitrise des phenomenes physiques intervenant lors de l'interaction laser/matiere. L'outil numerique developpe est base sur la resolution des equations de maxwell et des equations des semiconducteurs par la methode des differences finies dans le domaine temporel. Les phenomenes optiques sont ainsi couples aux phenomenes electromagnetiques. Une premiere application de cet outil numerique consiste a connaitre l'influence des parametres physiques et geometriques sur la forme et l'amplitude du courant photogenere. Une deuxieme application permet de determiner les caracteristiques du materiau etudie par la modelisation d'un autocorrelateur en liaison avec l'experimentation
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Arhondakis, Stylianos. "Corrélation entre expression des gènes et isochores". Paris 7, 2008. http://www.theses.fr/2008PA077009.

Texto completo da fonte
Resumo:
Cette thèse rapporte les effets de la composition en base de l'ADN (GC, le pourcentage de guanine et cytosine) sur l'expression des gènes humains, tant sur le plan génique que génomique. Au-delà de l'importance évolutive des découvertes faites ici, nous montrons comment les fluctuations du contenu en GC peuvent biaiser les méthodes utilisées pour estimer le niveau d'expression des gènes. Dans la première partie de ce manuscrit, la persistance et la validité biologique des corrélations entre niveau d'expression et contenu en GC des gènes humains sont montrées, soutenant une des propriétés fondamentales des isochores humains. Les investigations présentées ici montrent l'impact du contenu en GC sur les technologies visant à détecter le transcriptome d'une espèce donnée. Elles nous ont par ailleurs permis de détecter plusieurs éléments affectant non seulement les corrélations, mais aussi la détection fiable du transcriptome humain. Dans la seconde partie, nous montrons que l'analyse in silico des données expérimentales amène à une meilleur compréhension de la façon dont l'environnement compositionnel affecte l'expression d'un gène, même dans le cas des plasmides. Notre étude souligne l'importance des propriétés compositionnelles pour l'expression des gènes, et conteste l'utilisation des plasmides comme moyen efficace d'éliminer les effets du contexte génomique sur l'expression d'un gène particulier. Pour résumer, les objectifs de ce travail étaient d'identifier les impacts biologique et technique du contenu en GC sur l'expressivité des gènes chez l'homme. Ces objectifs ont pu être menés à bien grâce à un travail de recherche centré sur deux disciplines scientifiques a priori sans rapport direct: l'évolution des génomes et les développements technologiques. Plusieurs résultats rapportés ici peuvent avoir des applications pratiques comme la mesure fiable des niveaux d'expression géniques ou l'amélioration des techniques de transcriptomique et/ou des vecteurs d'expression
This thesis investigates the effects of base composition (Le. , GC, the percentage of guanine and cytosine) on expression levels of human genes, using genome-wide and single-gene expression data. Beyond the evolutionary importance of this subject, several practical implications of GC when assessing expression levels are reported and explained. In the first part of the thesis the persistence and biological validity of the correlations between expression and GC level of human genes is shown, supporting this functional property of human isochores. Detailed investigations presented here, concerning the role of GC in technologies monitoring the transcriptome, allowed us to understand and detect several causes affecting not only the correlations, but also a faithful detection of the human transcriptome. In the second part, an in silico analysis of experimental data led to an improved understanding of how the compositional environment affects gene expression, even in the context of plasmids. This study highlights the relevance of compositional properties for gene expression, and challenges the use of plasmids as a successful way to eliminate effects 01 expression of the genomic context where a gene is located. Summarizing, in this thesis, a strategy is adopted that aims to recognize the biological and technical influence of GC on expression levels as estimated by genome-wide and single-gene techniques. This led to the achievement of a work that implicates two very different fields of study, evolutionary and technological. Several of the results reported here may have practical consequences for successfully quantifying and controlling expression levels, for improving transcriptome techniques and/or expression vectors, and for their application in the biomedical community
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Lechevalier, François. "L'analyse factorielle conjointe d'une famille de triplets indexés". Lille 1, 1990. http://www.theses.fr/1990LIL10157.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Boutin, Carl. "Modélisation et analyse sismique des barrages-poids en béton et corrélation expérimentale : cas du barrage de Beauharnois". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1996. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq21724.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Mith, Setha. "Analyse sensorielle - corrélation entre la perception sensorielle et l'analyse instrumentale descriptive du pouvoir collant des élastomères silicones". Besançon, 2007. http://www.theses.fr/2007BESA2056.

Texto completo da fonte
Resumo:
L'objectif de cette étude est d'établir une corrélation entre la perception sensorielle du collant d'élastomères silicones et les propriétés physiques et mécaniques de leur surface. Dans un premier temps, une palette de silicones plus ou moins collante a été constituée. La maîtrise de la fabrication de ces polymères permet d'obtenir, de façon reproductible, des échantillons possédant des propriétés stables et distinctes. Une caractérisation physico-chimique de ces matériaux a été effectuée avec des essais de spectroscopie infrarouge et de mouillabilité. Un protocole d'essai a été mis au point pour l'analyse sensorielle du toucher de nos échantillons. Celui-ci comprend une épreuve descriptive (test de comparaison) et une épreuve discriminative (test de notation). Ce protocole a été utilisé sur un panel de sujets naïfs et d'experts. Les résultats obtenus sont traités au moyen de calculs statistiques couramment utilisés en analyse sensorielle (test de Friedman ou calcul de la valeur moyenne). L'analyse des résultats permet un classement statistique des matériaux et met en lumière l'importance de propriétés mécaniques telle module d'élasticité dans la sensation du toucher. Parallèlement la qualification du collant et des propriétés mécaniques des élastomères a nécessité le développement d'un appareillage de métrologie expérimental dédié. Celui-ci est basé sur un essai d'indentation instrumenté et reproduit la gestuelle tactile. L'influence des paramètres et conditions d'essais ainsi que la nature de l'indenteur sur les résultats obtenus ont été étudiées. L'analyse des résultats a permis d'établir une corrélation entre les essais sensoriels et les propriétés mécaniques mesurées de la surface. Nous avons montré que la force d'arrachement seule n'est pas un paramètre suffisant pour qualifier le collant d'un matériau; certains paramètres expérimentaux, tels la vitesse l'arrachement et la forme de l' indenteur, influent fortement sur les résultats
The aim of this study is to establish a correlation between the sensorial perception of the tackiness of the silicone elastomers and the physical and mechanical properties of their surface. A set of silicones, more or less tacky, has been made in our laboratory in order to control the process of realization and to obtain samples with steady and " distinct properties. A physicochemical characterization bas been realized with infrared spectroscopy and droplet tests. Sensorial analysis bas been realized with an appropriated developed protocol. This sensorial analysis is composed of two different tests: a descriptive test (test of comparison) and a discriminative one (test of quantification). One group of naïve people and one of experts have done the two sensorial tests. The resulting data are analyzed with classical statistic tools used in sensorial analysis (Friedman test, average notation). This analysis allows samples classification and allows to enlighten the importance of mechanical properties such as the Young' s modulus in the touch sensation. The quantification of the tackiness and the mechanical properties need the development and the realization of a dedicated sensorial metrology device. This apparatus allows to make instrumented indentation and to reproduce tactile movement. The influence of experimental conditions and parameters, and the punch nature bas been studied. The resulting data allow to establish a correlation between sensorial analysis and the measured mechanical properties. We show that the adhesion force is not a sufficient parameter to qualify material tackiness; some experimental parameters (such as the unloading velocity or the indenter geometry) have great influence on the results
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Bormann, denis. "Contribution à l'étude de la corrélation structure-propriétés dans certains solides carbonés intercalés". Montpellier 2, 1995. http://www.theses.fr/1995MON20118.

Texto completo da fonte
Resumo:
Apres des rappels sur les caracteristiques des polymeres conjugues et plus particulierement sur le polyacetylene, nous presentons les differentes techniques de dopage et les differentes structures du polyacetylene suivant le type de dopant et le taux de dopage. Un des problemes du polyacetylene etant sa stabilite vis a vis de l'oxygene, nous avons etudie par rpe l'influence des conditions de synthese sur la reactivite du polyacetylene a l'oxygene. Un nouveau dopant p est utilise et nous presentons les premiers resultats concernant l'electrochimie, les proprietes electroniques et de transport de ce nouveau materiau. Le transport a basse temperature du polyacetylene dope electrochimiquement au potassium est etudie pour des taux de dopage eleves et nous avons mis en evidence une singularite de la conductivite electrique pour t inferieure a 10k. L'apparition de cette singularite est liee a l'ordre intrinseque du polymere qui est module par le dopage. Nos resultats sont confrontes a des modeles theoriques proposes pour d'autres polymeres conducteurs. Enfin l'etude des systemes carbones partiellement hydrogenes est amorcee en considerant le polyacetylene dope au lithium comme systeme reference
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Picard, Martine. "Évolution de la microstructure d'un PET lors du bi-étirage soufflage ; corrélation au durcissement structural". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00343353.

Texto completo da fonte
Resumo:
L'évolution de la microstructure du poly(éthylène terephthalate) (polymère thermoplastique amorphe et cristallisable) a été étudiée lors de diverses sollicitations mécaniques (mono-étirage, bi-étirage et soufflage en surface libre). Le matériau a été sollicité entre les températures de transition vitreuse et de cristallisation froide (i.e. 90 °C et 115 °C). Différents traitements thermiques (recuit ou trempe) ont été appliqués après déformation. L'évolution de la texture et de la morphologie cristalline a été étudiée par différentes techniques de diffraction des rayons X (WAXS et SAXS). L'évolution de la phase amorphe a, quant à elle, été étudiée par analyse mécanique dynamique et thermique (DMTA).Quelque soit la nature des échantillons (films, éprouvettes épaisses ou préformes), des sollicitations et des conditions expérimentales (vitesses et températures), il appairait clair que la cristallisation sous déformation du PET ne conduit pas à une microstructure cristalline parfaite si elle est ponctuée par une trempe, excepté pour des taux d'étirage élevés. La microstructure observée en fin d'étirage est donc aussi marquée par l'étape de refroidissement. Le durcissement structural est lié aux étapes initiales de la cristallisation. La phase amorphe est pour sa part fortement contrainte par la sollicitation. Pour preuve, sa plus grande aptitude à la cristallisation et les évolutions de sa température de transition alpha qui augmente. Les essais de soufflage libre ont notamment démontré combien les bouteilles sont hétérogènes tant en terme de morphologie microstructurale qu'en terme d'orientation locale des chaînes polymères. Cette hétérogénéité se manifeste aussi bien le long des bouteilles qu'au sein de leur épaisseur, rendant difficile la corrélation entre propriétés microstructurale et mécanique induites. L'étude comparative des corps creux soufflés sur prototype et souffleuse industrielle a permis d'évaluer l'influence du moule. Dans des conditions équivalentes, le moule contraint de toute évidence les déformations du matériau et peut donc avoir une incidence non négligeable sur les microstructures et propriétés induites finales.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Fayad, Fouad. "Analyse cinématique tridimensionnelle de l'épaule : corrélation entre la perturbation du rhythme scapulohuméral et la mesure de l'incapacité fonctionnelle". Saint-Etienne, 2008. http://www.theses.fr/2008STET002T.

Texto completo da fonte
Resumo:
Dans la première partie, nous décrivons en détail la technique de mesure 3D de la mobilité de l’épaule à l’aide d’un appareil électromagnétique après une revue des autres techniques de mesure de la mobilité de ce complexe articulaire. Nous exposons également le protocole standardisé international de la mesure de la mobilité du membre supérieur que nous appliquons dans ce travail, permettant ainsi de comparer nos résultats à ceux d’autres équipes internationales. Nous présentons, ensuite, les résultats de la cinématique de la scapula chez des volontaires sains, puis chez des patients ayant une épaule raide. Enfin, nous décrivons la participation du tronc à la chaîne cinématique du membre supérieur en situation normale et chez les patients ayant une épaule raide. Dans la deuxième partie, nous présentons les instruments d’évaluation de l’incapacité fonctionnelle de l’épaule à partir d’une revue exhaustive de la littérature puis, nous argumentons le choix de l’instrument (auto-questionnaire « DASH » d’incapacité fonctionnelle de l’épaule) utilisé dans ce travail. Ensuite, nous exposons les résultats de 3 études qui ont permis la validation des 2 versions françaises (longue et courte) de cet auto-questionnaire dans les pathologies dégénératives et traumatiques de l’épaule. La dernière partie étudie la corrélation de la cinématique de la scapula et de l’articulation glénohumérale (mesurée par un appareil électromagnétique) avec la fonction mesurée par l’auto-questionnaire validé. Nous présentons les résultats de cette étude qui met en évidence le rôle de la scapula dans la fonction du membre supérieur.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Rodrigues, Juan-Miguel. "Analyse de la répartition du potentiel et des charges dans une flamme polarisée : Corrélation avec la distance d'extinction". Rouen, 2005. http://www.theses.fr/2005ROUES055.

Texto completo da fonte
Resumo:
Lors de la combustion d'hydrocarbures des espèces électriquement chargées sont créées, conférant au milieu réactionnel des propriétés électriques. Dans un moteur à allumage commandé, la polarisation de l'électrode centrale de la bougie d'allumage permet d'induire un courant électrique appelé courant d'ionisation. Ce dernier peut être mesuré, permettant ainsi d'accéder à des informations sur la qualité de la combustion dans la chambre. Notre étude consiste à élucider les mécanismes de conduction de manière à déterminer les grandeurs contrôlant le courant. Après avoir identifié les ions positifs et négatifs contenus dans le front de flamme et dans les gaz brûlés, le courant et le potentiel électrique ont été mesurés dans une flamme de prémélange méthane/air stationnaire électriquement isolée d'abord stabilisée sur un brûleur puis en propagation dans un tube. Des paramètres d'électrodes tels que leur surface ou leur tension de polarisation ont été étudiés. Les résultats ont montré que le potentiel électrique est constant dans le front de flamme, imposé par l'anode, les porteurs de charges dans la jonction flamme/anode étant des électrons et que l'intensité du courant dépend essentiellement de la jonction flamme/cathode. Un modèle analytique de la jonction limitant le courant a été présenté, une corrélation directe entre le courant et la distance d'extinction a été mise en évidence
During hydrocarbon combustion processes, several charged species are produced which confer electrical properties to the reaction area. In a spark ignition engine, the polarization of the central electrode induces a current called ionic current. By measuring this current it is possible to extract information on the quality of combustion in the chamber. Our study presents an elucidation of the mecchanisms of conduction in order to determine the parameters controlling the current. Having identified the positive and negative ions contained in the flame front and in the burnt gases, the current and the electric potential were measured firstly in a premixed methane/air electrically insulated flame stabilized on a burner and then in a propagating flame in a tube. Electrode parameters such as their surface or biasing voltage were studied. The results show that electrical potential is constant in the flame front and that the intensity of the current depends on the flame/cathode junction. An analytical model of the junction limiting the current is presented. A direct correlation between the current and the quenching distance was proven
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Neveu, Bérangère. "Analyse de réponses lymphocytaires T CD8+ dirigées contre le virus de l'hépatite C : corrélation avec le statut clinique". Nantes, 2007. http://www.theses.fr/2007NANT2093.

Texto completo da fonte
Resumo:
La majorité des individus infectés par le virus de l'hépatite C (VHC) restent chroniquement infectés et sont prédisposés à une cirrhose ou à un hépatocarcinome. Pour mieux comprendre les mécanismes qui influencent la progression vers l'infection chronique, nous avons fait une analyse fonctionnelle et moléculaire de lymphocytes T (LT) VHC-spécifiques chez des individus séropositifs, ayant ou non résolu leur infection, ainsi que chez des individus séronégatifs. Nous avons isolé par tri immunomagnétique, des LT CD8+ dirigés contre trois épitopes VHC immunodominants restreints par HLA-A*0201. Des LT spécifiques de ces complexes antigéniques ont pu être isolés pour tous les individus. Les patients chroniquement infectés ont montré des réponses T VHC-spécifiques plus faibles que les patients qui avaient résolu leur infection, en termes de production d'IFN-gamma, de cytotoxicité et de tests de dégranulation. Ces différences fonctionnelles seraient liées à une moindre fréquence de LT spécifiques exprimant un TCR de forte affinité chez les patients chroniquement infectés, plutôt qu’à des défauts fonctionnels intrinsèques ou à une down-modulation par des récepteurs inhibiteurs. Les individus sains ont montré majoritairement des réponses de faible avidité, analogues à celles observées chez des patients en infection chronique, bien que des populations de forte avidité aient été observées chez certains individus. Nos résultats indiquent qu'un enrichissement en LT de forte avidité est associé à une clairance virale efficace et suggèrent un lien entre la qualité du répertoire lymphocytaire T VHC-spécifique initial et la susceptibilité à l'infection chronique
Up to 170 million people are infected by hepatitis C virus (HCV), among whom 4/5 remain chronically infected and are predisposed to cirrhosis and/or hepatocarcinoma. To better understand the mechanisms that influence progression to HCV chronic infection versus viral control, we performed an in-depth functional and molecular analysis of highly purified HCV-specific T cells in seropositive donors, having resolved their infection or not, and in HCV-seronegative healthy donors. We managed to isolate from blood samples HCV-specific CD8+ T cells directed against three immunodominant HCV epitopes restricted by HLA-A*0201, using magnetic beads coated with HLA class I/peptide complexes. T cell populations specific to those antigens were isolated from almost all donors, irrespective of their serological status. Chronically infected patients yielded weaker HCV-specific CD8+ responses than those having cleared their infection, as assessed by IFN- production, cytotoxicity and degranulation assays. These functional differences were primarily accounted for by decreased frequency of specific T cells expressing high-affinity TCR in chronically infected patients rather than by intrinsic T cell functional defects or by active downmodulation by inhibitory receptors. Healthy donors yielded mainly low avidity HCV-specific T cell responses, very similar to chronic patients, although high avidity subsets were detected in some individuals. Our results indicate that enrichment for high avidity T cells is associated with successful viral clearance and suggest a link between the quality of the initial HCV-specific T cell repertoire and susceptibility to chronic infection
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Abdessemed, Lila. "Intégration de la contigui͏̈té en analyse factorielle discriminante et généralisation de l'analyse factorielle multiple aux tableaux de fréquence". Rennes 1, 1994. http://www.theses.fr/1994REN10029.

Texto completo da fonte
Resumo:
Le principal but de cette thèse consiste à introduire la notion de contigui͏̈té en analyse factorielle discriminante. Dans une première forme, nous l'intégrons à posteriori puisqu'elle n'intervient que dans la phase d'affectation; la technique proposée est plus spécialement conçue pour la discrimination multi -classes et a été illustrée par une application en imagerie satellitaire. Nous proposons une première méthode basée exclusivement sur l'information locale, tandis que dans une seconde méthode, nous éliminons les différences non significatives qui peuvent exister entre les sous-classes d'une classe. Par ailleurs, Nous proposons une méthode généralisant l'analyse factorielle multiple aux tableaux de fréquence, permettant ainsi l'étude simultanée de trois types de tableaux différents
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Valdés-Alonzo, Gabriel. "Identification of material properties and phase distribution of heterogeneous materials through data-driven computational methods : Towards an enhaced constitutive space". Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0023.

Texto completo da fonte
Resumo:
L’identification des relations constitutives des matériaux est une tâche essentielle pour comprendre leur comportement. Les méthodes classiques sont efficaces pour comprendre ces relations, mais l'introduction de modèles peut conduire à des formulations biaisées. En plus, il n’est pas possible de formaliser toutes les relations constitutives par des expressions mathématiques ou il peut y avoir des paramètres difficilement identifiables par des techniques courantes. L'identification pilotée par les données (DDI), développée par Leygue et al. (2018), est un algorithme dans lequel la relation constitutive des matériaux élastiques est définie par une base de données de points matériels qui sont calculés en fonction des champs de déformation mesurés, des forces appliquées et de la géométrie connue des échantillons du matériau. L'algorithme estime simultanément les champs de contraintes associés aux déformations mesurées dans les échantillons. Dans cette thèse, nous étendons l’algorithme DDI pour couvrir des comportements de matériaux plus complexes. Dans un premier temps, la méthode est appliquée à des échantillons hétérogènes, où un post-traitement est effectué avec l'analyse des correspondances pour séparer les différentes phases de l’échantillon et identifier leur comportement individuel. Ensuite, la DDI a également été appliquée à des matériaux viscoélastiques linéaires, où une approche étendue de l'espace de phase est utilisée pour tenir compte de la dépendance temporelle du comportement. Enfin, différentes variantes de l'algorithme sont envisagées en combinant la DDI avec différentes techniques statistiques telles que l'analyse en composantes principales, dans une recherche de rapidité et de précision des prédictions par réduction de la dimensionnalité. Parallèlement, la méthode est testée sur des échantillons composites hétérogènes et comparée aux résultats obtenus par les méthodes classiques
Identifying the constitutive relations of materials is an essential task to understand their behavior. Classical methods like testing can be effective in understanding these relationships, but introducing models can lead to biased formulations and errors. Furthermore, not all constitutive relations can be determined directly by mathematical expressions or there might be parameters that we cannot obtain easily through common techniques. Data-Driven Identification (DDI), developed by Leygue et al. (2018), is an algorithm in which the constitutive relation of elastic materials is defined by a database of material points that need to be computed based on measured strain fields, applied forces and known geometry of tested samples of the material. The algorithm simultaneously estimates the corresponding values of the stress fields that emerge due to the deformations measured in the samples. In this thesis, we focus on departing from elasticity to cover more complex material behaviors with the DDI algorithm. In a first step, the method is applied to heterogeneous samples, where a post-process is performed with Correspondence Analysis to separate the different phases in a sample and identify their separated behavior. Then, DDI was also applied to linear viscoelastic materials, where an extended phase-space approach is used to account for the time dependence of the behavior. Finally, different variations of the algorithm are considered by combining DDI with different statistical techniques such as the Principal Component Analysis, in a search for speed and accuracy of the predictions through dimensionality reduction. Parallel to this, the method is tested in heterogeneous composite samples and compared to expected results obtained by classical methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Largeau, Jean-François. "Analyse expérimentale de la dynamique et du rayonnement acoustique d’un écoulement de marche montante". Poitiers, 2004. http://www.theses.fr/2004POIT2306.

Texto completo da fonte
Resumo:
Cette étude expérimentale concerne l’écoulement généré sur une marche montante. Plus particulièrement, l’influence de certains paramètres (hauteur de marche et régime d’écoulement) sur l’organisation spatio-temporel de l’écoulement est analysée. Le but est de mettre en évidence les liens existants entre différentes grandeurs aérodynamiques (fluctuations de pressions pariétales et de vitesses) ainsi que leur impacts sur le champ acoustique rayonné. Pour cela, on développe un banc d’essais complet ainsi que des sondes à microphones déportés pour la mesure des fluctuations de pressions pariétales. On s’intéresse alors à vérifier l’hypothèse de quasi-bidimensionnalité de l’écoulement (visualisations par enduit de surface, anémométrie à fils chaud, sondes de fluctuations de pressions pariétales). De plus, l’organisation spatiale de l’écoulement est investie avec un système de vélocimétrie par images de particules (P. I. V. ). Les champs de vitesses et de fluctuations de pressions pariétales sont étudiés sur l’ensemble du montage et les cartographies sont obtenues pour les différentes configurations (hauteur et régime d’écoulement). Des mesures simultanées de la vitesse, des fluctuations de pressions pariétales et du champ sonore sont ensuite entreprises. On accède ainsi à la vitesse de convection des structures, aux échelles intégrales et aux corrélations entre ces différentes grandeurs sur l’ensemble du montage. Enfin, le modèle de Curle est utilisé avec les données de fluctuations de pressions pariétales et le champ acoustique estimé est confronté à la mesure
The subject of this experimental study is the flow generated over a forward-facing step. The impact of several parameters (height of step and rate of flow) on the spatio-temporal flow organisation is investigated. The aim is also to clarify relationships between wall fluctuation pressure and the velocity field. Also, a model is designed and microphones probes are developed to investigated wall fluctuations pressures. Moreover, spatial flow organisation is examined with a Particle Image Velocimetry system for different configurations (height and flow rate). First the 2D hypothesis is improved (with wall flow visualisations experiments, hot-wire anemometry, wall pressure fluctuations probes). Moreover, spatial flow organisation is examined with a Particle Image Velocimetry system for different configurations (height and flow rate). The velocity field is mesurated simultaneously with the wall pressure fluctuations and acoustic pressure. Accordingly, the structure convection velocity, integrals flow scales and correlations between these different data are obtained overall the model. Finally, a Curle model computation is realised with experimental wall pressure fluctuations data and the estimated sound field is compared with acoustic measurements
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Kaouache, Belkhiri. "Analyse multiéchelles de la transformation martensitique induite par contrainte dans les alliages à mémoire de forme: corrélation contraintes-microstructure". Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002209.

Texto completo da fonte
Resumo:
Les relations microstructure-propriétés sont au coeur de l'utilisation des matériaux modernes. Pour comprendre ces relations, des efforts considérables ont été réalisés au cours de ces dernières décennies pour identifier et décrire les principaux mécanismes à l'origine des différentes classes de comportement des matériaux. Les approches multiéchelles établissent la formation d'une très forte hétérogénéité du champ de contrainte à l'intérieur du matériau et cela même dans le cas de sollicitations imposées simples (traction uniaxiale) appliqués sur des matériaux macrohomogènes (polycristaux). Ce travail de thèse a contribué à mettre au point une méthodologie expérimentale originale permettant d'accéder à des informations de contraintes locales à l'échelle du grain dans le polycristal. L'approche proposée, combine différentes techniques d'analyses: observations microstructurales, caractérisation mécanique in situ, analyse de contrainte par diffraction des rayons X (DRX). Le travail a été réalisé sur un Alliage à Mémoire de Forme (AMF) superélastique de type Cu-Al-Be. De nombreux résultats tout à fait originaux ont été obtenus. Certains ont permis d proposer des classifications des modes de transformation et ont conduit à affiner les techniques d'analyse de contrainte dans les matériaux biphasés, mais la plupart ont permis de mieux comprendre les mécanismes de sélection des variantes de martensite dans les alliages à mémoire de forme ou ont mis en évidence l'importance de paramètre comme la taille de grain, l'anisotropie élastique ou encore l'effet d'un cyclage mécanique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Ghisalberti, Claude. "Analyse de corrélation de particules légères sélectionnées par calorimétrie neutronique dans la réaction 208Pb + 93Nb à 29 MeV/u". Nantes, 1994. http://www.theses.fr/1994NANT2119.

Texto completo da fonte
Resumo:
Les fonctions de correlations de particules chargees legeres sont un outil pour mesurer les dimensions spatio-temporelles des sources d'emission au cours de reactions nucleaires. Cette technique a ete employee pour analyser les donnees obtenues dans le systeme plomb sur niobium a l'energie de 29 mev/u. L'experience a eu lieu au grand accelerateur d'ions lourds de caen. Un ensemble de 48 scintillateurs assurait la detection des particules chargees dont l'identification fut rendue automatique par la mise au point d'un logiciel informatique. Le detecteur de neutrons orion a ete utilise pour relier l'emission des particules legeres a la violence de reaction. Pour l'analyse, deux modeles theoriques ont ete employes. L'un, classique, tient compte des interactions entre le noyau emetteur et les deux particules mais n'est utilisable que pour des temps d'emission grands. L'emploi d'un modele quantique a permis d'etudier des temps d'emission plus courts. Cette experience montre une evolution de la resonance nucleaire de la fonction de correlation proton-proton avec la fenetre en parametre d'impact selectionnee. Les correlations entre deutons montrent egalement une telle influence qui se manifeste par des temps d'emission differents. En plus de ce critere, la vitesse parallele au faisceau des deux particules detectees en coincidence et l'angle entre le moment relatif et la vitesse totale de la paire de particules dans le referentiel de la source rapide permettent de trier les evenements pour mesurer l'importance relative des diverses sources emettrices et l'influence du temps d'emission. C'est ainsi la premiere experience ou il est possible d'etudier separement des particules de preequilibre et des particules emises par une source equilibree thermiquement. En outre, les correlations entre proton et deuton ont mis en evidence une emission plus tardive des protons par rapport aux deutons
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Tardif, Fabrice. "Analyse des mécanismes d'endommagement dans les composites 3D C/C : mesures optiques des champs de déformation par corrélation d'image". Bordeaux 1, 1998. http://www.theses.fr/1998BOR10671.

Texto completo da fonte
Resumo:
La connaissance des mécanismes de dégradation, a l'échelle de la microstructure du matériau, qui gouvernent le comportement mécanique macroscopique permet d'orienter et de simplifier les modèles de comportement. Il faut pour cela établir une corrélation entre la courbe de comportement, la microstructure, les modes de fissuration et le champ de déformation local. Des essais mécaniques de traction ont été effectues avec un suivi optique in situ sur un composite c/c a renfort multidirectionnel 3d. Le dispositif optique analyse la surface de l'éprouvette. Puis, par comparaison avec la cartographie réalisée a l'état initial, un algorithme utilisant le principe de corrélation d'image dresse les champs de déformation locaux à chaque palier de chargement. Cette technique permet de révéler l'heterogeneite des champs de déformation, de déterminer les critères locaux de rupture de la matrice. Une application a l'étude de l'influence d'une ondulation de pli sur le comportement mécanique d'un composite stratifie a permis la mise au point d'une procédure d'identification de modèle de comportement d'interface. La ruine de l'interface est supposée être dans ce cas le principal mécanisme d'endommagement du matériau.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Picard, Martine. "Evolution de la microstructure d'un PET lors du bi-étirage soufflage. Corrélation au durcissement structural". Paris, ENMP, 2008. http://tel.archives-ouvertes.fr/tel-00343353.

Texto completo da fonte
Resumo:
L'évolution de la microstructure du poly(éthylène terephthalate) (polymère thermoplastique amorphe et cristallisable) a été étudiée lors de diverses sollicitations mécaniques (mono-étirage, bi-étirage et soufflage en surface libre). Le matériau a été sollicité entre les températures de transition vitreuse et de cristallisation froide (i. E. 90 °C et 115 °C). Différents traitements thermiques (recuit ou trempe) ont été appliqués après déformation. L'évolution de la texture et de la morphologie cristalline a été étudiée par différentes techniques de diffraction des rayons X (WAXS et SAXS). L'évolution de la phase amorphe a, quant à elle, été étudiée par analyse mécanique dynamique et thermique (DMTA). Quelque soit la nature des échantillons (films, éprouvettes épaisses ou préformes), des sollicitations et des conditions expérimentales (vitesses et températures), il appairait clair que la cristallisation sous déformation du PET ne conduit pas à une microstructure cristalline parfaite si elle est ponctuée par une trempe, excepté pour des taux d'étirage élevés. La microstructure observée en fin d'étirage est donc aussi marquée par l'étape de refroidissement. Le durcissement structural est lié aux étapes initiales de la cristallisation. La phase amorphe est pour sa part fortement contrainte par la sollicitation. Pour preuve, sa plus grande aptitude à la cristallisation et les évolutions de sa température de transition alpha qui augmente. Les essais de soufflage libre ont notamment démontré combien les bouteilles sont hétérogènes tant en terme de morphologie microstructurale qu'en terme d'orientation locale des chaînes polymères. Cette hétérogénéité se manifeste aussi bien le long des bouteilles qu'au sein de leur épaisseur, rendant difficile la corrélation entre propriétés microstructurale et mécanique induites. L'étude comparative des corps creux soufflés sur prototype et souffleuse industrielle a permis d'évaluer l'influence du moule. Dans des conditions équivalentes, le moule contraint de toute évidence les déformations du matériau et peut donc avoir une incidence non négligeable sur les microstructures et propriétés induites finales
The evolution of the poly(ethylene terephthalate) microstructure was studied during uni-axial stretching as well as during stretch-blow moulding. Drawing was made between glass transition and cold crystallisation temperatures (i. E. Between 90 °C and 115 °C). PET was quenched orannealed at the end of drawing. The evolution of the strain-induced microstructure and its texture was investigated by X-Ray diffraction (WAXS and SAXS). The strain-induced amorphous phase was also studied by dynamic mechanical and thermal analysis (DMTA). Whatever the kind of samples (thin or thick samples as well as preforms), the kind of drawing or the experimental conditions used (i. E. Temperatures and strain-rates) are, strain-induced crystallisation do not lead to perfect crystalline microstructure in case of applying rapid quenching at the end of stretching. This means that the microstructure observed at the end of drawing is highly influenced by the post-cooling stage. Strain hardening is related to nucleation step rather to crystallisation of perfect crystal. The amorphous phase is, for its part, very constrained during drawing, showing an increasing alpha transition and better ability to crystallize during DMTA measurements. Free stretch-blow moulding tests have shown how the blown hollow parts are heterogeneous in term of microstructure, morphology and polymer chain orientation along a bottle and within the panel thickness. This observation partly explains why it is difficult to relate the end-used mechanical properties to the strain-induced microstructure. Comparative studies of free and industrial stretch-blow moulding demonstrate that the mould could impact the kinematics of blowing. As a consequence, the mould could severely impact the final induced microstructures and properties
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Bourredjem, Abderrahmane. "Contribution à l'inférence sur le coefficient de corrélation intraclasse de concordance dans les études de fiabilité inter-juges". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCK078.

Texto completo da fonte
Resumo:
La fiabilité d'une mesure fait référence à sa reproductibilité lorsqu'elle est répétée de manière aléatoire sur le même sujet et constitue une propriété métrologique clé pour toutes les mesures. Le coefficient de corrélation intra-classe de concordance à deux voies (ICCa) est un paramètre statistique utilisé pour quantifier la fiabilité inter-observateurs des mesures continues (ou qualitatives ordinales). Il constitue un indice de fiabilité central recommandé par les agences réglementaires. Néanmoins, ses estimateurs sont biaisés et de nombreuses solutions ont été essayées pour améliorer son intervalle de confiance (IC). Les travaux les plus récents indiquent qu'aucune méthode ne fonctionne bien en cas de non-normalité des données, difficilement détectable à partir des observations, et lorsque le nombre de sujets ou d'évaluateurs est limité, ce qui est plutôt le cas en pratique. De plus, aucune transformation de stabilisation de la variance (VST) ni aucun test de comparaison statistique ne sont disponibles pour l'ICCa. L'objectif de cette thèse est donc de contribuer au développement de méthodes palliant le manque d'outils inférentiels pour l'ICCa. Dans un premier temps, nous proposons de nouvelles méthodes asymptotiques pour l'intervalle de confiance de l'ICCa, le calcul de la taille de l'échantillon des sujets et des évaluateurs, et un test de rapport de vraisemblance pour comparer deux ICCa. Ensuite, dans un deuxième travail, nous développons trois VST, améliorant les propriétés de l'intervalle de confiance pour les études de fiabilité inter-évaluateurs de taille modérée, et la synthèse de plusieurs ICCa dans le contexte de méta-analyses. Enfin, dans un troisième travail, des méthodes de rééchantillonnage spécifiques sont proposées, en combinaison avec la meilleure VST, pour améliorer les performances de l'intervalle de confiance de l'ICCa sans l'hypothèse de normalité et avec de petits échantillons. Il s'agit d'un travail de méthodologie biostatistique, avec des évaluations par simulation des méthodes introduites, et des applications à plusieurs jeux de données réelles issues d'études de fiabilité inter-évaluateurs et de méta-analyses
Measurement's reliability refers to its reproducibility when it is randomly repeated on the same subject and is a key metrological property for each measurement validation. The two-way intra-class correlation coefficient of agreement (ICCa) is a statistical parameter used to quantify the inter-rater reliability of continuous (or ordinal qualitative) measurements. It constitute a central reliability index recommended by the regulatory agencies. Nevertheless, its estimators are biased and a lot of solutions have been tried facing to its confidence interval (CI) problem. The latest works indicate that no method works well with a hard-to-detect violation of normality and when the number of subjects OR raters is limited, which is rather the case in practice. Furthermore, no variance stabilizing transformation (VST) nor statistical comparative test are available for the ICCa. The aim of this thesis is therefore to contribute to the development of methods that remedy the lack of the inferential tools for the ICCa. At a first step, we propose new asymptotic methods for the ICCa confidence interval, the calculation of the needed sample size of subjects and raters, and a likelihood ratio test to compare two ICCa. Then, in a second work, we develop three VSTs, improving the properties of the confidence interval for inter-rater reliability studies of moderate sample size, and the synthesis of several ICCa in the context of meta-analyses. Finally, in a third work, dedicated resampling methods are proposed, in combination with the best VST, to improve the ICCa confidence interval performances in case of non-normality with small sample size. It is above all a work of biostatistical methodology, with simulation evaluations of the introduced methods, and applications to several real data sets from inter-rater reliability studies and meta-analyses
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Maillé, Laurence. "Elaboration par pulvérisation cathodique réactive RF de multicouches nanométriques. Corrélation entre la structure, la microstructure et les propriétés mécaniques". Evry-Val d'Essonne, 2003. http://www.theses.fr/2003EVRY0011.

Texto completo da fonte
Resumo:
Les résultats présentés dans ce mémoire concernent l'élaboration par pulvérisation cathodique réactive RF de couches minces d'épaisseur nanométrique, ainsi que l'étude de leurs propriétés structurales, microstructurales et mécaniques. L'optimisation des paramètres de dépôt (pression d'argon, puissance de pulvérisation, et pression partielle de gaz réactif dans l'enceinte) des monocouches W, W-O, W-N a permis l'élaboration de multicouches nanométriques des systèmes W-O/W et W-N/W. Les propriétés mécaniques de ces multicouches ont été corrélées à leur microstructure. Divers types de comportements mécaniques sont observés : - Un modèle de Hall-Petch est observé pour les multicouches W-N/W élaborées avec une pression partielle d'azote de 50 %, - La dureté des multicouches W-N/W et W-O/W élaborées avec une pression partielle d'azote ou d'oxygène de 10 % n'est pas fonction de l'épaisseur de la période et est respectivement soit supérieure soit inférieure à la loi de mélange
The aim of this work consists to performed by reactive sputtering RF nanomaterials : W, W-O, W-N single layers, W-O/W and W-N/W multilayers in order to study the microstructure, the structure and the mechanical properties of these thin films. A study of the growth of the single layers has been necessary to performed the multilayers. Various multilayer mechanical behaviors are obtained: - A Hall-Petch rule is observed for W-N/W multilayer performed with 50 % of nitrogen partial pressure. - For multilayer W-N/W and W-O/W performed with 10 % of nitrogen or oxygen partial pressure, there is no influence of the period thickness on the hardness values and these measurements are higher or lower than the law of mixture
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Canteaut, Anne. "Analyse et conception de chiffrements à clef secrète". Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00095980.

Texto completo da fonte
Resumo:
Les algorithmes de chiffrement symétriques (ou à clef secrète) sont
très largement répandus car ils sont les seuls à atteindre les débits
de chiffrement requis par la plupart des applications et à permettre
une mise en oeuvre sous forme d'un circuit de taille
raisonnable. Dans ce contexte, les travaux présentés dans ce mémoire
ont pour objet la conception de nouvelles attaques sur les algorithmes
symétriques et leur formalisation afin de mettre en évidence les
propriétés structurelles qui les rendent opérationnelles. Cette
approche conduit à de nouveaux critères de conception et à la
construction d'objets qui permettent de leur résister de manière
certaine. Cette étude s'articule notamment autour de l'idée que, pour
résister de manière sûre aux cryptanalyses connues et pour atteindre
de bonnes performances, un chiffrement symétrique doit utiliser des
objets aux propriétés exceptionnelles, dont la structure algébrique
forte ouvre paradoxalement une brèche exploitable dans une nouvelle
attaque. Ce principe est ici décliné pour les deux familles
d'algorithmes symétriques, les chiffrements à flot et les chiffrements
par blocs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Nzobounsana, Victor. "Analyse canonique généralisée : méthodes, applications, extensions et choix des variables dans les groupes". Rennes 2, 2001. http://www.theses.fr/2001REN20007.

Texto completo da fonte
Resumo:
Le travail de cette thèse se rapporte aux extensions de l'Analyse Canonique, A. C. (méthode qui permet d'étudier les relations linéaires entre deux groupes de variables, HOTELLING) lorsqu'on a plus de deux groupes de variables. Après l'introduction, le chapitre 2 fait la synthèse des méthodes classiques d'extension de l'A. C (méthodes MAXVAR, MINVAR, SSQCOR, GENVAR, SUMCOR, de CARROLL etc. . . ) appelées Analyse canonique généralisée (ACG) et donne aussi, une comparaison théorique de ces méthodes. Les méthodes précédentes qui se réduisent toutes à l'AC, lorsqu'on n'a que deux groupes, optimisent des critères qui ne dépendent que des valeurs propres de la matrice de corrélations des variables canoniques d'où l'idée de fournir d'autres extensions de l'AC en considérant deux critères plus généraux englobant les critères déjà proposés dans le chapitre 2. C'est ce que nous faisons dans les chapitres 4 et 5. Dans le chapitre 4, à partir de notre premier critère général, nous étudions l'influence du critère sur les solutions des méthodes usuelles et non usuelles d'ACG tandis que dans le chapitre 5, avec notre deuxième critère général nous proposons trois nouvelles méthodes d'ACG. Dans le chapitre 6, nous rappelons les résultats relatifs à la comparaison et à l'équivalence de deux AC au sens d'HOTELLING, lorsqu'on élimine des variables dans les deux groupes, puis nous adaptons les propriétés précédentes au cas de l'équivalence entre deux ACG au sens de CARROLL. Nous donnons ensuite des conditions nécessaires et suffisantes (CNS) pour que deux ACG soient équivalentes. Enfin, à partir de ces CNS, nous proposons quatre critères qui permettent de faire le choix des variables pertinentes dans les groupes. Toutes les méthodes décrites dans cette thèse sont appliquées et comparées sur des données sensorielles (chapitre 3)
The work of this thesis is based on the method which generalize canonical correlation analysis, cca, proposed by HOTELING. Canonical correlation analysis, CA, measures and represents the linear relationship between two subsets of variables in an unambiguous way. It seeks to find a small number of linear combinations of each set of variables in order to explain or summarise the relationships of them. Many procedures have been proposed to generalize Canonical correlation analysis, GCCA, to three or more sets of variables : Steel (1951), Horst (1961), Carroll (1968), Kettenring (1971), Lafosse (1989). All of those procedures are based on the principle of optimizing some functions of the eigenvalues of the correlation matrix of linear combinations. The solution of such analysis depends therefore on a criterion used by the procedures. After the chapter of introduction (chapter 1), the chapter 2 propose a synthesis of usual technique that generalize the CA. In chapter 4 and 5, two general class of criteria that depends on the eigenvalues of the correlation matrix of linear combinations are proposed. The first class of criteria is used to study the sensitivity to the criterion of canonical variables in GCCA (chapter 4) and, the second class of criteria is used to propose three news methods of GCCA (chapter 5). In chapter 6, we study the necessary and sufficient conditions, NSC, for the equivalience between two GCCA. With these NSC, we propose four criterions to choose the best variables in the groups. All of these methods of GCCA are applied to the real data in chapter 3
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Petitgas, Benoit. "Corrélation entre le comportement électrique et les propriétés physico-chimiques des fils émaillés : vers l'origine de la défaillance de machines tournantes en conditions extrêmes". Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-00958120.

Texto completo da fonte
Resumo:
Le sujet de cette thèse concerne les applications hautes températures, où les moteurs doivent être capables de fonctionner à 400°C pendant 2 heures, selon la norme en vigueur. Il convient dans ce type d'applications de disposer de matériaux assez stables pour que leurs propriétés isolantes restent inchangées, ce qui est le cas du fil émaillé PolyImide (PI). Ce fil émaillé pose néanmoins des problèmes économiques et de fournisseurs, d'où la nécessité de trouver d'autres alternatives. Ce travail de thèse a eu pour but de mettre au point et valider des techniques d'analyses (ATG / ATM / ATR-FTIR / DRS) adaptées au fil émaillé, et ce jusqu'à 400°C. Le PEI présente des propriétés insuffisantes pour ce type d'application car il se dégrade avant 350°C et perd ses propriétés d'isolation électrique. Le PAI est un matériau qui ne se dégrade que peu avant 400°C, et présente des caractéristiques électriques (propriétés diélectriques et de conduction) déjà plus proche du PolyImide. Nous avons pu établir la comparaison de deux PAI dont l'un est conventionnel et l'autre est un nanocomposite à base d'alumine. Ce dernier PAI est plus stable en température mais ne semble pas avoir de propriétés électriques très supérieures. Pour confronter les résultats expérimentaux obtenus dans des conditions particulières aux conditions réelles d'utilisation, des moteurs avec ces fils émaillés ont été fabriqués. Les moteurs équipés des fils PEI/PAI (fil standard) et PAI sont défaillants après 40 minutes au lieu de 2h, contrairement aux moteurs équipés de fil PI. La dégradation du PEI et le fluage du PAI, caractérisé au-delà de sa Tg (280°C), peuvent être la cause des dysfonctionnements de ces moteurs
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Wawrezinieck, Laure. "Confinement moléculaire et organisation de la membrane des cellules vivantes : analyse de la diffusion par spectroscopie de corrélation de fluorescence". Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2006. http://tel.archives-ouvertes.fr/tel-00097010.

Texto completo da fonte
Resumo:
Dans la description actuelle de la membrane plasmique, des hétérogénéités ou des mécanismes sont supposés empêcher la libre diffusion des particules membranaires. La diffusion des protéines transmembranaires serait ainsi ralentie par le réseau d'actine du cytosquelette, alors que les microdomaines lipidiques confineraient transitoirement les molécules impliquées dans les voies de signalisation.
La spectroscopie de corrélation de fluorescence (FCS) est une technique puissante permettant de mesurer des coefficients de diffusion. L'étude devient cependant malaisée lorsque la diffusion n'est pas libre, comme c'est le cas des composantes de la membrane cellulaire.
Nous avons montré que la réalisation de mesures FCS à différentes tailles de volumes d'observation permet de tracer les lois de diffusion des molécules dans les membranes des cellules vivantes. Notre méthode permet ainsi de distinguer entre différentes structures de confinement des particules de la membrane plasmique et de mesurer certaines de leurs caractéristiques, comme leur taille ou le temps de confinement moyen. Il a également été possible d'étudier la réorganisation de la membrane cellulaire au cours d'un événement de signalisation.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Bialufu, Ngandu Albert. "Impact des TIC sur la croissance économique : analyse croisée de la corrélation entre l'IDI et l'indice de revenu, 2002-2011". Amiens, 2014. http://www.theses.fr/2014AMIE0050.

Texto completo da fonte
Resumo:
La présente thèse essaie d'élucider l'énigme d'une société dite « avancée », fortement digitalisée, mais qui peine à soutenir l'accélération de la croissance économique. Nous abordons cette question par une analyse longitudinale autour de la nature et la portée de la relation qui existe entre les TIC et la croissance économique sur 194 pays pour la période 2002- 2011. Nos conclusions mettent en évidence le caractère non paramétrique de la liaison entre les TIC et la croissance économique qui, vraisemblablement, dépend du contexte de chaque pays. Ces faits sont illustrés par les contradictions observées, notamment, d'une part, les pays émergents avec les indices des TIC faibles et une forte dynamique de croissance d'autre part, les pays dits « riches » avec les indices des TIC élevés opposés à une faible dynamique de croissance
This thesis tries to solve the riddle of a society called "Advanced" highly digitized but which hardly supports the acceleration of economic growth. We address this issue by a longitudinal analysis about the nature and scope of the relationship between ICT and economic growth of 194 countries for t he period 2002-2011. Our findings highlight the nonparametric nature of the link between ICT and economic growth that presumably depends on the context of each country. These facts are illustrated by the contradictions observed, especially on the one hand, emerging countries with low ICT's indices and a strong growth on the other hand, the so-called "rich countries" with higher ICT's indices opposed to low growth momentum
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Signoret, Philippe. "Analyse des bruits optique-électrique et étude de leur corrélation : Application à une tête optique d'émission laser à réaction répartie". Montpellier 2, 1994. http://www.theses.fr/1994MON20048.

Texto completo da fonte
Resumo:
Les performances, et tout particulierement les bruits optique et electrique, d'une tete optique laser a semi-conducteur a reaction repartie (dfb), emettant a la longueur d'onde de 1. 55 micrometres, sont etudies. Cette etude se compose de trois parties: - les proprietes electromagnetiques des lasers a reaction repartie, issues du modele de kogelnik et shank, sont rappelees. Celles-ci sont associees a une caracterisation electrique et optique des dispositifs. - ensuite une analyse experimentale et theorique des densites spectrales de bruit optique, blanc et 1/f, est presentee. - enfin, le lien etroit existant entre les densites spectrales de bruit electrique et de bruit optique est mis en evidence. Cette propriete est illustree par la correlation entre ces deux types de bruit. Le bruit electrique permet ainsi une caracterisation fine des lasers a semi-conducteur, tout en evitant la generation de reflexions parasites, issues de tout montage optique
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Lexcellent, Christian. "Quelques aspects thermomécaniques des lois de comportement des alliages métalliques : corrélation fluage-diffusion, analyse thermodynamique, effet de rochet traction-torsion". Besançon, 1987. http://www.theses.fr/1987BESA2038.

Texto completo da fonte
Resumo:
Determination du coefficiant de diffusion adequat au fluage a partir d'une correlation entre les mesures de fluage et d'autodiffusion de cinq phases de type cu zn. Analyse thermodynamique des processus irreversibles appliquee au fluage dans des alliages d'aluminium. Determination d'un modele unifie a variables internes pour les essais de rochet. Comparaison avec les resultats experimentaux
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Sabiri, Noura. "Caractérisation du toucher des surfaces polymères, essais de corrélation entre analyse sensorielle : Mise au point d'un matériau à toucher "soft"". Paris, CNAM, 2008. http://www.theses.fr/2008CNAM0624.

Texto completo da fonte
Resumo:
In consideration of various current criteria such as durability and comfort, always taken into account during the purchase of a vehicle, nowadays nex criteria called sensory feelings such as smell and touch occupie a growing position. The present study deals with the evaluation of touch and more particulary touch of plastics, widely used in car cockpits. According to more recent technology researchs, only sensory analysis allows a good caracterization of touch , but this analysis is particulary difficult to implement. That's why we try to confort results by valuing touch with convenient physical measurements such as rubbibg and roughness tests. The first part of this work consists in proving tat the reliability of the sensory analysis results from definite criteria (repeatibility, consistency, precision of analysis). Then, we determine the rubbing coefficient and evaluate the roughness of surface of various samples. This study encloses a statistical field in order to try and present the reliability measurement processes. Then, we try to establish a relationship between the results obtained firstly with sensory analysis such as "Slippery" "Rough" descriptors and secondly with instrumental measurements. In the second part, we study the imrovement of the touch of propylene formulations used in car cockpits. In this way, we try to obtain directly a surface material, without coatin, able to replace components coated with "soft" touch paint or zequivalent. We also verify that the mechanical properties required for applications are in good accordance witth waited values
Aux différents cirtères tels que durabilité et confort, toujours pris en compte pour l'achat d'un véhicule, viennent maintenant s'ajouter des critères dedimensions sensorielles comme l'odorat et le toucher. C'est sur l'évlauation de ce dernier cirtère qu'a porté notre étude. Les matières plastiques étant largement utilisées dans l'habitacle automomobile, c'est à leur toucher quue nous nous intéressons particulièrement. Actuellement, seule l'analyse sensorielle permet de carctériser le toucher, mais cette analyse est particulièrement difficile à mettre en oeuvre. C'est pourquoi, nous essayons d'évaluer le toucher à l'aide de mesures physiques adaptées telles que des essais de frottement et de rugosité. La première partie de ce travail consiste tout d'abord à s'assurer de la fiabilité des résultats de l'analyse sensorielle en se basabt sur des critères précis (répétabilité, cohérence, finesse d'analyse), Nous déterminons ensuite le coefficient de frottement et la rugisité de surface d'échantillons variés. Cette étude est précédée par une démarche statistique ayant pour but d'étudier la fiabilité de processus de mesure. Puis, nous essayons d'établir une corrélation entre les résultats de l'analyse sensorielle pour les descripteurs "Glissant" et "Râpeux" et les résultats de mesures physiques associées. Dans la deuxième partie, nous présentons une étude sur l'amélioration du toucher des matériaux à bas de polypropylène utilisés dabs les piéces d'intérieur automobile. L'objectif est ici d'obtenir un matériau à toucher "soft" pour remplacer des pièces revêtues de peinture "soft", tout en gardant les propriétés mécaniques exigées par le cahier des charges
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Brière, Mélanie, e Mélanie Brière. "Décisions et biais des investisseurs aux marchés financiers : une analyse expérimentale". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37562.

Texto completo da fonte
Resumo:
Dans le cadre de ce mémoire, nous proposons d’étudier l’effet de deux biais sur les investisseurs aux marchés financiers. Plus particulièrement, nous tentons de déterminer si, conformément à la théorie, l’aversion à la perte entraîne des préférences pour de longs horizons d’investissement et de faibles niveaux de rétroaction, et si l’aversion à l’ambiguïté engendre pour sa part des préférences contraires. Les données expérimentales montrent que l’effet de l’aversion à la perte sur les préférences est minime. Toutefois, l’aversion à l’ambiguïté aurait un effet manifeste sur celles-ci, menant les participants à préférer de courts horizons d’investissement, ainsi qu’une grande fréquence de rétroaction. Ces préférences peuvent vraisemblablement être expliquées par le désir des participants de mettre à jour plus rapidement leurs anticipations afin de sortir du contexte d’ambiguïté dans lequel ils se trouvent.
Dans le cadre de ce mémoire, nous proposons d’étudier l’effet de deux biais sur les investisseurs aux marchés financiers. Plus particulièrement, nous tentons de déterminer si, conformément à la théorie, l’aversion à la perte entraîne des préférences pour de longs horizons d’investissement et de faibles niveaux de rétroaction, et si l’aversion à l’ambiguïté engendre pour sa part des préférences contraires. Les données expérimentales montrent que l’effet de l’aversion à la perte sur les préférences est minime. Toutefois, l’aversion à l’ambiguïté aurait un effet manifeste sur celles-ci, menant les participants à préférer de courts horizons d’investissement, ainsi qu’une grande fréquence de rétroaction. Ces préférences peuvent vraisemblablement être expliquées par le désir des participants de mettre à jour plus rapidement leurs anticipations afin de sortir du contexte d’ambiguïté dans lequel ils se trouvent.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Laabidi, Selma. "Méthodologie de conception de composants intégrés protégés contre les attaques par corrélation". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00488013.

Texto completo da fonte
Resumo:
Les circuits cryptographiques, parce qu'ils contiennent des informations confidentielles, font l'objet de manipulations frauduleuses, appelées communément attaques, de la part de personnes mal intentionnées. Plusieurs attaques ont été répertoriées et analysées. Parmi elles, les attaques DPA (Differential Power Analysis), DEMA (Differential Electromagnetic Analysis), DBA (Differential Behavior Analysis) et les attaques en probing forment la classe des attaques par corrélation et sont considérés comme les plus redoutables car elles permettent de retrouver, à moindre coût, les clefs de chiffrement des algorithmes cryptographiques. Les concepteurs de circuits sécurisés ont été donc amené à ajouter des parades, appelées contre-mesures, afin de protéger les circuits de ces attaques. Ces contremesures doivent impacter au minimum les performances et le coût du circuit. Dans cette thèse, nous nous intéressons dans un premier temps aux attaques par corrélation, le principe de ces attaques est décrit ainsi que les principales contre-mesures pour y parer. Un formalisme décrivant de manière unique ces attaques est aussi proposé. Dans un deuxième temps, nous étudions les outils d'évaluation sécuritaires qui permettent d'estimer la résistance des circuits intégrés face aux attaques par corrélation. Après un état de l'art sur les outils existants, nous décrivons notre outil basé sur une recherche de corrélations entre le modèle du concepteur et le modèle qui peut être prédit par un attaquant. L'analyse de corrélations permet de déterminer les bits les plus sensibles pour mener à bien une attaque. Cet outil est intégré dans le flot de conception permettant ainsi d'évaluer la résistance des algorithmes cryptographiques au niveau RTL (Register Transfer Level) et portes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Mathieu, Florent. "Analyse de la tenue mécanique d'un liner en titane : apport des mesures de champs cinématiques". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00846252.

Texto completo da fonte
Resumo:
Les techniques de mesure de champs, et en particulier celles basées sur la Corrélation d'Images Numériques (CIN), sont matures et reconnues pour la détermination de déplacements d'objets quelconques, en deux ou trois dimensions. Ces travaux ont pour objet le développement d'essais et de techniques d'identification associées, en s'appuyant sur les méthodes de mesure par CIN, pour permettre l'évaluation des caractéristiques mécaniques d'un liner en titane T35, développé pour des applications spatiales. Des essais de traction uniaxiale sont tout d'abord utilisés pour déterminer le comportement élastoplastique du T35. Plusieurs méthodes d'identification sont comparées. En particulier, il est proposé d'étendre la corrélation d'image dite "intégrée" aux cas élastoplatiques. Cette méthode permet d'évaluer à la fois les déplacements du solide observé et les paramètres mécaniques des matériaux le constituant. Elle est comparée à une méthode de recalage de référence. L'étude se porte ensuite sur l'analyse de l'amorçage des fissures dans le liner. Les chargements cycliques du réservoir imposent à la tôle une déformation biaxiale cyclique en traction-compression de quelques pourcents, qui a été reproduite expérimentalement dans une machine multiaxiale. Cette partie a notamment nécessité le développement d'un essai triaxial à rapport de charge négatif sur tôle mince. Une estimation de la limite d'amorçage a été obtenue pour les niveaux de déformation visés. Enfin, la fissuration du liner a été étudiée par des techniques d'analyse dédiées. Certaines de ces techniques sont comparées quantitativement, afin d'étudier leurs capacités et limitations respectives. Des lois de propagation de type Paris ont été identifiées directement à partir d'images du voisinage de la fissure.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Velten, Philippe. "Mesure du paramètre de corrélation angulaire bêta-neutrino dans la désintégration de l'6He". Caen, 2011. http://www.theses.fr/2011CAEN2019.

Texto completo da fonte
Resumo:
Le sujet de cette thèse est l'analyse des données de l'expérience LPCTrap d'octobre 2008. L'objectif était de mesurer le coefficient de corrélation angulaire β-ν, aβν, de la désintégration de l'6He avec une précision de 0. 5%. La mise en évidence d'une déviation de la valeur de aβν par rapport à la prédiction du Modèle Standard (MS) serait la signature indirecte d'un couplage de type tenseur dans la désintégration faible du noyau 6He qui mettrait en cause la structure V-A adoptée pour décrire l'interaction faible au sein du MS. Un piège de Paul est employé pour confiner les ions 6He+ dans un volume très restreint et pratiquement au repos afin de disposer d'une source de décroissances la mieux définie. La particule β et l'ion de recul 6Li++ émis lors de la désintégration sont détectés en coïncidence par des détecteurs placés autour du piège. Aβν est déterminé en comparant la distribution expérimentale du temps de vol de l'ion de recul à celle générée par une simulation Monte-Carlo. Durant cette thèse, une simulation basée sur GEANT4 a été développée, qui prend en compte la totalité des effets expérimentaux susceptibles de contribuer à l'erreur systématique de l'estimation de aβν, notamment la diffusion des électrons de basse énergie. Malgré une statistique expérimentale suffisante et une simulation aboutie, une estimation fiable de aβν s'est finalement révélée impossible à obtenir en raison d'un dysfonctionnement du détecteur d'ions. Une étude statistique exploratoire a été entreprise pour préciser le niveau de sensibilité de la technique de mesure aux tests des hypothèses du MS. Les outils développés dans cette thèse seront utilisés pour analyser les expériences futures
The subject of this work is the data analysis of the LPCTrap experiment which occurred in 2008. The goal was to measure the β-ν angular correlation coefficient, aβν, in the 6He decay at a 0. 5% precision level. Evidences of a discrepancy between the experimental value of aβν and the prediction of the Standard Model (SM) would mean the existence of a vector current in the weak decay of 6He. This discovery would question the V-A structure used to describe the weak interaction in the SM. A Paul trap is used to confine 6He+ ions almost at rest in a very small volume in order to have a decay source as well defined as possible. The emitted β particle and 6Li++ ion are detected in coincidence by detectors located around the trap. Aβν is determined from a comparison between the experimental and a Monte-Carlo simulated distributions of the time of flight of the recoiling ions. During this work, a simulation based on GEANT4 has been developed, taking into account all the experimental effects which are likely to contribute to the systematic error of the aβν estimation. A special focus has been put on the electron scattering modelling. Despite a sufficient experimental statistics and an efficient simulation, a correct estimation was not achieved due to a malfunction of the ion detector. An exploratory statistical study has been undertaken in order to accurately specify the sensitivity level of the measurement performed with the LPCTrap apparatus in testing the hypotheses of the SM. The tools developed in this work will be used to analyze future experiments
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Ashby, Mathieu. "Analyse dynamique des lignes de grande portée sous charges de vent". Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1541.

Texto completo da fonte
Resumo:
There are two types of electric crossing : i ) subterranean / submarine line ii ) overhead-line crossing. We always consider the last one as a more economic option. The inconvenience of an overhead-line crossing would be the environmental constraints among which the existing obstacles, the clearance for the navigation and the aesthetics demanded by the public. The overhead-line crossings usually have conductors of long ranges which are outside of the field of application for the current transmission line codes. These are limited to reaches of a length included between 200 m and 800 m, as well as a height of support lower than 60 m. However, for reaches over 800 m and over a height over 60 m, the criteria of conception in the transmission line codes for the calculation of wind loads are not applicable. In this study we concentrate on loads on the supports owed to the limit wind applied to bare conductors and insulators chains The objective of the present study is to examine the effect of the temporal and spatial correlation of the wind load along the conductors on a finite element model. A special attention was brought to the evaluation of the importance of the dynamic load transmitted on by the conductors and the insulators chains for the case of a turbulent wind load. The numerical study on finite element model for the example of a overhead-line crossing was done with the software ADINA. The wind load for the finite element model for the example of a overhead-line crossing was generated by the software WindGen which uses the method of Simiu-Scanlan and the method of spectral representation developed by Shinozuka-Deodatis. Wind loads generated where integrated into the finite element model ADINA for a dynamic analysis of the overhead-line crossing. For the first part, the current methods are used to calculate the efforts in supports due to the wind loads with an engineering approach and a comparaison approach. The current methods are then compared with the efforts obtained from an advanced method, transient dynamic and spectral stochastic, and specifically for the case of a simple overhead-line and an overhead-line crossings. For the second part, the effect of the longitudinal correlation of the wind load on two parallel conductors was examined. Finally, dynamic experiments on an insulators chain were made to determine the variation of the damping and the rigidity of the system for different type of insulators, different speed of application of the load and the inclination of the insulator.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Gonzalez, Ignacio. "Analyse canonique régularisée pour des données fortement multidimensionnelles". Toulouse 3, 2007. http://thesesups.ups-tlse.fr/99/.

Texto completo da fonte
Resumo:
Motivé par la mise en évidence des relations entre l'expression de gènes et d'autres variables biologiques, notre travail consiste à présenter et développer une méthodologie répondant à ce problème. Parmi les méthodes statistiques abordant ce sujet, l'Analyse Canonique (AC) semblait bien appropriée, mais la haute dimensionalité est actuellement l'un des obstacles majeurs pour les techniques statistiques d'analyse de données issues de biopuces. Naturellement l'axe de ce travail a été la recherche de solutions tenant compte de cet aspect crucial dans la mise en oeuvre de l'AC. Parmi les approches envisagées pour contourner ce problème, nous nous sommes intéressés à des méthodes de régularisation. Ainsi, la méthode développée ici, appelée Analyse Canonique Régularisée (ACR), est basée sur le principe de régularisation ridge introduit initialement en régression linéaire multiple. L'ACR nécessitant le choix de deux paramètres de réglage pour sa mise en oeuvre, nous avons proposé la méthode de validation croisée par sous-groupes pour traiter ce problème. Nous avons présenté en détail des applications de l'ACR à des données fortement multidimensionnelles provenant d'études génomiques ainsi qu'à des données provenant d'autres domaines. Sur ce point on s'est intéressé à une visualisation des données aidant à l'interprétation des résultats obtenus. À cet effet, nous avons proposé un certaine nombre de méthodes graphiques : représentations des variables (graphiques des corrélations), représentations des individus ainsi que des représentations alternatives comme les graphiques de réseaux et les cartes de double classification (heatmaps). Pour la mise en oeuvre de l'AC, nous avons développé le package CCA (disponible en ligne sur le site cran. R-project. Org). Ce package permet le traitement de données avec plus de variables que d'unités expérimentales par l'ACR, la manipulation des valeurs manquantes et la réalisation des graphiques aidant à l'interprétation des résultats. .
Motivated by the study of relationships between gene expressions and other biological variables, our work consists in presenting and developing a methodology answering this problem. Among the statistical methods treating this subject, Canonical Analysis (CA) seemed well adapted, but the high dimension is at present one of the major obstacles for the statistical techniques of analysis data coming from microarrays. Typically the axis of this work was the research of solutions taking into account this crucial aspect in the implementation of the CA. Among the approaches considered to handle this problem, we were interested in the methods of regularization. The method developed here, called Regularised Canonical Analysis (RCA), is based on the principle of ridge regularization initially introduced in multiple linear regression. RCA needing the choice of two parameters of regulation for its implementation, we proposed the method of M-fold cross-validation to handle this problem. We presented in detail RCA applications to high multidimensional data coming from genomic studies as well as to data coming from other domains. Among other we were interested in a visualization of the data in order to facilitate the interpretation of the results. For that purpose, we proposed some graphical methods: representations of variables (correlations graphs), representations of individuals as well as alternative representations as networks and heatmaps. .
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia