To see the other types of publications on this topic, follow the link: Faible quantité.

Dissertations / Theses on the topic 'Faible quantité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 16 dissertations / theses for your research on the topic 'Faible quantité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Larnane, Amel. "Identification par empreintes génétiques : développement et évaluation de nouvelles méthodologies pour l'analyse de traces d'ADN en faible quantité et/ou dégradé." Electronic Thesis or Diss., université Paris-Saclay, 2024. https://www.biblio.univ-evry.fr/theses/2024/interne/2024UPASL102.pdf.

Full text
Abstract:
L'identification par empreintes génétiques est devenue une méthode incontournable dans les enquêtes judiciaires au cours des trois dernières décennies. Cependant, l'analyse des traces biologiques issues des scènes d'infraction reste un défi majeur, en particulier lorsque l'ADN est dégradé et/ou présent en faible quantité. Actuellement, seulement environ 33 % des traces prélevées à des fins d'analyse génétique sont exploitables avec les techniques classiques, correspondant principalement aux cas les plus simples. Les traces plus complexes, qu'elles présentent une quantité insuffisante d'ADN ou un ADN altéré, voire constituées de mélanges, posent encore des difficultés, limitant ainsi l'identification de suspects ou de victimes. Surmonter ces obstacles représente un enjeu important pour les communautés criminalistique et judiciaire, ainsi que pour la société. Cette thèse vise à repousser ces limites en développant de nouvelles méthodologies pour analyser les traces d'ADN dégradé et/ou en faible quantité. Dans une première partie, nous avons cherché à comprendre la composition de ces traces complexes à partir de cas réels. Pour cela, nous avons utilisé une technologie d'électrophorèse ultra-sensible à champ pulsé pour visualiser l'ADN, couplée à la quantification de l'ADN humain via les séquences Alu et au séquençage du gène de l'ARN ribosomique 16S pour identifier la présence de micro-organismes. Cette combinaison a révélé que l'ADN humain était présent dans plus de 84 % des cas, bien que souvent en quantité insuffisante et avec différents niveaux de dégradation, tandis que l'ADN bactérien prédominait. Dans une deuxième partie, nous nous sommes focalisés sur la faible quantité d'ADN en examinant des traces issues de cas réels. Nous avons choisi d'adapter un protocole d'amplification d'ADN en le couplant à une technologie innovante de miniaturisation robotisée. Cette stratégie a permis notamment de rendre exploitables des traces qui, avec les méthodes classiques, ne l'étaient pas. Dans une dernière partie, nous avons abordé la question de la dégradation avec l'analyse des Single Nucleotide Polymorphisms (SNP), par l'utilisation du séquençage nouvelle génération (NGS) ciblé. Les résultats obtenus indiquent la possibilité d'établir des profils génétiques hybrides, composés de short tandem repeats (STR) et de SNP, à partir d'ADN très dégradé. Ces nouvelles méthodologies apportent un regard nouveau sur l'exploitation des traces d'ADN dans les enquêtes criminelles et soulignent l'importance de redéfinir les cadres réglementaires autour des informations génétiques multiples disponibles issues des traces biologiques, un enjeu qui devrait être au cœur des futures discussions de cette décennie. Ces résultats pourraient transformer l'approche de l'identification génétique avec un impact direct sur les procédures judiciaires
Genetic fingerprinting has become a cornerstone method in criminal investigations over the past three decades. However, the analysis of biological traces from crime scenes remains a major challenge, particularly when DNA is degraded and/or present in low quantities. Currently, only about 33% of traces collected for genetic analysis are usable with conventional techniques, mainly in the simplest cases. More complex traces, whether they contain insufficient amounts of DNA, degraded DNA, or are composed of mixtures, still pose difficulties, thereby limiting the identification of suspects or victims. Overcoming these obstacles is a significant challenge for forensic and judicial communities, as well as for society as a whole. This thesis aims to push these boundaries by developing new methodologies to analyze degraded and/or low-quantity DNA samples. In the first part, we sought to understand the composition of these complex traces using casework. To achieve this, we employed ultra-sensitive pulsed-field electrophoresis technology to visualize the DNA, coupled with the quantification of human DNA via Alu sequences and sequencing of the 16S ribosomal RNA gene to identify the presence of microorganisms. This approach revealed that human DNA was present in over 84% of cases, although often in insufficient quantities and with varying levels of degradation, while bacterial DNA predominated. In the second part, we focused on the issue of low DNA quantities by examining traces from casework. We chose to adapt a DNA amplification protocol, integrating it with an innovative robotic miniaturization technology. This strategy allowed us to make previously unusable traces analyzable with conventional methods. Finally, in the third part, we addressed the issue of degradation by analyzing Single Nucleotide Polymorphisms (SNPs) using targeted Next Generation Sequencing (NGS). The results indicate the possibility of establishing hybrid genetic profiles composed of short tandem repeats (STR) and SNPs from highly degraded DNA samples. These new methodologies offer a fresh perspective on the use of DNA traces in criminal investigations and emphasize the importance of redefining regulatory frameworks surrounding the multiple genetic data available from biological traces, an issue that should be central to discussions in the coming decade. These findings could transform the approach to genetic identification, with a direct impact on judicial procedures
APA, Harvard, Vancouver, ISO, and other styles
2

Defresne, Michèle. "L' expression de la faible quantité en latin : parvum, paulum, pauci, dans le cadre de la théorie de l'argumentation dans la langue d'O. Ducrot." Paris 4, 2000. http://www.theses.fr/2000PA040055.

Full text
Abstract:
La description que nous proposons des quantificateurs latins parum, paulum / io, pauci, relève d'une sémantique argumentative. Nous avons en effet adopté un certain nombre d'hypothèses internes propres à la théorie de l'ADL d' 0. Ducrot, J. C. Anscombre et M. Carel : les notions d'opérateurs argumentatifs, de topoi; de modificateurs déréalisant, et d'argumentation interne et externe constitutives du signifié des mots, syntagme, proposition, et énonce. Parum, qui a toujours le sens de « peu » est le prototype même de l'inverseur. Il inverse les argumentations interne et externe en donc (normatives) et en pourtant (transgressive) constitutives du signifie des mots, des syntagmes auquel il s'applique. Dans ces enchainements a donc c, a pourtant c, l'antécédent et le conséquent sont interdépendants : le passage de a à c ne repose pas sur une inférence. Paulum et pauci, qui peuvent être utilisés en fonction d'atténuateur ou d'inverseur, contribuent à valider l'hypothèse qu'ils sont des occurrences d'un même morphème abstrait qui prend tantôt la valeur de « peu », tantôt celle d' « un peu » dans certaines conditions discursives. Ces modificateurs peuvent avoir un effet distinct au plan de la phrase, et au plan de l'énoncé. La mise en application de ces différentes hypothèses internes permet une description unifiante de ces opérateurs/qui ne se veut pas explicative. Son intérêt consiste essentiellement à mettre en relation un certain nombre de phénomènes linguistiques, comme le veut l'allégeance de cette théorie au structuralisme saussurien.
APA, Harvard, Vancouver, ISO, and other styles
3

Fofana, Daouda. "Modélisation et conception d'électrode cathodique multicouche à faible quantité de platine et haute performance pour les piles à combustible à membrane échangeuse de proton (PEMFC)." Thèse, Université du Québec à Trois-Rivières, 2013. http://depot-e.uqtr.ca/6975/1/030596129.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Faucher, Michaël. "Développement d’une nouvelle cellule de caractérisation de l’hydrophobicité naturelle et induite sur une faible quantité de minerai industriel selon les principes de la flottation de surface." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66447.

Full text
Abstract:
Le procédé de flottation est une technique de séparation de minerais basée sur la différence d’hydrophobicité des espèces minérales introduites dans des cellules dans le but de séparer les espèces minérales en fonction de ce critère. L’étude de la mouillabilité d’une surface de minerai devient alors un concept intéressant dans une optique d’optimisation de procédé. Les technologies standards qui permettent l’étude de ce facteur sont souvent imprécises due à la morphologie, aux défauts de surface ainsi qu’à la chimie variable des particules présentes au sein d’un même échantillon. Ayant pour but d’évaluer ce paramètre et permettant d’avoir des échantillons suffisants pour effectuer différents tests chimiques et minéralogiques, un nouveau montage basé sur la flottation de surface a été développé. Des tests comparatifs entre des technologies standards de flottation de laboratoire ainsi que la flottation de surface ont été réalisés en utilisant une matrice minérale composée de graphite et de quartz, dans le but de comparer leur efficacité de séparation. Les différents tests montrent, pour la flottation de surface, une séparation sélective similaire à celle obtenue en cellule Denver en plus d’être plus reproductible. Ensuite, des tests de flottation de surface avec de la sphalérite et des moussants confirment la compatibilité du montage avec des échantillons de minerais complexes et exposent les changements de la flottabilité des particules causés par la présence de surfactants. Un modèle par régression logistique sur la minéralogie des échantillons démontre une influence significative de la part des agents moussants sur la probabilité qu’une particule flotte ou au contraire coule. Le montage de flottation de surface est donc un outil de caractérisation robuste et polyvalent pour l’analyse de la mouillabilité d’un échantillon en reproduisant, de façon isolée, l’étape de collision entre une bulle d’air et une particule.
The flotation process is a separation technique based on the wettability difference of minerals’ surface introduced in the flotation cell to concentrate different mineral species according to this criterion. In the optics of optimizing the process, studying the wettability property of a mineral surface becomes interesting. The standard technologies used to assess this parameter are sometimes inaccurate for complex minerals due to their irregular morphology, their surface defects and their surface’s chemical heterogeneity which can bias the results. To study the wettability of mineral samples, a new surface flotation apparatus has been developed keeping in mind the necessity of obtaining a sufficient amount of separated minerals in both the overflow and underflow allowing chemical and mineralogical analyses. Comparative tests have been conducted with the new surface flotation design and two standard laboratory flotation methods using a mineral matrix composed of graphite and quartz to compare their separation efficiency. The results proved that the new design of the surface flotation generates a separation similar to the one in a Denver Cell with a lower standard deviation and using a substantially lower amount of minerals. Following the proof of concept using a simple mineral matrix, an experimental plan has been carried out with the surface flotation device testing copper zinc sulphide ore samples and frother agents. The results confirmed the compatibility of the new methods with sulphur minerals, as well as the impacts of frothers on the wettability of particles at the liquid-gas interface. A binary logistic regression using mineralogical data demonstrates a significant impact from the frothers on the probability of a particle to sink or float at the interface. In brief, the new surface flotation apparatus simulates the collision step of the flotation process without hydrodynamic influence as in conventional cells and allows the assessment of the wettability for different types of mineral samples.
APA, Harvard, Vancouver, ISO, and other styles
5

Ait, Rabai Youssef. "Etude de la libération du pentachlorophénol (PCP) dans l'eau par du bois spécialement traité avec une faible quantité de PCP : effet des cycles condensation-évaporation de l'eau." Saint-Etienne, 1998. http://www.theses.fr/1998STET4005.

Full text
Abstract:
Le pentachlorophénol (PCP) est l'un des produits chimiques les plus utilisés pour protéger le bois contre les champignons. De sérieux inconvénients peuvent apparaitre avec la libération de ce produit dans l'eau conduisant à une pollution dangereuse. Dans cette étude, nous avons élaboré une méthode permettant de réduire la quantité de PCP dans le bois ainsi que le temps de l'opération d'immersion tout en gardant un haut gradient de concentration à la surface du bois. A la fin du processus de libération du PCP dans l'eau, une quantité considérable du produit chimique reste localisée dans les échantillons de bois permettant ainsi la protection du bois contre les champignons. Les échantillons de bois préalablement traités par imprégnation dans une solution méthanoïque de PCP sont soumis à plusieurs cycles de condensation-évaporation de l'eau comparables aux cycles jours-nuits. Ces cycles ne modifient pas les cinétiques de libération du PCP dans l'eau et par suite ne changent pas les profils de concentration du PCP dans le bois. Au cours du processus de libération du PCP dans l'eau, les résultats obtenus expérimentalement et par calcul en utilisant un modèle numérique sont en bonne concordance. Le modèle peut donc être utilisé quelque soit les dimensions des échantillons. Ces échantillons de bois ainsi traités libèrent dans l'eau de pluie des quantités faibles de PCP, beaucoup plus faible que le bois avec une concentration uniforme de PCP. Ainsi, ce traitement participe à la protection de l'environnement et à la réduction des coûts
APA, Harvard, Vancouver, ISO, and other styles
6

Mialle, Sébastien. "Développements analytiques en spectrométrie de masse à thermo-ionisation pour l'analyse isotopique de faibles quantités." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1507/.

Full text
Abstract:
Dans le cadre d'un axe d'orientation de la loi Bataille sur la gestion des déchets nucléaires, des expériences ont été menées dans le réacteur à neutrons rapides Phénix. Certaines d'entre elles ont consisté en l'irradiation de plusieurs poudres enrichies en un isotope. Ces irradiations vont permettre, par détermination de la composition élémentaire et isotopique de ces échantillons, d'obtenir des données nucléaires de base afin d'étudier la faisabilité de la transmutation. Un des enjeux du projet provient du fait que de faibles quantités de poudres ont été initialement introduites et en conséquence certains produits issus de l'irradiation sont présents en très faibles quantités (nanogramme). L'objectif de cette étude est le développement de méthodes analytiques innovantes pour l'analyse de ces faibles quantités par spectrométrie de masse à thermo-ionisation, technique dans laquelle l'échantillon est déposé sur un filament métallique en vue de son évaporation, son ionisation et sa séparation en masse. Quatre grands axes d'étude ont ainsi été explorés : i) le développement de méthode d'analyse en consommation totale avec traitement des données obtenues, ii) l'étude des potentialités pour la mesure isotopique de nouveaux systèmes de détecteurs, iii) l'étude des techniques de dépôt de l'échantillon sur le filament afin d'améliorer la robustesse de la technique, et iv) enfin la comparaison des données obtenues avec d'autres techniques de spectrométrie de masse. Ces développements ont permis d'analyser des quantités de l'ordre du nanogramme sur des échantillons issus des expériences d'irradiation avec des incertitudes en adéquation avec les attentes des neutroniciens. Au-delà de l'atteinte des objectifs analytiques, cette étude a permis de proposer une technique de dépôt homogène de l'échantillon sur le filament et qui améliore la robustesse de la méthode pour des quantités déposées de l'ordre du nanogramme. De plus, des premières mesures sur des multiplicateurs d'électrons en consommation totale ont été réalisées et ont permis de mesurer des quantités allant jusqu'à quelques centaines de femtogrammes. Plusieurs échantillons irradiés mais aussi des échantillons naturels d'eaux de rivières ont pu être analysés en utilisant les procédures analytiques mises en place et ont fait l'objet d'une comparaison avec une autre technique analytique la spectrométrie de masse à source plasma et système multicollection
In the framework of the French transmutation project of nuclear wastes, experiments consisted in the irradiation in a fast neutron reactor of few milligrams of isotopically enriched powders. Hence, the isotopic analysis of very small amount of irradiation products is one of the main issues. The aim of this study was to achieve analytical developments in thermal ionization mass spectrometry in order to accurately analyze these samples. Several axes were studied including the new total evaporation method, deposition techniques, electron multiplier potentialities and comparison between different isotope measurement techniques. Results showed that it was possible to drastically decrease the amounts needed for analysis, especially with Eu and Nd, while maintaining an uncertainty level in agreement with the project requirements
APA, Harvard, Vancouver, ISO, and other styles
7

Lyoussi, Abdallah. "Dosage, par photofissions induites, de faibles quantites d'actinides dans les dechets radioactifs enrobes." Clermont-Ferrand 2, 1994. http://www.theses.fr/1994CLF21618.

Full text
Abstract:
Le dosage des emetteurs alpha dans les dechets solides permet de les classer, de comptabiliser l'activite alpha stockee ou d'effectuer un bilan de la matiere fissile. Cette analyse est une etape capitale de tout programme de gestion des dechets radioactifs. Dans le but de connaitre, de maniere non destructive, la quantite d'actinides contenue dans des dechets radioactifs betonnes, plusieurs methodes de mesures ont ete etudiees; parmi lesquelles la methode d'interrogation par photofissions induites. La mesure repose sur la detection des neutrons prompts ou retardes des reactions de photofission. Cette technique permet de determiner les quantites d'elements fissiles et fertiles contenues dans le dechet interroge. Dans cette these nous avons developpe une nouvelle technique de mesure appelee sphincs qui consiste en une interrogation photonique pulsee suivie du comptage du signal retarde apres chaque impulsion du linac. Cela augmente le comptage utile d'un facteur 20 environ par rapport au cas ou le comptage est fait seulement apres l'irradiation. Enfin, le montage electronique, les resultats de mesures et leur interpretation, les performances de la methode, ainsi que les perspectives futures sont discutes
APA, Harvard, Vancouver, ISO, and other styles
8

Maron, Sébastien. "Détermination de faibles quantités de terres rares dans une matrice inorganique par une méthode de RMN." Palaiseau, Ecole polytechnique, 2015. https://theses.hal.science/tel-01180438/document.

Full text
Abstract:
Évaluer le taux de dopage d’un matériau est indispensable pour optimiser ses propriétés, en particulier de luminescence. Nous proposons une technique originale, la relaxation nucléaire par RMN, pour la détermination de faibles concentrations en ions lanthanides, paramagnétiques. Cet outil, basé sur la RMN du solide de 31P, a été testé sur un matériau modèle (LaPO4) pour lequel l’incorporation homogène du dopant est connue. Les expériences de RMN ont été faites en statique et en rotation à l’angle magique à 15 kHz. Elles ont montré que le temps de relaxation T1 est très fortement modifié par la présence des ions paramagnétiques voisins du phosphore. Pour une distribution homogène en dopants inférieures à 10 %, la variation de 1 / T1 en fonction du taux de néodyme (Nd3+) ou de gadolinium (Gd3+) est linéaire. Dans le cas d’une synthèse par voie solide, ces mesures indiquent que la distribution homogène est assurée quand les précurseurs oxydes sont mélangés mécaniquement mais pas lors d’un broyage manuel. Les temps de relaxation électronique de Gd3+ et de Nd3+ ont été estimés par RPE en saturation. Cela nous a permis d’établir une interprétation semi-quantitative des mesures de relaxation nucléaire du phosphore dans LaPO4. Par ailleurs, une étude similaire dans le cas d’un codopage Nd3+/Gd3+ a montré que la relaxation de Gd3+ gagnait en efficacité à être associé à Nd3+, ce qui peut être intéressant pour les techniques d’imagerie par résonance magnétique (IRM). Enfin, cette méthode a été généralisée à d’autres matériaux, cristallins ou amorphes
Determine the doping level is essential to optimize the properties of materials, e. G. Luminescence. We present an original high-accuracy method based on the 31P solid-state NMR relaxation to determine low concentrations (< 1 %) of paramagnetic lanthanide ions. Our method was first applied to a model compound, LaPO4, within the incorporation of the dopant is known. NMR experiments under static and MAS (15 kHz) conditions reveal that the 31P relaxation time T1 is strongly affected by the presence of paramagnetic ions in the vicinity of the phosphorous nuclei. A linear variation of 1 / T1 as a function of neodymium (Nd3+) or gadolinium (Gd3+) concentration is shown in the 0-10 at. % range for a homogeneous distribution of the doping ions in the matrix. In the case of a solid-state synthesis at 1450 °C, relaxation measurements show that the homogeneous distribution of doping ions is ensured when the mixing of oxide precursors is performed mechanically, in contrast with the manual grinding. The electronic relaxation times of Gd3+ and Nd3+ have been evaluated by ESR measurements under saturation conditions. This allows us to provide a semi-quantitative interpretation of the nuclear 31P relaxation measurements both in Nd and Gd doped LaPO4. In addition, the comparison between nuclear and electronic relaxation suggests that Nd-Gd codoping may improve the efficiency of Gd3+ ions, interesting for the development of relaxing agents in MRI techniques. In a last part, we generalize our method to crystalline or amorphous materials
APA, Harvard, Vancouver, ISO, and other styles
9

Djaozandry, Rufin. "Détection de faibles quantités de contaminant en phase gazeuse dans un gaz par la méthode optique différentielle." Thèse, Université du Québec à Trois-Rivières, 1997. http://depot-e.uqtr.ca/4762/1/000638653.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Rouleau, Jean François. "Développement d'une méthode micro-onde différentielle pour la détection de faibles quantités de vapeur d'eau dans l'hexafluorure de soufre (SF6)." Thèse, Université du Québec à Trois-Rivières, 2000. http://depot-e.uqtr.ca/6641/1/000681091.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Rojas-Aguilar, Aaron. "Application de la calorimétrie de combustion classique et de faibles quantités de substance à l'étude thermodynamique de quelques dérivés halogénés de l'acide benzoi͏̈que." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11017.

Full text
Abstract:
L'enthalpie de combustion et de formation a l'etat condense et a 298,15 k des trois isomeres des acides chlorobenzoique, bromobenzoique et iodobenzoique ont ete determinees par calorimetrie de combustion en utilisant un calorimetre isoperibolique a bombe rotative et/ou un calorimetre crtm basculant. En associant a ces valeurs celles des enthalpies de sublimation, precedemment mesurees au laboratoire, nous avons pu determiner l'enthalpie de formation a l'etat gazeux de chaque substance. A partir de la valeur experimentale de l'enthalpie d'atomisation, il nous a ete possible de determiner l'enthalpie des liaisons c-cl, c-br et c-i. Les valeurs experimentale et theorique de l'energie de conjugaison des acides chloro-, bromo- et iodobenzoiques sont compatibles. Une discussion sur la stabilite relative de quelques derives monosubstitues de l'acide benzoique est aussi engagee
APA, Harvard, Vancouver, ISO, and other styles
12

Ourkiya, Rabah. "Couplage de réactions exo- et endothermiques : induction de la carboxy- ou de la vapogazeïfication de carbones par de faibles quantités d'oxygène vers 500°C." Vandoeuvre-les-Nancy, INPL, 1990. http://www.theses.fr/1990INPL036N.

Full text
Abstract:
La carboxy- et la vapogazeification de carbones ne deviennent effectives qu'à des températures de l'ordre de 800c. On montre que la présence de faibles quantités d'oxygène dans la phase gazeuse induit ces réactions à des températures globales de l'échantillon bien inférieures. Des gazéifications sont effectuées, dans les mêmes conditions, avec 1% d'oxygène dilue soit par un gaz inerte pur, soit par un mélange contenant 10 a 50% de dioxyde de carbone ou de vapeur d'eau. L'étude est conduite sur un coke de saccharose très pur et trois cokes métallurgiques. La comparaison des évolutions des vitesses de gazéification et des textures poreuses met en évidence une contribution à la réaction du dioxyde de carbone ou de la vapeur d'eau qui passe par un maximum entre 420 et 600c. L'énergie nécessaire aux carboxy- ou vapogazeification endothermiques est fournie par l'oxygazeification limitée mais très exothermique. Pour interpréter les faits expérimentaux, on modélise les transferts de matière et de chaleur à l'intérieur d'un grain de carbone poreux. On calcule les profils de concentration en oxygène, de température et de vitesse de la réaction endothermique. Les phénomènes mis en évidence, dont l'interprétation est délicate, montrent notamment qu'un matériau carbone mis au contact de dioxyde de carbone ou de vapeur d'eau a une température à laquelle l'attaque est réputée ne pas avoir lieu peut en présence de traces d'oxygène devenir le siège d'une corrosion pernicieuse en profondeur
APA, Harvard, Vancouver, ISO, and other styles
13

CARTE, NATHALIE. "La trappe ionique et l'ionisation electrospray : un nouveau potentiel pour la caracterisation des biomolecules. caracterisation de biomolecules presentes en faible quantite par spectrometrie de masse et spectrometrie de masse multiple (ms n)." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13081.

Full text
Abstract:
La recente innovation instrumentale de la spectrometrie de masse a permis d'etendre les possibilites de la technique d'analyse en ameliorant les performances, et en accedant grace a la spectrometrie de masse tandem (ms 2) a des informations structurales fines caracteristiques des molecules analysees. L'objectif de ce travail a ete d'evaluer les possibilites d'une nouvelle generation de spectrometre de masse capable d'effectuer des analyses ms n ; l'esquire-lc constitue d'un analyseur trappe ionique (it) couple a une source electrospray (es). La premiere partie du manuscrit presente la caracterisation des biomolecules par ms et ms n et precise les informations structurales obtenues (chapitre i). Apres avoir optimise l'esquire-lc (chapitre ii), nous avons adapte des strategies d'analyses nanoes-ms n a chaque etude abordee dans le chapitre iii. Nous avons ainsi mis en evidence, des modifications proteiques (analyse proteomique et analyse de nouveaux variants d'hemoglobine), caracterise une modification engendree par un inhibiteur sur une enzyme (l'adohcy hydrolase), sequence de novo un peptide n-bloque issu de la drosophile et accede aux structures complexes des glycosylations proteiques. La deuxieme partie du manuscrit presente des etudes de caracterisation d'edifices non-covalents biologiques qui necessitent des precautions d'analyse ms minutieuses (chapitre i). Notre objectif etait de determiner prealablement les conditions instrumentales adequates de l'esquire-lc, propices au maintien des interactions faibles en phase gazeuse et a l'integrite de l'edifice non-covalent (chapitre ii). Tres prisee par les biologistes, la ms supramoleculaire nous a permis d'evaluer la selectivite du cis platine pour l'adn (chapitre iii). Ce travail souligne l'interet de la ms n par es-it pour l'elucidation structurale des biomolecules. Il est cependant primordial de maitriser les differents parametres instrumentaux qui facilitent l'obtention des informations mais surtout leur qualite.
APA, Harvard, Vancouver, ISO, and other styles
14

Griessen, Christiane. "Contribution à l'étude de l'oxydation électrochimique du Mn(II) en Mn(III) en milieu sulfurique concentré : influences de Ag(I) comme catalyseur et de substances organiques en faible quantité /." Lausanne, 1985. http://library.epfl.ch/theses/?nr=576.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire." Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Marques, Áurea Ponte. "Why standard risk models failed in the subprime crisis? An approach based on Extreme Value Theory as a measure to quantify market risk of equity securities and portfolios." Master's thesis, 2009. http://hdl.handle.net/10071/1832.

Full text
Abstract:
JEL classification: G01, G21, G24, G28, G32, G33
The assessment of risk is an important and complex task with which market regulators and financial institutions are faced, especially after the last subprime crisis. It is argued that since market data is endogenous to market behaviour, statistical analysis made in times of stability does not provide much guidance in times of crisis. It is well known that the use of Gaussian models to assess financial risk leads to an underestimation of risk. The reason is because these models are unable to capture some important facts such as heavy tails which indicate the presence of large fluctuations in returns. This thesis provides an overview of the role of extreme value theory in risk management, as a method for modelling and measuring extreme risks. In this empirical study, the performance of different models in estimating value at risk and expected tail loss, using historical data, are compared. Daily returns of nine popular indices (PSI20, CAC40, DAX, Nikkei225, FTSE100, S&P500, Nasdaq, Dow Jones and Sensex) and seven stock market firms (Apple, Microsoft, Lehman Brothers, BES, BCP, General Electric and Goldman Sachs), during the period from 1999 to 2009, are modelled with empirical (or historical), Gaussian and generalized Pareto (peaks over threshold technique of extreme value theory). It is shown that the generalized Pareto distribution fits well to the extreme values using pre-crisis data. The results support the assumption of fat-tailed distributions of asset returns. As expected, the backtesting results show that extreme value theory, in both value at risk and expected tail loss estimation, outperform other models with normality assumption in all tests. Additionally, the results of the generalized Pareto distribution model are not significantly different from the empirical model. Further topics of interest, including software for extreme value theory to compute a tail risk measure, such as Matlab, are also presented.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography