Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Taux de perte.

Dissertationen zum Thema „Taux de perte“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-19 Dissertationen für die Forschung zum Thema "Taux de perte" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

FENZY, CAROLINE. „Methodes numeriques pour l'evaluation du taux de perte de cellules dans les reseaux atm“. Nice, 1992. http://www.theses.fr/1992NICE4556.

Der volle Inhalt der Quelle
Annotation:
Les travaux presentes dans ce memoire portent sur l'etude des methodes numeriques pour l'evaluation du taux de perte moyen de cellules (du au debordement des files d'attente) au niveau d'un nud atm. Dans un premier temps, nous commencons par presenter les principes fondamentaux et nouveaux qu'introduisent les reseaux atm, avant d'aborder la modelisation analytique du multiplexage au niveau d'un nud et des sources de trafic multiplexees. Nous etudions plus particulierement deux modeles discrets de multiplexage de sources sporadiques (ou sources on/off). Dans le premier modele, nous utilisons un processus de bernoulli pour decrire l'arrivee des cellules durant leurs periodes d'activite alors que dans le deuxieme modele, nous utilisons un processus deterministe. L'etude de ces modeles de sources sporadiques a necessite une approche analytique specifique, distinguant un niveau cellule et un niveau burst, qui s'est revelee interessante. En effet, nous avons pu elaborer une extension du premier modele a des sources heterogenes. Ensuite, l'analyse du second modele au niveau cellule, s'est concretisee par l'apport d'un modele d'approximation en surcharge, applicable a tout type de source. Nous proposons enfin des methodes numeriques d'estimation du taux de perte de cellules qui contribuent a ameliorer son temps de calcul. Parmi ces methodes, la plus efficace est apparue etre celle concernant la recherche du domaine significatif theorique. Dans un deuxieme temps, nous cherchons a optimiser les performances d'un reseau atm, en introduisant la notion de priorite qui permet de garantir deux niveaux de qualite de transfert de l'information. Nous proposons ainsi d'implementer des mecanismes de priorite spatiale avec seuil, operant au niveau des differents buffers d'un nud atm. A partir de l'etude analytique detaillee de ces mecanismes, nous effectuons un choix d'implementation. Finalement, nous validons les modeles analytiques mis au point precedemment, grace a une nouvelle approche par modelisation hybride. Pour cette approche, nous elaborons une methode de simulation tres efficace, reduisant le temps de calcul et sans laquelle aucun resultat exploitable n'aurait pu etre obtenu
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Baillet, Victoire. „Étude de l’impact mutationnel d’une perte de méthylation de l’ADN chez Arabidopsis thaliana“. Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE041.

Der volle Inhalt der Quelle
Annotation:
Chez les plantes et les mammifères, la méthylation de l’ADN est une modification chromatinienne qui joue un rôle pivot dans le maintien de l’intégrité des génomes, notamment au travers de l’extinction épigénétique des éléments transposables (ET). Cependant, dans la mesure où la désamination spontanée des cytosines méthylées, qui peut conduire à des transitions C>T, est plus fréquente que celle des cytosines non méthylées, la méthylation est également intrinsèquement mutagène. Cette mutabilité accrue est de fait très certainement à l’origine de la déplétion en dinucléotides CpG observée dans les génomes de mammifères, naturellement méthylés à ces sites sauf au sein des «îlots CpG». A l’exception de cet effet bien connu, aucune étude à ce jour n’a exploré directement et de façon exhaustive l’impact de la méthylation sur le spectre des mutations spontanées. Dans ce travail, je tire profit d’une population de lignées epiRIL (epigenetic recombinant inbred lines) établie chez la plante Arabidopsis pour évaluer à l’échelle du génome l’impact de la méthylation de l’ADN sur le paysage mutationnel. Les epiRILs dérivent du croisement entre deux parents quasi- isogéniques, l’un sauvage et l’autre porteur d’une mutation conduisant à une réduction de 70% de la méthylation du génome, et il a pu être mis en évidence que des différences parentales de méthylation pouvaient être héritées de façon stable pour >1000 régions le long du génome. Au moyen de données de séquençage disponibles pour >100 epiRIL, j’ai effectué la caractérisation exhaustive des variants ADN (autres qu’ET) uniques à chaque lignée mais également en ségrégation parmi les epiRIL, ce qui constitue à terme une ressource pour les différentes équipes qui utilisent cette population. En analysant le patron de variants uniques, j’ai mis en évidence une réduction spécifique du taux de transitions C>T en lien avec l’hypométhylation stable dans les epiRIL. J’ai aussi pu décrire que si la remobilisation extensive des ET dans cette population a modelé le spectre des insertions et délétions ponctuelles, elle ne se traduit pas pour autant par des réarrangements récurrents. Je présente également les développements méthodologiques mis en place afin d’effectuer la caractérisation de QTL (quantitative trait loci) “épigénétiques” préalablement identifiés dans la population
In both plants and mammals, DNA methylation plays a pivotal role in ensuring proper genome function and integrity, notably through the epigenetic silencing of transposable elements (TEs). However, as spontaneous deamination of 5- methylcytosine (5mC), which can lead to C>T transitions, is more frequent than that of unmethylated C, DNA methylation is also inherently mutagenic. This higher mutability of 5mC has indeed been proposed to explain the depletion in CpG dinucleotides in mammalian genomes, which are typically methylated at these sites except in socalled CpG islands. Despite this well-characterized effect of DNA methylation, we still lack a comprehensive view of its impact on the whole mutation spectrum in any given organism. Here, I take advantage of a population of so-called epigenetic Recombinant Inbred Lines (epiRILs) established in the flowering plant Arabidopsis thaliana to investigate the impact of DNA methylation on the spectrum of spontaneous mutations genome wide. The epiRIL population derives from a cross between a wild-type individual and a near-isogenic mutation deficient in DNA methylation, and it could be shown that parental differences in DNA methylation are stably inherited for at least 8 generations over >1000 regions across the genome. Building on whole-genome sequencing data available for >100 epiRILs, I performed a thorough characterization of non- TE DNA sequence variants that are either private to one line or segregating in the population, therefore establishing a resource for research groups that make use of the epiRIL population. Based on the pattern of private variants, I show a specific reduction in the rate of C>T transitions in the epiRILs, in line with the heritable hypomethylation in this population. I also describe that the extensive TE remobilisation at play among the epiRILs shapes the spectrum of short insertions and deletions yet does not translate into recurrent large-scale mutation events. On another note, I also present methodological developments aimed towards the identification of causal (epi)variants underlying so-called “epigenetic QTL” (quantitative trait loci) previously described in the epiRIL population
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Huynh, Le Xuan. „Hydrodynamique et transfert de matière diphasique et triphasique dans un réacteur à haut taux de cisaillement“. Compiègne, 1988. http://www.theses.fr/1988COMPD097.

Der volle Inhalt der Quelle
Annotation:
Dans de nombreux procédés industriels, la conversion est limitée par le transfert de matière gaz-liquide. Pour améliorer ce transfert de matière, on désire étudier un système qui génère une grande aire interraciale par fragmentations des bulles et qui est à la fois compact et efficace. Un venturi répond à ces critères et a été choisi pour sa faible perte de charge et pour l'absence de parties mobiles. L'absorption et la désorption physique de l'oxygène sont utilisées pour mesurer le transfert de matière. Le venturi est positionné verticalement et l'écoulement est soit ascendant, soit descendant. Différents modes d’injection du gaz au col du venturi (radicale, tangentielle, oblique) ont été testés. Une section droite positionnée en aval du venturi se comporte comme une colonne à bulles avec le venturi comme distributeur. Un slurry d’eau et de sable a aussi été introduit dans le système pour étudier l’influence de la présence des solides dans le transfert de matière. La perte de charge dans le venturi et la rétention gazeuse dans la colonne à bulles sont des paramètres hydrodynamiques mesurés. Les coefficients volumétriques de transfert de matière dans le venturi, dans la colonne à bulles sont évalués. La performance de la colonne à bulles de cette étude est comparée à celle des colonnes à bulles usuelles de la littérature et au venturi-absorbeur. Deux autres grandeurs de comparaison entre les différents systèmes sont l’efficacité volumique, exprimée en kg 02/h. M3 de réacteur, et l’efficacité énergétique, exprimée en kg02 /kWh. Un modèle a été proposé pour le venturi fonctionnant en écoulement descendant où deux régimes hydrodynamiques coexistent. Des corrélations, issues de régressions multivariables non-linéaires, des variables principales (rétention gazeuse, perte de charge, coefficients volumétriques de transfert de matière, efficacités) ont été obtenues pour permettre l’évaluation des performances de venturis-absorbeurs de dimensions différentes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Arguin, Hélène. „Effets du taux de perte de poids suite à un programme de perte de poids de 5 semaines sur les changements de la composition corporelle et du profil métabolique chez des femmes post-menopausées, obèses et sédentaires“. Mémoire, Université de Sherbrooke, 2006. http://savoirs.usherbrooke.ca/handle/11143/758.

Der volle Inhalt der Quelle
Annotation:
Obesity, worldwide epidemic, affects one third of all Canadian women over 50. Menopause is a critical period for these women in particular when accompanied by overweight. In fact, hormonal changes and waist enlargement are associated with metabolic deteriorations and multiply risks of heart diseases considerably. Therefore, it seems important to make extra efforts in primary and secondary prevention in order to decrease the negative impacts of obesity in postmenopausal women. Some late studies demonstrate that a loss of 10 to 15% of initial body weight is efficient to improve the metabolic profile of obese individuals. However, postmenopausal women have been under-represented in weight loss studies. This is a surprising fact considering that this particular group (1) has a higher risk of cardiovascular diseases compared to younger women and (2) can also benefit significantly from a weight loss program aimed at improving the overall health profile. Moreover, when dieting without exercising, almost 25% of the weight loss will be of lean body mass, which can contribute to a decrease in resting metabolic rate. General guidelines for the treatment of obesity in the adult population recommend a weight loss of 1 to 2 lbs per week. Except for the fact that there is no extra benefit for health at higher rates of weight loss, there is no other rational explanation related to those recommendations. Moreover, it suggests a combination of caloric restriction and exercise program, the latter not always feasible, particularly with obese elderly with functional limitations. Despite the abundant literature on weight loss, no study has specifically investigated the impact of the rate of weight loss by diet alone on the body composition and the resting metabolic rate, which are major contributing factors of long-term weight loss maintenance. The goal of the project was to study the effects of the rate of weight loss during a hypocaloric diet, without exercise, on changes in body composition (fat mass and lean body mass) and the metabolic profile (resting arterial blood pressure, lipid profile and resting metabolic rate) in sedentary obese postmenopausal women. For this purpose, 20 obese (baseline % body fat: 46.4 « 5.1 %), postmenopausal (no menses for 12 consecutive months) and sedentary women (< 2 bouts of moderate physical activity/week), aged between 51 and 74 years, (61.8 « 5.9 years) were recruited to participate in a weight loss program. The general goal of the study was to induce, if possible, a weekly loss of weight equal to 1% of their initial weight. Subjects were afterward characterized according to their rate of weight loss; 9 subjects were in the low rate group (-0.44 to -0.72 kg/week; n = 9) and 11 subjects were in the high rate group (-0.74 to -1.38 kg/week; n = 11). Measurements of the fat mass and the lean body mass (by DXA), the resting metabolic rate (by indirect calorimetry) and the fasting lipid profile (total cholesterol, triglycerids and LDL-cholesterol) were taken before and after 5 weeks of weight loss. As expected, the high rate group showed a greater weekly loss of body weight compared to the low rate group (-0.96 « 0.24 kg/week vs -0.62 « 0.10 kg/week; P = 0.0002). Despite a significant difference in the total weight loss after 5 weeks (high rate : -4.8 « 1.2 kg vs low rate : -3.1 « 0.5 kg; P < 0.01), both groups showed similar decreases in fat mass (high rate : -0.63 « 0.15 kg/week vs low rate : -0.56 « 0.18 kg/week; P = NS) during the 5 weeks of the program. The difference in the weekly total weight loss between both groups was explained by the significantly higher rates of lean body mass loss in the high rate group compared to the low rate group (-0.33 « 0.23 kg/week vs -0.05 « 0.19 kg/week; P = 0.02). After adjustments for age and lean body mass at baseline, a significant and positive correlation was observed between the rate of body weight loss (kg/week) and changes in lean body mass (kg/week) (r = 0.71; P = 0.002). No association was observed between the rate of weight loss and changes in fat mass after adjustments for age and fat mass at baseline (r = 0.20; P = NS). Significative improvements of diastolic blood pressure, plasma total cholesterol and triglycerids were observed in both groups (P < 0.05). Furthermore, only the high rate weight loss group demonstrated a significative diminution of systolic arterial blood pressure (P < 0.05) and LDL-cholesterol. However, no difference was observed between both groups for all these variables. Finally, results regarding changes in resting metabolic rate showed no differences between groups after the 5-week program, as well as no correlation with changes in lean body mass and fat mass. The results of this present study demonstrate that a hypocaloric diet with a rate of weight loss > or = 0.74 kg/week (or 1.6 lb/week) does not seem to produce extra benefits on the metabolic profile or to be related to a greater loss of fat mass after 5 weeks. In fact, the greater decreases of body weight in the high rate group may be explained in part by a loss of lean body mass. Based on our observations, it seems that current guidelines which recommend an energy deficit leading to weight losses up to 0.91 kg per week (2 lbs per week) may not be optimal for obese postmenopausal women when no exercise is added to the weight loss program. Two alternatives appear from our results: first, a more conservative approach with a maximal rate of weight loss of 0.6 to 0.7 kg per week (or 1.3 to 1.5 lb per week) seems to be optimal to better preserve lean body mass when no exercise is incorporated in the weight loss program. Secondly, in the case of a caloric restriction aiming at a weight loss of more than 0.7 kg/week, the addition of an exercise program should be considered in order to minimize the loss of muscular mass. Other studies are therefore necessary to validate these hypotheses.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Bouret, Jean-Claude. „Formation des raies dans les vents des étoiles Ae/Be de Herbig“. Université Joseph Fourier (Grenoble), 1998. https://tel.archives-ouvertes.fr/tel-00723782.

Der volle Inhalt der Quelle
Annotation:
Les etoiles ae/be de herbig, etoiles pre-sequence principale de masse intermediaire (25 m#. ), ont une activite intense et des vents stellaires importants, dont l'origine reste mysterieuse. Nous avons etudie la formation des raies dans les vents de ces etoiles. La modelisation des raies de resonance de civ, mgii et les raies et continus de l'hydrogene, pour un echantillon representatif d'etoiles, a permis de montrer que ces vents ont la meme structure generale. Nous obtenons des taux de perte de masse en accord avec les observations. La quantite d'energie dissipee dans le vent a ete estimee par le calcul des pertes radiatives. Les valeurs obtenues sont superieures a celles proposees par les modeles bases sur des disques d'accretion ou la rotation interne de l'etoile comme source d'energie. La modelisation de la raie 1240 a de nv dans le vent d'ab aur, observee avec le telescope spatial hubble, nous a conduit a developper une methode pour simuler la presence de globules chauds crees par des chocs. Cela nous a aussi permis d'expliquer l'emission x observee par rosat. Les pertes radiatives dues a ces chocs sont superieures a l'energie cinetique disponible dans le vent ; d'autres processus dissipatifs sont donc a l'oeuvre dans cette etoile. Ce travail constitue la premiere etape vers la prise en compte des ecarts a la symetrie spherique dans le vent d'ab aur. L'etude de la raie he i d3 a permis de poser les premieres contraintes sur la physique a la base du vent d'ab aur. Pour former une composante en emission decalee vers le bleu conforme aux observations, il est necessaire de considerer des gradients de vitesse et des taux de perte de masse tres eleves, ce qui montre que le vent d'ab aur est tres heterogene, meme ou il prend naissance. Ces resultats representent un ensemble de contraintes fortes, sur lequel il est desormais possible de s'appuyer pour mener a bien une etude theorique des vents des etoiles ae/be de herbig.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Tergny, Guillaume. „Allocation dynamique de portefeuille avec profil de gain asymétrique : risk management, incitations financières et benchmarking“. Phd thesis, Conservatoire national des arts et metiers - CNAM, 2011. http://tel.archives-ouvertes.fr/tel-00629049.

Der volle Inhalt der Quelle
Annotation:
Les gérants de portefeuille pour compte de tiers sont souvent jugés par leur performance relative à celle d'un portefeuille benchmark. A ce titre, ils sont amenés très fréquemment à utiliser des modèles internes de "risk management" pour contrôler le risque de sous-performer le benchmark. Par ailleurs, ils sont de plus en plus nombreux à adopter une politique de rémunération incitative, en percevant une commission de sur-performance par rapport au benchmark. En effet, cette composante variable de leur rémunération leur permet d'augmenter leur revenu en cas de sur-performance sans contrepartie en cas de sous-performance. Or de telles pratiques ont fait récemment l'objet de nombreuses polémiques : la période récente de crise financière mondiale a fait apparaître certaines carences de plusieurs acteurs financiers en terme de contrôle de risque ainsi que des niveaux de prise de risque et de rémunération jugés excessifs. Cependant, l'étude des implications de ces pratiques reste un thème encore relativement peu exploré dans le cadre de la théorie classique des choix dynamiques de portefeuille en temps continu. Cette thèse analyse, dans ce cadre théorique, les implications de ces pratiques de "benchmarking" sur le comportement d'investissement de l'asset manager. La première partie étudie les propriétés de la stratégie dynamique optimale pour l'asset manager concerné par l'écart entre la rentabilité de son portefeuille et celle d'un benchmark fixe ou stochastique (sur ou sous-performance). Nous considérons plusieurs types d'asset managers, caractérisés par différentes fonctions d'utilité et qui sont soumis à différentes contraintes de risque de sous-performance. Nous montrons en particulier quel est le lien entre les problèmes d'investissement avec prise en compte de l'aversion à la sous-performance et avec contrainte explicite de "risk management". Dans la seconde partie, on s'intéresse à l'asset manager bénéficiant d'une rémunération incitative (frais de gestion variables, bonus de sur-performance ou commission sur encours additionnelle). On étudie, selon la forme de ses incitations financières et son degré d'aversion à la sous-performance, comment sa stratégie d'investissement s'écarte de celle de l'investisseur (ou celle de l'asset manager sans rémunération incitative). Nous montrons que le changement de comportement de l'asset manager peut se traduire soit par une réduction du risque pris par rapport à la stratégie sans incitation financière soit au contraire par une augmentation de celui-ci. Finalement, nous montrons en quoi la présence de contraintes de risque de sous-performance, imposées au gérant ou traduisant son aversion à la sous-performance, peut être bénéfique à l'investisseur donnant mandat de gestion financière.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Marchand, Marielle. „Gestion de l'eau dans les piles à combustible“. Grenoble INPG, 1998. http://www.theses.fr/1998INPG0142.

Der volle Inhalt der Quelle
Annotation:
Les performances des piles a combustible sont entre autres limitees par deux problemes lies a la thermohydraulique : l'assechement des membranes et l'engorgement en eau des canaux de distribution des gaz. Ces travaux de these traitent essentiellement des problemes d'engorgement en eau dans les canaux de distribution des gaz d'une pile a combustible. Ils ont montre que trois regimes d'ecoulement etaient possibles selon la nature du gaz : l'ecoulement intermittent, l'ecoulement annulaire et l'ecoulement doublement stratifie, materialise par un film liquide localise uniquement sur les faces inferieures et superieure du canal. L'ecoulement doublement stratifie conduit aux performances de la pile les plus elevees : la diffusion des gaz, a travers le film d'eau entourant le gaz dans l'ecoulement annulaire et les poches de gaz dans l'ecoulement intermittent, represente une etape limitante. De plus, l'ecoulement intermittent genere des instabilites sur la tension de la pile, liees aux passages des bouchons d'eau liquide. Suite a ces travaux, le modele de taitel & dukler 1976 base sur un modele de contrainte interfaciale, a ete retenu pour la modelisation hydraulique, car il prend en compte la nature des ecoulements diphasiques. La correlation de chen, employee pour decrire le frottement interfacial, represente de maniere tres satisfaisante les pertes de pression cote cathode. Une nouvelle correlation a ete proposee cote anode, apres une optimisation sur des resultats experimentaux. De plus, les travaux ont montre que, dans les conditions operatoires etudiees (pression de 1,5 a 4 bar, temperature de 50 a 80c, stoechiometrie de 1,5 a 2 et densite de courant de 0,25 a 0,5 a. Cm#-#2), les humidites relatives des gaz en entree d'une cellule de 200 cm#2 peuvent etre reduites a 42%.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Mathis, Etienne. „Evaluation du risque d'inflammation de gaz imbrûlés au cours d'un incendie en milieu sous-ventilé“. Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2016. http://www.theses.fr/2016ESMA0012/document.

Der volle Inhalt der Quelle
Annotation:
Lors du déclenchement d’un incendie en milieu clos, la quantité d’oxygène du local décroît, entrainant une combustion incomplète. Des gaz chauds imbrûlés peuvent alors s’accumuler dans le local ou dans les gaines de ventilation et un accident thermique peut survenir suite à un apport d’air frais. Ce travail, réalisé pour AREVA, vise à quantifier et d’analyser ce risque, afin de pouvoir le prédire et le prévenir. Tout d’abord, une étude bibliographique a été réalisée afin de définir les paramètres d’auto-inflammation à partir du modèle de Frank-Kamenetskii. Celui-ci permet, après un bilan d’énergie, l’établissement d’un paramètre critique, δC, d’auto-inflammation du mélange. δC réunit la géométrie, la température (et la température ambiante) et la composition du mélange à l’auto-inflammation.Puis, la dégradation thermique du Polyéthylène Haute Densité en fonction de la densité surfacique de flux incident à la surface du matériau et de la sous-ventilation a été caractérisée (cinétique de dégradation, productions gazeuses). Le Cône Calorimètre à Atmosphère Contrôlée a été employé.Ce travail expérimental a permis d’obtenir plusieurs mélanges gazeux suivant les conditions. La dernière partie de l’étude a permis, à partir de δC, de poser le volume de mélange via le rayon comme critère d’auto-inflammabilité des mélanges. En imposant une température, en faisant varier la fraction volumique de chaque gaz combustible entre sa LII et LSI le risque d’accident thermique a été défini
After the beginning of a fire in a closed room, the oxygen rate in the atmosphere decreases. This implies an incomplete combustion and unburnt gases production. These ones may accumulate in the room or in ventilation pipes, and, after mixing with fresh air, auto-ignite. This could trigger a thermal accident such as backdraft. This present work, conducted for AREVA, aims to analyse this hazard and provide some methods to predict and prevent it. First, a bibliographical research, was carried on to define a mixture’s auto-ignition parameters. This study was based on Frank-Kamenetskii’s model: after establishing the energetics balance between the heat produced by combustion, and the one consumed by conduction, an auto-ignition critical parameter, δC, was defined. It reunites the system’s geometry, temperature (or the room temperature) and composition.Then, the High Density Polythene degradation in a Controlled Atmosphere Cone Calorimeter was studied. The effect on the material’s degradation of under-ventilation and of the energy brought has been tested through the oxygen concentration in the atmosphere and the incident heat flux.During this work many different gas mixtures were analyzed. On the ground of δC formula, the final step was to set the volume, through the radius (characteristic size of the system), as an auto-ignition parameter. Making the concentration of each combustible varying between the LFL and UFL and imposing the temperature allowed to predict this hazard
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ordody, De Ordod Stanislas. „Taux d'intérêt explicite et principe du partage des profits et des pertes le coefficient "q“. Paris 1, 1995. http://www.theses.fr/1995PA010047.

Der volle Inhalt der Quelle
Annotation:
La pratique du taux d'interet explicite est inapte, en raison de sa rigidite, a reagir efficacement aux aleas de l'environnement economique. Deux mecanismes d'intermediation financiere ecartent volontairement la garantie contractuelle du prix de l'argent afin de rendre celui-ci parfaitement flexible: de leur repartition periodique entre le creancier et le debiteur, preconise par les promoteurs de la finance islamique, * les tontines ou se forme le prix de l'argent. Le principe du partage des profits et pertes conserve le principe d'une renumeration des fonds pretes motive par une preference intertemporelle. Mais il prone son evaluation par l'intermediaire du taux de rendement interne (tri) qui focalise toutes les composantes de l'environnement economique faisant l'objet d'anticipations et contribuant a la decision d'entreprendre. Grace a l'intermediation des banques, le principe du partage des profits et pertes: * elimine les distorsions economiques a l'origine de bulles financieres, exprimees par le coefficient "q" de tibub, friedman, ou encore de malinvaud, stabilise ainsi la valeur intrinseque du patrimoine; le systeme economique n'est par definition plus correle au taux d'interet explicite, * absorbe les chocs aleatoires non probabilisables en les repartissant immediatement parmi l'ensemble des epargnants qui agissent comme preteurs en dernier ressort. L'economie converge plus rapidement vers un etat stable
Because of the rigidity of the explicit interest rate, its use doesn't allow the adaptation of the economy to shocks of the environnement. Two complementary financial intermediation systems voluntary renounce to the contractual guarantee on the money reward so that this one becomes completely flexible and related to the effective performance of the 39entreprise activity: * the profit and loss sharing system, defined as negociated percentage of their periodical allocations between the creditor and the debtor, as it is promted by the islamic 41banking system, * the tontines where the price of money results from the confrontation between supply and demand of liquidity. The profit and loss sharing system maintains the principle of return on money lending in accordance with the arbitration rules issued from the liquidity preference. But that return is evaluated exclusively through the internal ratio rate (irr) which concentrates all components of the economical environnement being anticipated and taken into account for the enterpreneurial decision. Thanks to the intermediation of the banks, the profit andd loss sharing system : * eliminates the economical distorsions, as represented by the "q" ratio of tobin, friedman or malinvaud, that are a source of financial "bubbles"; it stabilizes the internal value of weath; the correlation to the explicit interest rate disappears per definition
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ben, Atia Okba. „Plateforme de gestion collaborative sécurisée appliquée aux Réseaux IoT“. Electronic Thesis or Diss., Mulhouse, 2024. http://www.theses.fr/2024MULH7114.

Der volle Inhalt der Quelle
Annotation:
L'apprentissage fédéré (FL) permet aux clients de former collaborativement un modèle tout en préservant la confidentialité des données. Malgré ses avantages, le FL est vulnérable aux attaques de poisoning. Cette thèse aborde la détection des modèles malveillants dans le système FL pour les réseaux IoT. Nous fournissons une revue de littérature des techniques récentes de détection et proposons un cadre d'adaptation et de comportement sécurisé (FLSecLAB) pour renforcer le système FL contre les attaques. FLSecLAB offre une personnalisation pour évaluer les défenses à travers divers jeux de données et métriques. Nous proposons une détection améliorée de modèles malveillants avec sélection dynamique d'un seuil optimal, ciblant les attaques de changement d'étiquettes. Nous présentons une solution évolutive utilisant l'entropie et un seuil adaptatif pour détecter les clients malveillants. Nous explorons des scénarios complexes et proposons une détection novatrice contre les attaques simultanées de changement d'étiquettes et de porte dérobée. De plus, nous proposons un modèle adaptatif pour détecter les clients malveillants, abordant les défis des données Non-IID. Nous évaluons nos approches à travers divers scénarios de simulation avec différents jeux de données, et les comparons aux approches existantes. Les résultats démontrent l'efficacité de nos approches pour améliorer diverses métriques de performance de détection malveillante
Federated Learning (FL) allows clients to collaboratively train a model while preserving data privacy. Despite its benefits, FL is vulnerable to poisoning attacks. This thesis addresses malicious model detection in FL systems for IoT networks. We provide a literature review of recent detection techniques and propose a Secure Layered Adaptation and Behavior framework (FLSecLAB) to fortify the FL system against attacks. FLSecLAB offers customization for evaluating defenses across datasets and metrics. We propose enhanced malicious model detection with dynamic optimal threshold selection, targeting Label-flipping attacks. We present a scalable solution using entropy and an adaptive threshold to detect malicious clients. We explore complex scenarios and propose novel detection against simultaneous Label-flipping and Backdoor attacks. Additionally, we propose an adaptive model for detecting malicious clients, addressing Non-IID data challenges. We evaluate our approaches through various simulation scenarios with different datasets, comparing them to existing approaches. Results demonstrate the effectiveness of our approaches in enhancing various malicious detection performance metrics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

POUPARD, JULIE. „Mesure de deux caracteristiques de l'helium metastable importantes pour le refroidissement radiatif : taux de pertes par collisions en presence de lumiere quasi-resonante et taux de transition des raies interdites 2 3p 1-1 1s 0 et 2 3p 2-1 1s 0“. Paris 11, 2000. http://www.theses.fr/2000PA112349.

Der volle Inhalt der Quelle
Annotation:
Cette these etudie deux caracteristiques de l'helium importantes pour le refroidissement radiatif. Dans une premiere partie, on mesure le taux de pertes a deux corps dans un piege magneto-optique d'helium metastable. Ces pertes, accentuees en presence d'une irradiation quasi-resonante, sont principalement dues aux collisions ionisantes entre deux atomes d'helium metastable. On mesure le taux de pertes en etudiant l'evolution du nombre d'atomes dans le piege magneto-optique par observation de la fluorescence des atomes ou des ions produits par les collisions. Nous etudions aussi les variations de ce taux en fonction du desaccord des lasers piege. La deuxieme partie de la these est consacree a la description des experiences nous ayant permis de mesurer les taux de transition des raies interdites 2 3p 1-1 1s 0 et 2 3p 2-1 1s 0 de l'helium. Ces transitions limitent les performances des experiences de refroidissement radiatif. En effet, les atomes excites de l'etat metastable vers l'etat 2 3p 1 ou 2 3p 2 par les lasers de refroidissement peuvent se desexciter vers le niveau fondamental. Ils sont alors perdus pour la suite des experiences. Dans une premiere experience nous mesurons le taux de transition de 2 3p 1-1 1s 0 en excitant avec un laser une petite fraction d'atomes contenus dans un piege magneto-optique d'helium metastable vers l'etat 2 3p 1. On observe une baisse de la duree de vie du piege magneto-optique qui est la signature de la fuite des atomes vers l'etat fondamental. Dans une deuxieme experience, nous mesurons le rapport des taux de transition de 2 3p 2 et 2 3p 1 vers 1 1s 0 en effectuant le rapport des flux de photons uv emis par atome se desexcitant par l'une et l'autre des deux transitions interdites. D'apres la premiere experience, nous en deduisons le taux de transition de 2 3p 2 -1 1s 0. La determination independante de ces taux par estimation du flux absolu de photons uv emis par les atomes est compatible avec les resultats des deux premieres experiences.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Meunier, Jules. „Le 1 % logement : la participation d'une institution paritaire à la production de l'action publique : genèse, perte de légitimité et reprise en main par l'Etat“. Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1154/document.

Der volle Inhalt der Quelle
Annotation:
En transférant aux pouvoirs publics la capacité de décider l'emploi de la Participation des employeurs à l'effort de construction (PEEC), la loi de mobilisation pour le logement et la lutte contre l'exclusion du 25 mars 2009 a transformé en profondeur l'organisation du 1 % logement. L'objet de la recherche est de mettre en lumière les facteurs à l'origine d'une telle inflexion. Pour cela, l'analyse s'efforce d'explorer le passé de l'institution afin d'en extraire les éléments à même d'éclairer cet épisode récent. Elle montre que les mécanismes à l'origine de la transformation du 1 % logement – processus ancien et graduel dont la réforme de 2009 constitue la dernière manifestation en date – alimentent deux dynamiques qui influent historiquement sur la forme du gouvernement et la production des règles relatives à l'emploi des fonds du 1 % logement. La dégradation de la légitimité de l'institution, conséquence de l'impuissance des syndicats à développer une capacité de représentation dans le secteur du logement, entraîne une remise en cause de la présence des acteurs paritaires à la tête de l'institution. L'émergence au sein de l'Etat d'une volonté de reprendre en main le dispositif, effet indirect du tournant opéré pendant les années 1980 dans la conduite de l'action publique, se traduit par le transfert sur le 1 % logement d'une part croissante du coût de la politique du logement en substitution au budget de l'Etat. Dans un contexte marqué par la crise du syndicalisme et le renforcement de la contrainte budgétaire, la permanence de ces deux processus interroge aujourd'hui sur la capacité du 1 % logement à conserver un espace d'intervention dans la politique du logement
By transferring to public authorities the capacity to decide on the employment(use) of the Participation of the employers in the effort of construction ( PEEC), the law of mobilization for the accommodation(housing) and the fight against social exclusion of March 25th, 2009 transformed in depth the organization of the housing 1 %. The object of the search(research) is to bring to light factors(mailmen) at the origin of such an inflection
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Richelle, Isabelle. „Notions et traitements des soldes déficitaires en droit fiscal: aspects nationaux et internationaux, y compris les aspects de droit européen“. Doctoral thesis, Universite Libre de Bruxelles, 1999. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212043.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Dhima, Julien. „Evolution des méthodes de gestion des risques dans les banques sous la réglementation de Bale III : une étude sur les stress tests macro-prudentiels en Europe“. Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E042/document.

Der volle Inhalt der Quelle
Annotation:
Notre thèse consiste à expliquer, en apportant quelques éléments théoriques, les imperfections des stress tests macro-prudentiels d’EBA/BCE, et de proposer une nouvelle méthodologie de leur application ainsi que deux stress tests spécifiques en complément. Nous montrons que les stress tests macro-prudentiels peuvent être non pertinents lorsque les deux hypothèses fondamentales du modèle de base de Gordy-Vasicek utilisé pour évaluer le capital réglementaire des banques en méthodes internes (IRB) dans le cadre du risque de crédit (portefeuille de crédit asymptotiquement granulaire et présence d’une seule source de risque systématique qui est la conjoncture macro-économique), ne sont pas respectées. Premièrement, ils existent des portefeuilles concentrés pour lesquels les macro-stress tests ne sont pas suffisants pour mesurer les pertes potentielles, voire inefficaces si ces portefeuilles impliquent des contreparties non cycliques. Deuxièmement, le risque systématique peut provenir de plusieurs sources ; le modèle actuel à un facteur empêche la répercussion propre des chocs « macro ».Nous proposons un stress test spécifique de crédit qui permet d’appréhender le risque spécifique de crédit d’un portefeuille concentré, et un stress test spécifique de liquidité qui permet de mesurer l’impact des chocs spécifiques de liquidité sur la solvabilité de la banque. Nous proposons aussi une généralisation multifactorielle de la fonction d’évaluation du capital réglementaire en IRB, qui permet d’appliquer les chocs des macro-stress tests sur chaque portefeuille sectoriel, en stressant de façon claire, précise et transparente les facteurs de risque systématique l’impactant. Cette méthodologie permet une répercussion propre de ces chocs sur la probabilité de défaut conditionnelle des contreparties de ces portefeuilles et donc une meilleure évaluation de la charge en capital de la banque
Our thesis consists in explaining, by bringing some theoretical elements, the imperfections of EBA / BCE macro-prudential stress tests, and proposing a new methodology of their application as well as two specific stress tests in addition. We show that macro-prudential stress tests may be irrelevant when the two basic assumptions of the Gordy-Vasicek core model used to assess banks regulatory capital in internal methods (IRB) in the context of credit risk (asymptotically granular credit portfolio and presence of a single source of systematic risk which is the macroeconomic conjuncture), are not respected. Firstly, they exist concentrated portfolios for which macro-stress tests are not sufficient to measure potential losses or even ineffective in the case where these portfolios involve non-cyclical counterparties. Secondly, systematic risk can come from several sources; the actual one-factor model doesn’t allow a proper repercussion of the “macro” shocks. We propose a specific credit stress test which makes possible to apprehend the specific credit risk of a concentrated portfolio, as well as a specific liquidity stress test which makes possible to measure the impact of liquidity shocks on the bank’s solvency. We also propose a multifactorial generalization of the regulatory capital valuation model in IRB, which allows applying macro-stress tests shocks on each sectorial portfolio, stressing in a clear, precise and transparent way the systematic risk factors impacting it. This methodology allows a proper impact of these shocks on the conditional probability of default of the counterparties of these portfolios and therefore a better evaluation of the capital charge of the bank
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Bouvatier, Vincent. „Essais sur le crédit, les banques et l'équilibre macroéconomique“. Phd thesis, Université Panthéon-Sorbonne - Paris I, 2007. http://tel.archives-ouvertes.fr/tel-00226331.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur les fluctuations de court terme sur le marché du crédit et leurs implications pour les actions de la banque centrale. Trois déterminants importants de ces fluctuations sont abordés : les mouvements de capitaux, la réglementation bancaire et la politique monétaire.
Le premier chapitre se focalise sur l'économie de la Chine. D'importantes entrées de capitaux en 2003-2004 se sont traduites par une accumulation à un rythme soutenu de réserves de change. Le premier chapitre cherche ainsi à évaluer l'efficacité des mesures de stérilisation prises par la banque centrale pour parvenir à conserver le contrôle des conditions monétaires domestiques et plus précisément de la progression des crédits.
Le deuxième et le troisième chapitre portent sur la réglementation sur les provisions pour pertes. Dans le deuxième chapitre, un modèle théorique en équilibre partiel d'une firme bancaire représentative est développé. Ce modèle et les simulations réalisées permettent de comparer les effets des différentes règles de provisionnement sur les fluctuations du marché du crédit. Dans le troisième chapitre, une approche empirique est adoptée afin d'évaluer si les pratiques de provisionnement des banques en Europe affectent les variations des crédits distribués.
Le quatrième chapitre s'intéresse aux effets de la politique monétaire sur les taux d'intérêt des crédits. Un modèle structurel de petite taille intégrant des rigidités réelles et nominales est développé. Ce modèle permet d'estimer les rigidités sur les taux d'intérêt des crédits, d'analyser leurs déterminants et d'évaluer leur rôle dans la transmission des effets de la politique monétaire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Dubecq, Simon. „Stress-Test Exercises and the Pricing of Very Long-Term Bonds“. Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00871760.

Der volle Inhalt der Quelle
Annotation:
In the first part of this thesis, we introduce a new methodology for stress-test exercises. Our approach allows to consider richer stress-test exercises, which assess the impact of a modification of the whole distribution of asset prices' factors, rather than focusing as the common practices on a single realization of these factors, and take into account the potential reaction to the shock of the portfolio manager. The second part of the thesis is devoted to the pricing of bonds with very long-term time-to-maturity (more than ten years). Modeling the volatility of very long-term rates is a challenge, due to the constraints put by no-arbitrage assumption. As a consequence, most of the no-arbitrage term structure models assume a constant limiting rate (of infinite maturity). The second chapter investigates the compatibility of the so-called "level" factor, whose variations have a uniform impact on the modeled yield curve, with the no-arbitrage assumptions. We introduce in the third chapter a new class of arbitrage-free term structure factor models, which allows the limiting rate to be stochastic, and present its empirical properties on a dataset of US T-Bonds.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Lafortune, Edwige. „Violence meurtrière et désordre social dans la perle des Antilles : un portrait des homicides en Haïti“. Thèse, 2016. http://hdl.handle.net/1866/18685.

Der volle Inhalt der Quelle
Annotation:
Cette étude porte sur la violence meurtrière en Haïti, qui selon plusieurs auteurs est maintenant à l'état endémique. Pourtant, son taux d’homicide officiel (10.2 par 100 000 habitants) se situe seulement légèrement au-dessus de la moyenne mondiale, mais demeure beaucoup plus bas que celui d'autres pays des Caraïbes ou d'Amérique Centrale. Le premier objectif de ce mémoire est de déterminer si le taux officiel proposé par l’Office des Nations Unies contre la drogue et le crime (UNODC) représenterait une sous-estimation du phénomène. Afin de répondre à cet objectif, de nouvelles données provenant de la Commission Nationale Épiscopale Justice et Paix (CÉ-JILAP), qui recense les homicides s’étant produits dans l’ensemble du pays durant l’année 2012, ont été employées. Ces données ont été colligées à l’aide d’une grille comprenant des informations au sujet des victimes, des suspects et du motif du crime. Le second objectif de cette recherche est d'examiner la situation en Haïti face à celle de ses pays voisins. Pour ce faire, nous utilisons le cadre conceptuel et les données de l'Enquête mondiale sur l'homicide (EMH). Le but est de présenter les facteurs macro qui peuvent avoir un impact sur les taux de criminalité en Haïti. Les données de la CÉ-JILAP révèlent que le taux d’homicide de 10.2 par 100 000 habitants serait une sous-estimation du taux réel des homicides. Celui-ci se situerait plutôt entre 12.5 et 17.9 par 100 000 habitants. En ce qui concerne les données de l’EMH, les résultats démontrent que, comparativement aux autres pays, Haïti était plus touché par les conditions sociales adverses ce qui expliquerait la prévalence plus grande de l'homicide. En Haïti, l’on note la présence de types d'homicides rares que l'on retrouve peu dans les autres pays, soit des homicides liés au lynchage et à la sorcellerie.
This study pertains to deadly violence in Haiti, which, according to scholars, has reached an endemic state. However, its homicide rate (10.2 per 100 000 inhabitants) is slightly above the global average. The first objective of the current study is to determine whether this rate, suggested by the United Nations Office on Drugs and Crime (UNODC) represents an under estimation of the total number of homicides being perpetrated in this country. In order to meet this objective, disaggregated data on homicides in Haiti will be presented. Data from the Commission Nationale Épiscopale Justice et Paix (CÉ-JILAP), compiling homicide incidents which took place in 2012 are used (n = 1 133). The information was collected by using a coding sheet, which included information pertaining to victims, suspects and crime motive. The second objective of this project is to present these factors in the Haitian context, and to compare them to the situation in other countries across North America, Latin America and the Caribbean. We used the data and dynamic theory of homicide proposed by the World Homicide Survey (WHS) to this end. Questionnaires were distributed to informants hailing from 11 countries in order to further understand the manifestations of crime in this region. The data from the CÉ-JILAP reveal that the figure proposed by the UNODC is an underestimation of the actual homicide rate in Haiti. The estimated rate would be between 12,5 and 17,9 per 100 000 inhabitants. With regards to the WHS, results show that, compared to other countries, adverse social conditions such as poverty and inequality were very present in Haiti. Furthermore, informants noted a higher frequency of rare forms of homicides, such as lynching and homicides related to witchcraft.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Traore, Cheick Alassane. „Mesure du taux de pertes des sources de crédit et de financement externe dans les cas d'insolvabilité commerciale faisant l'objet d'une procédure de redressement en vertu du droit canadien et analyse exploratoire de la sensibilité de ce taux à divers facteurs“. Thèse, 2014. http://depot-e.uqtr.ca/7558/1/030826427.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Tongbong, J. „Conception et évaluation d'une technique de DfT pour un amplificateur faible bruit RF“. Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00481911.

Der volle Inhalt der Quelle
Annotation:
Le test en production des circuits intégrés analogiques RF (Radio Fréquences) est coûteux aussi bien en ressources (équipement spécifique) qu'en temps. Afin de réduire le coût du test, des techniques de DfT (Design for Test) et d'auto test (BIST, Built-in-Self-Test) sont envisagées bien qu'actuellement inutilisées par l'industrie du semi-conducteur. Dans cette thèse, nous concevons et évaluons une technique d'auto test pour un amplificateur faible bruit (LNA, Low Noise Amplifier) RF. Cette technique utilise des capteurs intégrés pour la mesure du courant de consommation et de la tension en sortie du circuit à tester. Ces capteurs fournissent en sortie un signal basse fréquence. La qualité de la technique de BIST est évaluée en fonction des métriques de test qui tiennent compte des déviations du process et de la présence de fautes catastrophiques et paramétriques. Pour obtenir une estimation des métriques de test avec une précision de parts-par-million, un premier échantillonnage du circuit à tester est obtenu par simulation électrique Monte Carlo. Par la suite, un modèle statistique de la densité de probabilité conjointe des performances et des mesures de test du circuit est obtenu. Finalement, l'échantillonnage de ce modèle statistique nous permet la génération d'un million de circuits. Cette population est alors utilisée pour la fixation des limites de test des capteurs et le calcul des métriques. La technique d'auto test a été validée sur un LNA en technologie BiCMOS 0.25m, utilisant différents modèles statistiques. Une validation au niveau layout a été faite afin d'obtenir des résultats aussi proches que possible lors d'un test en production d'une population de circuits.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie