Дисертації з теми "Quantification des risques"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Quantification des risques.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Quantification des risques".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Barnier, Thibaud de. "Evaluation quantitative des risques industriels avec incertitudes par la méthode du noeud papillon. Application sur un cas d'étude concret." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse quantitative des risques est devenue un outil d’aide à la prise de décisions pour toutes les activités industrielles exposées à des risques d'accidents majeurs. En France, depuis l'accident d'AZF, la réglementation a évolué et exige désormais des études de sécurité quantitatives pour évaluer et réduire les risques technologiques. Cette analyse a encore une forte marge d’amélioration, dont celle d’intégrer les incertitudes inhérentes aux probabilités d’occurrence d’événements et scénarios susceptibles de se produire. L’évaluation des risques industriels par la méthode du nœud papillon n’échappe pas à ce besoin d'évolution. A travers le traitement d’un cas d'étude concret proposé par Technip Energies, cette étude conduit une analyse pratique de la résolution du nœud papillon qui intègre les incertitudes aléatoires et épistémiques liées aux évènements et barrières de sécurité présents dans le nœud papillon
Quantitative risk analysis has become a decision-making tool for all industrial activities exposed to the risk of major accidents. In France, since the AZF accident, regulations have changed and now require quantitative safety studies to assess and reduce technological risks. There is still considerable margin for improvement in this analysis, including the incorporation of the uncertainties inherent in the probabilities of occurrence of events and scenarios likely to occur. The assessment of industrial risks using the bow-tie method is no exception to this need for development. Through the treatment of a concrete case study proposed by Technip Energies, this study provides a practical analysis of the resolution of the bow-tie that integrates the aleatoric and epistemic uncertainties linked to the events and safety barriers present in the bow-tie
2

Laplante-Albert, Kathy-Andrée. "Quantification des risques de mortalité liés à l'habitat chez des espèces de poissons lacustres /." Thèse, Trois-Rivières : Université du Québec à Trois-Rivières, 2008. http://www.uqtr.ca/biblio/notice/resume/30077744R.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Laplante-Albert, Kathy-Andrée. "Quantification des risques de mortalité liés à l'habitat chez des espèces de poissons lacustres." Thèse, Université du Québec à Trois-Rivières, 2008. http://depot-e.uqtr.ca/1891/1/030077744.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Hassani, Bertrand Kian. "Quantification des risques opérationnels : méthodes efficientes de calcul de capital basées sur des données internes." Paris 1, 2011. http://www.theses.fr/2011PA010009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les risques opérationnels sont les risques de pertes résultant d'une inadéquation ou d'une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet. Procédure non sécurisée), de son personnel (erreur, malveillance et fraude) des systèmes internes (panne informatique,. . . ) ou à des risques externes (inondation, incendie,. . . ). Elles ont attiré l'attention des autorités, suites aux pertes et banqueroutes qu'elles ont engendrées. Pour les modéliser, le régulateur impose aux institutions l'utilisation de données internes, de données externes, de scénarios et certains critères qualitatifs. Utilisant des données internes, dans le cadre de la Loss Distribution Approach, nous proposons plusieurs méthodes innovantes pour estimer les provisions inhérentes à ces risques. La première innovation traitant des méthodes de convolutions suggère de mélanger les simulations de Monte Carlo, l'estimation de la densité par noyaux et l'algorithme de Panjer pour construire la distribution de perte. La seconde solution se concentre sur la modélisation de la queue droite des distributions de sévérité utilisant plusieurs résultats de la théorie des valeurs extrêmes et les méthodes d'estimation de paramètres de distributions tronquées. La troisième méthode que nous présentons s'intéresse aux calculs de VaR multivariés. Mettant en oeuvre des grappes de copules pour capter certains comportements particuliers tels que la dépendance de queue, nous fournissons un nouveau type d'architectures permettant de calculer la VaR globale.
5

Sauvage, Hélène. "Détection et quantification d'Aphanomyces euteiches dans les parcelles agricoles pour la prévention des risques phytosanitaires." Rouen, 2007. http://www.theses.fr/2007ROUES080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Coutard, François. "Quantification de l'expression de gènes de virulence chez Vibrio parahaemolyticus dans le milieu marin." Nantes, 2007. http://www.theses.fr/2007NANT2005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Winter, Anne. "Evaluation model of a supply chain's sustainability performance and risk assessment model towards a redesign process : case study at Kuehne + Nagel Luxembourg." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD044/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le présent travail, le concept de durabilité a été redéfini pour que la compréhension commune puisse être garantie. Un modèle d'évaluation du degré de durabilité d'une chaîne logistique existante a été conçu par la suite. Ce modèle a été testé de façon empirique à travers une étude de cas. En appliquant l'amélioration continue, il faut que cette évaluation soit suivie d'un processus de reconception de la chaîne logistique en question. Cependant, Il est important qu'une évaluation des risques soit réalisée auparavant. Pour cette raison, un modèle de quantification des risques a été développé. Le modèle peut considérer soit les risques débouchant sur une reconception, soit les risques dus à une reconception. Une étude de cas basée sur les risques débouchant sur une reconception de la chaîne logistique a été mise en place pour prouver l'applicabilité du modèle dans un environnement réel. Les résultats qui découlent du modèle doivent être considérés comme étant une aide à la décision
Ln the present work, the sustainabillty concept has been redeflned so that common understanding can be guaranteed. Subsequently, a model intended to evaluate an existent supply chain's overall degree of sustainability has been developed and empirically tested through a case study. Considering the approach of continuous improvement, this evaluation should be followed by a redesign of the considered supply chain. However, a risk assessment needs to be done ex-ante. Forthis reason, a risk Identification and quantification model has been evolved. This model may consider bath, the risks leading to the redesign process and the risks resultlng from the redesign phase. A case study, which considers the risks leading to a redesign phase, has been implemented so that the model's feasibility in a real business' environment can be proved. The model's outcomes must not be mistaken for ultimate results but need to be considered being a decision support for managers
8

Roullier, Vincent. "Classification floue et modélisation IRM : application à la quantification de la graisse pour une évaluation optimale des risques pathologiques associés à l'obésité." Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00348028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse traitent de l'apport de l'incertitude, de l'imprécision et de l'a priori en traitement d'images médicales, dans le cadre d'outils d'aide au diagnostic des pathologies conséquentes de l'obésité et du surpoids. Deux parties composent ce travail : une modélisation du signal IRM d'une séquence prototype fournie par GE, et une méthode de classification floue adaptée pour répondre aux attentes des experts radiologistes et anatomopathologistes. Le signal IRM est issu des différents constituants du voxel. Afin de déterminer la proportion de graisse dans le tissu, les signaux issus de l'eau et de la graisse sont déterminées par régression à partir des images IRM obtenues en prenant en compte un a priori sur le bruit présent sur les images. Considéré de Gauss sur les images réelles et imaginaires, et de Rice sur les images amplitudes, cet a priori sur le bruit a permis de mettre en évidence l'apport de l'utilisation des données brutes lors de la quantification de la proportion de graisse et d'eau par rapport à une quantification uniquement effectuée sur les données amplitudes. La méthode de classification présentée ici permet une dépendance à longue distance lors du calcul des centroïdes. Cette méthode combinée à un algorithme de connectivité floue est adaptée à la mesure de la graisse viscérale et souscutanée. Elle fut également utilisée pour la quantification des vacuoles de triglycérides présentes sur des biopsies hépatiques. De part la proportion très hétérogène des vacuoles de stéatose, fonction du degré de la pathologie, nous avons amélioré l'algorithme de classification par une supervision permettant d'orienter la classification afin de se dédouaner de cette hétérogénéité. La classification est ensuite combinée à un système expert permettant d'éliminer les erreurs de classification survenues. L'ensemble des méthodes fut évalué dans le cadre d'expérimentations animales et de différents protocoles de recherche clinique.
9

Bräutigam, Marcel. "Pro-cyclicality of risk measurements. Empirical quantification and theoretical confirmation." Thesis, Sorbonne université, 2020. http://www.theses.fr/2020SORUS100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse analyse, d’un point de vue empirique et théorique, la procyclicité des mesures de risque sur les données historiques, i.e. l'effet de surestimation du risque futur en temps de crise, et sa sous-estimation en temps normal. Nous développons une méthodologie pour évaluer empiriquement le degré de procyclicité, en introduisant un processus de quantiles (« Value-at-Risk ») historiques pour mesurer le risque. En appliquant cette procédure à 11 indices boursiers, nous identifions deux facteurs expliquant la procyclicité : le « clustering » et le retour à la moyenne de la volatilité (tel que modélisée par un GARCH(1,1)), mais aussi la façon intrinsèque d'estimer le risque sur des données historiques (même en l'absence de dynamique de la volatilité). Pour confirmer théoriquement ces arguments, nous procédons en deux étapes. Premièrement, nous démontrons des théorèmes bivariés (fonctionnels) de limite centrale pour les estimateurs de quantiles avec différents estimateurs de dispersion. Comme modèles de base, nous considérons les suites de variables aléatoires iid, ainsi que la classe des processus GARCH(p,q) augmentés. Enfin, ces résultats asymptotiques permettent de valider théoriquement la procyclicité observée empiriquement. Généralisant cette étude à d’autres mesures de risque et de dispersion, nous concluons que la procyclicité persistera quel que soit le choix de ces mesures
This thesis examines, empirically and theoretically, the pro-cyclicality of risk measurements made on historical data. Namely, the effect that risk measurements overestimate the future risk in times of crisis, while underestimating it in quiet times. As starting point, we lay down a methodology to empirically evaluate the amount of pro-cyclicality when using a sample quantile (Value-at-Risk) process to measure risk. Applying this procedure to 11 stock indices, we identify two factors explaining the pro-cyclical behavior: The clustering and return-to-the-mean of volatility (as modeled by a GARCH(1,1)) and the very way of estimating risk on historical data (even when no volatility dynamics are present). To confirm these claims theoretically, we proceed in two steps. First, we derive bivariate (functional) central limit theorems for quantile estimators with different measure of dispersion estimators. We establish them for sequences of iid random variables as well as for the class of augmented GARCH(p,q) processes. Then, we use these asymptotics to theoretically prove the pro-cyclicality observed empirically. Extending the setting of the empirical study, we show that no matter the choice of risk measure (estimator), measure of dispersion estimator or underlying model considered, pro-cyclicality will always exist
10

Fares, Almabrouk. "Risque de salmonellose humaine liée à la consommation de fromage à pâte molle au lait cru : développement d'un modèle pour l'appréciation quantitative du risque." Phd thesis, AgroParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003463.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l'aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de Camembert fromage au lait cru. Les lacunes qui sont en général identifiées pour l'appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons developeé une méthode rapide, sensible et fiable pour la quantification des salmonelles dans le lait artificiellement contaminé. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1- 5 ufc/mL) du lait peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans des échantillons de lait. Afin d'évaluer l'utilité de cette analyse de quantification, nous l'avons appliquée aux échantillons naturellement contaminés de lait de tank d'exploitations laitières situées dans l'Ouest de la France. Huit (2,68%) des 299 échantillons de lait de tank étaient trouvés positifs, avec des comptes estimés de nombre plus probable s'étendant de 3,7 à 79,2 /mL de lait. En dépit des problèmes d'inhibition observés avec quelques échantillons de lait, l'application de l'analyse par PCR en temps réel pour mesurer des salmonelles dans le lait cru s'est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation des risques potentiels liés aux salmonelles dans le lait cru et les produits à base de lait cru il était nécessaire d'examiner la vii capacité des salmonelles à se développer dans le lait. Par conséquent, nous présentons dans cette thèse des modèles primaires et secondaires décrivant mathématiquement la croissance des salmonelles (S. Typhimurium et S. Montevideo) dans le lait à température constante pendant différentes périodes d'incubation. Le modèle logistique avec délai a été employé pour décrire la croissance des salmonelles en fonction du temps. Les taux de croissance spécifiques de S. Typhimurium et de S. Montevideo différent selon le sérotype et la température. Les taux de croissance maximum ont été alors modélisés en fonction de la température en utilisant le modèle cardinal secondaire de Rosso. Les valeurs cardinales obtenues avec S. Typhimurium et S. Montevideo étaient: Tmin 3,02, 3,40 ; Topt 38,44, 38,55 et Tmax 44,51, 46,97°C, respectivement. À la température optimum de croissance (Topt) les taux de croissance maximum étaient 1,36 et 1,39 log10 ufc/h-1 pour S. Typhimurium et S. Montevideo respectivement. Les modèles primaires et secondaires ont permis de bons ajustements aux données de croissance avec un pseudo R2 = 0.97-0.99. Un modèle d'appréciation du risque de salmonellose humaine liée à la consommation de Camembert au lait cru est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 25 g du fromage. Le 99th percentile du nombre de cellules de salmonelles dans les portions de 25 g de fromage était 5 cellules à l'heure de la consommation, correspondant à 0,2 cellule des salmonelles par gramme. Le risque de salmonellose par portion de 25 g est compris entre 0 et 1,2 × 10-7 avec une médiane de 7,4 × 10-8. Pour 100 millions de portions de 25g, le nombre de cas de salmonellose prévue par le modèle est en moyenne de 7,4. Quand la prévalence est réduite dans le modèle d'un facteur de 10, le nombre de cas par 100 millions de portions est réduit à moins de 1 cas. En dépit des limites et des données manquantes, nous avons démontré l'avantage de l'appréciation du viii risque non seulement comme outil d'évaluation de risque mais également comme dispositif d'aide à la prise de décision et à la gestion des risques.
11

Letortu, P. "Le recul des falaises crayeuses haut-normandes et les inondations par la mer en Manche centrale et orientale : de la quantification de l'aléa à la caractérisation des risques induits." Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-01018719.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la quantification de deux aléas que sont le recul des falaises crayeuses en Haute-Normandie et les inondations par la mer en Manche centrale et orientale. Ces phénomènes générateurs de dommages, interdépendants, ont un fonctionnement méconnu qui se manifeste par des événements d'intensité et de fréquence variées. La démarche quantitative adoptée s'appuie sur une approche systémique et par emboîtement d'échelles spatiales et temporelles. Ce travail intègre le rapport fréquence/intensité des événements, et par conséquent, l'efficacité des facteurs et des processus responsables de leur déclenchement. Ce travail vise à : 1) calculer les vitesses et les rythmes de recul des falaises ; 2) déterminer les facteurs responsables du déclenchement des mouvements gravitaires ; 3) quantifier la production de débris et les taux d'ablation du front de falaise ; 4) évaluer les évolutions en fréquence et en intensité des submersions marines ; 5) déterminer l'origine de ces évolutions ; 6) réfléchir sur les méthodes de cartographie de l'aléa " inondation par la mer " et " recul des falaises ".
12

Letortu, Pauline. "Le recul des falaises crayeuses haut-normandes et les inondations par la mer en Manche centrale et orientale : de la quantification de l’aléa à la caractérisation des risques induits." Caen, 2013. https://tel.archives-ouvertes.fr/tel-01018719.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la quantification de deux aléas que sont le recul des falaises crayeuses en Haute-Normandie et les inondations par la mer en Manche centrale et orientale. Ces phénomènes générateurs de dommages, interdépendants, ont un fonctionnement méconnu qui se manifeste par des événements d’intensité et de fréquence variées. La démarche quantitative adoptée s’appuie sur une approche systémique et par emboîtement d’échelles spatiales et temporelles. Ce travail intègre le rapport fréquence/intensité des événements, et par conséquent, l’efficacité des facteurs et des processus responsables de leur déclenchement. Ce travail vise à : 1) calculer les vitesses et les rythmes de recul des falaises ; 2) déterminer les facteurs responsables du déclenchement des mouvements gravitaires ; 3) quantifier la production de débris et les taux d’ablation du front de falaise ; 4) évaluer les évolutions en fréquence et en intensité des submersions marines ; 5) déterminer l’origine de ces évolutions ; 6) réfléchir sur les méthodes de cartographie de l’aléa «inondation par la mer » et « recul des falaises »
This thesis focuses on the quantification of two hazards that are coastal chalk cliff retreat in Upper Normandy and coastal flooding events in the central and eastern English Channel. These interdependent phenomena that generate damages have a little-known functioning which is characterized by events of varying intensity and frequency. The quantitative work is based on a systemic approach and on an approach that joints spatial and temporal scales together. This work integrates the frequency/intensity ratio, and therefore the effectiveness of the factors and processes responsible for their trigger. This work aims to:1) calculate the retreat rates and retreat rhythms of cliffs;2) identify the factors responsible for triggering falls; 3) quantify the production of debris and ablation rate of the cliff face; 4) assess the changes in frequency and intensity of coastal flooding events; 5) determine the origin of these changes; 6) think about the methods of mapping the hazards « coastal flooding » and « cliff retreat »
13

Mathey, Marguerite. "Quantification haute résolution du champ de déformation 3D des Alpes occidentales : interprétations tectoniques et apports à l’aléa sismique Seismogenic potential of the High Durance Fault constrained by 20 yr of GNSS measurements in the Western European Alps." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALU033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La chaîne alpine est l'une des premières à avoir été instrumentées au monde, à la fois par géodésie spatiale et par sismologie, principalement en raison de sa sismicité modérée mais régulière. A partir de la grande quantité de données de géodésie spatiale et de sismologie aujourd'hui disponibles, il est désormais possible d’établir un champ de déformation 3D haute résolution de la croûte supérieure dans les Alpes occidentales. Ce champ, constitué des mesures géodésiques de déformation de surface, et des caractéristiques de déformation sismique, doit permettre d'établir les liens entre déformations horizontale, verticale, et sismicité. Nous utilisons au cours de cette thèse une approche multidisciplinaire, basée sur 25 années d'enregistrements sismiques, 20 années de mesures GPS (Global Positioning System) de campagne et permanentes, et 4 années d'acquisitions satellitaires Sentinel-1 pour contraindre le champ de déformation 3D correspondant.L’analyse de la déformation sismique à partir de la base de données Sismalp a permis d’atteindre une résolution de la variabilité spatiale du style de déformation inégalée jusqu’ici dans les Alpes occidentales. Au centre de la chaîne, le calcul des mécanismes au foyer et leur inversion en termes de contraintes principales montrent pour la première fois une orientation de l'extension systématiquement défléchie par rapport à l'axe normal à la chaîne, apportant ainsi des éléments novateurs en termes d’implications géodynamiques. L'interpolation bayésienne du mode de déformation sismique en surface et en profondeur révèle un mode décrochant dextre prédominant sur le pourtour de l'arc alpin occidental, associé à un mode compressif uniquement localisé.Le traitement des données GPS de quatre campagnes de mesures (1996, 2006, 2011, 2016), conjointement aux solutions permanentes RENAG (Réseau National GPS permanent), a permis d’augmenter la résolution des champs de vitesses et de déformation de surface à l’échelle des Alpes occidentales. Il apparaît que le maximum de déformation horizontale est localisé dans le Briançonnais et est compatible avec de la déformation intersismique accommodée par au moins une faille (Faille de la Haute Durance). La comparaison des taux de sismicité issus des mesures GPS et de ceux issus des catalogues de sismicité confirme que, à l'échelle locale et en prenant en compte les incertitudes respectives, la déformation sismique peut être suffisante pour expliquer la déformation horizontale observée dans le Briançonnais. Toutefois à l'échelle de l'arc alpin occidental, les taux de déformation géodésiques demeurent un ordre de grandeur supérieurs aux taux de déformation sismique déduits à la fois des périodes instrumentale et historique.Le traitement en interférométrie satellitaire de quatre années consécutives de données Sentinel-1, quant à lui, a permis pour la première fois dans cette région de s’affranchir de la couverture neigeuse et végétale pour obtenir une carte de vitesses le long de la ligne de visée du satellite à l’échelle de l'arc alpin occidental. Cette dernière a révélé des variations spatiales de courte longueur d'onde de la surrection dans les Alpes occidentales, corrélées spatialement avec les massifs cristallins externes et avec les variations prédites par plusieurs modèles d'isostasie.Ces travaux ont permis d'augmenter la résolution spatiale des déformations de surface horizontale, verticale et sismique de manière inédite à l'échelle des Alpes occidentales. Le champ de déformation 3D correspondant permet de jeter un regard nouveau sur les processus pouvant être à l’origine de la déformation actuelle de la chaîne alpine, ainsi que d'apporter des contraintes inédites sur les paramètres d'entrée nécessaires au calcul d'aléa sismique
The Alpine range is one of the first monitored mountain belts worldwide, both by seismic networks and space geodesy (GNSS), in particular due to its moderate but steady seismicity. Permanent GNSS measurements demonstrated that uplift is the main signal characterizing the current deformation in the European western Alps, reaching up to 2 mm/yr, while no shortening is observed across the belt. Based on the incredible amount of geodetic and seismic data available today, it now appears possible to constrain a new high resolution crustal strain field in the western Alps. This 3D field, made of surface deformation measurements and of the seismic deformation characteristics, is of primary importance in order to decipher the links between horizontal, vertical and seismic deformations. We rely for the present work on a multidisciplinary approach that aims at integrating 25 years long seismic records, 20 years of GPS measurements, and 4 years of Sentinel-1 satellite acquisitions, in order to establish the corresponding 3D strain rate field.For the first time in the western Alps, the spatial variability of the style of seismic deformation is robustly assessed, thanks to the analysis of the Sismalp (ISTerre Grenoble) database. New focal mechanisms computation along with principal stresses inversions have led to establish new orientations for the extensive deformation component, which occurs mainly in the center of the belt. As for the highly resolved 3D field of style of deformation, provided by Bayesian interpolations of focal mechanisms both at the surface and at depth, it reveals a vast majority of dextral strike-slip deformation occurring at the periphery of the belt, associated, in one specific area, with compression. These results bring new insights in the dynamics of the western alpine belt.Four GPS surveys (conducted in 1996, 2006, 2011 and 2016), along with the data provided by the permanent RENAG network, allowed us to increase the spatial resolution of the surface velocity and strain rate fields at the scale of the western Alps. These high resolution geodetic fields reveal that the amplitude of the extensive signal is at the highest in the Briançonnais area, while its kinematics appear consistent with interseismic deformation accommodated on at least one fault (the High Durance Fault). Longer-term seismic records show that, at least at the local scale, seismic and geodetic deformation patterns seem consistent within their uncertainty bounds in terms of kinematics and amplitude. At the regional scale of the entire western Alps though, geodetic strain rates appear one order of magnitude higher than the seismic ones, the latter comprising both instrumental and historical seismicity.Finally, four years of Sentinel-1 acquisitions appear to be the minimum time span required in order to derive long-term velocity maps in the satellite line of sight at the scale of the western Alps. The interferometric processing of the corresponding data allowed for the first time to get rid of the effects of snow and vegetation in a consistent way. The results feature short scale spatial variations in the uplift pattern, which are spatially correlated to crystalline external Alpine massifs as well as to the uplift patterns predicted by several isostatic adjustment models.This multidisciplinary work enabled us to increase the spatial resolution both of horizontal and vertical surface deformations and of seismic crustal deformation. The related 3D strain rate field sheds new lights on the various processes from which seismicity and deformation can originate. This 3D strain rate field moreover brings new constraints on several primary inputs to seismic hazard assessment models
14

Hammadi, Lamia. "Custom supply chain engineering : modeling and risk management : application to the customs." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR23.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sécurité, la sûreté et l’efficacité de la chaîne logistique internationale revêtent une importance capitale pour le gouvernement, pour ses intérêts financiers et économiques et pour la sécurité de ses résidents. À cet égard, la société est confrontée à des multiples menaces, telles que le trafic illicite de drogues, d’armes ou autre type de contrebande, ainsi que la contrefaçon et la fraude commerciale. Pour contrer (détecter, prévenir, enquêter et atténuer) ces menaces, le rôle des douanes se pose en tant que gardiens du commerce international et acteurs principaux de la sécurisation de la chaîne logistique internationale. Les douanes interviennent à tous les stades de l'acheminement des marchandises ; toutes les transactions en provenance ou à destination des pays doivent être traitées par leurs services douaniers. Dans un tel environnement, les douanes deviennent un élément essentiel de la chaîne logistique. Nous adoptons ce point de vue, avec un accent particulier sur les opérations douanières et, pour souligner cet objectif, nous appelons cette analyse "chaîne logistique douanière". Dans cette thèse, nous avons tout d’abord mis en place le concept de chaîne logistique douanière, en identifiant les acteurs et les liens structurels entre eux, puis en établissant la cartographie des processus, l’approche d’intégration et le modèle de mesure de performance du concept proposé. Deuxièmement, nous développons une nouvelle approche de gestion de risques dans la chaîne logistique douanière basée sur une approche qualitative. Une telle approche conduit à identifier les classes de risques et à recommander les meilleures solutions afin de réduire le niveau de risque. Notre approche est appliquée dans la douane Marocaine en considérant la criticité comme un indicateur de risque en premier temps, en appliquant la méthode AMDEC (Analyse des modes de défaillance, de leurs effets et de leur criticité) et la méthode ABC croisée et le poids prioritaire en deuxième temps, en utilisant la méthode AHP (Analytic Hierarchy Process) et la méthode AHP floue (c.-à-d. Évaluation de risques sous incertitude); puis une analyse comparative des deux indicateurs est effectuée afin d’examiner l’efficacité des résultats obtenus. Enfin, nous développons des modèles stochastiques pour les séries chronologiques de risques qui abordent le défi le plus important de la modélisation de risques dans le contexte douanier : la Saisonnalité. Plus précisément, nous proposons d’une part des modèles basés sur la quantification des incertitudes pour décrire les comportements mensuels. Les différents modèles sont ajustés en utilisant la méthode de coïncidence des moments sur des séries temporelles de quantités saisies du trafic illicite dans cinq sites. D'autre part, des modèles de Markov cachés sont ajustés à l'aide de l'algorithme EM sur les mêmes séquences d’observations. Nous montrons que nos modèles permettent avec précision de gérer et de décrire les composantes saisonnières des séries chronologiques de risques dans le contexte douanier. On montre également que les modèles ajustés sont interprétables et fournissent une bonne description des propriétés importantes des données, telles que la structure du second ordre et les densités de probabilité par saison et par site
The security, safety and efficiency of the international supply chain are of central importance for the governments, for their financial and economic interests and for the security of its residents. In this regard, the society faces multiple threats, such as illicit traffic of drugs, arms and other contraband, as well as counterfeiting and commercial fraud. For countering (detecting, preventing, investigating and mitigating) such threats, the role of customs arises as the gatekeepers of international trade and the main actor in securing the international supply chain. Customs intervene in all stages along the routing of cargo; all transactions leaving or entering the country must be processed by the custom agencies. In such an environment, customs become an integral thread within the supply chain. We adopt this point of view, with a particular focus on customs operations and, in order to underline this focus, we refer to this analysis as “customs supply chain”. In this thesis, we firstly set up the concept of customs supply chain, identify the actors and structural links between them, then establish the process mapping, integration approach and performance model. Secondly, we develop a new approach for managing risks in customs supply chain based on qualitative analysis. Such an approach leads to identify the risk classes as well as recommend best possible solutions to reduce the risk level. Our approach is applied in Moroccan customs by considering the criticality as a risk indicator. In a first time we use Failure Modes Effects Criticality Analysis (FMECA) and Cross Activity Based Costing (ABC) Method and priority weight; in the second time we use Analytic Hierarchy Process (AHP) and Fuzzy AHP (i.e., risk assessment under uncertainty); then a benchmarking of the two indicators is conducted in order to examine the effectiveness of the obtained results. Finally, we develop stochastic models for risk time series that address the most important challenge of risk modeling in the customs context: Seasonality. To be more specific, we propose on the one hand, models based on uncertainty quantification to describe monthly components. The different models are fitted using Moment Matching method to the time series of seized quantities of the illicit traffic on five sites. On the other hand, Hidden Markov Models which are fitted using the EM-algorithm on the same observation sequences. We show that these models allow to accurately handle and describe the seasonal components of risk time series in customs context. It is also shown that the fitted models can be easily interpreted and provide a good description of important properties of the data such as the second-order structure and Probability Density Function (PDFs) per season per site
15

Gatti, Filippo. "Analyse physics-based de scénarios sismiques «de la faille au site» : prédiction de mouvement sismique fort pour l’étude de vulnérabilité sismique de structures critiques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC051/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’ambition de ce travail est la prédiction du champ d’onde incident réalistique, induit par des mouvement forts de sol, aux sites d’importance stratégique, comme des centrales nucléaires. À cette fin, un plateforme multi-outil est développé et exploité pour simuler les aspects différents d’un phénomène complexe et multi-échelle comme un tremblement de terre. Ce cadre computationnel fait face à la nature diversifiée d’un tremblement de terre par approche holistique local-régionale.Un cas d’étude complexe est choisie: le tremblement de terre MW6.6 Niigata-Ken Ch¯uetsu-Oki, qui a endommagé la centrale nucléaire de Kashiwazaki-Kariwa. Les effets de site non-linéaires observés sont à premier examinés et caractérisés. Dans la suite, le modèle 3D «de la faille au site» est construit et employé pour prédire le mouvement sismique dans une bande de fréquence de 0-7 Hz. L’effet de la structure géologique pliée au-dessous du site est quantifié en simulant deux chocs d’intensité modérée et en évaluant la variabilité spatiale des spectres de réponse aux différents endroits dans le site nucléaire. Le résultat numérique souligne le besoin d’une description plus détaillée du champ d’onde incident utilisé comme paramètre d’entrée dans la conception structurel antisismique de réacteurs nucléaires et des installations. Finalement, la bande de fréquences des signaux synthétiques obtenues comme résultat des simulations numériques est agrandie en exploitant la prédiction stochastique des ordonnées spectrales à courte période fournies par des Réseaux Artificiels de Neurones
The ambition of this work is the prediction of a synthetic yet realistic broad-band incident wave-field, induced by strong ground motion earthquakes at sites of strategic importance, such as nuclear power plants. To this end, an multi-tool platform is developed and exploited to simulate the different aspects of the complex and multi-scale phenomenon an earthquake embodies. This multi-scale computational framework copes with the manifold nature of an earthquake by a holistic local-to-regional approach. A complex case study is chosen to this end: is the MW6.6 Niigata-Ken Ch¯uetsu-Oki earthquake, which damaged the Kashiwazaki-Kariwa nuclear power plant. The observed non-linear site-effects are at first investigated and characterized. In the following, the 3D source-to-site model is constructed and employed to provide reliable input ground motion, for a frequency band of 0-7 Hz. The effect of the folded geological structure underneath the site is quantified by simulating two aftershocks of moderate intensity and by estimating the spatial variability of the response spectra at different locations within the nuclear site. The numerical outcome stresses the need for a more detailed description of the incident wave-field used as input parameter in the antiseismic structural design of nuclear reactors and facilities. Finally, the frequency band of the time-histories obtained as outcome of the numerical simulations is enlarged by exploiting the stochastic prediction of short-period response ordinates provided by Artificial Neural Networks
16

Niang, Ibrahima. "Quantification et méthodes statistiques pour le risque de modèle." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En finance, le risque de modèle est le risque de pertes financières résultant de l'utilisation de modèles. Il s'agit d'un risque complexe à appréhender qui recouvre plusieurs situations très différentes, et tout particulièrement le risque d'estimation (on utilise en général dans un modèle un paramètre estimé) et le risque d'erreur de spécification de modèle (qui consiste à utiliser un modèle inadéquat). Cette thèse s'intéresse d'une part à la quantification du risque de modèle dans la construction de courbes de taux ou de crédit et d'autre part à l'étude de la compatibilité des indices de Sobol avec la théorie des ordres stochastiques. Elle est divisée en trois chapitres. Le Chapitre 1 s'intéresse à l'étude du risque de modèle dans la construction de courbes de taux ou de crédit. Nous analysons en particulier l'incertitude associée à la construction de courbes de taux ou de crédit. Dans ce contexte, nous avons obtenus des bornes de non-arbitrage associées à des courbes de taux ou de défaut implicite parfaitement compatibles avec les cotations des produits de référence associés. Dans le Chapitre 2 de la thèse, nous faisons le lien entre l'analyse de sensibilité globale et la théorie des ordres stochastiques. Nous analysons en particulier comment les indices de Sobol se transforment suite à une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth. Le Chapitre 3 de la thèse s'intéresse à l'indice de contraste quantile. Nous faisons d'une part le lien entre cet indice et la mesure de risque CTE puis nous analysons, d'autre part, dans quelles mesures une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth entraine une augmentation de l'indice de contraste quantile. Nous proposons enfin une méthode d'estimation de cet indice. Nous montrons, sous des hypothèses adéquates, que l'estimateur que nous proposons est consistant et asymptotiquement normal
In finance, model risk is the risk of loss resulting from using models. It is a complex risk which recover many different situations, and especially estimation risk and risk of model misspecification. This thesis focuses: on model risk inherent in yield and credit curve construction methods and the analysis of the consistency of Sobol indices with respect to stochastic ordering of model parameters. it is divided into three chapters. Chapter 1 focuses on model risk embedded in yield and credit curve construction methods. We analyse in particular the uncertainty associated to the construction of yield curves or credit curves. In this context, we derive arbitrage-free bounds for discount factor and survival probability at the most liquid maturities. In Chapter 2 of this thesis, we quantify the impact of parameter risk through global sensitivity analysis and stochastic orders theory. We analyse in particular how Sobol indices are transformed further to an increase of parameter uncertainty with respect to the dispersive or excess wealth orders. Chapter 3 of the thesis focuses on contrast quantile index. We link this latter with the risk measure CTE and then we analyse on the other side, in which circumstances an increase of a parameter uncertainty in the sense of dispersive or excess wealth orders implies and increase of contrast quantile index. We propose finally an estimation procedure for this index. We prove under some conditions that our estimator is consistent and asymptotically normal
17

Pichené, Anne. "Quantification des facteurs de risque biomecaniques du syndrome du canal carpien." Nancy 1, 1994. http://www.theses.fr/1994NAN11192.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Dambra, Savino. "Data-driven risk quantification for proactive security." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS356.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La faisabilité et l'efficacité des mesures proactives dépendent d'une cascade de défis: comment quantifier les cyber-risques d'une entité, quels indicateurs peuvent être utilisés pour les prédire, et de quelles sources de données peuvent-ils être extraits? Dans cette thèse, nous énumérons les défis auxquels les praticiens et les chercheurs sont confrontés lorsqu'ils tentent de quantifier les cyber-risques et nous les examinons dans le domaine émergent de la cyber-assurance. Nous évaluons ensuite l'incidence de différentes mesures et postures de sécurité sur les risques d'infection par des logiciels malveillants et évaluons la pertinence de neuf indicateurs pour étudier la nature systématique de ces risques. Enfin, nous démontrons l'importance de la sélection des sources de données dans la mesure des risques. Nous nous penchons sur le 'web tracking' et démontrons à quel point les risques liés à la vie privée sont sous-estimés lorsque l'on exclut la perspective des utilisateurs
The feasibility and efficacy of proactive measures depend upon a cascading of challenges: how can one quantify the cyber risks of a given entity, what reliable indicators can be used to predict them, and from which data sources can they be extracted? In this thesis, we enumerate active challenges that practitioners and researchers face when attempting to quantify cyber-risks and contextualise them in the emerging domain of cyber insurance, and propose several research directions. We then explore some of these areas, evaluate the incidence that different security measures and security postures have on malware-infection risks and assess the goodness of nine host- extracted indicators when investigating the systematic nature of those risks. We finally provide evidence about the importance that data-source selection together with a holistic approach have on risk measurements. We look at web-tracking and demonstrate how underestimated privacy risks are when excluding the users' perspective
19

Caillot, Véronique. "Quantification statistique et étude expérimentale de mouvements sismiques : application à l'évaluation du risque." Grenoble 1, 1992. http://www.theses.fr/1992GRE10033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les reglementations parasismiques, les mouvements forts sont caracterises par des spectres reglementaires adaptes aux conditions de site. Les formes spectrales ainsi specifiees dans les reglements en vigueur de par le monde sont tres dispersees. Ce travail est donc une analyse critique et une reactualisation des methodes de caracterisation des mouvements forts pour l'evaluation de l'alea sismique. Une etude preliminaire basee sur les donnees accelerometriques du reseau dense smart1 (taiwan) permet de quantifier la variabilite intrinseque du spectre de reponse. Ensuite, 115 enregistrements accelerometriques du reseau italien correspondant a 3 types de site sont utilises pour quantifier statistiquement les mouvements forts d'une part, par l'intermediaire du spectre de reponse, et d'autre part, par leur duree, dont une nouvelle definition en fonction de la frequence est proposee. Des relations empiriques liant d'une part, le spectre de reponse, et d'autre part, la duree, a la magnitude, la distance hypocentrale et aux conditions de site sont calculees pour chaque frequence. La technique de regression multilineaire ponderee fournit un resultat statistiquement plus satisfaisant que la regression en deux etapes. Les variations de la duree en fonction des parametres precedemment cites sont significatives et doivent etre considerees dans le cadre de l'evaluation de l'alea sismique: celle-ci est notamment plus elevee sur les sols non rigides que sur le rocher. Le resultat obtenu pour les spectres et pour les sols non rigides est instable du fait de la dispersion des caracteristiques geotechniques des sols au sein de cette categorie. Cela met en evidence l'importance des reconnaissances geotechniques et des etudes de microzonage. La derniere partie de ce memoire est ainsi consacree a l'etude experimentale des effets de site dans la vallee du nekor (maroc) et montre que pour des sites tres proches des failles actives, les effets de site peuvent etre masques par des effets de source
20

Baud, Céline. "Le crédit sous Bâle II - un dispositif néolibéral de financiarisation en pratiques." Thesis, Jouy-en Josas, HEC, 2013. http://www.theses.fr/2013EHEC0007/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Comment la réglementation internationale organise-t-elle la régulation des activités de crédit ? Pour répondre à cette question, cette thèse propose d’analyser le dispositif prudentiel relatif aux risques de crédit issu de la réforme des Accords de Bâle de 2004, dits « Accords de Bâle II », et de suivre ce dispositif des lieux institutionnels de sa production – le Comité de Bâle – à son interprétation dans les pratiques quotidiennes d’une banque. La thèse décrit la communauté transnationale et le projet libéral qui ont initié le processus de réforme des Accords de Bâle. Puis, elle analyse le dispositif réglementaire lui-même et montre qu’il marque un basculement vers un mode de gouvernement néolibéral qui est couplé avec un projet de financiarisation des activés de crédit. Enfin, la thèse étudie la manière dont le nouveau dispositif réglementaire a été mise en œuvre dans une banque mutualiste française spécialisée dans le financement des PME et conclut que la nouvelle réglementation participe activement au désencastrement et à la financiarisation des relations de crédit
How does international regulation organize credit activities ? In order to address this question, this thesis analyzes the regulatory standards for assessing and controlling credit risks defined by the 2004 reform of the Basel Agreements on Capital Adequacy, the so-called Basel II Agreements, and it traces the genealogy of these standards from where and when they have been constructed – in the Basel Committee from 1998 to 2004 – down to their effects on the daily practices of a bank. The thesis describes the transnational community and the liberal project that launched the Basel Agreements reform process. Then it analyzes the regulatory framework itself and suggests that Basel II marks a shift within the regulatory regime of credit risk. Indeed it demonstrates that the norms are embedded in a financialized representation of credits and that they are implemented following a neoliberal mode of government. Finally, the thesis investigates how the new norms have been translated into a french cooperative bank specialized in SME lending and it concludes that the new regulatory framework is actively participating in the disembeddedness and in the financialization of credit relationships
21

Charvat, Hadrien. "Le risque attribuable : de la quantification de l’impact populationnel des facteurs de risque à la mesure de l’importance relative des biomarqueurs." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10320.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le risque attribuable est un outil épidémiologique apparu dans les années 1950 aujourd’hui encore assez peu utilisé. Il permet d’estimer la proportion de cas d’une maladie potentiellement évitable par suppression ou réduction de l’exposition d’une population à un facteur de risque. Son principal intérêt réside dans la prise en compte concomitante de l’ampleur d’effet du facteur de risque et de la distribution de ce facteur au sein de la population. Après une présentation des caractéristiques essentielles du risque attribuable et des principes de son estimation à partir d’une étude cas-témoins, nous proposons un cadre conceptuel qui permet d’estimer l’impact d’une intervention de santé publique dans une nouvelle population dont l’exposition à certains facteurs de risque diffère de celle observée dans la population d’étude. Une décomposition du risque attribuable permet alors de prendre en compte l’action combinée, ou synergie, des facteurs de risque dans la survenue de la maladie. Parce qu’il donne une dimension populationnelle à l’estimation de l’effet d’une variable, le risque attribuable est particulièrement intéressant pour quantifier l’importance relative des différentes variables explicatives d’un modèle de régression. La question de l’importance relative des biomarqueurs classiques et de ceux issus des technologies à haut débit dans les modèles diagnostiques est actuellement centrale pour établir les apports respectifs de ces deux niveaux d’information. À partir de simulations, nous montrons comment l’apport des nouvelles technologies, quantifié en termes de risque attribuable, peut être faussé par l’utilisation de méthodologies inadaptées
The attributable risk is an epidemiologic tool that dates back to the fifties but is still relatively seldom used. It estimates the proportion of cases of a given disease that could be avoided if the exposure to a specific risk factor was removed or reduced. Its major interest is that it combines the magnitude of the effect of the risk factor to the distribution of this factor within the population. After a review of the attributable risk main features and the principles of its estimation from case-control studies data, we propose a conceptual framework that allows estimating the impact of a public health intervention in a new population with different exposure to certain risk factors than those observed in the study population. To reach this goal, we used a splitting of the attributable risk that takes into account the combined action –or synergy– of the risk factors on the occurrence of the disease. Because the attributable risk allows estimating the effect of a variable at the population level, it is particularly interesting to quantify the relative importance of the covariates of a regression model. In diagnostic models, the estimation of the relative importance of classic biomarkers and biomarkers obtained from high-throughput technologies is currently crucial in establishing the contribution of each of these two levels of information. Using simulations we have demonstrated the way the role of high-throughput-technologies –quantified in terms of attributable risk– may be wrongly assessed through the use of unsuitable methodology
22

Gassiat, Paul. "Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentiel." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00651357.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
23

Demotier, Sabrina. "Approches probabiliste et crédibiliste de quantification du risque de production d'une eau non-conforme." Compiègne, 2004. http://www.theses.fr/2004COMP1501.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Afin de minimiser les risques sanitaires et financiers dus à la distribution d'une eau potable nonconforme à la législation, il est nécessaire de définir une filière de traitement efficace, sans augmenter le coût de production. Cette thèse propose donc une approche d'aide à la conception de filière, basée sur la quantification du risque de production d'une eau non conforme. Dans un premier temps, des méthodes classiques de sûreté de fonctionnement (AMDEC, Arbres de défaillances,. . . ) sont utilisées pour calculer la probabilité de non-conformité de l'eau en sortie de station. Cette approche prend en compte la qualité de l'eau brute à traiter, les caractéristiques techniques de la filière de traitement envisagée ainsi que les défaillances possibles. Dans un deuxième temps et afin de pallier les incertitudes et le manque de données de ce modèle, la théorie des fonctions de croyance est appliquée, et permet de définir le degré de crédibilité dans le respect de la législation
Ln order to minimize sanitary and financial risks due to the distribution of drinking water non-compliant with current legislation, it is fundamental to define an efficient treatment process line, without increasing production cost. This thesis thus proposes a decision aid approach dedicated to treatment plant design, based on quantification of non-compliant water production risk. Ln a first step, usual dependability methods (FMECA, Fault trees. . . ) are used in order to calculate probability of non-compliant water production. This approach takes into account quality of raw water to be treated, technical characteristics of treatment line as weil as possible failures mode. Ln a second time and in order to mitigate uncertainties in this model and lack of data, the belief function theory is applied and permits to define the credibility degree of compliant water production
24

Sanson, Francois. "Estimation du risque humain lié à la retombée d'objets spatiaux sur Terre." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX035.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réglementations récentes imposent la rentrée dans l’atmosphère d'objects spatiaux artificiels en fin de vie et la quantification du risque humain associé. Le calcul du risque repose sur des simulations numériques de la réentrée de l'objet.Ces simulations multi-physiques utilisent des modèles mathématiques simplistes et se basent sur une connaissance imparfaite des conditions de réentrée. Dans ce travail, nous proposons de nouvelles techniques de quantification d’incertitude pour améliorer la robustesse des prédictions de réentrée. Dans un premier temps, un simulateur de réentrée est assemblé. La prédiction de la réentrée d'un objet étant un problème multi-physique complexe, notre simulateur utilise un système de solveurs chaînés dans lequel chaque solveur simule une phase de la réentrée avec sa physique particulière. Nous développons ensuite deux stratégies pour réaliser la propagation d'incertitude à faible cout dans notre simulateur. Ces deux stratégies s’appuient sur des modèles de substitutions.La première stratégie de substitution de modèle est une approche générique permettant d'approcher un système de solveurs chaînés par un système de processus gaussiens (System of Gaussian Processes, SoGP). Cette approximation probabiliste est construite en représentant chaque solveur (ou groupe de solveurs) par un processus gaussien (GP). Nous montrons que la variance prédictive du SoGP est décomposable en contributions associées à chaque GP. Cette décomposition de la variance est ensuite exploitée pour concevoir des stratégies d’apprentissage actif et générer des ensembles d'entrainement parcimonieux en renforçant l’apprentissage du GP le moins fiable. La performance du SoGP est étudiée sur plusieurs cas analytiques et industriels. Dans toutes les situations considérées, le SoGP surpasse les approches plus directes.La seconde contribution de la thèse porte sur la construction de modèle de substitution pour la prédiction de la survie d'objets spatiaux. Lors de la réentrée, un objet spatial se fragmente et génère des débris. Certains débris brulent dans l'atmosphère tandis que d'autres atteignent le sol. Pour évaluer la survie d'un fragment, il faut déterminer s’il atteint le sol et, si c'est le cas, évaluer son point de chute et le risque associé. Dans ce travail, on propose une formulation originale du problème de la survie pour calculer efficacement le risque avec un modèle de substitution. Ce modèle de substitution repose sur la composition d'un classificateur et d'un processus gaussien. Le modèle est entraîné à l'aide d'une stratégie d'apprentissage actif dédiée qui équilibre les contributions du classificateur et du GP à l’erreur de prédiction de la survie, en proposant des plans d'entrainement adaptés.Pour finir, les méthodes proposées dans la thèse sont appliquées à la simulation de la réentrée contrôlée d’un étage supérieur de fusée et la survie des fragments qui en résulte. Un grand nombre d’incertitudes (38) sont prises en compte et propagées, comprenant les caractéristiques de l’orbite initiale, les conditions de désorbitation, les propriétés du matériau de l’étage supérieur, les entrées du modèle d’atmosphère et les propriétés des matériaux des fragments. De plus, un modèle probabiliste de fragmentation est utilisé pour prédire de manière robuste la rupture de l'objet en tenant compte des incertitudes de modélisation. Les méthodes développées dans la thèse permettent d’estimer à un coût de calcul raisonnable les statistiques des conditions de vol au moment de la fragmentation, la probabilité de survie de chaque fragment et le risque humain associé. Une analyse de sensibilité globale montre que les incertitudes les plus influentes sont liées au modèle de fragmentation et aux conditions de désorbitation. Cette étude démontre ainsi la capacité de notre simulateur à produire une mesure robuste du risque au sol, sur un scénario de réentrée réaliste, et à un coût numérique acceptable
Recent regulations impose the re-entry of human-made end-of-life space object with a rigorous assessment of the risk for human assets. The risk evaluation requires sequences of complex numerical simulations accounting for the multi-physics phenomena occurring during the reentry of a space object, e.g., fluid-structure interactions and heat transfer. Further, these simulations are inaccurate because they rely on overly simplified models and partial knowledge of the reentry conditions.In this thesis, we propose novel uncertainty quantification techniques to deal with some of the uncertainties characterizing the problem and apply them to predict the risk for human assets due to the reentry of a space object.First, we construct a system of solvers to predict both the controlled or uncontrolled reentry of space objects. Compared to the existing reentry software, our system naturally accommodates the uncertainty in the object breakup predictions. Moreover, the constitutive solvers are interfaced and coupled within a framework that allows a single user to perform parallel runs of the full system.Second, we present two original methods to propagate the uncertainties in reentry predictions using the system of solvers. First, we construct a surrogate model approximating the directed systems of solvers, using a system of Gaussian Processes (SoGP). We build this probabilistic surrogate by approximating each solver (or a group of solvers) of the directed system by a Gaussian Process (GP). We show that the predictive variance of the SoGP is composed of individual contributions from each GP.We use this decomposition of the variance decomposition to develop active learning strategies based on training datasets which are enriched parsimoniously to improve the prediction of the least reliable GP only. We assessed the performance of the SoGP on several analytical and industrial cases. The SoGP coupled with active learning strategies yielded systematically significant improvements.The second method aims at predicting the survivability of space objects. During a space reentry event, the object can break up and generate fragments. Some fragments disintegrate in the atmosphere while others survive to the ground. Assessing the survivability of a fragment implies determining whether it reaches the ground or not and if it does, the impact location and the risk associated. We propose an original formulation of the survivability assessment problem to efficiently estimate the risk. The proposed method involves the composition of a classifier (demise prediction) with a Gaussian Process (impact location prediction).Dedicated active learning strategies are designed to balance the prediction errors of the classifier and GP and allocate training samples adequately.Finally, we apply the methods developed in the thesis to the prediction of the controlled reentry of a rocket upper-stage. The problem involves a large number of uncertainties (38), including the initial orbit properties, the deorbiting conditions, the upper stage material characteristics, the atmosphere model parameters, and the fragment material uncertainties. Moreover, we use a probabilistic breakup model for the object breakup to account for the model uncertainties. With our methods, we estimate at a reasonable computational cost the statistics of the conditions at breakup, the survival probability of the fragments, the casualty area, and the human risk. Global sensitivity analyses of the breakup conditions and casualty area provide a ranking of the most critical uncertainties. This study demonstrates the capability of our surrogate simulator to produce a robust measure of on-ground risk for a realistic reentry scenario
25

Margheri, Luca. "Etude de l'impact des incertitudes dans l'évaluation du risque NRBC provoqué en zone urbaine." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066453.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dispersion d'agents biologiques hautement pathogène dans une zone urbanisée après un acte terroriste est l'une des situations que les agences de sécurité nationales ont besoin d'évaluer en termes des risques et de la prise de décision. La simulation numérique des écoulements turbulents dans les zones urbaines, y compris la surveillance de la dispersion des polluants, a atteint un niveau de maturité suffisant pour faire des prédictions sur les zones urbaines réalistes jusqu'à 4 km2. Les simulations existantes sont déterministes dans le sens que tous les paramètres qui définissent le cas étudié (l'intensité et la direction du vent, la stratification atmosphérique, l'emplacement de la source des émissions, etc.) devraient être bien connu. Cette précision ne peut être atteint dans la pratique en raison d'un manque de connaissances sur la source d'émissions et de l'incertitude aléatoire intrinsèque des conditions météorologiques.Pour augmenter la contribution de la simulation numérique pour l'évaluation des risques et la prise de décision, il est essentiel de mesurer quantitativement l'impact d'un manque de connaissances en termes de résolution spatiale et temporelle des zones de danger.L'objet de cette thèse est d'appliquer des méthodes de quantification d'incertitude pour quantifier l'impact de ces incertitudes dans l'évaluation des zones de danger à moyenne portée dans des scénarios de dispersion de gaz toxiques. Une méthode hybride c-ANOVA et POD/Krigeage permet d'envisager jusqu'à 5 paramètres incertains dans une simulation 3D-CFD haute fidélité non-stationnaire de la dispersion d'un gaz toxique provenant d'une source type flaque dans une zone urbaine de 1km2
The dispersion of highly pathogenic biological agents in an urbanized area following a terrorist act is one of the situations that national security agencies need to evaluate in terms of risk assessment and decision-making. The numerical simulation of turbulent flows in urban areas, including monitoring the dispersion of pollutants, has reached a sufficient level of maturity to make predictions on realistic urban zones up to 4 square kilometers. However, the existing simulations are deterministic in the sense that all the parameters that define the case studied (intensity and wind direction, atmospheric stratification, source of emissions location, quantity of injected toxic agent, etc.) should be well known. Such precision cannot be achieved in practice due to a lack of knowledge about the source of emission and the intrinsic aleatoric uncertainty of the meteorological conditions. To significantly increase the contribution of numerical simulation for risk assessment and decision-making, it is essential to quantitatively measure the impact of a lack of knowledge especially in terms of spatial and temporal resolution of the danger zones. The object of this thesis is to apply uncertainty quantification methods to quantify the impact of these uncertainties in the evaluation of the danger zones in medium range toxic gas dispersion scenarios. A hybrid method merging c-ANOVA and POD/Kriging allows to consider up to 5 uncertain parameters in a high-fidelity unsteady 3D-CFD simulation of the dispersion of a toxic gas from a pond-like source in an urban area of 1km2
26

Margheri, Luca. "Etude de l'impact des incertitudes dans l'évaluation du risque NRBC provoqué en zone urbaine." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066453.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dispersion d'agents biologiques hautement pathogène dans une zone urbanisée après un acte terroriste est l'une des situations que les agences de sécurité nationales ont besoin d'évaluer en termes des risques et de la prise de décision. La simulation numérique des écoulements turbulents dans les zones urbaines, y compris la surveillance de la dispersion des polluants, a atteint un niveau de maturité suffisant pour faire des prédictions sur les zones urbaines réalistes jusqu'à 4 km2. Les simulations existantes sont déterministes dans le sens que tous les paramètres qui définissent le cas étudié (l'intensité et la direction du vent, la stratification atmosphérique, l'emplacement de la source des émissions, etc.) devraient être bien connu. Cette précision ne peut être atteint dans la pratique en raison d'un manque de connaissances sur la source d'émissions et de l'incertitude aléatoire intrinsèque des conditions météorologiques.Pour augmenter la contribution de la simulation numérique pour l'évaluation des risques et la prise de décision, il est essentiel de mesurer quantitativement l'impact d'un manque de connaissances en termes de résolution spatiale et temporelle des zones de danger.L'objet de cette thèse est d'appliquer des méthodes de quantification d'incertitude pour quantifier l'impact de ces incertitudes dans l'évaluation des zones de danger à moyenne portée dans des scénarios de dispersion de gaz toxiques. Une méthode hybride c-ANOVA et POD/Krigeage permet d'envisager jusqu'à 5 paramètres incertains dans une simulation 3D-CFD haute fidélité non-stationnaire de la dispersion d'un gaz toxique provenant d'une source type flaque dans une zone urbaine de 1km2
The dispersion of highly pathogenic biological agents in an urbanized area following a terrorist act is one of the situations that national security agencies need to evaluate in terms of risk assessment and decision-making. The numerical simulation of turbulent flows in urban areas, including monitoring the dispersion of pollutants, has reached a sufficient level of maturity to make predictions on realistic urban zones up to 4 square kilometers. However, the existing simulations are deterministic in the sense that all the parameters that define the case studied (intensity and wind direction, atmospheric stratification, source of emissions location, quantity of injected toxic agent, etc.) should be well known. Such precision cannot be achieved in practice due to a lack of knowledge about the source of emission and the intrinsic aleatoric uncertainty of the meteorological conditions. To significantly increase the contribution of numerical simulation for risk assessment and decision-making, it is essential to quantitatively measure the impact of a lack of knowledge especially in terms of spatial and temporal resolution of the danger zones. The object of this thesis is to apply uncertainty quantification methods to quantify the impact of these uncertainties in the evaluation of the danger zones in medium range toxic gas dispersion scenarios. A hybrid method merging c-ANOVA and POD/Kriging allows to consider up to 5 uncertain parameters in a high-fidelity unsteady 3D-CFD simulation of the dispersion of a toxic gas from a pond-like source in an urban area of 1km2
27

Favier, Philomène. "Une approche intégrée du risque avalanche : quantification de la vulnérabilité physique et humaine et optimisation des structures de protection." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU051/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La quantification du risque avalanche à long terme dans un but de zonage et d'optimisation des moyens de protection est fait dans la plupart des pays sur la base de la connaissance des événements de forte intensité. Ces approches fondées sur les périodes de retours, centrées uniquement sur l'aléa, ne considèrent pas explicitement les éléments à risque étudiés (bâtiments, personnes à l'intérieur, etc.) et négligent les possibles contraintes budgétaires. Afin de palier à ces limitations, les méthodes de zonage basés sur le risque et les analyses coût-bénéfice ont récemment émergées. Elles combinent la distribution de l'aléa avec les relations de vulnérabilité des éléments étudiés. Ainsi, l'évaluation systématisée de la vulnérabilité des bâtiments permet de mieux quantifier le risque dans un couloir d'avalanche donné. Cependant, en pratique, les relations de vulnérabilité disponibles restent principalement limitées à de rares estimations empiriques déduites de l'analyse de quelques catastrophes survenues. De plus, les méthodes existantes basées sur le risque font face à des calculs encore lourds, et les hypothèses sur la modélisation de l'aléa sont discutables (choix de quelques scénarios, faible considération des valeurs extrêmes, etc.). Dans cette thèse, ces problèmes sont abordés en construisant grâce à une approche fiabiliste des relations de fragilité de différents configurations de bâtiments en béton armé (BA) sollicités par des avalanches de neige et également des relations de fragilité pour les personnes potentiellement à l'intérieur de ces bâtiments. Ces relations sont ensuite utilisées dans un cadre de quantification du risque et de recherche de structure de défense optimale. L'apport de cette thèse est donc l'enrichissement de la caractérisation de la vulnérabilité et du risque face aux avalanches par des approches de complexités variables utilisables en fonction de la spécificité du cas et du temps imparti pour conduire l'étude. La thèse est composée de quatre volets. D'abord, les courbes de fragilité associées à différents états limites de murs en BA soumis au chargement uniforme d'une avalanche sont obtenues à partir d'approches classiques de dimensionnement du BA. Ensuite, l'approche est étendue à des modèles numériques de bâtis plus riches (modèle masse-ressort) permettant de décrire en particulier l'évolution temporelle de la réponse du système. A partir de ces relations de fragilité, de nouvelles relations pour les personnes à l'intérieur de ces bâtiments sont proposées. Ces relations pour les bâtiments et les personnes sont utilisées dans une analyse complète de sensibilité du risque. Enfin, une formule analytique du risque basée sur la statistique des valeurs extrêmes est proposée pour efficacement quantifier le risque et obtenir une caractéristique optimale de digue paravalanche
Long term avalanche risk quantification for mapping and the design of defense structures is done in mostcountries on the basis of high magnitude events. Such return period/level approaches, purely hazardoriented,do not consider elements at risk (buildings, people inside, etc.) explicitly, and neglect possiblebudgetary constraints. To overcome these limitations, risk based zoning methods and cost-benefit analyseshave emerged recently. They combine the hazard distribution and vulnerability relations for the elementsat risk. Hence, the systematic vulnerability assessment of buildings can lead to better quantify the riskin avalanche paths. However, in practice, available vulnerability relations remain mostly limited to scarceempirical estimates derived from the analysis of a few catastrophic events. Besides, existing risk-basedmethods remain computationally intensive, and based on discussable assumptions regarding hazard modelling(choice of few scenarios, little consideration of extreme values, etc.). In this thesis, we tackle theseproblems by building reliability-based fragility relations to snow avalanches for several building types andpeople inside them, and incorporating these relations in a risk quantification and defense structure optimaldesign framework. So, we enrich the avalanche vulnerability and risk toolboxes with approaches of variouscomplexity, usable in practice in different conditions, depending on the case study and on the time availableto conduct the study. The developments made are detailed in four papers/chapters.In paper one, we derive fragility curves associated to different limit states for various reinforced concrete(RC) buildings loaded by an avalanche-like uniform pressure. Numerical methods to describe the RCbehaviour consist in civil engineering abacus and a yield line theory model, to make the computations asfast as possible. Different uncertainty propagation techniques enable to quantify fragility relations linkingpressure to failure probabilities, study the weight of the different parameters and the different assumptionsregarding the probabilistic modelling of the joint input distribution. In paper two, the approach is extendedto more complex numerical building models, namely a mass-spring and a finite elements one. Hence, muchmore realistic descriptions of RC walls are obtained, which are useful for complex case studies for whichdetailed investigations are required. However, the idea is still to derive fragility curves with the simpler,faster to run, but well validated mass-spring model, in a “physically-based meta-modelling” spirit. Inpaper three, we have various fragility relations for RC buildings at hand, thus we propose new relationsrelating death probability of people inside them to avalanche load. Second, these two sets of fragilitycurves for buildings and human are exploited in a comprehensive risk sensitivity analysis. By this way,we highlight the gap that can exist between return period based zoning methods and acceptable riskthresholds. We also show the higher robustness to vulnerability relations of optimal design approaches ona typical dam design case. In paper four, we propose simplified analytical risk formulas based on extremevalue statistics to quantify risk and perform the optimal design of an avalanche dam in an efficient way. Asensitivity study is conducted to assess the influence of the chosen statistical distributions and flow-obstacleinteraction law, highlighting the need for precise risk evaluations to well characterise the tail behaviour ofextreme runouts and the predominant patterns in avalanche - structure interactions
28

De, Moya Jean-François. "Essais sur l'adoption des technologies de quantification de soi : une approche critique." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAB001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse sur travaux explore l’adoption des technologies et des pratiques de quantification de soi avec un positionnement critique. Il s’agit de mieux comprendre l’expérience des utilisateurs avec les technologies de quantification de soi, telles que les bracelets connectés, et de questionner la contribution réelle de ces technologies au bien-être et à la santé des individus. Le premier essai présente une revue de la littérature systématique sur la quantification de soi et un agenda de recherche pour les chercheurs en management. Le deuxième essai est une étude qualitative qui révèle les relations de pouvoir qu’entretiennent les utilisateurs avec la technologie. Le troisième essai s’intéresse aux mécanismes sous-jacents qui guident la décision de l’utilisateur afin d’identifier les facteurs d’adoption d’une technologie de quantification de soi
This thesis by articles explores the adoption of technologies and practices of quantified-self with a critical stance. The aim is to have a better understanding of users' experiences with self-quantization technologies, such as connected bracelets, and to question the real contribution of these technologies to the well-being and health of individuals. The first essay presents a systematic literature review on quantified-self and a research agenda for business researchers. The second essay is a qualitative study that reveals the power relationships that users have with technology. The third essay focuses on the underlying mechanisms that guide the user's decision in order to identify the factors that lead to the adoption of a quantified-self technology
29

Monpoeho, Dé Mondé Serge. "Quantification genomique de deux virus enteriques (enterovirus et hav) dans les boues de stations d'epuration. Estimation de l'impact sanitaire lie a leur valorisation agricole." Nantes, 2001. http://www.theses.fr/2001NANT08VS.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Dagnas, Stéphane. "Développement d'une méthode de quantification du risque d'altération de produits alimentaires par les moisissures. Applications aux produits de Boulangerie, Viennoiserie, Pâtisserie." Nantes, 2015. https://doc-agro.oniris-nantes.fr/GED_ONI/192147991032/Manuscrit_these_Dagnas_finale_version_protegee.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les produits de Boulangerie-Viennoiserie-Pâtisserie (BVP) représentent un marché de plus de six milliards d’euros en France et de 40 milliards d’euros en Europe. Avec des volumes produits importants, ces aliments n’échappent pas aux phénomènes actuels de gaspillage alimentaire, dus, en partie, à de l’altération par les moisissures. Afin d’évaluer cette altération pour mieux la contrôler, ce travail de thèse visait à développer une méthode de quantification du risque d’altération de produits BVP par les moisissures
Bakery products represent a six billion euro market in France and a 40 billion euro market in Europe. With great volumes manufactured, these products do not avoid the current food waste phenomenon of which a significant part comes from mold spoilage. In order to quantify this spoilage and tackle it, this PhD work aimed at developing a method to assess mold spoilage risk of bakery products
31

Laachir, Ismail. "Quantification of the model risk in finance and related problems." Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS375/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif central de la thèse est d’étudier diverses mesures du risque de modèle, exprimées en terme monétaire, qui puissent être appliquées de façon cohérente à une collection hétérogène de produits financiers. Les deux premiers chapitres traitent cette problématique, premièrement d’un point de vue théorique, ensuite en menant un étude empirique centrée sur le marché du gaz naturel. Le troisième chapitre se concentre sur une étude théorique du risque dit de base (en anglais basis risk). Dans le premier chapitre, nous nous sommes intéressés à l’évaluation de produits financiers complexes, qui prend en compte le risque de modèle et la disponibilité dans le marché de produits dérivés basiques, appelés aussi vanille. Nous avons en particulier poursuivi l’approche du transport optimal (connue dans la littérature) pour le calcul des bornes de prix et des stratégies de sur (sous)-couverture robustes au risque de modèle. Nous reprenons en particulier une construction de probabilités martingales sous lesquelles le prix d’une option exotique atteint les dites bornes de prix, en se concentrant sur le cas des martingales positives. Nous mettons aussi en évidence des propriétés significatives de symétrie dans l’étude de ce problème. Dans le deuxième chapitre, nous approchons le problème du risque de modèle d’un point de vue empirique, en étudiant la gestion optimale d’une unité de gaz naturel et en quantifiant l’effet de ce risque sur sa valeur optimale. Lors de cette étude, l’évaluation de l’unité de stockage est basée sur le prix spot, alors que sa couverture est réalisée avec des contrats à termes. Comme mentionné auparavant, le troisième chapitre met l’accent sur le risque de base, qui intervient lorsque l’on veut couvrir un actif conditionnel basé sur un actif non traité (par exemple la température) en se servant d’un portefeuille constitué d’actifs traités sur le marché. Un critère de couverture dans ce contexte est celui de la minimisation de la variance qui est étroitement lié à la décomposition dite de Föllmer-Schweizer. Cette décomposition peut être déduite de la résolution d’une certaine équation différentielle stochastique rétrograde (EDSR) dirigée par une martingale éventuellement à sauts. Lorsque cette martingale est un mouvement brownien standard, les EDSR sont fortement associées aux EDP paraboliques semi linéaires. Dans le cas général nous formulons un problème déterministe qui étend les EDPs mentionnées. Nous appliquons cette démarche à l’important cas particulier de la décomposition de Föllmer-Schweizer, dont nous donnons des expressions explicites de la décomposition du payoff d’une option lorsque les sous-jacents sont exponentielles de processus additifs
The main objective of this thesis is the study of the model risk and its quantification through monetary measures. On the other hand we expect it to fit a large set of complex (exotic) financial products. The first two chapters treat the model risk problem both from the empirical and the theoretical point of view, while the third chapter concentrates on a theoretical study of another financial risk called basis risk. In the first chapter of this thesis, we are interested in the model-independent pricing and hedging of complex financial products, when a set of standard (vanilla) products are available in the market. We follow the optimal transport approach for the computation of the option bounds and the super (sub)-hedging strategies. We characterize the optimal martingale probability measures, under which the exotic option price attains the model-free bounds; we devote special interest to the case when the martingales are positive. We stress in particular on the symmetry relations that arise when studying the option bounds. In the second chapter, we approach the model risk problem from an empirical point of view. We study the optimal management of a natural gas storage and we quantify the impact of that risk on the gas storage value. As already mentioned, the last chapter concentrates on the basis risk, which is the risk that arises when one hedges a contingent claim written on a non-tradable but observable asset (e.g. the temperature) using a portfolio of correlated tradable assets. One hedging criterion is the mean-variance minimization, which is closely related to the celebrated Föllmer-Schweizer decomposition. That decomposition can be deduced from the resolution of a special Backward Stochastic Differential Equations (BSDEs) driven by a càdlàg martingale. When this martingale is a standard Brownian motion, the related BSDEs are strongly related to semi-linear parabolic PDEs. In that chapter, we formulate a deterministic problem generalizing those PDEs to the general context of martingales and we apply this methodology to discuss some properties of the Föllmer-Schweizer decomposition. We also give an explicit expression of such decomposition of the option payoff when the underlying prices are exponential of additives processes
32

Gilbert, Adrien. "Modélisation du régime thermique des glaciers : applications à l'étude du risque glaciaire et à la quantification des changements climatiques à haute altitude." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01061854.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse se focalisent sur la modélisation numérique de la réponse thermique des glaciers froids aux variations climatiques. La prise en compte du forçage climatique par la modification des conditions de surface des glaciers est l'un des points clefs de cette étude. On montre l'importance des processus de fusion/regel en zone d'accumulation froide ainsi que de l'épaisseur de la couverture de neige et névé autour de la ligne d'équilibre. Les modèles développés dans cette thèse s'appliquent à des cas concrets sur trois glaciers du massif du Mont Blanc (Alpes françaises). Ces études permettent d'analyser des situations à risque et de reconstituer le climat passé à haute altitude. Le jeu de données très complet acquis sur le site du Col du Dôme (4250 m) comprend des mesures profondes de températures et de densités ainsi que des mesures d'accumulation et de vitesses de surface. Il a permis de valider et développer un modèle à trois dimensions de régime thermique couplé à un modèle d'écoulement et forcé par des données climatiques. Ce modèle permet d'étudier en détail la réponse thermique des zones d'accumulation froides aux changements climatiques. Il peut aussi être utilisé pour la prédiction du réchauffement futur des glaciers suspendus présentant un risque comme le glacier de Taconnaz dont une analyse préliminaire est effectuée ici. Le réchauffement basal jusqu'au point de fusion pourrait conduire à la déstabilisation de ce type de glacier. Le site du glacier de Tête Rousse ( environ 3200 m) a permis d'établir clairement l'influence de la couverture de neige et de névé sur le régime thermique des glaciers autour de la ligne d'équilibre. Les résultats obtenus à partir du couplage d'un modèle de neige (CROCUS) avec un modèle de régime thermique sont en excellent accord avec les observations de températures réalisées dans le glacier. On explique ainsi les causes de la structure thermique particulière du glacier de Tête Rousse responsable de la formation d'une poche présentant un risque pour la commune à l'aval. Dans le futur, les simulations indiquent que le glacier va continuer de se refroidir, limitant ainsi le risque de formation de poche d'eau. Dans le dernier chapitre, nous avons développé une nouvelle méthode inverse pour reconstituer les températures du passé à partir de profils de températures observées dans la glace. Elle est basée sur l'inversion simultanée de plusieurs profils de températures provenant de différents sites de forage ayant subi le même forçage climatique. La méthode permet de s'affranchir de l'impact des processus de fonte/regel en surface pour reconstruire les variations passées des températures de l'air. Les résultats obtenus sur le Col du Dôme montrent que le réchauffement climatique sur le site à 4250 m est similaire à celui observé à basse altitude. Ces résultats tendent à montrer que le réchauffement climatique n'est pas amplifié avec l'altitude.
33

Gilbert, Adrien. "Modélisation du régime thermique des glaciers : applications à l’étude du risque glaciaire et à la quantification des changements climatiques à haute altitude." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENU029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse se focalisent sur la modélisation numérique de la réponse thermique des glaciers froids aux variations climatiques. La prise en compte du forçage climatique par la modification des conditions de surface des glaciers est l'un des points clefs de cette étude. On montre l'importance des processus de fusion/regel en zone d'accumulation froide ainsi que de l'épaisseur de la couverture de neige et névé autour de la ligne d'équilibre. Les modèles développés dans cette thèse s'appliquent à des cas concrets sur trois glaciers du massif du Mont Blanc (Alpes françaises). Ces études permettent d'analyser des situations à risque et de reconstituer le climat passé à haute altitude. Le jeu de données très complet acquis sur le site du Col du Dôme (4250 m) comprend des mesures profondes de températures et de densités ainsi que des mesures d'accumulation et de vitesses de surface. Il a permis de valider et développer un modèle à trois dimensions de régime thermique couplé à un modèle d'écoulement et forcé par des données climatiques. Ce modèle permet d'étudier en détail la réponse thermique des zones d'accumulation froides aux changements climatiques. Il peut aussi être utilisé pour la prédiction du réchauffement futur des glaciers suspendus présentant un risque comme le glacier de Taconnaz dont une analyse préliminaire est effectuée ici. Le réchauffement basal jusqu'au point de fusion pourrait conduire à la déstabilisation de ce type de glacier. Le site du glacier de Tête Rousse ( environ 3200 m) a permis d'établir clairement l'influence de la couverture de neige et de névé sur le régime thermique des glaciers autour de la ligne d'équilibre. Les résultats obtenus à partir du couplage d'un modèle de neige (CROCUS) avec un modèle de régime thermique sont en excellent accord avec les observations de températures réalisées dans le glacier. On explique ainsi les causes de la structure thermique particulière du glacier de Tête Rousse responsable de la formation d'une poche présentant un risque pour la commune à l'aval. Dans le futur, les simulations indiquent que le glacier va continuer de se refroidir, limitant ainsi le risque de formation de poche d'eau. Dans le dernier chapitre, nous avons développé une nouvelle méthode inverse pour reconstituer les températures du passé à partir de profils de températures observées dans la glace. Elle est basée sur l'inversion simultanée de plusieurs profils de températures provenant de différents sites de forage ayant subi le même forçage climatique. La méthode permet de s'affranchir de l'impact des processus de fonte/regel en surface pour reconstruire les variations passées des températures de l'air. Les résultats obtenus sur le Col du Dôme montrent que le réchauffement climatique sur le site à 4250 m est similaire à celui observé à basse altitude. Ces résultats tendent à montrer que le réchauffement climatique n'est pas amplifié avec l'altitude
This thesis focuses on the numerical modeling of the thermal response of glaciers to climate changes. The change in surface conditions related to climate forcing is one of the key point of this study. We point out the crucial role of the meltwater refreezing in cold accumulation zone and the thickness of the snow and firn cover around the equilibrium line. The models are developed from the study of specific cases of three glaciers in Mont Blanc range ( French Alps). These studies allow us to analyze the risk related to hanging glaciers and to reconstruct the past temperaures at high altitude from observede nglacial temperatures. The very extensive dataset obtained at the site of the Col du Dôme (4250 m) includes measurements of deep temperatures and density profiles as well as measurements of snow accumulation and surface velocities. These observations allow us to develop and validate a three-dimensional thermal regime model coupled with a flow model and forced by meteorological data. This model is used to perform a thorough study of the thermal response of cold accumulation zone to climate change. It can also be used for the prediction of future glacial hazard related to hanging glaciers warming. A preliminary analysis has been carried out on the hanging glacier of Taconnaz. The warming could have a major impact on the stability of this kind of glaciers frozen to their beds if the melting point is reached. The study performed on Tête Rousse glacier (about 3200 m) shows clearly the influence of the snowpack and firn cover on the thermal regime of glaciers around the equilibrium line. The results obtained from coupling of a snow model (CROCUS) with a model of thermal regime reveal a very good agreement with the observed ice temperatures. This study provides insights into the thermal processes responsible for water storage inside a small almost static glacier, which can lead to catastrophic outburst floods. In the future, according to atmospheric temperature increase scenarios for the coming century, most of the glacier will become cold which will reduce the risk of water filled cavity formation. Finally, a new inverse method has been developed to reconstruct temperatures in the past from observed englacial temperatures. The method is based on the simultaneous inversion of several temperature profiles coming from different drilling sites with the same climate forcing. The method overcomes the impact of refreezing meltwater to reconstruct past air temperatures variations. This is similar to the observed regional low altitude trend. The results obtained on the Col du Dome shows that climate warming on the site at 4250 m is similar to the observed regional low altitude trend in the northwestern Alps, suggesting that air temperature trends are not altitude dependent
34

Cuenca, Botey Luis-Emilio. "De la Réforme Sociale à l’Optimisation du Risque-Rendement : une compréhension du processus de gouvernementalisation au travers de l’histoire d’une Banque Ouvrière en Amérique Latine." Thesis, Jouy-en Josas, HEC, 2015. http://www.theses.fr/2015EHEC0010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parmi l’ensemble des organisations, les banques ont trois caractéristiques majeures : la prééminence des calculs dans la définition des cours de l’action de l’organisation ; la construction de mécanismes d’examen et de contrôle du comportement de leurs clients qui sont, en termes comptables, leurs actifs ; un rôle essentiel dans le cadrage des comportements économiques dans les sociétés modernes. Ainsi, tous les projets bancaires se construisent à partir des calculs mais aussi au travers de paradigmes liés à l’économie politique et aux injonctions morales qui leur sont concomitantes. Cette thèse se propose de contribuer à la connaissance des pratiques bancaires et de leur rôle dans la construction d’individus gouvernés par une certaine raison économique. Pour ce faire nous nous sommes intéressés à l’histoire socio-technique de la Banque Populaire et pour le développement communautaire du Costa Rica. Nous avons construit cette histoire à trois niveaux différents. D’abord le niveau des ‘discours du gouvernement’ qui a été étudié grâce à la consultation d’archives portant sur les discussions des lois définissant le cadre normatif de la Banque à l’Assemblée législative du Costa Rica. L’analyse de ces discussions nous a permis d’identifier cinq rationalités politiques se disputant l’hégémonie pour définir les conceptions de contrôle de l’organisation au cours de son histoire. Puis, nous nous sommes intéressés au niveau de la prise de décision stratégique. Nous l’avons étudié grâce à la consultation des comptes rendus portant sur des disputes concernant la gestion actif-passif de la banque de 1969 à 2010. Lors de l’analyse de ces discussions nous avons montré comment interagissent les technologies de calcul avec les rationalités politiques identifiées au premier niveau de la recherche et les trajectoires sociales et politiques des administrateurs participant dans les disputes. Ainsi, nous avons montré les modalités par lesquelles se déplacent les épreuves de justification permettant d’arriver à des accords sur le budget de crédit de la banque. Enfin, le troisième niveau de la thèse est une reconstruction historique des dispositifs d’évaluation des demandeurs de crédit. Au cours de cette partie nous montrons les relations qui existent entre la manière d’équilibrer le bilan et les formes d’évaluation et valorisation des demandeurs de crédit. Notre recherche s’inscrit dans la ligne des travaux portant sur une étude de l’économie politique par les instruments de gestion. Elle discute avec les études gouvernementalistes en comptabilité et propose un déplacement dans la manière de comprendre le déploiement de la rationalité économique dans le fonctionnement des organisations
In the world of organizations, banks are characterized by three particular elements: the preeminence of calculations in defining the course of action of the organization; building control and evaluation devices for customers, who, in accounting terms, are their assets; the key role they play in the dissemination of economic rationality in society. Therefore, all banks are based on calculations, and also on paradigms from political economy and its implicit moral imperatives. However, relations between these constitutive dimensions of the banking practices have been little explored by research in accounting. The aim of this work is to contribute to a better knowledge of banking practices and its role in the construction of individuals governed by economic reason. To this end, this work was conducted with close reference to the social and technical history of a particular banking organization, Costa Rica’s Banco Popular y de Desarrollo Comunal (BPDC). The case study has three levels. First, the “governmental discourse” level, which we studied through systematic analysis of the original files and amendments of the organic law of BPDC. In this analysis we identified five political rationales that have historically disputed hegemony in the definition of the conception of control of the organization. Secondly, we studied the level of strategic decision, emphasizing the conflicts linked to the management of assets and liabilities. In this part we put in evidence the relationship between calculative technologies and political rationales identified in the previous level and we show the ways in which the evidence of justification was displaced to reach agreements and make decisions. Finally, the third level of the study has to do with the interaction between the borrowers and the organization. To address it, we reconstructed the history of the devices used to evaluate the borrowers. Thus, we show the relationship between ways of resolving conflicts at the strategic level of the organization and ways to assess credit risk. This work is related to current research trends that study relationships between political economy and management tools. Its aim is to discuss with governmentality studies in accounting. Its main contribution is the construction of a different approach to understand the way in which economic rationality is diffused into the functioning of organizations
35

Haziza, Simon. "Quantification du transport intraneuronal par suivi de nanodiamants fluorescents. Application à l’étude de l’impact fonctionnel de facteurs de risque génétiques associés aux maladies neuropsychiatriques." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’identification de biomarqueurs des maladies mentales telles que l’autisme, la schizophrénie ou la maladie d’Alzheimer, est d’une importance capitale non seulement pour établir un diagnostic objectif, mais aussi pour suivre l’effet des traitements. La création et le maintien de fonctions neuronales sub-cellulaires, telle que la plasticité synaptique, sont fortement dépendants du transport intraneuronal, essentiel pour acheminer d’importants composants à des positions spécifiques. Un transport actif défaillant semble être partiellement responsable d’anomalies de la plasticité synaptique et de la morphologie neuronale présentes dans de nombreuses maladies neuropsychiatriques. Cette thèse décrit (i) la mise au point d’une méthode de quantification du transport intraneuronal reposant sur le suivi de nanoparticules de diamants fluorescents (fNDs); (ii) l’application de cette technique simple et faiblement invasive à l’analyse fonctionnelle de variants génétiques associés à des maladies neuropsychiatriques. Ce manuscrit comporte quatre chapitres. Le premier détaille l’architecture polygénique complexe des maladies mentales et démontre la pertinence d’étudier le transport intraneuronal. Les deuxième et troisième chapitres sont dédiés à la méthode et détaillent les stratégies d’internalisation des fNDs, les outils de quantification du transport intraneuronal et la validation de la technique. La forte brillance, la photo-stabilité parfaite et l’absence de toxicité cellulaire font des fNDs un outil de choix pour étudier la dynamique du transport intraneuronal sur une durée d’observation de plusieurs heures avec une haute résolution spatiotemporelle et une bonne puissance statistique. Enfin, dans le quatrième chapitre, nous appliquons cette nouvelle méthode d’analyse fonctionnelle pour étudier l’effet de variants génétiques associés à l’autisme et à la schizophrénie. Pour cela, nous utilisons des lignées de souris transgéniques ayant une faible surexpression des gènes MARK1 et SLC25A12, ainsi que des AAV-shRNA pour induire une haplo-insuffisance du gène AUTS2. Notre méthode de diagnostic moléculaire s’avère suffisamment sensible pour déceler des variations fines de la dynamique du transport intraneuronal, ouvrant la voie à de futurs développements en nanomédecine translationnelle
The identification of molecular biomarkers of brain diseases as diverse as autism, schizophrenia and Alzheimer’s disease, is of crucial importance not only for an objective diagnosis but also to monitor response to treatments. The establishment and maintenance of sub-cellular neuronal functions, such as synaptic plasticity, are highly dependent on intracellular transport, which is essential to deliver important materials to specific locations. Abnormalities in such active transport are thought to be partly responsible for synaptic plasticity and neuronal morphology impairment found in many neuropsychiatric and neurodegenerative diseases. This thesis reports (i) the development of a quantification technic of intraneuronal transport based on fluorescent nanodiamonds (fNDs) tracking; (ii) the application of this simple and minimally invasive approach to the functional analysis of neuropsychiatric disease-related genetic variants.This manuscript falls into four chapters. The first one details the complex polygenic architecture of mental disorders and demonstrates the disease relevance of monitoring the intraneuronal transport. The second and the third chapters are dedicated to the nanodiamond-tracking assay and describe the fNDs internalisation strategies, the spatiotemporal quantitative readouts and the validation of the technic. The high brightness, the perfect photostability and the absence of cytotoxicity make fNDs a tool of choice to perform high throughput long-term bioimaging at high spatiotemporal resolution. Finally, in the fourth chapter, we apply this new functional analysis method to study the effect of genetic variants associated to autism and schizophrenia. We established transgenic mouse lines in which MARK1 and SLC25A12 genes were slightly overexpressed, and AAV-shRNA to induce AUTS2 gene haploinsufficiency. Our molecular diagnosis assay proves sufficiently sensitive to detect fine changes in intraneuronal transport dynamic, paving the way for future development in translational nanomedicine
36

Venne, Philippe. "Quantification des ecdystéroïdes et acides rétinoïques chez la puce d’eau (D.magna) par chromatographie liquide couplée à la spectrométrie de masse en tandem." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/8570.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’introduction de composé d’origine anthropogénique (produits pharmaceutiques, et de soin personnel, retardateur de flammes, plastifiants, etc.) par les stations de traitement des eaux usées municipales ainsi que le devenir de ses composés dans l’environnement est une problématique d’intérêt mondial. L’élimination de ses contaminants d’intérêt émergent des eaux usées s’effectue au niveau des stations de traitement des eaux usées qui, pour la plupart, ne sont pas conçues pour réaliser cette tâche. En effet, celles-ci présentent des niveaux très variables d’efficacité de dégradation/transformation de la plupart des contaminants émergents ce qui laisse dans l’effluent de ces stations des concentrations habituellement inférieures à quelques microgrammes par litres d’au moins plusieurs centaines de contaminants. Quelques études ont démontrés que l’exposition chronique à ces concentrations environnementales de différents CIE donne lieu à des effets toxiques chez le méné à tête de boule (effondrement de la population) et le gammare (diminution de l’activité). Cependant, les méthodes classiques utilisées pour l’évaluation de la toxicité ne sont pas suffisamment sensibles pour déceler des effets sublétaux aux concentrations environnementales observées dans les milieux recevant ces rejets de station d’épuration. Bien entendu, il est impossible de concevoir un procédé unique capable d’éliminer la totalité des contaminants d’intérêt émergent (présents ou futurs) des eaux usées. Il est donc nécessaire de créer des approches capables de prioriser et de cibler les composés qui doivent être éliminés. Ce projet de recherche met de l’avant l’hypothèse qu’une étude métabolomique ciblé serait capable de répondre à cette problématique. L’approche utilisée vise à ajouter un ou plusieurs points de terminaison (fluctuation des métabolites) au test de toxicité aiguë des effluents déjà effectué sur la puce d’eau (Daphnia magna) en quantifiant des molécules essentielles à la survie de cette espèce (ecdystéroïdes et acides rétinoïques). Les daphnies sont des modèles idéaux pour ce type d’étude puisqu’il s’agit d’organismes essentiels du zooplancton dans le monde entier. L’espèce D. magna est retrouvée dans l’hémisphère nord dans les lacs, rivières et étangs temporaires, elle se reproduit rapidement, est facile à cultiver et se reproduit par parthénogénèse. La quantification des ecdystéroïdes et acides rétinoïques aux concentrations observées chez la puce d’eau (picogramme par individus) est typiquement atteinte par dosage radio-immunologique (radioimmunoassay). Cependant, ce type de méthode ne permet pas d’identifier spécifiquement l’analyte ciblé, mais plutôt la somme de toutes molécules produisant une réaction immunologique similaire à celui-ci appelée "équivalent immunologique" et les résultats obtenus dépendent de l’anticorps, de la préparation effectuée et du lot de l’anticorps utilisé. Ce manque de sélectivité et variabilité des données obtenues pose problème pour la comparaison inter-laboratoires de résultats et a donc forcé le développement d’une nouvelle méthode analytique. Le présent document décrit le développement et la validation d’une méthode de quantification par chromatographie liquide couplée à un spectromètre de masse permettant d’atteindre des limites de quantification allant de 210 à 380 pg mL-1 pour trois ecdystéroïdes (20-hydroxyecdysone, ecdysone et ponasterone A) et de 5 ng mL-1 pour la somme des isomères de l’acide rétinoïque. La quantification de ces analytes aux faibles concentrations observées chez la puce d’eau a nécessité l’optimisation des paramètres instrumentaux, de la préparation d’échantillon et l’optimisation des conditions chromatographiques. Au final, la 20-hydroxyecdysone a pu être quantifiée à 19 ± 8 pg ind-1 pour les adultes (475 ± 200 pg mL-1, n=3) et à 3.6 ± 1.0 pg ind-1 pour les juvéniles (360 ± 10 pg mL-1, n=3), mais seulement détectée chez les néonates à 0.19 pg ind-1 (19 pg mL-1, n=3). L’ecdysone a également pu être détectée à 1.8 pg ind-1 chez les spécimens de taille adulte (180 pg mL-1, n=3). Le projet suivant vise à augmenter les connaissances sur l’effet de contaminants d’intérêt émergents sur l’environnement et sur le métabolisme de la puce d’eau D.magna ainsi que fournir une méthode potentiellement capable d’évaluer le risque d’exposition à des concentrations environnementales et permettre de prioriser les composés à être évaluer.
37

Dayhum, Abdunaser. "Appréciation du risque de contamination de l'homme par des Salmonella spp à partir de produit d'origine bovine : viande hachée." Phd thesis, AgroParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003795.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l'aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de viande hachée. Les lacunes qui sont en général identifiées pour l'appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons développée une méthode rapide, sensible et fiable pour la quantification des salmonelles dans les échantillons fécaux bovins artificiellement contaminés. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1-5 ufc/mL) du fécal peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans les échantillons fécaux. Afin d'évaluer l'utilité de cette analyse de quantification, notre deuxième objectif était de l'appliquer aux échantillons fécaux naturellement contaminés recueillis de l'abattoir trouvé dans Meaux, la France chaque semaine en février et le mars de 2006 (une moyenne de 40 échantillons par visite). 9.12 % (27/296) et 34.62 % (9/26) les échantillons fécaux et de l'environnement, respectivement, ont été trouvés positif de salmonella, avec les valeurs de NPP estimées ou les comptes de Salmonella aux limites de <1.8 - 1609 MPN/g d'échantillons fécaux. The moyen de la concentration log10 de Salmonella est 0.6189 MPN/g avec les déviations standrdard de 2.7112 en utilisant l'approche de rétrogradation censurée. Les comptes étaient généralement bas, à l'exception de 6 animaux (> 1400 MPN/g), pendant que tous les autres 21 Salmonella les animaux positifs avait des matières fécales avec moins de 80 MPN/g (d'eux 13 animaux avec les valeurs de MPN <1.8 MPN/g. La prédominance de Salmonella n'a montré aucune différence significative (p=1) entre le français (8.63 %, 17/197) et bétail belge (10 %, 10/99). En outre, aucun la région des animaux d'origine (p=0.75), l'âge (p=0.18), la course (p=0.94), la race (p=0.23), ou le mouvement de l'animal (p=0.89) n'avait aucun impact sur la prédominance de Salmonella. L'application de l'essai de PCR NPP-en-temps-réel pour quantifier la Salmonella dans fécal s'est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation de risques potentiels associés à la Salmonella dans la viande hachée il était nécessaire d'examiner la capacité des salmonelles à se développer dans la viande hachée. Donc, nous avons présenté dans cette thèse comme un troisième objectif, le modèle d'une croissance / aucune interface de croissance de Salmonella dans la viande hachée. Des données de croissance / non croissance ont été modelées par la rétrogradation de polynôme logistique sur les données de croissance disponibles pour la Salmonella dans la viande hachée dans les papiers publiés et toutes les données rattachées a la viande hachée dans ComBase nous mènent afin d'à une description exacte des conditions que la Salmonella ne peut la croissance / aucune croissance. Les résultats généraux indiquent clairement que la température est la plus importante et le seul facteur significatif dans l'étude. Il n'y avait aucune croissance observée à la température moins que 10°C. Où comme la température 10°C et 12°C sont la seule température; nous n'avons vraiment observé la croissance / aucune croissance (quelquefois avec les mêmes conditions). Bien que pH et l'activité d'eau soient des facteurs importants pour la croissance microbienne, dans notre étude ils n'ont aucun effet en raison de la structure de viande. Finalement, un modèle d'appréciation du risque de salmonellose humaine liée à la consommation viande haché est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 100 g de bœuf haché. Le pourcentage attendu de portions de bœuf haché avec la contamination plus grande que 5, 10 et 100 cellules de Salmonella était 29 %, 17,1 % et 0,02 %, respectivement au moment de la consommation. Le risque de salmonellose par portion de 100g varie de 0 à 2,33 x 10-6 en fonction au type de cuisson et de la teneur en matière grasse. Pour 10 millions de portions de 100 g, le nombre attendu de cas de salmonellose prévu par le modèle est en moyenne 11, 12 pour les teneurs en matière grasse 7 % et 24. Le risque de salmonellose par portion de 100g varie de 0 à 2,33 x 10-6 en fonction au type de cuisson et de la teneur en matière grasse. Le risque de salmonellose est proche de zéro quand le bœuf haché est consommé bien cuit. Le risque relatif de salmonellose avec le bœuf haché saignant est 312 ou 61 fois plus élevé pour les teneurs 7 % et 24 % en matière grasse par comparaison avec la viande hachée bien cuit. Il y a 35 lots sur 2000 qui provoquent des cas (1,8 %). Quinze d'entre eux causent 2 cas ou plus (0,75 %, 15/2000).
38

Beck, François. "représentativité des échantillons et représentation des usages : l'apport des enquêtes en population générale à la compréhension des usages de drogues." Phd thesis, Université René Descartes - Paris V, 2006. http://tel.archives-ouvertes.fr/tel-00338155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis les années 1980, les significations attribuées aux usages de drogues ont profondément changé. Cette transformation contextuelle imprègne le passage de la mesure de la toxicomanie à la description de pratiques diverses. Cette évolution correspond au glissement d'un paradigme opposant drogues licite et illicite à un modèle des addictions intégrant l'ensemble des substances mais distinguant les comportements d'usage. La quantification de ces pratiques a pu se faire grâce à la réalisation d'enquêtes en population générale. Les choix méthodologiques effectués en France sur ces enquêtes sont envisagés dans leur interaction avec les représentations des usages de drogues. Souvent critiquées pour leur côté réducteur par les partisans d'une perspective plus compréhensive, ces enquêtes peuvent toutefois s'avérer pertinentes et fiables grâce notamment à l'articulation des méthodes quantitatives et qualitatives. L'essor de telles études s'est concrétisé par une offre grandissante de chiffres qui ont pris une place importante dans le débat public, au risque parfois de conférer à l'argumentation l'apparence trompeuse d'une objectivité mécanisée et incontestable.
39

Reutenauer, Victor. "Algorithmes stochastiques pour la gestion du risque et l'indexation de bases de données de média." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4018/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’intéresse à différents problèmes de contrôle et d’optimisation dont il n’existe à ce jour que des solutions approchées. D’une part nous nous intéressons à des techniques visant à réduire ou supprimer les approximations pour obtenir des solutions plus précises voire exactes. D’autre part nous développons de nouvelles méthodes d’approximation pour traiter plus rapidement des problèmes à plus grande échelle. Nous étudions des méthodes numériques de simulation d’équation différentielle stochastique et d’amélioration de calculs d’espérance. Nous mettons en œuvre des techniques de type quantification pour la construction de variables de contrôle ainsi que la méthode de gradient stochastique pour la résolution de problèmes de contrôle stochastique. Nous nous intéressons aussi aux méthodes de clustering liées à la quantification, ainsi qu’à la compression d’information par réseaux neuronaux. Les problèmes étudiés sont issus non seulement de motivations financières, comme le contrôle stochastique pour la couverture d’option en marché incomplet mais aussi du traitement des grandes bases de données de médias communément appelé Big data dans le chapitre 5. Théoriquement, nous proposons différentes majorations de la convergence des méthodes numériques d’une part pour la recherche d’une stratégie optimale de couverture en marché incomplet dans le chapitre 3, d’autre part pour l’extension la technique de Beskos-Roberts de simulation d’équation différentielle dans le chapitre 4. Nous présentons une utilisation originale de la décomposition de Karhunen-Loève pour une réduction de variance de l’estimateur d’espérance dans le chapitre 2
This thesis proposes different problems of stochastic control and optimization that can be solved only thanks approximation. On one hand, we develop methodology aiming to reduce or suppress approximations to obtain more accurate solutions or something exact ones. On another hand we develop new approximation methodology in order to solve quicker larger scale problems. We study numerical methodology to simulated differential equations and enhancement of computation of expectations. We develop quantization methodology to build control variate and gradient stochastic methods to solve stochastic control problems. We are also interested in clustering methods linked to quantization, and principal composant analysis or compression of data thanks neural networks. We study problems motivated by mathematical finance, like stochastic control for the hedging of derivatives in incomplete market but also to manage huge databases of media commonly known as big Data in chapter 5. Theoretically we propose some upper bound for convergence of the numerical method used. This is the case of optimal hedging in incomplete market in chapter 3 but also an extension of Beskos-Roberts methods of exact simulation of stochastic differential equations in chapter 4. We present an original application of karhunen-Loève decomposition for a control variate of computation of expectation in chapter 2
40

Houriez--Gombaud-Saintonge, Sophia. "Analyse automatisée des données 3D+t d’imagerie par résonance magnétique de vélocimétrie. Quantification de l’apport du 3D+t." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS328.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les maladies cardiovasculaires sont la première cause de mortalité dans les pays de l’OCDE du fait notamment du vieillissement global de la population, faisant d’elles l’un des enjeux majeurs de santé à l’échelle mondiale. Les progrès de l’imagerie permettent aujourd’hui de mieux comprendre et diagnostiquer ces maladies de manière non-invasive. Plus récemment, une technique novatrice d’imagerie non-invasive et non-irradiante appelée « IRM de flux 4D » permet pour la première fois d’imager la vitesse du flux sanguin en 3 dimensions pendant tout un cycle cardiaque, offrant ainsi de nouvelles perspectives de visualisation, de compréhension et de mesure. Cette thèse en traitement d’images, réalisée en lien avec des cardiologues et radiologues a pour objectif de développer de nouveaux indicateurs, pour quantifier l’apport de l’IRM de flux 4D notamment dans :1) l’évaluation de la rigidité aortique où une comparaison de méthodes pour l’évaluation de la vitesse de l’onde de pouls a été réalisée 2) l’analyse de la désorganisation de flux dans la dilatation aortique physiologique (âge) et pathologique ; 3) l’évaluation des flux de remplissage cardiaques
Cardiovascular diseases remain the leading cause of death in OECD countries, in particular, because of the population aging, making it one of the major health issues on a global scale. Advances in imaging today make it possible to better understand and diagnose these diseases in a non-invasive way. More recently, a new non-invasive and non-radiative imaging technique named « 4D Flow MRI » allows for the first time to image the speed of blood flow in three dimensions during a whole cardiac cycle, thus offering new perspectives of visualization, understanding, and measurement. This thesis in image processing carried out in connection with cardiologists and radiologists aims to develop new indicators and to quantify the contribution of 4D flow MRI especially in 1) the assessment of the aortic stiffness leading to a comparison between several approaches to estimate the pulse wave velocity 2) the analysis of flow disorganization in aging and pathological dilation 3) the evaluation of filling flow in the left ventricle
41

Graff, Kevin. "Contribution à la cartographie multirisques de territoires côtiers : approche quantitative des conséquences potentielles et des concomitances hydrologiques (Normandie, France) Analysis and quantification of potential consequences in multirisk coastal context at different spatial scales (Normandy, France) Characterization of elements at risk in the multirisk coastal context and at different spatial scales: Multi-database integration (normandy, France)." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les environnements côtiers en Normandie sont propices à de multiples aléas (érosion, submersion marine, inondation par débordement de cours d’eau ou remontée de nappe, crue turbide par ruissellement, mouvement de versant côtier ou continental). Des interactions entre aléas vont se produire au sein des versants et des vallées où les populations côtières et leurs activités tendent à se densifier depuis le XIXe siècle. Dans ce contexte, il s’avère nécessaire, d’adopter une démarche multi-aléas et multirisques tenant compte de la concomitance spatiale ou temporelle de plusieurs aléas et de leurs possibles effets en cascades et d’évaluer les impacts multisectoriels engendrés par ces aléas.Dans le cadre de cette thèse, ainsi que dans le programme ANR RICOCHET, trois sites d’étude ont été sélectionnés à l’embouchure des rivières littorales : de Auberville à Pennedepie, de Quiberville à Dieppe et de Criel-sur-Mer à Ault en raison d’importants enjeux socio-économiques et de fortes interactions entre les phénomènes hydrologiques et gravitaires. Deux principaux objectifs ont été menés à bien : (1) un développement méthodologique sur les analyses des conséquences potentielles en considérant les éléments exposés au sein d’un territoire d’étude à travers une approche multiscalaire ; (2) la mise en évidence et la quantification des effets des concomitances hydrologiques (lame d’eau et extension spatiale) liés aux blocages des écoulements fluviaux par la mer dans les embouchures à partir d’une analyse spatiale et d’une modélisation hydraulique sous HEC RAS
The coastal environment in Normandy is conducive to a convergence of multiple hazards (erosion, marine submersion, flooding by overflowing streams or upwelling of a water table, turbid flooding by runoff, coastal or continental slope movement). Because of their interface positions, important regressive dynamics go between the marine and continental processes. This interaction will occur within the slopes and valleys where coastal populations and their activities have tended to become more densified since the 19th century. In this context, it is necessary to adopt a multi-hazard and multi-risk approach considering the spatial or temporal confluence of several hazards and their possible cascading effects and to assess the multi-sector impacts generated. by these vagaries.As part of this thesis, as well as in the ANR RICOCHET program, three study sites were selected at the outlet of the coastal rivers: from Auberville to Pennedepie, from Quiberville to Dieppe and from Criel-sur-Mer to Ault due to significant issues and strong interactions between hydrological and gravitational phenomena. Two main objectives have been carried out: (1) an methodological development on analyses of potential consequences by considering all the elements at risk within a study territory through a multiscaling approach; (2) an analysis of hydrological concomitances through a both statistical and spatial approach
42

Ed-Daoui, Ilyas. "Towards systems-of-systems structural resilience assessment Resilience assessment as a foundation for systems-of-systems safety evaluation : application to an economic infrastructure An approach to systems-of-systems structural analysis through interoperability assessment : application on Moroccan Case A study of an adaptive approach for systems-of-systems integration A contribution to systems-of-systems concept standardization Unstructured peer-to-peer systems : towards swift Routing A deterministic approach for systems-of-systems resilience quantification Vers des systèmes de systèmes robustes Security enhancement architectural model for IMS based networks Towards reliable IMS-based networks." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMIR07.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, nous attendons des systèmes de systèmes d'être plus que simplement fonctionnel, mais aussi fiable, de préserver leurs performances, de mener les actions requises et, surtout, d'anticiper d'éventuelles défaillances. La résilience fait partie des nombreuses approches d'évaluation de la fiabilité. Elle est directement liée aux conséquences de perturbations et incertitudes. Il s'agit des conséquences en cas de perturbations et des incertitudes associées. La résilience est définie comme la capacité des systèmes à résister à une perturbation majeure selon paramètres de dégradation et à récupérer dans un délai, des coûts et des risques acceptables. Dans cette thèse, deux approches complémentaires sont proposées pour tenter d'analyser la résilience structurelle des systèmes de systèmes. La première est liée à l'extensibilité qui est une caractéristique des systèmes de systèmes puisqu'ils sont en continuelle évolution. L'un des principaux objectifs est d'évaluer la résilience structurelle en tenant compte de l'aspect dynamique et moyennant une évaluation de l'interopérabilité. D'autre part, un examen de la structure d'un système de systèmes et des flux internes représente la deuxième approche. Cela conduit à une évaluation de la résilience structurelle grâce à un ensemble d'indicateurs. Les deux approches proposées sont déterministes et peuvent être utilisées pour évaluer l'état courant de la structure du système de systèmes ou pour anticiper sa résilience dans des scénarios futurs. Un démonstrateur a été développé pour l'évaluation de la résilience structurelle. Dans la considération de territoires, il a servi à l'évaluation d'infrastructures industrielles réelles selon une approche systèmes de systèmes
Nowadays, we expect of SoS (systems-of-systems) more than just to be functional, but also to be reliable, to preserve their performance, to complete the required fonctions and rnost importantly to anticipate potential defects. The relationship with resilience is among the numerous perspectives tackling reliability in the context of SoS. It is about the consequences in case of disturbances and associated uncertainties. Resilience is defined as the ability of systems to withstand a major disruption within acceptable degradation parameters and to recover within an acceptable time, composite costs and risks. In this thesis, two complementary approaches are proposed in an attempt to analyze SoS structural resilience. First is related to extensibility which is a specific characteristic of SoS as they are in continuous evolvement and change. A major focus is to evaluate SoS structural resilience with regards to its dynamic aspect and through interoperability assessment. On the other hand, a consideration of the SoS structure and inner workflow pathways represents the second approach. This perspective leads to structural resilience assessment through a set of indicators. Both proposed approaches are deterministic and can be used to evaluate the current state of SoS structure or to anticipate its resilience in future scenarios. Futhermore, a prototype is designed in order to process the structural resilience assessment. Considering spatial objects, it has been used to conduct experiments on real-based industrial infrastructures approached as SoS
43

Munayeno, Muvova. "Les infections sexuellement transmissibles (maladies vénériennes) et la santé publique au Congo: contribution à l'histoire socio-épidémiologique des IST en milieux urbains (1885-1960)." Doctoral thesis, Universite Libre de Bruxelles, 2010. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La question des infections sexuellement transmissibles (IST) en Afrique a longtemps été

négligée par des chercheurs africains spécialistes en sciences sociales, en raison notamment du tabou

qui entoure la sexualité dans ce continent. Toutefois, les dernières décennies ont donné lieu à plusieurs

recherches menées principalement par les Européens africanistes sur ces pathologies grâce à

l’émergence de la pandémie actuelle du Sida. La plupart des travaux réalisés sont axés sur les facteurs

de risque, les mécanismes de diffusion, les croyances et les attitudes populaires face à ces maladies, les

politiques de lutte, etc. Mais les études historiques consacrées aux IST sont très rares. Celles qui

existent ont surtout mis en évidence la dimension démographique axée sur le problème de la dénatalité

en laissant dans l’ombre le contexte socio-historique et les conditions socio-épidémiologiques de

propagation de ces affections. Au moment où le Sida fait des ravages dans le monde et tout

particulièrement en Afrique subsaharienne, l’intérêt d’une réflexion historique sur les IST au Congo

n’est plus à démontrer.

Contrairement à une affirmation classiquement admise dans la littérature, selon laquelle la

lutte contre les IST au sein de la population congolaise fut un franc succès pour les autorités coloniales

surtout après la Deuxième Guerre mondiale, cette thèse montre plutôt l’augmentation de la prévalence

des IST dans le temps. Les archives inédites et l’analyse des données révèlent que cette progression

continue est la conséquence de l'urbanisation accélerée et de la monétarisation de la société et de la sexualité entraînant des modes de vie propres à la société coloniale urbaine. Les villes issues de ce processus deviendront non seulement des espaces

d’acculturation et de modernité, mais aussi des lieux d’expansion de ces maladies. Le développement

de la prostitution et la multiplicité des partenaires sexuels, à travers les unions plus libres et

momentanées, sont les principaux facteurs explicatifs de cette observation.

On présente généralement de manière panégyrique l’oeuvre sanitaire coloniale de la Belgique

au Congo comme ‘‘modèle’’. Pourtant, aucune étude n’a déjà été menée pour examiner, de manière

chiffrée, les aspets liés aux différences de santé entre les Congolais et les Blancs. Cette

dissertation vient combler les lacunes existantes dans ce domaine. De ce point de vue, il en résulte de

fortes inégalités et des déséquilibres persistants de santé entre ces deux types de populations. Les Congolais beaucoup plus

nombreux, socialement défavorisés, ne bénéficient que d’une situation peu ou moins favorable ;tandis

que les Blancs, socialement plus favorisés, bénéficient en général d’une meilleure situation sanitaire.

Plusieurs indicateurs élaborés dans ce travail sont révélateurs de cette réalité coloniale, en termes

d’équipements sanitaires, d’accès et d’utilisation de soins et d’état de santé différencié./

The issue of sexually transmitted infections (STI) in Africa has long been neglected by

researchers African social scientists, particularly because of the taboo surrounding sexuality in Africa.

However, recent decades have resulted in several research conducted mainly by the European

Africanists on these diseases through the emergence of the current pandemic of AIDS. Most of studies

are focused on risk factors, distribution mechanisms, the popular attitudes about these infections,

control policies. But historical studies on STI are seldom examined. Those that exist are mainly

concerning the demographic dimension focuses on the problem of declining birth, leaving the socio-historical

and socio-epidemiological spread of such diseases. While AIDS is ravaging the world and

especially in sub-Saharan Africa, one thing to mention is that the interest of historical reflection on

STI in the Congo is obvious.

Contrary to an assertion conventionally accepted in the literature, that the fight against

gonorrhea and syphilis among the Congolese population was a success for the colonial authorities,

especially after the Second World War, our thesis shows rather the increasing prevalence of STI. The

archives and analysis of data indicates this continued progress is the result of special conditions of

industrialization and urbanization colonial that make people vulnerable. Cities from this historical

process will not only areas of acculturation and modernity, but also places for expansion of these

diseases. The development of prostitution and multiple sexual partners through free and temporary

unions are the main factors explaining this observation.

It has generally praises how the actions of Belgian colonial health in the Congo as 'model'.

However, no study has been conducted to establish or to compare quantitatively the health status

between Blacks (Congolese) and Withes (Europeans in majority). This essay shows the social health

inequalities among these two populations. The Congolese many in number, but more socially

disadvantaged have only less favorable conditions to health. While the white people, socially

privileged, generally have better health status. Several indicators developed in this study are revealing

of the colonial reality in terms of sanitation, access and use of care and health status differential.
Doctorat en Histoire, art et archéologie
info:eu-repo/semantics/nonPublished

44

Gosselin-Théberge, Maxime. "Campylobacter dans différents environnements aquatiques : quantification et génotypage afin de mieux évaluer les risques potentiels d’infection pour l’être humain." Thèse, 2015. http://hdl.handle.net/1866/13370.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Campylobacter est l’agent pathogène zoonotique responsable de la majorité des gastro-entérites d’origine bactérienne chez l’homme. Les produits de volaille représentent la principale source d’infection; toutefois, l’exposition peut également découler de contacts directs avec les animaux ou avec l’eau. Une forte variation saisonnière est présente dans les cas rapportés, qui n’est toujours pas élucidée : les eaux environnementales, sources d’infection connues, sont soupçonnées. Cette étude transversale a été réalisée dans la région Sud-Est du Québec (Canada) où Campylobacter fut quantifié et génotypé à partir de différentes sources d’eau (eaux de captage, récréatives et usées) et de cas cliniques afin d’évaluer les risques potentiels posé par l’eau environnementale. Différents essais PCR en temps réel furent appliqués à l’eau environnementale et comparés: 2 ont été sélectionnés pour leur spécificité et sensibilité de quantification. Les courbes standards ont été calibrées en utilisant la PCR digitale pour déterminer précisément les concentrations. Les isolats environnementaux et cliniques furent comparés génétiquement en utilisant le CGF (« comparative genomic fingerprinting »). Les eaux usées étaient plus contaminées que les eaux de captage et récréatives (3.9Log, 1.7Log et 1.0Log cellules/L en moyenne, respectivement). Six pour cent des isolats d’eaux environnementales étaient génétiquement similaires (100 % homologie) aux isolats cliniques. Les cas cliniques de campylobactériose d’été montraient des isolats avec davantage de similarités génétiques avec les isolats retrouvés dans l’eau environnementale comparativement aux autres saisons (p<0.01). Les faibles concentrations et similarités génétiques entre les isolats d’eau et cliniques suggèrent un risque de transmission possible, mais faible.
Campylobacter is a zoonotic pathogen that is responsible for the majority of cases of bacterial gastroenteritis. Among the numerous Campylobacter transmission routes including direct contact, food and water, poultry consumption has been recognized as the major route. A strong seasonal variation in campylobacteriosis cases exists for reasons that are not well understood; environmental water is suspected to be involved. This cross-sectional study was conducted in the Southeastern region of Quebec (Canada), wherein Campylobacter from different waters (drinking water source, recreational and sewage) and clinical sources was quantified and genotyped in order to evaluate the potential risks posed by environmental water. Several real-time PCR assays were compared for specific application to environmental water: two were selected for their specificity and sensitivity of quantification. Standard curves were calibrated using digital PCR to accurately determine concentrations. Campylobacter isolates from clinical and water sources were genetically compared using CGF (comparative genomic fingerprinting). Sewage waters showed the highest Campylobacter concentrations, while drinking water source and recreational waters showed the lowest (average of 3.9Log, 1.7Log and 1.0Log cells/L, respectively). CGF revealed that 6% of water isolates were genetically similar (100% homology) to clinical isolates. Summer cases of campylobacteriosis revealed isolates showing more genetic similarities with environmental water isolates compared to other seasons (p<0.01). The low Campylobacter concentrations and genetic similarities between water and clinical isolates from the same region, suggests that these environmental waters pose a real, but low risk of transmission.
45

Caillot, Veronique. "Quantification statistique et étude expérimentale de mouvements sismiques : application à l'évaluation du risque." Phd thesis, 1992. http://tel.archives-ouvertes.fr/tel-00709805.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les réglementations parasismiques, les mouvements forts sont caractérisés par des spectres réglementaires adaptés aux conditions de site. Les formes spectrales ainsi spècifiées dans les règlements en vigueur de par le monde sont trés dispersées. Ce travail est donc une analyse critique et une réactualisalion des méthodes de caractérisation des mouvements forts pour l'évaluation de l'aléa sismique. Une étude préliminaire basée sur les données accélérométriques du réseau dense SMARTI (Taiwan) permet de quantifier la variabilité intrinsèque du spectre de réponse. Ensuite, 115 enregistrements accélérométriques du réseau italien correspondant à 3 types de site sont utilisés pour quantifier statistiquement les mouvements forts d'une part, par l'intermédiaire du spectre de réponse, et d'autre part, par leur durée, dont une nouvelle définition en fonction de la fréquence est proposée. Des relations empiriques liant d'une part, le spectre de réponse, et d'autre part, la durée, à la magnitude, la distance hypocentrale et aux conditions de site sont calculées pour chaque fréquence. La technique de la régression multilinéaire pondérée fournit un résultat statistiquement plus satisfaisant que la régression en deux étapes. Les variations de la durée en fonction des paramètres précédemment cités sont significatives et doivent donc être considérées dans le cadre de l'évaluation de l'aléa sismique: celle-ci est notamment plus élevée sur les sols non rigides que sur le rocher. Le résultat obtenu pour les spectres et pour des sols non rigides est instable du fait de la dispersion des caractéristiques géotechniques des sols au sein de cette catégorie. Cela met en évidence l'importance des reconnaissances géotechniques et des études de microzonage. La dernière partie de ce mémoire est ainsi consacrée à l'étude expérimentale des effets de site dans la vallée du Nékor (Maroc) et montre que, pour des sites très proches des failles actives, les effets de site peuvent être masqués par des effets de source.
46

Dion-Labrie, Marianne. "Perceptions de néphrologues transplanteurs et référents face à la quantification du risque immunologique global en transplantation rénale." Thèse, 2010. http://hdl.handle.net/1866/4463.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.
Background: The overwhelming scarcity of organs within renal transplantation forces researchers and transplantation teams to seek new ways to increase efficacy. The Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique is attempting to put in place a scientifically precise method for determining the global immunological risk (GIR) of rejection for each patient waiting for a renal transplant. The quantification of the GIR is based on scientific factors, such as biological, immunological, clinical and psychosocial. The precise and global determination of the GIR could change the way patients are selected for renal transplantation. This selection will be based thus on scientific and quantifiable criteria. The advantages of the use of this method for selecting potential allograft recipients could be improvement in the efficacy of the process and the individualization of immunosuppressive therapy. In spite of these numerous advantages, this approach raises several ethical questions to explore with nephrologists working in kidney transplantation. Aims of the study: The aims of this study is to explore the views of transplant and referring nephrologists on the use of personalized medicine tools to develop a new method for selection potential recipients of a renal allograft. The results of this research could contribute to determine the acceptable use of this method in renal transplantation and to study the link between science and medicine. Methods: Twenty-two semi-directed interviews, using short clinical vignettes, were conducted with nephrologists in the province of Quebec between June 2007 and July 2008. The semi-directed interviews were analyzed qualitatively using the content and thematic analysis method described by Miles and Huberman. Results: The results demonstrate a general acceptance of this approach amongst the participants. Knowledge of each patient’s immunological risk could improve treatment and the post-graft follow-up. On the other hand, the possibility that patients might be excluded from transplantation poses a significant ethical issue. It could be more effective than the method presently used. The method must be validated scientifically, and must leave a role for clinical judgment. Conclusions: The use of personalized medicine within transplantation must be in the best interests of the patient. However, in spite of the use of such scientific data, a place must be retained for the clinical judgment that allows a physician to make decisions based on medical data, professional expertise and knowledge of the patient. An ethical reflection is necessary in order to focus on the possibility of patients being excluded, as well as on the resolution of the equity/efficacy dilemma.
47

Sahnoune, Zakaria. "Vers une plateforme holistique de protection de la vie privée dans les services géodépendants." Thèse, 2018. http://hdl.handle.net/1866/21144.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Lafrance-Girard, Corinne. "Toxoplasma gondii dans la viande au détail au Canada : prévalence, quantification et facteurs de risque dans une perspective de santé publique." Thèse, 2017. http://hdl.handle.net/1866/19890.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Vermeys, Nicolas W. "Qualification et quantification de l'obligation de sécurité informationnelle dans la détermination de la faute civile." Thèse, 2009. http://hdl.handle.net/1866/3663.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.
In Quebec, as in most western jurisdictions, the duty to ensure information security, i.e. the obligation bestowed upon companies to protect the integrity, confidentiality and availability of information, stems from a series of legal dispositions which, rather than to impose a certain conduct, or the use of given technologies or processes, simply demand that "reasonable", "adequate", or "sufficient" security measures be applied. However, in a field an nascent and complex as information security, where available solutions are numerous, and where case law is sparse, how can a company reliably predict the full extend of its duty? In other words, how can one establish what a reasonably prudent and diligent company would do in a field where laws, case law, and even customs fail to dictate precisely what level of diligence is sought by the legislator? The lack of legal certainty offered in such a case is obvious, and requires us to reconfigure the framework associated with the duty to ensure information security in order to identify its components and objectives. Such an endeavour begins with redefining the duty to ensure information security as a duty to reduce information-related risk to a socially acceptable leve1. Since security stems from risk management, it can therefore be said that risk is at the core of said duty. By analysing risk, i.e. by identifying the threats that aim to exploit a system's vulnerabilities, it becomes possible to specify which counter measures could be useful and what costs they may entail. From that point, it's feasible, if using the economic definition of negligence (which is based on the probability of a security breach, and the damages incurred), to establish the optimal amount that should be invested in the purchasing, upkeep and replacement of these counter measures. This type of analysis will allow companies to quantify, with a certain degree of precision, the extend to which they need to ensure information security by giving them a set of tools based on easily accessible data. Furthermore, said tools appear to be fully compatible with the current legal landscape.
50

Vermeys, Nicolas. "Qualification et quantification de l'obligation de sécurité informationnelle dans la détermination de la faute civile." Thèse, 2009. http://hdl.handle.net/1866/3663.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.
In Quebec, as in most western jurisdictions, the duty to ensure information security, i.e. the obligation bestowed upon companies to protect the integrity, confidentiality and availability of information, stems from a series of legal dispositions which, rather than to impose a certain conduct, or the use of given technologies or processes, simply demand that "reasonable", "adequate", or "sufficient" security measures be applied. However, in a field an nascent and complex as information security, where available solutions are numerous, and where case law is sparse, how can a company reliably predict the full extend of its duty? In other words, how can one establish what a reasonably prudent and diligent company would do in a field where laws, case law, and even customs fail to dictate precisely what level of diligence is sought by the legislator? The lack of legal certainty offered in such a case is obvious, and requires us to reconfigure the framework associated with the duty to ensure information security in order to identify its components and objectives. Such an endeavour begins with redefining the duty to ensure information security as a duty to reduce information-related risk to a socially acceptable leve1. Since security stems from risk management, it can therefore be said that risk is at the core of said duty. By analysing risk, i.e. by identifying the threats that aim to exploit a system's vulnerabilities, it becomes possible to specify which counter measures could be useful and what costs they may entail. From that point, it's feasible, if using the economic definition of negligence (which is based on the probability of a security breach, and the damages incurred), to establish the optimal amount that should be invested in the purchasing, upkeep and replacement of these counter measures. This type of analysis will allow companies to quantify, with a certain degree of precision, the extend to which they need to ensure information security by giving them a set of tools based on easily accessible data. Furthermore, said tools appear to be fully compatible with the current legal landscape.

До бібліографії