Dissertations / Theses on the topic 'Évaluation du risque technologique – Statistiques'

To see the other types of publications on this topic, follow the link: Évaluation du risque technologique – Statistiques.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 32 dissertations / theses for your research on the topic 'Évaluation du risque technologique – Statistiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bou, Nader Raymond. "Modélisation du management des risques industriels et de la responsabilité sociale des entreprises : Cas des entreprises libanaises." Electronic Thesis or Diss., Toulon, 2017. http://www.theses.fr/2017TOUL2001.

Full text
Abstract:
Notre thèse consiste à étudier la pratique actuelle de la RSE dans le contexte des compagnies libanaises à caractère industriel, et à examiner la relation entre les pratiques RSE d’une part et le management des risques d’autre part, en utilisant des techniques de statistiques inférentielles, des analyses factorielles exploratoires et des modèles de régression linéaire multiple. C’est dans ce dernier cas que la contribution principale de cette recherche a été réalisée. Ainsi, cette recherche a permis de percevoir la RSE comme étant plus qu’un simple outil de marketing et de relations publiques mais aussi un vrai outil influant le risque dans les entreprises. Notre recherche élargit la base de connaissances dans ce domaine dans le contexte libanais, en mettant l’accent sur le management et les pratiques de l’entreprise en terme de gestion du risque, afin de mieux gérer par la RSE les impacts sociaux, environnementaux, et communautaires de leurs activités. Les résultats de cette étude permettront aux chercheurs de créer une base théorique et empirique plus forte sur laquelle les recherches futures sur le sujet de la RSE et du management des risques par la RSE peuvent être développées
The aim of our thesis is to study the current practice of CSR in the context of the Lebanese industrial companies and to examine the relationship between CSR practices and risk management, using statistical techniques as inferential tests, factor analysis and multiple linear regression models. It is in the latter that the main contribution of this research has been made. This research has made it possible to perceive CSR as more than just a marketing and public relations tool but also a real tool influencing risk in companies. Our research broadens the knowledge base in this field in the Lebanese context, focusing on the management and practices of the company in terms of risk management, in order to better manage the social, environmental, and community based activities by CSR. The results of this study will enable researchers to create a stronger theoretical and empirical basis on which future research on the subject of CSR and risk management through CSR can be developed
APA, Harvard, Vancouver, ISO, and other styles
2

Bou, Nader Raymond. "Modélisation du management des risques industriels et de la responsabilité sociale des entreprises : Cas des entreprises libanaises." Thesis, Toulon, 2017. http://www.theses.fr/2017TOUL2001/document.

Full text
Abstract:
Notre thèse consiste à étudier la pratique actuelle de la RSE dans le contexte des compagnies libanaises à caractère industriel, et à examiner la relation entre les pratiques RSE d’une part et le management des risques d’autre part, en utilisant des techniques de statistiques inférentielles, des analyses factorielles exploratoires et des modèles de régression linéaire multiple. C’est dans ce dernier cas que la contribution principale de cette recherche a été réalisée. Ainsi, cette recherche a permis de percevoir la RSE comme étant plus qu’un simple outil de marketing et de relations publiques mais aussi un vrai outil influant le risque dans les entreprises. Notre recherche élargit la base de connaissances dans ce domaine dans le contexte libanais, en mettant l’accent sur le management et les pratiques de l’entreprise en terme de gestion du risque, afin de mieux gérer par la RSE les impacts sociaux, environnementaux, et communautaires de leurs activités. Les résultats de cette étude permettront aux chercheurs de créer une base théorique et empirique plus forte sur laquelle les recherches futures sur le sujet de la RSE et du management des risques par la RSE peuvent être développées
The aim of our thesis is to study the current practice of CSR in the context of the Lebanese industrial companies and to examine the relationship between CSR practices and risk management, using statistical techniques as inferential tests, factor analysis and multiple linear regression models. It is in the latter that the main contribution of this research has been made. This research has made it possible to perceive CSR as more than just a marketing and public relations tool but also a real tool influencing risk in companies. Our research broadens the knowledge base in this field in the Lebanese context, focusing on the management and practices of the company in terms of risk management, in order to better manage the social, environmental, and community based activities by CSR. The results of this study will enable researchers to create a stronger theoretical and empirical basis on which future research on the subject of CSR and risk management through CSR can be developed
APA, Harvard, Vancouver, ISO, and other styles
3

Obertelli, Patrick. "Attitudes et conduites face aux risques : deux études en milieu technologique nucléaire et en milieu technologique classique." Paris 10, 1993. http://www.theses.fr/1993PA100084.

Full text
Abstract:
La présente recherche porte sur les rapports aux risques de travailleurs en milieux industriels. La probématique est organisée autour de deux ensembles de questions: - En quoi ce que les personnes vivent organise ou perturbe leur rationalité par rapport aux risques ? En particulier, qu'en est-il des modes d'organisation de la pensée qui paraissent au premier abord inadaptés aux situations rencontrées? - Les natures des contextes organisationnels et technologiques influent-elles sur ces attitudes et conduites, et dans l'affirmative, de quelle façon? Y a-t-il des constantes observables indépendamment de ces contextes? Deux études ont été effectuées, l'une par questionnaire, l'autre par entretiens. Les résultats se structurent autour de quatre champs de conclusions majeurs. Ils soulignent: - L'existence de normes d'acceptation des risques construites au sein des groupes de travail. - La nécessité d'un équilibre psychoémotionnel des personnes face aux risques. Sont examinés, en particulier, les rapports des personnes à leur groupe de travail et à l'organisation. Sont également envisagés des phénomènes de distorsion dans la perception de la réalité. - L'existence de processus de polarisation de l'attention sous l'effet de la pression du temps. - Les spécificités du rapport au savoir en univers technologique complexe
The current research deals with the risks of workers in the industrial plants. This research is organised around two sets of questions: - How far can a person's experiences organise or disrupt his rationality in the face of risk? Particularly, what abotu the methods of organizing his thoughts which at first seem inappropriate to the situations he encounters? Does the nature of organisational and technological structures have an influence on these attitudes and conduct and if so, in what way? Are there any noticeable constants independant of these contexts? Two studies have been carried out, one by means of questionnaires, the other through interviews. The results are structured around four major conclusions. They emphasize: 1- The existence of certain norms of risk acceptance within work-teams. 2- The necessity of a psychoemotional balance in the face of risk. The relations of individuals to their work-team and their organisation are equally examined. The phenomena of the distorsion of the perception of reality are also considered. 3- The existence of the polarisation of mental focus under time pressures. 4- The characteristics of the relationship to knowledge in a sophisticated technological universe
APA, Harvard, Vancouver, ISO, and other styles
4

Nikolova, Vénéta. "La notion d’opportunité technologique : Analyse théorique et empirique." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090005.

Full text
Abstract:
L’innovation des entreprises pose des questions majeures sur la mesure du concept d’opportunité technologique. L’objectif de cette thèse est d’effectuer une analyse théorique des critères de révélation et d’exploitation de ces opportunités (vagues technologiques, courbe en S, Hype Curve de Gartner), puis de tester cette approche dans l’édition de logiciels. Nous démontrons d’abord, par une étude de cas sur 3 sociétés technologiques françaises, que chaque critère a une portée limitée. Aussi, nous établissons un lien entre intensité en R&D, cycles technologiques et marchés financiers, via une analyse de l'évolution agrégée des dépenses de R&D (indicateur du nombre d’opportunités) et de la capitalisation boursière d’un échantillon de 438 éditeurs de logiciels de 17 pays sur 1994-2005. Nous concluons enfin, via une analyse de corrélation sur 3 éditeurs de logiciels ainsi qu’à notre échantillon précédent, que frais de R&D engagés et cours boursier évoluent plutôt de façon parallèle
Corporate innovation asks some major questions about the technological opportunity concept’s measurement. The goal of this thesis is to theoretically analyse the criteria of this opportunity’s revelation and exploitation criteria (technological waves, S-curve, Gartner’s Hype Curve), then test this approach within the software industry. First, by the means of a case study on 3 French technological firms, we prove that each criterion has a limited reach. Also, we state the evidence of a relationship between R&D, technological cycles and financial markets, via an analysis of aggregated changes of R&D expenses (measuring the number of opportunities) and market capitalisation for a sample of 438 software companies from 17 countries between 1994 and 2005. Then we conclude, via a correlation analysis on 3 software vendors but also on our previous sample, that expensed R&D costs and stock price move in a parallel manner rather than with delayed effects
APA, Harvard, Vancouver, ISO, and other styles
5

Tressou, Jessica. "Méthodes statistiques pour l'évaluation du risque alimentaire." Phd thesis, Université de Nanterre - Paris X, 2005. http://tel.archives-ouvertes.fr/tel-00139909.

Full text
Abstract:
Les aliments peuvent être contaminés par certaines substances chimiques, qui, lorsqu'elles sont ingérées à des doses trop importantes, peuvent engendrer des problèmes de santé. Notre but est d'évaluer la probabilité que l'exposition au contaminant dépasse durablement une dose tolérable par l'organisme que nous appelons risque. La modélisation de la queue de distribution par des lois extrêmes permet de quantifier un risque très faible. Dans les autres cas, l'estimateur empirique du risque s'écrit comme une U-statistique généralisée, ce qui permet d'en dériver les propriétés asymptotiques. Des développements statistiques permettent d'intégrer à ce modèle la censure des données de contamination. Enfin, un modèle économétrique de décomposition de données ménage en données individuelles nous permet de proposer une nouvelle méthode de quantification du risque de long terme prenant en compte l'accumulation du contaminant et sa lente dégradation par l'organisme.
APA, Harvard, Vancouver, ISO, and other styles
6

Propeck-Zimmermann, Éliane. "Risque technologique majeur : conditions de production et rôle des outils cartographiques dans le processus d'identification et de gestion." Université Louis Pasteur (Strasbourg) (1971-2008), 1994. http://www.theses.fr/1994STR10013.

Full text
Abstract:
La cartographie constitue un outil fondamental dans l'appréhension des risques technologiques majeurs (RTM). En comparant deux méthodes de détermination des zones à risques - déterministe française et probabiliste néerlandaise - cette thèse met en évidence le rôle de la carte comme outil de médiation dans le processus de prévention et de gestion des RTM et soulève le problème de l'objectivité scientifique et des acteurs. Pour aider la prise de décision, il est proposé la constitution d'une base de données localisées (BDL) associe à la cartographie assistée par ordinateur (CAO). Cette option est préconisée comme une transition à la construction de nouvelles cartes et un apprentissage, par tous les acteurs concernés, à la lecture de cartes permises par de nouveaux développements à partir de l'ensemble BDL / Système d'information géographique, esquissés à la fin du travail
Cartography is a fundamental tool for the comprehension of major technological hazards. By comparing the two main methods of determination of hazards zones - the French deterministic and the Dutch probabilistic one - this thesis is highlighting the roll of the map as a medium of the prevention process and management of major technological hazards ; it is also stretching out the relation between scientific objectivity and actors. In order to facilitate the decision making, the constitution of a spatial data base combined with the computer aided cartography is proposed as the first step for the elaboration of new maps, and as a learning process for all the actors involved in the reading of these maps. As a conclusion, the combination of spatial data base and of geographical information system is suggested
APA, Harvard, Vancouver, ISO, and other styles
7

Shemilt, Michèle. "Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au Québec." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/26078.

Full text
Abstract:
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
8

Kayibanda, Jeanne Françoise. "La surveillance et les facteurs de risque associés au VIH au Rwanda." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28514/28514.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ben, Hassine Safa. "Identification des facteurs de risque statistiques : Applications au marché boursier et au marché du crédit." Paris 2, 2009. http://www.theses.fr/2009PA020024.

Full text
Abstract:
L’objet de cette thèse est d’interpréter les facteurs de risque statistiques, issus de l’analyse en composantes principales. Deux sujets d’étude sont abordés. Le premier porte sur les marchés boursiers (américain et français). Sur ces deux marchés, on cherche, entre autres, à établir un lien direct entre les facteurs de risque statistiques, extraits de la matrice de variances et covariances des taux de rentabilité boursiers, d’une part, et les facteurs de Fama et French, d’autre part. Le deuxième sujet d’étude concerne le marché de la dette privée du secteur industriel américain. L’objectif recherché est d’identifier le nombre et la nature des facteurs de risque statistiques qui régissent les variations mensuelles des spreads de crédit. Ces deux objectifs sont atteints à l’aide de la méthodologie développée dans nos précédents travaux et publications [Ben Hassine et Charpin (2005), Ben Hassine (2005) et Ben Hassine (2006)]. Cette méthode consiste à projeter sur les axes factoriels, déterminés par une analyse en composantes principales non normée, des variables supplémentaires correspondant à des portefeuilles de caractéristiques formés selon la technique suggérée par Fama et French (1992). Les contributions de cette thèse sont multiples. Premièrement, notre étude a l’avantage de contourner la critique de manque d’interprétation adressée à l’encontre des facteurs statistiques. Deuxièmement, nous confirmons, via une méthodologie originale d’identification des facteurs de risque statistiques, la nature systématique des facteurs de Fama et French, qui a été contestée par un grand nombre de chercheurs. Troisièmement, nous avons trouvé que le taux de rendement des dividendes et le momentum de rentabilité représentaient aussi des facteurs de risque systématiques. Quatrièmement, nous proposons une étude empirique, basée sur l’analyse en composantes principales, afin d’identifier le nombre et la nature des facteurs de risque des variations de spreads de crédit. Enfin, nous mettons en lumière les interactions qui relient le marché du crédit à celui des actions.
APA, Harvard, Vancouver, ISO, and other styles
10

Thomasson, Delphine. "Réflexions sur la régularité de dispersion des débris spatiaux et applications à la détermination de la probabilité de collision en orbite." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I035/document.

Full text
Abstract:
Ce travail de thèse se veut être une contribution à l'estimation globale des risques de collisions dans l'environnement spatial de la Terre. Deux échelles de temps s'affrontent pour l'estimation de ces risques : le très court terme (quelques heures à quelques jours) où les évolutions notables de probabilité de collisions vont être dues à des événements de caractère catastrophique (collision entre satellites ou explosion), et le long voire le très long terme (où il s'agit d'évaluer l'évolution spatio-temporelle de la population de l'ensemble des débris spatiaux). Dans les deux cas, il s'agit d'évaluer la dangerosité d'une région de l'espace où évoluent des satellites opérationnels. L'assimilation de bases de données des objets en orbite autour de la Terre est fortement présente dans ce travail, tout comme des simulations pour les objets petits, nombreux, et donc non-observables. L'objectif suivi est d'étudier les caractéristiques statistiques générales de la population ainsi que celles d'une famille particulière née d'un événement ponctuel (de type fragmentation), tant par le biais d'outils usuels que novateurs, afin d'aboutir à une estimation des risques engendrés à court et long termes. Une méthode innovante est proposée, basée sur des outils de statistique spatiale utilisés en mathématiques appliquées dans des domaines variés mais jusque là autres que l’astrodynamique. Nous avons déterminé la répartition des débris spatiaux d'un point de vue statistique, en décrivant la dynamique d'agrégation ou de répulsion entre les objets, puis évalué l'influence des particules de petite taille sur la distribution des fragments. L'étude d'une fragmentation particulière et de la formation de son nuage de débris en orbite est également réalisée. Elle passe par la description des caractéristiques géométriques du nuage au cours du temps ainsi que par la déterminationdes temps de fermeture de ses différentes étapes de formation. Cette fragmentation est également utilisée pour déterminer l'influence des paramètres propres à l'explosion et à l'évolution des orbites sur la dispersion du nuage d'un point de vue statistique. Sur la base de l’ensemble de ces travaux, une série de critères nous permet finalement de tracer des voies vers une calibration d'un modèle de fragmentation complet par comparaison avec des données réelles issues d'observations
This PhD work is a contribution to the global estimation of collision risks in the Earth space environment. To estimate these risks, two time scales complement one another: over very short terms (from a few hours to a few days) the strongest changes of collision probabilities are likely to be due to catastrophic events (collision between satellites or explosions), whereas over long and even very long terms (decades or even centuries) the main goal is to assess the spatio-temporal evolution of a whole population of space debris. In both cases, this is the evaluation of the dangerousness of regions where active satellites evolve which is at stake.Throughout the discussion, we focuse on databases assimilation of on-orbit objects, as well as on simulations for small and (then) numerous objects objects that are unobservable. We follow the goal of characterizing the statistical distribution of the global population, as well as specific families generated after a punctual event (i.e: fragmentation). Some estimations of the incurred risks are provided over both short and long time scales. An innovative method is proposed to characterize the space debris distribution, that is rather commonly used in the fields of applied mathematique but not that frequently in astrodynamics: this method is based on spatial statistics to determine the space debris distribution from a statistical point of view. By defining the notions of aggregation and repulsion dynamics between objects, we have assessed the influence of small particles on the fragments distribution.The study of a real fragmentation and of the corresponding space debris cloud evolution is also conducted. The geometrical characteristics of the cloud over time are supplied as well as the estimation of the closure times corresponding to the different evolution phases of the cloud. This concrete example is also on the basis of a sensitivity analysis: by enlightening the influence of some parameters standing for the explosion and the orbit evolution parameterization, the spreading of the cloud is characterized from a statistical point of view.As a final step of this approach, some criteria are discussed to open a path through the calibration of a complete fragmentation model thanks to comparisons with real data coming from observations
APA, Harvard, Vancouver, ISO, and other styles
11

Lieval, Cecile. "Innovation technologique et risques insaisissables : une territorialisation impossible ?" Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENH034.

Full text
Abstract:
Depuis les années 2000, le développement des nanotechnologies suscite des oppositions liées à de « nouveaux risques » que l'on commence tout juste à cerner, ainsi qu'à des questionnements éthiques, ce qui n'empêche pas le développement à l'échelle mondiale de ces technologies, sous la forme de pôles localisés soumis à de rudes exigences de compétitivité. Or, ces projets d'aménagement donnent lieu à des conflits autour de risques difficiles à appréhender à l'échelle locale : quelles conséquences cela a-t-il sur la façon dont sont conduits les projets d'aménagement ? Et qu'en est-il de la contestation face à des risques insaisissables ? Le cas de Grenoble permet d'étudier cette tension entre des projets d'aménagement et un conflit aux conséquences très localisées, et le développement scientifique et économique de ces technologies selon une logique mondialisée. Comment, pour les acteurs publics, penser l'aménagement du territoire à l'échelle locale face à cette incertitude radicale, globale, dans le contexte d'une concurrence économique qui les dépasse mais qui les contraint? Comment la question des risques et de l'incertitude, dont la « nouveauté » devra être questionnée, est-elle susceptible de renouveler ou non le processus de territorialisation, la maîtrise des projets, les logiques de justification et la façon dont les acteurs parviennent à fonder en raison l'anticipation ?
Since the 2000's, the development of nanotechnologies gives rise to oppositions in connection with "new risks" that are only just starting to be defined, together with an ethical questioning, which doesn't prevent the worldwide development of those technologies, in the form of localized poles subject to harsh requirements of competitiveness. Now, those territorial development projects generate conflicts about risks which are difficult to assess on a local scale : what are the consequences on the way the territorial development projects are conducted ? And what about the protest facing elusive risks ? The case of Grenoble allows to study this tension between development projects and a conflict with very local consequences, and the scientific and economic development of those technologies following a worldwide practice. For local actors, how to think out territorial development on a local scale when faced with this radical global uncertainty, in the context of an economical competition that exceeds but compels them ? How is the question of risks and uncertainty, whose "novelty" will have to be questioned, likely to renew or not the process of territorialisation, the control of projetcs, the practices of justification, and the way the actors manage to base anticipation on the rule of reason
APA, Harvard, Vancouver, ISO, and other styles
12

Brooks, Heather, and Heather Brooks. "Quantitative risk analysis for linear infrastructure supported by permafrost : methodology and computer program." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37155.

Full text
Abstract:
Le pergélisol est omniprésent dans l’Arctique et l’Antarctique, et il est présent en haute altitude partout dans le monde. Les communautés et le développement industriel des régions pergélisolées ont besoin d’infrastructures de transport (routes, aéroports, chemins de fer, etc.), sachant que le transport y revêt une importance vitale au niveau social, économique et politique (Regehr, Milligan et Alfaro 2013). Toutefois, les changements climatiques auront des répercussions sur les infrastructures de transport existantes et futures en Alaska de l’ordre de 282 à 550 M$ (2015 USD), selon les scénarios d’émissions (Melvin et al. 2016). Vu ces conditions, des outils sont nécessaires pour aider les décideurs à prioriser l’entretien, le remplacement et la construction des infrastructures, et potentiellement justifier l’utilisation des stratégies de mitigation pour les remblais sur pergélisol. Des méthodes d’analyse de risque peuvent être utilisées, mais leur application en ingénierie du pergélisol est actuellement limitée. Le risque est un produit du hasard, de la conséquence et de la vulnérabilité pour chacun des dangers considérés. La probabilité et le coût de l’occurrence d’un danger sont respectivement un hasard et une conséquence, tandis que la vulnérabilité corrèle le dommage possible avec la conséquence. Comme il existe peu de données de défaillance pour les installations sur pergélisol, le risque doit être déterminé à l’aide des méthodes d’analyse de fiabilité (premier-ordre deuxièmemoment ou simulations de Monte Carlo), qui intègrent les incertitudes des paramètres d’entrée pour déterminer la variabilité des résultats. Ces méthodes exigent la caractérisation de l’incertitude des variables aléatoires, ce qui peut être difficile en l’absence de données suffisantes, souvent plus que nécessaire dans la pratique actuelle. En outre, ces méthodes d’analyse de fiabilité exigent une fonction d’état limite pour que le danger soit analysé. Les dangers communs qui affectent les remblais sur pergélisol incluent : le tassement, la fissuration, la rupture soudaine, le déplacement latéral du remblai, le drainage et l’accumulation d’eau en pied de remblai, et les glissements de la couche active. Parmi ces dangers, seuls quelques-uns ont des fonctions d’état limite déterminées ou qui peuvent être approfondies par l’auteure. Les dangers associés à ces fonctions d’état limite ou de hasard comprennent : les tassements totaux et différentiels au dégel, la formation d’arche par le positionnement de particules audessus de cavité, les glissements de la couche active, la rupture de la pente du ponceau et l’affaissement de la structure du ponceau. Un programme a été créé sur le logiciel Excel pour calculer le risque des installations linéaires construites sur un remblai de pergélisol en utilisant les méthodes statistiques appliquées aux fonctions d’état limite afin de déterminer les dangers communs aux infrastructures sur pergélisol, ainsi que d'estimer les coûts directs de réparation et les facteurs d’échelle permettant de tenir compte des coûts indirects des dommages causés aux utilisateurs de l’infrastructure et aux communautés concernées. Les calculs des risques sont basés sur les propriétés géotechniques et l’incertitude climatique, telles que caractérisées par des fonctions de densité de probabilité, en utilisant les méthodes statistiques de simulations de Monte Carlo. Une analyse de la fragilité du réchauffement climatique permet de recalculer les dangers à partir des variations des températures de l’air. Les analyses répétées le long de l’infrastructure fournissent un profil de risque actuel ainsi qu'un profil tenant compte du réchauffement climatique. Le programme a servi à déterminer les dangers pour la route d’accès à l’aéroport de Salluit, et l'évaluation des dangers, des risques et de la rentabilité a été effectuée pour l’aéroport international d’Iqaluit
Le pergélisol est omniprésent dans l’Arctique et l’Antarctique, et il est présent en haute altitude partout dans le monde. Les communautés et le développement industriel des régions pergélisolées ont besoin d’infrastructures de transport (routes, aéroports, chemins de fer, etc.), sachant que le transport y revêt une importance vitale au niveau social, économique et politique (Regehr, Milligan et Alfaro 2013). Toutefois, les changements climatiques auront des répercussions sur les infrastructures de transport existantes et futures en Alaska de l’ordre de 282 à 550 M$ (2015 USD), selon les scénarios d’émissions (Melvin et al. 2016). Vu ces conditions, des outils sont nécessaires pour aider les décideurs à prioriser l’entretien, le remplacement et la construction des infrastructures, et potentiellement justifier l’utilisation des stratégies de mitigation pour les remblais sur pergélisol. Des méthodes d’analyse de risque peuvent être utilisées, mais leur application en ingénierie du pergélisol est actuellement limitée. Le risque est un produit du hasard, de la conséquence et de la vulnérabilité pour chacun des dangers considérés. La probabilité et le coût de l’occurrence d’un danger sont respectivement un hasard et une conséquence, tandis que la vulnérabilité corrèle le dommage possible avec la conséquence. Comme il existe peu de données de défaillance pour les installations sur pergélisol, le risque doit être déterminé à l’aide des méthodes d’analyse de fiabilité (premier-ordre deuxièmemoment ou simulations de Monte Carlo), qui intègrent les incertitudes des paramètres d’entrée pour déterminer la variabilité des résultats. Ces méthodes exigent la caractérisation de l’incertitude des variables aléatoires, ce qui peut être difficile en l’absence de données suffisantes, souvent plus que nécessaire dans la pratique actuelle. En outre, ces méthodes d’analyse de fiabilité exigent une fonction d’état limite pour que le danger soit analysé. Les dangers communs qui affectent les remblais sur pergélisol incluent : le tassement, la fissuration, la rupture soudaine, le déplacement latéral du remblai, le drainage et l’accumulation d’eau en pied de remblai, et les glissements de la couche active. Parmi ces dangers, seuls quelques-uns ont des fonctions d’état limite déterminées ou qui peuvent être approfondies par l’auteure. Les dangers associés à ces fonctions d’état limite ou de hasard comprennent : les tassements totaux et différentiels au dégel, la formation d’arche par le positionnement de particules audessus de cavité, les glissements de la couche active, la rupture de la pente du ponceau et l’affaissement de la structure du ponceau. Un programme a été créé sur le logiciel Excel pour calculer le risque des installations linéaires construites sur un remblai de pergélisol en utilisant les méthodes statistiques appliquées aux fonctions d’état limite afin de déterminer les dangers communs aux infrastructures sur pergélisol, ainsi que d'estimer les coûts directs de réparation et les facteurs d’échelle permettant de tenir compte des coûts indirects des dommages causés aux utilisateurs de l’infrastructure et aux communautés concernées. Les calculs des risques sont basés sur les propriétés géotechniques et l’incertitude climatique, telles que caractérisées par des fonctions de densité de probabilité, en utilisant les méthodes statistiques de simulations de Monte Carlo. Une analyse de la fragilité du réchauffement climatique permet de recalculer les dangers à partir des variations des températures de l’air. Les analyses répétées le long de l’infrastructure fournissent un profil de risque actuel ainsi qu'un profil tenant compte du réchauffement climatique. Le programme a servi à déterminer les dangers pour la route d’accès à l’aéroport de Salluit, et l'évaluation des dangers, des risques et de la rentabilité a été effectuée pour l’aéroport international d’Iqaluit
Permafrost is ubiquitous in the Arctic and Antarctic, and present in high elevation regions throughout the world. The communities and industrial development in permafrost regions require transportation infrastructures (roadways, airports, railways, etc.) and, in these regions, transportation is of vital social, economic, and political importance (Regehr, Milligan, and Alfaro 2013). However, warming climate conditions will endanger existing and future transportation infrastructure in Alaska to the tune of $282 to $550 million (2015 USD) depending on future emission scenarios (Melvin et al. 2016). Given these conditions, tools are required to aid decisionmakers in prioritizing infrastructure maintenance, replacement, and construction, and potentially justifying the use of mitigation strategies of permafrost embankments. Risk analysis methods can be used but their existing application to permafrost engineering is limited. Risk is a product of hazard, consequence and vulnerability for each of the dangers under consideration. The probability and costs of a danger’s occurrence is a hazard and the consequence, respectively, while vulnerability correlated the damage with the consequence. Since little failure data is available for permafrost infrastructure, the hazard must be determined from reliability analysis methods (First-Order Second-Moment or Monte Carlo Simulation), which aggregate the uncertainty of input parameters to determine the result’s variation. These methods require the characterization of random variable uncertainty, which can be difficult without sufficient data, often more than the current standard-of-practice. Additionally, the method requires a limit state function for the danger to be analyzed. Common dangers effecting permafrost embankment infrastructure included: settlement, cracking, sudden collapse, lateral embankment spreading, drainage and ponding water, and active layer detachment landslides. Of these dangers, only a few have existing limit state functions or have limit state functions that can be developed by the author. The dangers with limit state functions or hazard functions include: total and differential thaw settlement, particle position bridging over voids, active layer detachment landslides, and culvert gradient and structural failure. A Microsoft Excel-based program was created to calculate the risk for permafrost embankment linear infrastructure, using statistical methods applied to limit state functions to determine hazards for common permafrost dangers, estimated direct costs for the repair of a hazard’s occurrence, and scaling factors to account for the indirect costs of damage to the infrastructure’s users and connected communities. Hazard calculations are based on geotechnical property and climate uncertainty, as characterized by probability density functions, using Monte Carlo Simulation methods. A climate change fragility analysis recalculates the hazard with warming air temperatures. Repeated analyses along the infrastructure provide a risk profile of the infrastructure, now and with a warming climate. The program is used to determine hazard for the Airport Access Road in Salluit, and hazard, risk and cost/benefit assessments were conducted using this program for the Iqaluit International Airport.
Permafrost is ubiquitous in the Arctic and Antarctic, and present in high elevation regions throughout the world. The communities and industrial development in permafrost regions require transportation infrastructures (roadways, airports, railways, etc.) and, in these regions, transportation is of vital social, economic, and political importance (Regehr, Milligan, and Alfaro 2013). However, warming climate conditions will endanger existing and future transportation infrastructure in Alaska to the tune of $282 to $550 million (2015 USD) depending on future emission scenarios (Melvin et al. 2016). Given these conditions, tools are required to aid decisionmakers in prioritizing infrastructure maintenance, replacement, and construction, and potentially justifying the use of mitigation strategies of permafrost embankments. Risk analysis methods can be used but their existing application to permafrost engineering is limited. Risk is a product of hazard, consequence and vulnerability for each of the dangers under consideration. The probability and costs of a danger’s occurrence is a hazard and the consequence, respectively, while vulnerability correlated the damage with the consequence. Since little failure data is available for permafrost infrastructure, the hazard must be determined from reliability analysis methods (First-Order Second-Moment or Monte Carlo Simulation), which aggregate the uncertainty of input parameters to determine the result’s variation. These methods require the characterization of random variable uncertainty, which can be difficult without sufficient data, often more than the current standard-of-practice. Additionally, the method requires a limit state function for the danger to be analyzed. Common dangers effecting permafrost embankment infrastructure included: settlement, cracking, sudden collapse, lateral embankment spreading, drainage and ponding water, and active layer detachment landslides. Of these dangers, only a few have existing limit state functions or have limit state functions that can be developed by the author. The dangers with limit state functions or hazard functions include: total and differential thaw settlement, particle position bridging over voids, active layer detachment landslides, and culvert gradient and structural failure. A Microsoft Excel-based program was created to calculate the risk for permafrost embankment linear infrastructure, using statistical methods applied to limit state functions to determine hazards for common permafrost dangers, estimated direct costs for the repair of a hazard’s occurrence, and scaling factors to account for the indirect costs of damage to the infrastructure’s users and connected communities. Hazard calculations are based on geotechnical property and climate uncertainty, as characterized by probability density functions, using Monte Carlo Simulation methods. A climate change fragility analysis recalculates the hazard with warming air temperatures. Repeated analyses along the infrastructure provide a risk profile of the infrastructure, now and with a warming climate. The program is used to determine hazard for the Airport Access Road in Salluit, and hazard, risk and cost/benefit assessments were conducted using this program for the Iqaluit International Airport.
APA, Harvard, Vancouver, ISO, and other styles
13

Grassaud, Alain. "La formation des personnels dans un milieu industriel à "haut risque technologique" : enquête socianalytique sur les pratiques de tutorat et de compagnonnage dans la formation des rondiers des centrales nucléaires." Paris 8, 2000. http://www.theses.fr/2000PA081820.

Full text
Abstract:
@Cette thèse a pour objet la formation du personnel dans l'industrie à "haut risque technologique", et plus particulièrement la formation des rondiers participant à la conduite des réacteurs nucléaires d'Electricité de France (EDF). Elle repose principalement sur un travail d'enquête "socianalytique" concernant les pratiques de tutorat et de compagnonnage, réalisé dans des Centrales Nucléaires de production d'électricité (CNPE) de septembre 1994 à septembre 1995. . . .
APA, Harvard, Vancouver, ISO, and other styles
14

Oladeji, Sunday. "Commerce Nord-Sud et environnement : une approche technologique." Aix-Marseille 2, 1999. http://www.theses.fr/1999AIX24007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Meynet, Jérémy. "La gestion du transport de marchandises dangereuses sur des sites à forte concentration : évaluation des risques liés au stationnement des marchandises dangereuses par l'étude de dangers." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE3017.

Full text
Abstract:
Le Transport de Marchandises Dangereuses (TMD) est une activité génératrice de risques en raison de la dangerosité intrinsèque des produits considérés qui peuvent, suite à un accident dans le cadre de cette activité, provoquer des effets graves sur l’environnement, les biens et les personnes (effets toxiques, thermiques, de surpression, ou pollution).L’activité TMD se décompose en trois phases : le transport, la manutention (chargement déchargement) et le stationnement. Afin de réduire les risques générés par l’activité TMD, une réglementation internationale a imposé des mesures techniques (prescriptions relatives à la construction et à l’utilisation des colis et des citernes, agréments des véhicules et des récipients) et préventives (formation des intervenants au transport et à la manutention des MD, règles de circulation).Toutefois, cette réglementation, appliquée en France à travers l’arrêté TMD et ses annexes, ne permet pas, pour des sites accueillant de nombreuses marchandises dangereuses (comme les ports, les gares de triage et les aires autoroutières), de mettre en place des mesures préventives et techniques spécifiques adaptées à un contexte local. En effet, l’exploitation d’une d’infrastructure de transport (comme un port accueillant des marchandises dangereuses) nécessite ses propres règles d’exploitation permettant de gérer un trafic de marchandises dangereuses hétérogène, important et régulier (voire quotidien), afin de réduire les risques liés au transport, à la manutention, au stationnement ainsi qu’à la concentration de produits dangereux sur un même site.L’étude de dangers TMD, imposée par la loi n° 2003-699 du 30 juillet 2003, est venue compléter les outils réglementaires existants, afin d’aider certains sites à forte concentration de marchandises dangereuses (définis par le décret n° 2007-700 du 3 mai 2007) à évaluer et gérer les risques générés par l’activité TMD (ou « risque TMD »).Ce travail de thèse s’inscrit donc dans un cadre réglementaire précis et s’est attaché à produire des connaissances réglementaires, scientifiques et opérationnelles, afin de mettre en œuvre et d’éprouver l’applicabilité d’une méthodologie ministérielle d’analyse de risques (définie par l’arrêté du 18 décembre 2009) pour des ouvrages accueillant des marchandises dangereuses
Transportation of Dangerous Goods (TDG) is a risk-generating activity due to the intrinsic hazard of the products concerned which may, following an accident in the course of this activity, cause serious effects on the environment, property and people (toxic, thermal effects of overpressure, or pollution).The TDG activity is divided into three phases: transport, handling (loading and unloading) and parking. To reduce the risks generated by the TDG activity, international regulations imposed technical measures (requirements for the construction and use of tanks and packages, approvals of vehicles and containers) and preventive measures (training of stakeholders transportation and handling Dangerous Goods, traffic rules).However this rule, applied in France through the order TGD and its annexes, does not allow for hosting many dangerous goods sites (such as ports, rail yards and motorway areas), to develop specific preventive and technical measures adapted to the local context. Indeed, the operation of a transport infrastructure (such as hosting dangerous goods port) requires its own operating rules to manage traffic of dangerous goods heterogeneous, large and regular (even daily) to reduce the risks associated with the transport, handling, parking and the concentration of hazardous substances on the same site.The hazard study of TDG, imposed by Act No. 2003-699 of 30 July 2003, complemented the existing regulatory tools to help some sites with high concentrations of dangerous goods (as defined by the Decree n ° 2007 - 700 of 3 May 2007) to assess and manage the risks generated by the TDG activity (or "TDG risk").This thesis is therefore part of a clear regulatory framework and is committed to produce scientific knowledge and operational regulations, to implement and test the applicability of a departmental risk analysis methodology (defined by the decree of 18 December 2009) for hosting dangerous goods sites
APA, Harvard, Vancouver, ISO, and other styles
16

Thomas, Philippe. "Contribution à l'approche booléenne de la sûreté de fonctionnement : L'atelier logiciel Aralia WorkShop." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12480.

Full text
Abstract:
Cette thèse synthétise les travaux conduits et les résultats obtenus dans le cadre de deux projets de recherche soutenus par des partenaires industriels et décrits ci-après: le projet Hévéa visait à traduire les séquences des arbres d'événements (AdE) en formules booléennes. La première phase du projet a abouti à une formalisation du problème et à la réalisation d'un logiciel permettant cette traduction. La deuxième phase a permis de trouver des solutions permettant de diminuer les problèmes d'explosion combinatoire du traitement par diagrammes binaires de décision (BDD : Binary Decision Diagram) des formules booléennes ainsi générées. La troisième phase a validé les approximations généralement utilisées lors des Etudes Probabilistes de Sûreté (EPS) des centrales nucléaires au terme d'une étude systématique portant sur deux EPS industrielles. Le projet Aloès avait pour but d'étudier des problèmes d'allocation d'exigences s'appuyant sur des modèles booléens d'analyse des risques. Après une recherche bibliographique et des discussions avec les partenaires du projet, il a abouti à la création d'un langage générique de description de problèmes d'allocation. Ce langage, ainsi que le logiciel Aloès supportant le langage, sont suffisamment génériques pour être couplé à des moteurs des calculs externes comme Aralia (voir ci-dessous) ou Réséda (outil traduisant un réseau de fiabilité en formule booléenne). Le logiciel offre alors trois algorithmes d'optimisation (descente rapide, Branch & Bound, Simplex) afin de résoudre les problèmes d'allocation. Des expérimentations sur un ensemble de réseaux de fiabilité ont permis de valider le pouvoir d'expression du langage, mais ont conclu sur la nécessité d'améliorer les algorithmes d'optimisation intégrés. L'ensemble de ces travaux a débouché sur la création de l'atelier logiciel Aralia WorkSkop de saisie et de traitement des modèles booléens d'analyse des risques (Arbre de défaillance : AdD, Arbre d'événements : AdE, Bloc diagramme de fiabilité : BDF), s'appuyant pour la partie traitement sur le cceur de calcul Aralia. Ce dernier se base sur un codage des formules booléennes en BDD.
APA, Harvard, Vancouver, ISO, and other styles
17

L'Homme, Patrick. "Risques majeurs et droit des sols : les outils juridiques de la protection des personnes et des biens dans les zones soumises à un risque naturel prévisible ou technologique majeur." Pau, 1999. http://www.theses.fr/1999PAUU2005.

Full text
Abstract:
S'il est parfaitement admis que le risque nul n'existe pas, la présence d'habitations ou d'activités humaines dans les zones soumises à un risque naturel prévisible ou technologique majeur constitue un facteur essentiel d'aggravation des accidents. Quelle que soit la qualité des mesures de prévention et de protection prises, certaines zones naturelles ou urbaines peuvent en effet toujours présenter des risques importants dont l'enjeu reste directement proportionnel à l'importance des populations qui y résident. Au delà des mesures d'information, d'alerte et de secours qu'il est indispensable de mettre en place avant, pendant ou après une catastrophe, la mesure la plus efficace sur le plan de la protection des personnes, des biens et de l'environnement consiste donc à délimiter les secteurs spécifiques à l'intérieur desquels, selon la nature, la gravité et la fréquence des risques encourus, doivent être édictées des règles particulières d'urbanisme, et par suite à interdire ou à n'admettre que sous certaines conditions les différents modes d'occupation ou d'utilisation du sol. Les instruments dont disposent respectivement l'état et les collectivités locales pour tenir compte des risques naturels et technologiques dans le droit des sols et maitriser l'urbanisation dans les zones exposées sont donc nombreux: police de la sécurité, droit de l'urbanisme et législation des installations classées pour la protection de l'environnement. L'ambition du présent sujet est d'en préciser les domaines d'application et les conditions de mise en oeuvre respectifs, d'en clarifier l'articulation et d'en rappeler les limites.
APA, Harvard, Vancouver, ISO, and other styles
18

Tarnaud, Albane. "A "DEA-Financial" approach to assess portfolio performance." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL12003.

Full text
Abstract:
Cette thèse de doctorat étudie la transposition d’une méthodologie héritée de la théorie de la production, couramment appelée "méthode DEA", à l’analyse de la performance des actifs financiers. Elle souligne la pertinence de l’utilisation d’un estimateur tel que DEA, présente en détail la méthodologie qui lui est traditionnellement associée et fournit une revue de la littérature appliquant cette méthodologie à des portefeuilles d’actifs financiers. La méthodologie étudiée requiert la définition de conditions de régularité caractérisant la technologie commune à chaque entité étudiée. Elle implique donc une définition rigoureuse des intrants et produits caractérisant la technologie de production. La littérature actuelle considère implicitement un processus de génération du rendement des investissements dans des portefeuilles d’actifs par le niveau risque. Cette thèse propose un traitement différent basé sur l’idée de production jointe, également héritée de la théorie de la production et selon laquelle des intrants peuvent générer des produits indésirables et inévitables. L’approche proposée dans cette thèse considère les divers types de risque associés à l’investissement comme des produits indésirables. Cette thèse propose donc une définition d’un processus de production financier et étudie les implications théoriques d’une telle définition sur le traditionnel ensemble d’axiomes. Elle recommande également la prise en compte d’une possible préférence pour le risque là où seule l’aversion au risque est généralement supposée, et rappelle la pertinence d’inclure dans les cadres théoriques des mesures de risque associées à des préférences telles que la prudence ou la tempérance
This doctoral thesis studies the transposition of a methodology inherited from production theory, and commonly referred to as “DEA” (Data Envelopment Analysis) only, to the study of performance of financial assets. It underlines the accuracy of using DEA as an estimator to assess the performance of financial assets, provides a detailed presentation of the methodology associated to DEA and a review of the literature that applies this methodology to the performance measurement of portfolios of financial assets.The traditional methodology requires the definition of regularity conditions that characterize the technology shared by all entities. It then implies a rigorous definition of inputs and outputs that characterize the production technology. The current literature implicitly assumes a production process that generates returns on investment in portfolios of financial assets by the level of risk taken. This thesis proposes a different treatment based on the idea of joint productions inherited from production theory and according to which inputs can generate undesirable outputs that cannot be freely disposed of. The approach proposed in this thesis then considers the various types of risk associated to the investment as undesirable outputs. This thesis proposes a definition a financial production process and studies the theoretical implications of such a definition on the traditional set of axioms. It also recommends taking into account a possible preference for risk where only risk aversion is generally assumed and reminds the importance to include in the theoretical frameworks some measures of risk associated to preferences for some risks, such as prudence or temperance
APA, Harvard, Vancouver, ISO, and other styles
19

Ariano, Sara. "Pour une étude géographique du risque : les zones humides : application à l’analyse du delta du Pô." Paris 4, 2008. http://www.theses.fr/2008PA040237.

Full text
Abstract:
L’étude géographique des risques, abordé au sein d’écoles différentes avec des spécificités nationales, met en évidence la relation entre éléments physiques et les sociétés humaines, sur un territoire donné. Le cas des zones humides montre l’intérêt d’une telle approche : ces espaces peuvent contribuer à la diminution des risques, mais leurs fonctions sont souvent sous-évaluées. Dans quelle mesure, alors, le regard porté sur ces espaces entraîne-t il des conséquences en termes de vulnérabilité ? Un cas d’étude, le delta du Pô, a été analysé par rapport à des risques « naturels » (inondations, sécheresse) et « technologiques ». Une comparaison a été ensuite réalisé avec la Camargue. L’enquête de terrain et la lecture critique de la documentation font ressortir le lien entre les risques perçus et l’évolution géo-historique du territoire. Le risque est ancrée dans un système territorial, avec son histoire, son réseau d’acteurs et ses enjeux ; il en résulte l’intérêt de remettre le territoire au centre de l’évaluation et de la gestion des risques
Risk studies are carried out by geographers in different schools and countries. The geographical approach to risk focuses on the interaction between physical and human elements in territories. The case of wetlands shows the advantages of this approach. Wetlands can help to reduce the risk of flooding and improve water quality; nevertheless, their functions are generally undervalued. This analysis was carried out through a case study: the Po delta. Both “natural” (flooding, drought) and “technological” hazards were considered. A comparative analysis was also performed in Camargue, in order to try out the methodology. Field work and document analysis point out the relationship between risk perception and the geo-historical evolution of the territory. Risk is linked to a territorial system, to its history, actors network and stakes; consequently, the territory itself should constitute the core of risk analysis
La geografia del rischio è un settore di studi sviluppato nell’ambito di diverse scuole, con delle caratteristiche specifiche nei diversi contesti accademici e nazionali. Se in Francia la géographie des risques è un soggetto frequente, quasi “alla moda”, in Italia questo tema è meno comune. È particolarmente significativo il caso delle zone umide: benché questi ambienti contribuiscano alla diminuzione dei rischi idrogeologici e al miglioramento della qualità delle acque, le loro funzioni sono spesso ignorate o sottovalutate. A partire da questo esempio, possiamo quindi chiederci in quale misura il rapporto che le società instaurano con l’ambiente (nel caso specifico, con le aree umide) possa influire sul grado di vulnerabilità. La riflessione è stata condotta attraverso l’analisi di un caso di studio: il delta del Po. Sono stati considerati dei rischi “naturali” (inondazioni, siccità e risalita del cuneo salino) e dei rischi “tecnologici” (incidenti, inquinamento). I risultati ottenuti sono poi stati comparati con quelli relativi a un secondo caso di studio, la Camargue. A partire dalla ricerca sul campo e dall’analisi critica della documentazione, si evidenzia il legame tra la percezione dei rischi e l’evoluzione geo-storica del territorio. Una rappresentazione puramente tecnica, quantitativa del rischio risulta inadeguata alla complessità del fenomeno; il rischio è infatti parte di in un sistema territoriale, con la sua storia, la sua rete di attori, le loro logiche e gli interessi in gioco. Ne consegue la necessità di rimettere il territorio al centro dell’analisi e della gestione del rischio
APA, Harvard, Vancouver, ISO, and other styles
20

Cappelaere, Charles-Henri. "Estimation du risque de mort subite par arrêt cardiaque a l'aide de méthodes d'apprentissage artificiel." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066014.

Full text
Abstract:
Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque de mort subite. Nombre de ces implantations semblent prématurées, ce qui pose problème en raison des complications post-opératoires encourues. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients.Le pouvoir prédictif de mort subite des différents descripteurs du Holter a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs du Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. À l'aide de connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, par une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque, des patients pour lesquels l'implantation ne paraît pas opportune.Au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs
Implantable cardioverter defibrillators (ICD) have been prescribed for prophylaxis since the early 2000?s, for patients at high risk of SCD. Unfortunately, most implantations to date appear unnecessary. This result raises an important issue because of the perioperative and postoperative risks. Thus, it is important to improve the selection of the candidates to ICD implantation in primary prevention. Risk stratification for SCD based on Holter recordings has been extensively performed in the past, without resulting in a significant improvement of the selection of candidates to ICD implantation. The present report describes a nonlinear multivariate analysis of Holter recording indices. We computed all the descriptors available in the Holter recordings present in our database. The latter consisted of labelled Holter recordings of patients equipped with an ICD in primary prevention, a fraction of these patients received at least one appropriate therapy from their ICD during a 6-month follow-up. Based on physiological knowledge on arrhythmogenesis, feature selection was performed, and an innovative procedure of classifier design and evaluation was proposed. The classifier is intended to discriminate patients who are really at risk of sudden death from patients for whom ICD implantation does not seem necessary. In addition, we designed an ad hoc classifier that capitalizes on prior knowledge on arrhythmogenesis. We conclude that improving prophylactic ICD-implantation candidate selection by automatic classification from Holter recording features may be possible. Nevertheless, that statement should be supported by the study of a more extensive and appropriate database
APA, Harvard, Vancouver, ISO, and other styles
21

De, Galizia Antonello. "Évaluation probabiliste de l’efficacité des barrières humaines prises dans leur contexte organisationnel." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0018/document.

Full text
Abstract:
Les travaux menés dans cette thèse CIFRE s’inscrivent dans le cadre d’une collaboration pérenne entre le CRAN et l'EDF R&D dont un des résultats majeurs a été le développement d'une méthodologie d’analyse de risques, appelée Analyse Intégrée des Risques (AiDR). Cette méthodologie traite des systèmes sociotechniques sous les angles technique, humain et organisationnel et dont les équipements sont soumis à des actions de maintenance et/ou de conduite. La thèse a pour objet ainsi de proposer une évolution du modèle dit de « barrière humaine » développé dans l'AiDR pour évaluer l'efficacité de ces actions humaines prises leur contexte organisationnel. Nos contributions majeures s'organisent autour de 3 axes : 1. Une amélioration de la structure préexistante du modèle de barrière humaine afin d’aboutir à un modèle basé sur des facteurs de forme appelés performance shaping factors (PSF) fournis par les méthodes d’Évaluation Probabiliste de la Fiabilité Humaine (EPFH) ;2. L’intégration de la résilience et la modélisation de l’interaction entre mécanismes résilients et pathogènes impactant l'efficacité des actions dans les relations causales probabilistes ;3. Un traitement global des jugements d’expert cohérent avec la structure mathématique du modèle proposé permettant d’estimer d’une manière objective les paramètres du modèle. Ce traitement se fonde sur la construction d’un questionnaire permettant de "guider" l’expert vers l’évaluation d’effets conjoints issus de l’interaction entre mécanismes pathogènes et résilients. L’ensemble des contributions proposées a été validé sur un cas d’application portant sur une barrière humaine mise en place dans un cas d’inondation externe d’une unité de production d’électricité d’EDF
The work carried out in this CIFRE PhD thesis is part of a long-term collaboration between CRAN and EDF R&D, one of the major results of which was the development of a risk analysis methodology called Integrated Risk Analysis (AiDR). This methodology deals with sociotechnical systems from technical, human and organizational points of view and whose equipment is subjected to maintenance and/or operation activities. This thesis aims to propose an evolution of the so-called "human barrier" model developed in the AiDR in order to evaluate the effectiveness of these human actions taken their organizational context. Our major contributions are organized around 3 axes: 1. Improvement of the pre-existing structure of the human barrier model to achieve a model based on performance shaping factors (PSF) provided by the Human Reliability Assessment (HRA) methods; 2. Integration of resilience and modeling of the interaction between resilient and pathogenic mechanisms impacting the effectiveness of activities in a probabilistic causal framework; 3. A global treatment of the expert judgments consistent with the mathematical structure of the proposed model in order to objectively estimate the parameters of the model. This treatment is based on a questionnaire to guide experts towards the evaluation of joint effects resulting from the interaction between pathogenic and resilient mechanisms. All of the proposed contributions have been validated on an application case involving a human barrier put in place during an external flooding occurring at an EDF power plant
APA, Harvard, Vancouver, ISO, and other styles
22

Tillier, Charles. "Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire." Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100192.

Full text
Abstract:
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques
Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results
APA, Harvard, Vancouver, ISO, and other styles
23

Lampach, Nicolas. "Essays on risk management in the presence of ambiguity." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAB009/document.

Full text
Abstract:
La thèse vise à établir une gestion du risque technologique optimal pour assurer la réduction des dangers de nouveaux risques émergents, sans entraver le chemin de l'innovation. Les travaux de recherche apportent une contribution aux stratégies ex-ante et ex-post de la gestion des risques et fournissent des données théoriques et empiriques pour aborder la gestion des nouveaux risques émergents. La première partie de la thèse examine, du point de vue juridique et économique, l'efficacité de la règle de la responsabilité civile lorsque le décideur manque d'information sur la probabilité d'un événement. La deuxième partie de la thèse porte une attention particulière à la transition énergétique en France afin de se concentrer sur l'assurabilité de la performance énergétique dans le secteur du logement. Les résultats théoriques et expérimentaux de la première partie de la recherche attestent d'une forte validité empirique selon laquelle le droit de la responsabilité civile ne peut pas fournir des incitations optimales ex-ante en absence d'information sur la probabilité d'accident. Les régimes de la responsabilité illimitée et limitée conduisent à un surinvestissement dans la prévention par rapport aux nouveaux risques émergents. Les résultats empiriques de la deuxième partie de la thèse révèlent que 23,75% des ménages, qui ont participé au programme de rénovation "Je Rénove BBC", ne peuvent pas atteindre l'objectif d'énergie prévu, mais l'amplitude de l'écart de performance énergétique est relativement faible. Les résultats des travaux de recherche impliquent plusieurs recommandations politiques pour gérer les nouvelles technologies émergentes dans le futur
The thesis aims to establish an optimal technological risk management to ensure hazard reduction of new emerging risks without impeding the innovation path. The research work contributes to ex-ante and ex-post risk management strategies and provides theoretical and empirical evidence to address the management of new emerging risks. The first part of the thesis examines, from the perspective of Law and Economics, the effectiveness of the tort liability rule for the situation where the decision maker is lacking information about the probability of an event to occur. The second part of the thesis pays particular attention to the environmental energy transition in France and focus on the insurability of the energy performance in the housing sector. The theoretical and experimental findings from the first part of the research convey strong validity that tort law cannot provide ex-ante optimal incentives when there is lacking information about the probability of accident. The regime of unlimited and limited liability leads to overinvestment in prevention in regard to new emerging risks. The empirical results of the second part of the thesis reveal that 23.75% of households participated in the weatherization program "Je Rénove BBC" do not achieve the required energy target but the severity of the energy performance gap is relatively low. The findings of the research work imply several policy recommendations to manage new emerging technologies in the future
APA, Harvard, Vancouver, ISO, and other styles
24

Kleinpeter, Claire. "Des risques urbains méconnus: les risques technologiques mineurs : Exemple des stations-service à Strasbourg." Université Louis Pasteur (Strasbourg) (1971-2008), 2003. http://www.theses.fr/2003STR1A001.

Full text
Abstract:
Le terme environnement apparaît sans cesse dans la presse, souvent associé à l'expression "développement durable", en liaison avec l'annonce de catastrophe : inondations, explosions aux origines variées, nappes de pétrole Ainsi, d'après les médias, l'équilibre mondial au niveau environnemental semblerait plus que menacé et les générations futures pourraient ne plus disposer ni bénéficier des ressources et des richesses actuelles, si rien n'est fait dans les années à venir pour modifier cet état de choses. De nombreux chercheurs se sont ainsi penchés sur ce problème et ont souligné l'apparition et la multiplication de risques, dits technologiques majeurs, avec la révolution industrielle et la concentration urbaine qui a suivi. En raison de l'ampleur de leurs conséquences, ces risques liés aux progrès techniques sont de mieux en mieux appréhendés, même si les solutions ne sont pas toujours évidentes et surtout adoptées. Cependant, la ville, lieu de fortes concentrations de population, est le témoin de bien d'autres accidents, moins graves en apparence. Ce sont ces risques méconnus, non répertoriés, ces risques qualifiés de mineurs, qui constituent ici l'objet de la recherche, objet à identifier dont on met en évidence les caractéristiques à travers l'exemple des stations-service réparties dans la Communauté Urbaine de Strasbourg. L'hypothèse soutenue dans cette thèse est que les risques technologiques mineurs correspondent à des activités à aléa faible mais à vulnérabilité très grande en raison de leur environnement. Sa vérification, matérialisée par l'étude des stations-service, passe par une analyse de la notion de risque mineur et la mise au point d'une base de données localisée afin de définir une classification des activités selon leur degré de vulnérabilité et de proposer un système d'information géographique, accompagné par un serveur destiné à des services de protection et d'intervention comme celui des sapeurs-pompiers
'Environment' and 'sustainable development' are terms that appear in the mass media often to announce natural catastrophes such as inundations, explosions, or various forms of environmental pollution. According to the mass media, the world environmental equilibrium seems to be threatened in a way that future generations would not be able to benefit of today's natural resources, if nothing is done to change this situation. Researchers who have studied the question emphasize not only the importance but also the accretion of major technological hazards mainly since the industrial revolution and the consequent urban growth. Because of their amplitude the impacts of major technological hazards related to technical progress are better known today even if solutions are not always easy to find or to apply. Cities as places of great population densities have often witnessed minor hazards throughout their history. These minor and not well known technological hazards constitute the subject of this thesis. Hazards related to the location of gas stations in the city of Strasbourg (Communauté urbaine de Strasbourg) are studied, identified, classified, through their particular characteristics. The main hypothesis is that minor technological hazards correspond to activities characterized less by unanticipated impacts than by an important degree of vulnerability due to their immediate environment. An analysis of minor technological hazards using the example of gas stations has been the first step to verify this hypothesis. The second step deals with the constitution of a located data base used to define a classification of various activities according to their degree of vulnerability in a GIS with a server to be used by protection or intervention services e. G. Firemen
APA, Harvard, Vancouver, ISO, and other styles
25

Pimentel, Torres Gaspar Ana Patricia. "Contribution to control uncertainties in numerical modelling of dam performances : an application to an RCC dam." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0053/document.

Full text
Abstract:
L’application des approches probabilistes pour tenir compte des incertitudes dans le domaine des barrages est un sujet en développement. Cependant, la plupart des études ont été réalisées sur l’évaluation de la sécurité des barrages pendant leur service. Ce travail de thèse vise à appliquer ce type d’approches et à faire une contribution à l’analyse de risque des barrages en béton compacté au rouleau (BCR) d`es sa construction, à l’aide d’une simulation numérique. Les travaux présentés dans ce manuscrit proposent l’application d’une méthodologie qui vise à quantifier la vulnérabilité vis-à-vis de l’apparition de la fissuration pendant la construction du barrage, ce qui peut affecter `a long-terme la perméabilité et par conséquent, compromettre son comportement structurel. Pour ce faire, l’accent est mis sur les incertitudes liées à quelques caractéristiques des matériaux (e.g., résistance, rapport eau-ciment, entre autres) et aux conditions environnementales pendant la phase de construction. Un modèle thermo-chemo-mécanique est utilisé pour décrire le comportement du BCR. En ce qui concerne le modèle probabiliste, deux aspects sont étudiés: i) comment les incertitudes liées aux variables d’entrée sont propagées dans le modèle, et ii) quelle est l’influence de leur dispersion par rapport à la dispersion totale de la sortie. Ce dernier est évalué par l’intermédiaire d’une analyse de sensibilité globale effectuée avec la méthode RBD-FAST. En outre, la variabilité spatiale des paramètres d’entrée est aussi prise en compte à travers des champs aléatoires bidimensionnels. Par ailleurs, un couplage entre des méthodes de fiabilité et la méthode d’éléments finis est effectué de façon à évaluer le potentiel de fissuration dans chaque couche de BCR lors de sa construction en utilisant un concept de densité de fissuration. Comme résultat important issu de ce travail de recherche, des courbes de probabilité pour la densité de fissuration sont obtenues au niveau de chaque couche en fonction de leur âge et des conditions aux limites, ce qui est considérée comme étant une contribution originale de cette thèse.La méthodologie proposée peut être utilisé pour aider à comprendre comment les incertitudes vont affecter le comportement du barrage pendant sa construction et servir d’appui dans le futur pour améliorer et soutenir la phase de conception du projet de barrage
The use of fully probabilistic approaches to account for uncertainties within dam engineering is a recently emerging field on which studies have been mostly done concerning the safety evaluation of dams under service. This thesis arises within this framework as a contribution on moving the process of risk analysis of dams beyond empirical knowledge, applying probabilistic tools on the numerical modelling of a roller compacted concrete (RCC) dam during its construction phase.The work developed here aims to propose a methodology so as to account for risks related to cracking during construction which may compromise the dam’s functional and structural behaviour.In order to do so, emphasis is given to uncertainties related to the material itself (i.e.strength, water-to-cement ratio, among others) as well as to ambient conditions during the construction phase of RCC dams. A thermo-chemo-mechanical model is used to describe theRCC behaviour. Concerning the probabilistic model, two aspects are studied : how the uncertainties related to the input variables are propagated through the model, and what is the influence of their dispersion on the dispersion of the output, assessed by performing a global sensitivity analysis by means of the RBD-FAST method. Also, spatial variability of some input parameters is accounted for through bi-dimensional random fields. Furthermore, a coupling between reliability methods and finite element methods is performed in order to evaluate the cracking potential of each casted RCC layer during construction by means of a cracking density concept. As an important outcome of this applied research,probability curves for cracking density within each casted layer as functions of both age and boundary conditions are predicted, which is believed to be an original contribution of this thesis. The proposed methodology may therefore be seen as a contribution to help engineers understand how uncertainties will affect the dam behaviour during construction and rely on it inthe future to improve and support the design phase of the dam project
APA, Harvard, Vancouver, ISO, and other styles
26

Kharroubi, Ouissem. "Prévision des crues par modèle de réseau de neurones artificiels : application au bassin versant de l’Eure." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10034/document.

Full text
Abstract:
La croissance des populations riveraines engendre un accroissement de la vulnérabilité de nos sociétés aux inondations donc une forte demande sociale pour prévenir et prévoir ces catastrophes naturelles. Pour atteindre cet objectif, la disposition d’outils de prévision des crues, opérationnels et fiables, est primordiale. Mais la prévision des crues demeure un exercice loin d’être évident. D’une part, parce que les exigences en matière de prévision (précision et délai d’anticipation) sont de plus en plus fortes et d’autre part, parce que les outils physiques de prévisions des crues sont limités par les connaissances relatives de l’hydro-système. Dans ce contexte, ce mémoire présente les travaux effectués pour réaliser des modèles de prévisions des crues pluie-débit, à base de réseaux de neurones artificiels (RNA), dans les bassins versants de l’Eure, de l’Iton et de l’Avre jusqu’à un horizon de prévision de 48h. D’abord, une analyse de la complexité géographique des bassins sera menée afin de déterminer les différents éléments influençant leurs régimes hydrologiques. Ensuite, une démarche méthodologique d’analyse statistique des données a permis une synthèse sur la nature hydrologique des bassins étudiés et d’apporter les éléments nécessaires à la définition des relations non-linéaires pluie-débit. Cet apport a permis la création d’un modèle pluie-débit non-linéaire de prévision des crues. Un modèle RNA capable d’effectuer des prévisions des crues jusqu’au 48h d’anticipation. Ce processus a été testé sur les trois bassins versants et les résultats des tests montrent une production de prévisions fiables ainsi qu’une capacité de généralisation à d’autres hydro-systèmes
The growth of riparian populations generates an increase in vulnerability of our societies to flood. Therefore, a high social demand to prevent and predict these natural disasters must be tacking to protect the population against floods. To achieve this objective, the provision of flood forecasting tools, operational and reliable, is primordial. But the flood forecasting still an exercise far from being evident. Firstly, because the forecast requirements (precision and time anticipation) are becoming more and more higher. And secondly, because the physical flood forecasting tools is limited by the relative knowledge of floods hydro-systems. In this context, this thesis presents the work done to produce rainfall-runoff flood forecasting models based on artificial neural networks (ANN) in the Eure watershed (and two sub-basins) up to a 48 hours horizon forecasting. Firstly, an analysis of the geographical complexity of studied basins will be conducted in order to determine the different factors that influencing the hydrological Eure watershed regime. Then, a methodological process to data statistical analysis, has allowed a synthesis on the hydrological nature of the watersheds studied and brings the elements needed to the definition of the non-linear relations rainfall-runoff. This contribution has allowed the creation of a rainfall-runoff nonlinear model for flood forecasting. ANN model able to perform a reliable forecasting of flood up to a 48 hours horizon forecasting. This process has been tested on three watersheds and the test results show a reliable forecasts as well as an ability of generalization to other hydro-systems
APA, Harvard, Vancouver, ISO, and other styles
27

Al-Kharaz, Mohammed. "Analyse multivariée des alarmes de diagnostic en vue de la prédiction de la qualité des produits." Electronic Thesis or Diss., Aix-Marseille, 2021. http://theses.univ-amu.fr.lama.univ-amu.fr/211207_ALKHARAZ_559anw633vgnlp70s324svilo_TH.pdf.

Full text
Abstract:
Cette thèse s’intéresse à la prédiction de la qualité de produits et à l’amélioration de la performance des alarmes de diagnostics au sein d’une usine de semi-conducteurs. Pour cela, nous exploitons l’historique des alarmes collecté durant la production. Premièrement, nous proposons une approche de modélisation et d’estimation du risque de dégradation du produit final associé à chaque alarme déclenchée en fonction du comportement d’activation de celle-ci sur l’ensemble des produits durant la production. Deuxièmement, en utilisant les valeurs de risque estimées pour toute alarme, nous proposons une approche de prédiction de la qualité finale d’un lot de produits. Grâce à l’utilisation des techniques d’apprentissage automatique, cette approche modélise le lien entre les événements d’alarmes des processus et la qualité finale du lot. Dans la même veine, nous proposons une autre approche basée sur le traitement du texte d’évènement d’alarmes dans le but de prédire la qualité finale du produit. Cette approche présente une amélioration en termes de performances et en termes d’exploitation de plus d’information disponible dans le texte d’alarme. Enfin, nous proposons un cadre d’analyse des activations d’alarmes en présentant un ensemble d’outils d’évaluation de performances et plusieurs techniques de visualisation interactive plus adaptées pour la surveillance et l’évaluation des processus de fabrication de semi-conducteurs. Pour chacune des approches susmentionnées, l’efficacité est démontrée à l’aide d’un ensemble de données réelles obtenues à partir d’une usine de fabrication de semi-conducteurs
This thesis addresses the prediction of product quality and improving the performance of diagnostic alarms in a semiconductor facility. For this purpose, we exploit the alarm history collected during production. First, we propose an approach to model and estimate the degradation risk of the final product associated with each alarm triggered according to its activation behavior on all products during production. Second, using the estimated risk values for any alarm, we propose an approach to predict the final quality of the product's lot. This approach models the link between process alarm events and the final quality of product lot through machine learning techniques. We also propose a new approach based on alarm event text processing to predict the final product quality. This approach improves performance and exploits more information available in the alarm text. Finally, we propose a framework for analyzing alarm activations through performance evaluation tools and several interactive visualization techniques that are more suitable for semiconductor manufacturing. These allow us to closely monitor alarms, evaluate performance, and improve the quality of products and event data collected in history. The effectiveness of each of the above approaches is demonstrated using a real data set obtained from a semiconductor manufacturing facility
APA, Harvard, Vancouver, ISO, and other styles
28

Baudrin, Mathieu. "Maintenir la technologie aérosol et son industrie : une enquête sur les collectifs industriels (1958-2017)." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM031/document.

Full text
Abstract:
L’aérosol est une technologie omniprésente dans notre quotidien (mousse à raser, laque capillaire, insecticide, chantilly…), sans cesse critiquée et concurrencée par de multiples alternatives, elle comporte dans son script même différents risques à contenir. Cette thèse part de ce constat pour poser une question concise : comment la technologie aérosol et l’industrie qui la produit parviennent-elles à se maintenir depuis les années 1950 ? Pour répondre à cette question la thèse développe une analyse diachronique du développement de l’aérosol et de son industrie en mobilisant une instrumentation méthodologique adaptée. L’enquête part du principe qu’il n’existe pas « une industrie » mais des industries situées en fonction des lieux et des temporalités qui sont le fruit d’un travail menant à des recompositions successives des collectifs industriels. Pour suivre les recompositions conjointes de la technologie aérosol et de son appareil productif, l’enquête ne suit pas un objet technique spécifique mais mobilise la notion de principe technologique permettant ainsi à l’analyse d’articuler plusieurs moments critiques du développement de la technologie aérosol. Chaque moment critique constitue ainsi une forme d’épreuve spécifique au cours de laquelle l’industrie adopte une modalité réflexive adaptée. Outre l’apport méthodologique permettant d’articuler des questionnements en Sciences and Technology Studies, en sciences politiques, en la sociologie des risques, en sociologie des marchés et en histoire industrielle, les principaux résultats de la thèse consistent à caractériser des configurations problématiques. Chacune d’entre elles met en évidence les relations entre une façon de composer avec les risques associés à la technologie aérosol, une manière de prendre en compte des critiques spécifiques, un mode d’intervention des autorités publiques et des modalités différentes de la réflexivité industrielle
Aerosol dispenser is a pervasive technology in our everyday life (shaving foam, hairspray, insecticide, whipped cream ...), yet constantly criticized and in competition with multiple alternatives. Its very script comprises various risks. The thesis starts from this observation to ask a concise question : How have aerosol technology and the industry producing it managed to persist since the 1950s? To answer this question, the thesis develops a diachronic analysis of the development of the aerosol and its industry by mobilizing an adapted methodological instrumentation. The empirical work supposes that there is no single "industry" but several industries based on sites and temporalities. These industries are the outcome of works leading to the successive recompositions of industrial collectives. In order to follow the joint reconstructions of aerosol technology and its productive apparatus, the thesis does not follow a specific technical object but mobilizes the notion of technological principle enabling the analysis to articulate several critical moments in the development of aerosol technology. Thus, each critical moment constitutes a specific form of trial in which the industry adopts an adapted reflexive modality. In addition to a methodological contribution proposing to articulate several scholarly fields such as Science and Technology Studies, political science, the sociology of risk, the sociology of markets and industrial history, the main results of the thesis consist in characterizing problematic configurations, each of them highlighting the relations between a way of dealing with the risks associated with the aerosol technology, a way of taking into account specific criticisms, a mode of intervention of public authorities and various modalities of industrial reflexivity
APA, Harvard, Vancouver, ISO, and other styles
29

Stéphan, Maïté. "Fiabilité du temps de transport : Mesures, valorisation monétaire et intégration dans le calcul économique public." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTD043/document.

Full text
Abstract:
Cette thèse aborde la question de la fiabilité du temps de transport. L’étude de la fiabilité du temps de transport trouve ses sources dans le fait que, dans biens des situations, le temps de transport n’est pas certain, mais aléatoire. De nombreux évènements peuvent en effet modifier le temps de transport prévu par les opérateurs ou espéré par les usagers. Par ailleurs, lors de l’évaluation socioéconomique de projets d’investissement en infrastructure de transport, il peut exister un arbitrage entre gain de temps et gain de fiabilité. Or, comme la fiabilité est encore à l’heure actuelle, difficilement intégrable dans ce type d’évaluation, ces projets d’investissement voient leur rentabilité collective sous-estimée conduisant à leurs reports. Il émerge ainsi trois problématiques majeures relatives à l’étude de la fiabilité du temps de transport : sa mesure, sa valorisation monétaire (i.e. la disposition à payer des individus pour améliorer la fiabilité du temps de transport) et enfin, sa prise en compte dans les analyses coûts-avantages. Un premier chapitre permet d’adapter les mesures usuelles de la fiabilité du temps de transport appliquées dans le cadre du transport routier, aux modes de transport collectif (fer et aérien plus particulièrement). Nous proposons également une nouvelle mesure de la fiabilité, le Delay-at-Risk (DaR) inspiré de la littérature financière. Le DaR est une transposition de la mesure de la Value-at-Risk (V aR) à l’économie des transports. Cette mesure est plus utile du point de vue des usagers pour la planification des trajets avec correspondance que les autres mesures. Le deuxième chapitre a pour principal objectif de déterminer la disposition à payer des individus pour améliorer la fiabilité du temps de transport. Nous proposons un cadre théorique inspiré de la théorie de la décision en univers risqué à partir duquel nous définissons la préférence des individus à l’égard de la fiabilité (i.e. reliabilityproneness) ainsi que la prudence. Nous développons des nouvelles mesures de la fiabilité du temps de transport, exprimées comme des primes de risque : la reliability-premium et la V OR. La reliability-premium détermine le temps de transport maximum supplémentaire qu’un individu est prêt à accepter pour supprimer l’intégralité du risque sur le temps de transport. La V OR, quant à elle, se définit comme la disposition maximale à payer d’un individu pour supprimer l’intégralité du risque sur le temps de transport. Par ailleurs, nous établissons également les conséquences sur la valeur du temps (V TTS) et de la fiabilité (V OR), de la prise en considération de l’attitude à l’égard du risque sur le temps de transport des usagers (aversion et prudence). Le dernier chapitre de cette thèse a pour objet d’intégrer la fiabilité dans les évaluations socioéconomiques de projet d’investissement et plus particulièrement dans la détermination du surplus des usagers. Nous mettons en exergue un effet de diffusion des gains de fiabilité par rapport aux gains de temps. Ainsi, nous proposons des recommandations quant à l’arbitrage entre les projets générateurs de gain de temps et de gain de fiabilité en fonction des valeurs monétaires du temps (V TTS) et de la fiabilité (V OR)
This thesis deals with the issue of travel time reliability. The study of travel time reliability emerges from the fact that in many situations, travel time is random. Many events can change the travel time forecasted by operators or expected by users. Moreover, a tradeoff may exist between time and reliability benefits when evaluating socio economic appraisal of transport infrastructure. However, since reliability is still difficult to integrate in this type of evaluation, investment projects’ collective profitability is underestimated and often postponed. Thus, three main issues of travel time reliability analysis emerge: measurement, monetary valuation and implication for cost benefit analysis. This thesis is organized in three chapters. The first chapter adapts the measure of travel time reliability typically used in the road transport context to the collective modes (rail and air, in particular). We also develop a new reliability measure: the Delay-at-Risk (DaR). DaR is an implementation of the Value-at-Risk (V aR) measure into the transport economic framework. The DaR seem to be relevant and understandable information for the users, especially to plan their travel and avoid missing their connections. The main objective of the second chapter is to define the users’ willingness to pay to improve travel time reliability. We present a theoretical framework based on decision theory under risk. We introduce the concept of reliability-proneness (i.e. travel time risk aversion) and prudence. We develop new measures of travel time reliability expressed as risk premium: the reliability-premium and V OR. The reliability-premium is the maximum amount of additional travel time that an individual is willing to accept to escape all the risk of travel time. The V OR is defined as the maximum monetary amount that an individual is willing to pay to escape all the risk of travel time. Furthermore, we also establish the link with attitudes towards risks of travel time (aversion and prudence) and the impact of the value of travel time (V TTS) and the value of reliability (V OR). The final chapter of this thesis integrates reliability in investments project’s socioeconomic appraisal. More particularly, it allows to determine users’ surplus valuation. We highlight a diffusion effect of reliability benefits with regard to travel time benefits. Thus, we propose recommendations regarding the tradeoff between projects that generate time benefits compared with reliability benefits, according to the monetary values of travel time (V TTS) and reliability (V OR)
APA, Harvard, Vancouver, ISO, and other styles
30

Dubost, Julien. "Variabilité et incertitudes en géotechnique : de leur estimation à leur prise en compte." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13808/document.

Full text
Abstract:
L’évolution actuelle de l’ingénierie géotechnique place la maîtrise des risques d’origine géotechnique au cœur de ses objectifs. On constate aussi que la complexité des projets d’aménagement (à travers les objectifs coûts/délais/performances qui sont recherchés) est croissante et que les terrains choisis pour les recevoir présentent, quant à eux, des conditions géotechniques de plus en plus souvent « difficiles ». Ces conditions défavorables se traduisent par une variabilité forte des propriétés des sols, rendant leur reconnaissance et leur analyse plus complexe. Ce travail de thèse traite de la caractérisation de la variabilité naturelle des sols et des incertitudes liées aux reconnaissances géotechniques dans le but de mieux les prendre en compte dans les dimensionnements des ouvrages. Il se positionne dans le contexte de la maîtrise des risques de projet d’origine géotechnique. Les principaux outils statistiques servant à décrire la dispersion des données et leur structuration spatiale (géostatistique), ainsi que des méthodes probabilistes permettant d’utiliser leur résultats dans des calculs, sont présentés sous l’angle de leur application en géotechnique. La démarche est appliquée à un projet de plate-forme ferroviaire. Cette infrastructure a été implantée sur un site géologiquement et géotechniquement complexe, et présente aujourd’hui des déformations importantes dues aux tassements des sols. Une nouvelle analyse des données géotechniques a donc été entreprise. Elles ont, au préalable, été regroupées dans une base de données qui a facilité leur traitement statistique et géostatistique. Leur variabilité statistique et spatiale a été caractérisée permettant une meilleure compréhension du site. Le modèle géologique et géotechnique ainsi établi a ensuite été utilisé pour calculer les tassements. Une démarche en trois temps est proposée : globale, locale et spatialisée permettant une estimation des tassements et de leur incertitude, respectivement, à l’échelle du site, aux points de sondages, et spatialisée sur la zone d’étude. Les résultats montrent clairement l’intérêt des méthodes statistiques et géostatistiques pour la caractérisation des sites complexes et l’élaboration d’un modèle géologique et géotechnique du site adapté. La démarche d’analyse des tassements proposée met en avant le fait que les incertitudes des paramètres se répercutent sur les résultats des calculs de dimensionnement et expliquent le comportement global de l’infrastructure. Ces résultats peuvent se traduire sous forme d’une probabilité de ruine qui peut ensuite être utilisée dans un processus de prise de décision et de management des risques. D’une manière plus large, ce travail de thèse constitue une contribution à l’élaboration et l’analyse des campagnes de reconnaissances géotechniques, en ayant le souci d’identifier, d’évaluer et de prendre en compte la variabilité et les incertitudes des données lors des différentes phases du projet pour permettre une meilleure maîtrise du risque d’origine géotechnique
The current evolution of the geotechnical engineering places the risk management of geotechnical origin in the heart of its objectives. We also notice that the complexity of the projects of development (through the objectives costs/deadline/performances which are sought) is increasing and that soil chosen to receive them present unusual geotechnical conditions. These unfavourable conditions usually mean a strong variability of the soil properties, which induces soil investigation and data analysis more difficult. This work of thesis deals with the characterization of the natural variability of soils and with the uncertainties dues to geotechnical investigations, with the aim to better take them into account in geotechnical engineering project. This work takes place in the context of the management of the risk of project with geotechnical origin. The main statistical tools used for describe the scattering of the data and their spatial variability (geostatistic), as well as the probabilistic methods enabling to use their results in calculations, are presented under the view of their application in geotechnical design. The approach is applied to a project of railway platform. This infrastructure was located on a site where the geology and the geotechnical conditions are complex, and which present important deformations due to the soil settlements. A new analysis of geotechnical data was started again. First, geotechnical data were included in a database in order to ease their statistical and geostatistical treatment. Their statistical and spatial variability were characterized allowing a better understanding of the site. The geologic and geotechnical model so established was then used to assess the settlement effects. An analysis in three levels is proposed: global, local and spatial, which give means to estimate the settlement values and its uncertainty, respectively, on the scale of the site, on the boring points, and on zone of study according to the spatial connectivity of soil properties. The results clearly show the interest of statistical and geostatiscal methods in characterizing complex sites and in the elaboration of a relevant geologic and geotechnical model. The settlement analysis proposed highlight that the parameter uncertainties are of first importance on the design calculations and explain the global behaviour of the infrastructure. These results can be translated in the form of a reliabilitry analysis which can be then used in a process of decision-making and risk management. In a wider way, this work of thesis contributes toward the elaboration and the analysis of the geotechnical investigations, with the aim to identify, to estimate and to take into account the variability and the uncertainties of the data during the various stages of the project. It leads to better control of the risk of geotechnical origin
APA, Harvard, Vancouver, ISO, and other styles
31

Maurice, Jonathan. "Fiabilité des provisions comptables environnementales : apports d'une lecture institutionnelle." Phd thesis, Université Montpellier I, 2012. http://tel.archives-ouvertes.fr/tel-00768565.

Full text
Abstract:
Dans cette thèse, la fiabilité des provisions comptables environnementales est évaluée par une combinaison de méthodes de recherche quantitatives et qualitatives dans une perspective de triangulation des résultats. Tout d'abord, l'étude de la divulgation de ces provisions par les groupes cotés français révèle son insuffisance et sa dégradation sur la période 2005-2010. Ensuite, l'utilisation de tests d'adéquation à la loi de Benford pour les montants comptabilisés au bilan et de régressions multiples pour les impacts au résultat ne permettent pas de remettre en cause la fiabilité des provisions environnementales divulguées par le même échantillon de groupes cotés français. Ces résultats contrastent avec ceux des recherches antérieures validant l'utilisation discrétionnaire des provisions environnementales pour lisser le résultat et limiter l'émergence de coûts politiques. L'étude de cas multiple conduite au niveau des acteurs de ces mêmes groupes explique cette fiabilité des montants par celle de leur processus de détermination et les nombreuses pressions institutionnelles qui l'encadrent. Les résultats de cette thèse indiquent donc que certains choix comptables pouvant affecter le résultat de façon discrétionnaire sont davantage expliqués par les pressions institutionnelles subies que par la volonté des dirigeants d'améliorer leur situation personnelle.
APA, Harvard, Vancouver, ISO, and other styles
32

Stéphan, Maïté. "Fiabilité du temps de transport : Mesures, valorisation monétaire et intégration dans le calcul économique public." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTD072/document.

Full text
Abstract:
Cette thèse aborde la question de la fiabilité du temps de transport. L’étude de la fiabilité du temps de transport trouve ses sources dans le fait que, dans bien des situations, le temps de transport n’est pas certain, mais aléatoire. De nombreux évènements peuvent en effet modifier le temps de transport prévu par les opérateurs ou espéré par les usagers. Par ailleurs, lors de l’évaluation socioéconomique de projets d’investissement en infrastructure de transport, il peut exister un arbitrage entre gain de temps et gain de fiabilité. Or, comme la fiabilité est encore à l’heure actuelle, difficilement intégrable dans ce type d’évaluation, ces projets d’investissement voient leur rentabilité collective sous-estimée conduisant à leurs reports. Il émerge ainsi trois problématiques majeures relatives à l’étude de la fiabilité du temps de transport : sa mesure, sa valorisation monétaire (i.e. la disposition à payer des individus pour améliorer la fiabilité du temps de transport) et enfin, sa prise en compte dans les analyses coûts-avantages. Un premier chapitre permet d’adapter les mesures usuelles de la fiabilité du temps de transport appliquées dans le cadre du transport routier, aux modes de transport collectif (fer et aérien plus particulièrement). Nous proposons également une nouvelle mesure de la fiabilité, le Delay-at-Risk (DaR) inspiré de la littérature financière. Le DaR est une transposition de la mesure de la Value-at-Risk (V aR) à l’économie des transports. Cette mesure est plus utile du point de vue des usagers pour la planification des trajets avec correspondance que les autres mesures. Le deuxième chapitre a pour principal objectif de déterminer la disposition à payer des individus pour améliorer la fiabilité du temps de transport. Nous proposons un cadre théorique inspiré de la théorie de la décision en univers risqué à partir duquel nous définissons la préférence des individus à l’égard de la fiabilité (i.e. reliabilityproneness) ainsi que la prudence. Nous développons des nouvelles mesures de la fiabilité du temps de transport, exprimées comme des primes de risque : la reliability-premium et la V OR. La reliability-premium détermine le temps de transport maximum supplémentaire qu’un individu est prêt à accepter pour supprimer l’intégralité du risque sur le temps de transport. La V OR, quant à elle, se définit comme la disposition maximale à payer d’un individu pour supprimer l’intégralité du risque sur le temps de transport. Par ailleurs, nous établissons également les conséquences sur la valeur du temps (V TTS) et de la fiabilité (V OR), de la prise en considération de l’attitude à l’égard du risque sur le temps de transport des usagers (aversion et prudence). Le dernier chapitre de cette thèse a pour objet d’intégrer la fiabilité dans les évaluations socioéconomiques de projet d’investissement et plus particulièrement dans la détermination du surplus des usagers. Nous mettonsen exergue un effet de diffusion des gains de fiabilité par rapport aux gains de temps. Ainsi, nous proposons des recommandations quant à l’arbitrage entre les projets générateurs de gain de temps et de gain de fiabilité en fonction des valeurs monétaires du temps (V TTS) et de la fiabilité (V OR)
This thesis deals with the issue of travel time reliability. The study of travel time reliability emerges from the fact that in many situations, travel time is random. Many events can change the travel time forecasted by operators or expected by users. Moreover, a tradeoff may exist between time and reliability benefits when evaluating socio economic appraisal of transport infrastructure. However, since reliability is still difficult to integrate in this type of evaluation, investment projects’ collective profitability is underestimated and often postponed. Thus, three main issues of travel time reliability analysis emerge: measurement, monetary valuation and implication for cost benefit analysis. This thesis is organized in three chapters. The first chapter adapts the measure of travel time reliability typically used in the road transport context to the collective modes (rail and air, in particular). We also develop a new reliability measure: the Delay-at-Risk (DaR). DaR is an implementation of the Value-at-Risk (V aR) measure into the transport economic framework. The DaR seem to be relevant and understandable information for the users, especially to plan their travel and avoid missing their connections. The main objective of the second chapter is to define the users’ willingness to pay to improve travel time reliability. We present a theoretical framework based on decision theory under risk. We introduce the concept of reliability-proneness (i.e. travel time risk aversion) and prudence. We develop new measures of travel time reliability expressed as risk premium: the reliability-premium and V OR. The reliability-premium is the maximum amount of additional travel time that an individual is willing to accept to escape all the risk of travel time. The V OR is defined as the maximum monetary amount that an individual is willing to pay to escape all the risk of travel time. Furthermore, we also establish the link with attitudes towards risks of travel time (aversion and prudence) and the impact of the value of travel time (V TTS) and the value of reliability (V OR). The final chapter of this thesis integrates reliability in investments project’s socioeconomic appraisal. More particularly, it allows to determine users’ surplus valuation. We highlight a diffusion effect of reliability benefits with regard to travel time benefits. Thus, we propose recommendations regarding the tradeoff between projects that generate time benefits compared with reliability benefits, according to the monetary values of travel time(V TTS) and reliability (V OR)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography