Dissertations / Theses on the topic 'Risques naturels – Prévision – Modèles mathématiques'

To see the other types of publications on this topic, follow the link: Risques naturels – Prévision – Modèles mathématiques.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 23 dissertations / theses for your research on the topic 'Risques naturels – Prévision – Modèles mathématiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Aubert, Maëlle. "Caractérisation de l’état de surface des sols nus agricoles par imagerie radar TerraSAR-X." Electronic Thesis or Diss., Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0047.

Full text
Abstract:
Dans un contexte de développement durable, la gestion des sols et des ressources en eau est un enjeu primordial non seulement d’un point de vue environnemental mais aussi socio-économique. L’humidité, la rugosité, la composition et la structure du sol sont des variables clés pour la compréhension et la modélisation des catastrophes naturelles telles que l’érosion, la sécheresse ou les inondations. Pour des sols nus agricoles (très propices au ruissellement), de nombreuses études ont déjà montré le potentiel des données RADAR acquises en bande C pour la cartographie de l'humidité et la rugosité du sol. Cependant l’application de ces méthodes dans un cadre opérationnel était limitée.Dans ce contexte, les travaux de cette thèse présentent un premier volet sur l’analyse de la sensibilité aux états de surface (EDS) du sol du signal en bande X du capteur TerraSAR-X à très haute résolution spatiale et temporelle. Différentes configurations TerraSAR-X ont été analysées et les résultats ont permis de définir les configurations instrumentales optimales pour caractériser chaque paramètre d’EDS du sol. La comparaison de la sensibilité du capteur TerraSAR-X à celle des capteurs en bande C montre que le capteur TerraSAR-X est sans conteste le plus adapté pour estimer et cartographier l’humidité du sol à des échelles fines (50 m²).Le second volet était de développer une méthode permettant d’estimer et de cartographier l’humidité des sols nus agricoles. Dans ce but, les méthodes d'inversion généralement utilisées en bande C ont été testées sur les données en bande X. La précision sur les estimations d’humidité issues de l'algorithme d’inversion du signal TerraSAR-X a été déterminée et l’applicabilité de la méthode sur de nombreux sites d'étude a été testée avec succès. Une chaine de traitements cartographiques allant de la détection des sols nus à l’estimation de l’humidité et ne nécessitant qu’une seule image TerraSAR-X a été développée. Cette chaine innovante de traitements cartographiques « automatique et autonome » devrait permettre d’utiliser les données TerraSAR-X pour cartographier l’humidité du sol en mode opérationnel
In the context of sustainable development, soil and water resources management is a key issue from not only the environmental point of view, but also from a socioeconomic perspective. Soil moisture, roughness, composition, and slaking crusts are some key variables used to understand and model natural hazards, such as erosion, drought and floods. For agricultural bare soils (most subject to runoff), numerous studies have already shown the potential of C-band RADAR data for the mapping of soil moisture and roughness. However, the application of these methods in operational settings remained limited.In this context, the first objective of this thesis was to analyse the sensitivity of X-band TerraSAR-X sensors to soil surface characteristics (SSC) at high spatial and temporal resolutions. Different TerraSAR-X configurations were evaluated and results were used to define the optimal instrumental configuration for the characterization of each SSC parameter. The comparison of TerraSAR-X sensor sensitivity with equivalent levels recorded with the C-band sensor showed that the TerraSAR-X sensor is undoubtedly the most suitable of the two when estimating and mapping soil moisture at a fine scale (50 m²).The second objective of this work was to develop a method to estimate and map soil moisture levels of agricultural bare soil. To achieve this goal, methods that are commonly used to retrieve soil moisture from C-band, have been tested on X-band data. The accuracy of soil moisture estimations using an empirical algorithm was determined, and validated successfully over numerous study sites. A mapping process based uniquely on TerraSAR-X data, both for bare soil detection and for the estimation of soil moisture content, was developed. This innovative chain of « automatic and autonomous» mapping processing steps should enable the utilization of TerraSAR-X data for the mapping of soil moisture levels in operational conditions
APA, Harvard, Vancouver, ISO, and other styles
2

Meunier, François. "Prédiction de phénomènes géologiques pour l'aide à la décision lors de la prise de permis d'exploitation." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS351.

Full text
Abstract:
Dans le domaine de l'intelligence artificielle, l'apprentissage automatique (ou Machine Learning) voit son importance grandir de jour en jour. Des structures toujours plus complexes tendent à être étudiées par ce biais, haussant ainsi l'information disponible au rang de connaissance exploitable. Ce travail de doctorat propose de valoriser un certain type de données que sont les objets (structures) 3D construits à partir de maillage, en justifiant empiriquement les apports indéniables d'une extraction de sous-parties issues de ces derniers. Cet objectif est atteint en résolvant un problème de prévision par une nouvelle approche de classification supervisée pour la recommandation d'information. Au delà du résultat attendu, une justification de ce dernier est également fournie sous forme de la visualisation de sous-parties extraites discriminantes, permettant ainsi l'interprétation par le spécialiste. Au sein du service Exploration de Total, ce besoin de classification s'applique initialement aux grandes structures 3D telles que les géo-modèles de bassins géologiques, dont les éléments pertinents tiennent effectivement de sous-parties. Lors de l'étude d'un sous-sol, les géologues cherchent, à partir de données 3D reconstituées grâce à des ondes acoustiques, à comprendre le sous-sol. Cette compréhension peut être aidée en fournissant un moyen de détecter certains types de formes au sein de ces structures. Nous proposons logiquement, afin de répondre à ce problème, un système de classification de ces structures 3D. Grâce à une adaptation des Time Series Shapelets et des méthodes de sélection de features, on parvient à ne sélectionner que les parties les plus pertinentes pour la classification souhaitée. L'idée maîtresse consiste à extraire aléatoirement un certain nombre de sous-surfaces de chaque objet 3D du jeu d'apprentissage, puis à en étudier la pertinence pour la classification souhaitée, avant d'utiliser les plus pertinents pour un apprentissage plus classique basé sur le degré d'imbrication de l'extrait dans chaque objet. En entreprise, l'absence de justification des résultats tend à assimiler l'apprentissage automatique à une boite noire. La méthode proposée, quant à elle, corrige ce problème, et permet la compréhension du résultat de l'aide à la décision fournie par la classification mise en place. En effet, en plus de présenter des résultats de prévision légèrement meilleurs que ceux de l'état de l'art, elle offre une visualisation des sous-parties d'objets 3D les plus discriminantes et donc les zones qui auront le plus d'influence sur la classification des données. Par la suite, nous proposons une amélioration de cette méthode sur deux axes: le premier est l'apport d'une adaptation du transfert de connaissances (ou transfer learning) appliqué à l'algorithme précédemment proposé ; le second est la mise en œuvre d'une méthode novatrice de sélection d'attributs, basée sur des outils issus de la théorie des sous-ensembles flous, est introduite. Cette dernière s'avère être potentiellement applicable à tout type de sélection d'attributs en classification supervisée. Les multiples résultats obtenus confirment le potentiel général de la sélection aléatoire d'attributs candidats, en particulier dans un contexte de grandes quantités de données
Machine learning, which is considered as an integral part of artificial intelligence, and should ultimately make computers "smart", continues to grow with time, and opens unsuspicious horizons. More and more complex structures tend to be studied by this way, raising the available information to the level of exploitable knowledge. This doctoral work proposes to valorize a particular type of data that are the 3D objects (structures) constructed from mesh, by empirically justifying the undeniable contributions of an extraction of sub-parts coming from these last one. This objective is achieved by solving a forecast problem by a new supervised classification approach for information recommendation. Beyond the expected result, a justification is also provided in the form of the visualization of sub-parts extracted discriminant, thus allowing interpretation by the specialist. In the Total Exploration service, this classification need is initially applied to large 3D structures such as geo-models of geological basins, whose relevant elements belong to sub-parts. During the study of a subsoil, geologists try to understand the subsoil by using 3D data reconstructed through acoustic waves. This understanding can be helped by providing a way to detect some types of shapes within these structures. We propose, in order to answer this problem, a classification system of these 3D structures. Thanks to an adaptation of Time series Shapelets and features selection methods, it is possible to only select the most relevant parts for the targeted classification. To summarize, the main idea is to randomly extract a certain number of sub-surfaces from each 3D object of the learning set, then to study its relevance depending on the expected classification, before using the most relevant one for a more traditional learning based on the degree of belonging of the extract in each object. In industrial companies, the lack of justification of results tends to assimilate machine learning techniques to a black box. The proposed method, however, corrects this problem, and allows the understanding of the result of the decision support provided by the classification built. Indeed, in addition to presenting slightly better forecast results than those provided by the state of the art, it offers a visualization of the sub-parts of the most discriminating 3D objects within the framework of the implemented classification model, and therefore the areas that will have mostly allowed to classify the data. Subsequently, we propose an improvement of this method by two main paths: the first one is the contribution of an adaptation of the transfer of knowledge (or transfer learning applied to the previously proposed algorithm; the second one is an innovative method of attribute selection, based on tools derived from fuzzy subset theory, which proves to be potentially applicable to any type of attribute selection challenge in supervised classification. These multiple results confirm the general potential of random selection of candidate attributes, especially in the context of large amounts of data
APA, Harvard, Vancouver, ISO, and other styles
3

Chiroiu, Lucian. "Modélisation de dommages consécutifs aux séismes. Extension à d'autres risques naturels." Paris 7, 2004. http://www.theses.fr/2004PA070075.

Full text
Abstract:
Les sujets que nous présentons abordent la question de la modélisation de dommages consécutifs aux séismes, avant et après l'événement. Cette approche a un caractère pluridisciplinaire, se situant entre les techniques propres au génie civil, à travers le calcul des structures, à la géographie, à travers l'analyse spatiale et à la télédétection, à travers l'utilisation de l'imagerie satellitaire. Le premier chapitre présente d'une part les objectifs, le fonctionnement et les principaux paramètres des modèles d'estimation de dommages consécutifs aux séismes, ainsi que leur limites d'applications. Le contexte français de gestion du risque sismique est analysé brièvement par la suite. D'autres part, nous réalisons un état de l'art des modélisations existantes, à travers la présentation des principaux travaux tels que HAZUSTM, RADIUS ou encore GEMITIS. Le chapitre conclut par une analyse de l'ensemble de ces modèles et par les perspectives d'améliorations envisageables. Le deuxième chapitre introduit une nouvelle méthode d'analyse des structures basée sur la prise en compte du déplacement. Dans le troisième chapitre nous utilisons les courbes de capacité développées au préalable pour l'estimation a priori de dommages potentiels suite à un scénario de séisme. Nous avons considéré pour cette application les villes de Barcelone et Nice. Les résultats obtenus sont comparés à d'autres travaux d'évaluation de dégâts réalisés antérieurement. Le quatrième chapitre aborde l'utilisation de l'imagerie satellitaire dans le génie parasismique. En dernière partie, nous présentons les perspectives de l'application de la télédétection dans la gestion du risque sismique
The work deals with the earthquake loss modelling, before and after an event. First is presented the state of the art of the existing models, such as HAZUS or RISK-UE. Next, capacity curves for different model building types are developed and applied in order to obtain loss scenarios for 2 European sites: Barcelona and Nice. The use of the high resolution satellite imagery for the fast detection, mapping and loss estimation after an earthquake is analysed in the frame of a multidisciplinary approach, combining techniques of remote sensing and earthquake engineering. A multi-hazard intensity scale is presented in the end
APA, Harvard, Vancouver, ISO, and other styles
4

Bengoubou-Valérius, Mendy. "Contribution à la connaissance de l'aléa sismique des Antilles Françaises : analyses des données sismologiques et accélérométriques régionales." Antilles-Guyane, 2008. https://tel.archives-ouvertes.fr/tel-00409021.

Full text
Abstract:
L'arc des Petites Antilles situé sur la bordure nord-est de la plaque Caraïbe, résulte d'un phénomène de subduction, les plaques américaines plongeant sous celle de la Caraïbe avec une vitesse de 2 cm/an. Les Antilles Françaises représentent la région française ou le risque sismique est le plus important. Ce travail dont l'objectif est d'améliorer la connaissance de l'aléa sismique dans les Antilles Françaises, repose sur les données du réseau accélérométrique permanent (RAP) et sur celles du « Centre de Données des Antilles Françaises ». L'analyse de ces données permet de mieux contraindre la sismicité de l'arc. Deux zones de très faible sismicité sont mises en évidence: au nord près des Iles Vierges et au sud entre Sainte-Lucie et Grenade. D'autres points sont aussi résolus: imagerie de la subduction le long de l'arc, relations entre la sismicité superficielle et la tectonique active, variations de la pente (b-value) de la loi de Gutenberg-Richter. Le séisme majeur du 21 novembre 2004 Mw=6. 3 est au coeur des deux derniers chapitres. Plusieurs aspects y sont présentés: macrosismicité avec l'évaluation d'intensités EMS98 obtenues du dépouillement de formulaires individuels recueillis pour les Iles des Saintes, et relocalisation par la méthode de maître/esclave du choc principal et de sa plus forte réplique du 14 février 2005, de façon à mieux contraindre l'imagerie de la source du choc principal, étape primordiale pour la dernière partie portant sur la modélisation des signaux du choc principal des Saintes en utilisant une approche semi-empirique basée sur un modèle stochastique large-bande et des fonctions de Green empiriques sélectionnées parmi les répliques
The Lesser Antilles is an area of high volcanic and earthquake activity, characterized by a 1000 km convergence zone resulting from the Atlantic plate subduction under the Caribbean plate with a slow convergent motion (2 cm/year). With five years of available data, the CDSA data base presents a more homogeneous vision of lesser Antilles arc seismicity and allows detecting low seismic activity zones, in the north near the Virgin Islands, and in the south between St-Lucia and Grenada. The accuracy improvements of location is used to better study the relationship between tectonic structures and seismicity, to better define the subduction slab geometry, and to analyse the spatial variations of the Gutenberg-Richter law b-value. Concerning the 21 november 2004 les Saintes earthquake, EMS98 intensities in les Saintes islands were evaluated from an individual request in les Saintes islands and hypocenter relocalisations of the les Saintes earthquake and the biggest aftershock of 14 february 2005 were made using a method of master/slave in order to contrain the seismic source of the mainchock. As seismic hazard assessment depends trom strong ground motion generated by earthquakes, the last part of this work concerns modeling accelerometric records of the les Saintes earthquakes, combining a composite source model with an empirical Green Function technique. In our study, we used les Saintes aftershocks as empirical green function
APA, Harvard, Vancouver, ISO, and other styles
5

Rochet, Bouzid Isabelle. "Contribution à l'étude des écoulements granulaires appliqués aux éboulements rocheux en grande masse." Lyon 1, 1999. http://www.theses.fr/1999LYO10336.

Full text
Abstract:
Les eboulements rocheux en grande masse, sont des phenomenes naturels catastrophiques, contre lesquels toute solution technique de protection est inefficace. La prevision de leur extension est ainsi une question essentielle pour la prevention du risque. Cette recherche constitue une contribution a l'etude de la modelisation des eboulements rocheux en grande masse. Dans cet objectif on s'est interesse aux ecoulements granulaires secs fortement dilatants. Afin de comprendre les mecanismes de propagation, une etude experimentale d'ecoulement en canal incline a ete menee sur des particules de formes irregulieres favorisant la dilatance. Les resultats experimentaux obtenus soulignent l'importance de l'agitation (temperature granulaire) responsable de la dilatance dans l'ecoulement. Ces observations ont permis de proposer une forme generale d'une loi d'etat caracteristique tenant compte la dilatance. Parallelement nous avons examine la faisabilite d'une approche de modelisation numerique en milieu continu traitant l'ecoulement bidimensionnel d'un pseudo-fluide monophasique dote d'une loi d'etat de la forme suggeree par l'experience. La temperature thermodynamique est interpretee comme la temperature granulaire. La confrontation des resultats numeriques et experimentaux confirme la faisabilite de la demarche d'homogeneisation, mais egalement l'interet d'une modelisation par un monofluide pour l'analyse des phenomenes induits tels que le degagement de poussieres ou l'effet de souffle. Des essais d'etalement sur le plan horizontal ont permis d'observer la formation et la geometrie des depots, pour differentes inclinaisons du canal d'ecoulement. Le reperage de la chronologie de l'ecoulement revele un processus incremental d'edification des depots. Une cartographie detaillee de la zone d'etalement et des profils transversaux et longitudinaux ont ete etablis. La morphologie des depots experimentaux presente un bon accord avec une loi d'etalement de type puissance.
APA, Harvard, Vancouver, ISO, and other styles
6

Bustamante, Adriana Maria. "Étude de la stabilité sismique de trois talus naturels au Québec." Master's thesis, Université Laval, 2010. http://hdl.handle.net/20.500.11794/21696.

Full text
Abstract:
Ce travail, porte sur l'évaluation de la stabilité sismique de trois talus naturels typiques de l'Est du Canada situés à proximité de cours d'eau. Le but poursuivi pour ce travail est d'appliquer, comparer et évaluer les différentes méthodes de calcul de la stabilité sismique des talus naturels. Les principaux termes et concepts de base de la sismologie et les méthodes d'analyses de stabilité de talus sont d'abord présentés. Ensuite, la sélection des sites présentant une problématique de stabilité de pente a été effectuée (talus de Saint-Adelphe, talus de Maskinongé et talus de Baie Saint-Paul). La compilation des données de références, l'analyse de l'aléa sismique et la modélisation dynamique ont été réalisées sur chacun des sites. Ces travaux ont étudié le comportement sismique de trois talus naturels et ont permis de clarifier plusieurs aspects relatifs aux mécanismes de déformation des talus sous sollicitations sismiques.
APA, Harvard, Vancouver, ISO, and other styles
7

Chemitte, Jérôme. "Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations : application à l’industrie de l’assurance pour la gestion des risques naturels." Paris, ENMP, 2008. http://pastel.paristech.org/4998/01/Thèse_JC_CRC_MRN.pdf.

Full text
Abstract:
La gestion des connaissances est présentée aujourd'hui comme un enjeu majeur du fonctionnement des organisations pour développer des capacités d'innovation considérées comme des sources d'avantage concurrentiel sur des marchés de plus en plus compétitifs. S'il est avéré que les systèmes d'information constituent des outils indispensables pour y répondre, il est encore souvent difficile dans les organisations de justifier l'intérêt d'investir dans les technologies de l'information géographique. L'industrie de l'assurance souscrit à ce constat. Nous montrons que l'initialisation d'un processus de création de connaissances nouvelles sur les risques naturels s'appuyant sur le développement d'une infrastructure d'information géographique professionnelle joue un rôle moteur pour l'adoption des technologies de l'information géographique dans les sociétés d'assurance dommages en France, et contribue à l'innovation dans l'industrie
Knowledge management is a major issue for organizations in order to develop innovative capabilities considered as sources of advantage in markets increasingly competitive. Although it is clear that information systems are appropriate tools to achieve it, it is often difficult for organizations to justify the benefits of investing in GIS technologies. This observation is confirmed in the French insurance industry. We show that the initialization of a process of creation of new knowledge about natural risks based on the development of a professional infrastructure for spatial information contribute to the adoption of GIS technologies in the insurance companies, and stimulate innovation in the French industry
APA, Harvard, Vancouver, ISO, and other styles
8

Ben, Salem-Hajili Amira. "Les produits dérivés climatiques : Modelisation et valorisation." Paris 2, 2009. http://www.theses.fr/2009PA020088.

Full text
Abstract:
Nous nous intéressons dans cette thèse au risque climatique, défini par le gain ou la perte financière dû à une variabilité des conditions météorologiques. Aucune étude antérieur, n’a présenté une analyse globale résumant les différentes approches de modélisation de variables climatiques et de valorisation de produits financiers indexés sur le climat. À ce jour, les techniques d’évaluations de ces contrats constituent la principale difficulté rencontrée par les gestionnaires, les recherches ont porté principalement sur la modélisation du comportement de la température afin de mieux gérer les risques. Nous partons de la dynamique de plusieurs chroniques climatiques issues de différentes régions en France, nous nous appliquons, à voir quels modèles, bien connus en économétrie, permettraient d’expliquer au mieux ces chroniques. Les modèles proposés, relèveront à la fois de la problématique de court terme et de long terme. Nous utilisons des modèles à mémoire longue, des modèles de volatilité et des modèles de rupture. Le but de cette thèse est de présenter une approche comparative de plusieurs méthodes de valorisation de dérivés climatiques et des modèles de calibrage de sous-jacent climatiques de types température et précipitation. En diversifiant les sources de données utilisées, nous espérons donner un panorama des modèles (les mieux adaptés) suivant les climats concernés.
APA, Harvard, Vancouver, ISO, and other styles
9

Da, Silva Garcia Bruna. "Analyse des mécanismes d'interaction entre un bloc rocheux et un versant de propagation : application à l'ingénierie." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI062/document.

Full text
Abstract:
De nombreuses incertitudes liées aux mécanismes d'interaction entre les blocs rocheux et le versant naturel lors des chutes de blocs persistent ; la prévision de tels événements reste de ce fait encore incertaine. Néanmoins, les outils numériques et la puissance de calcul ne cessent d'évoluer. Si, auparavant, les calculs trajectographiques étaient restreints à des géométries simplifiées et à des mouvements balistiques en deux dimensions, il devient désormais possible d'y intégrer des raffinements tels que la forme complexe des blocs, des modèles numériques tridimensionnels de terrain d’une grande définition ou une prise en compte fine des mécanismes dissipatifs au niveau du point d'impact entre le bloc et le versant de propagation.L’objectif principal de la thèse est d’analyser, avec un code numérique discret en trois dimensions, l’influence des paramètres de forme et d’interaction sur la nature du rebond dans un contexte d’ingénierie. Nous présentons tout d’abord une méthodologie d'identification et d'étude de sensibilité des paramètres de contact, élaborée et validée à partir d’expérimentations de laboratoire. Cette méthodologie a été appliquée par la suite à deux expérimentations de chute de blocs menées sur sites réels à moyenne et à grande échelle.L’étude réalisée à moyenne échelle a permis de confronter le modèle numérique à des données obtenues lors d'une campagne expérimentale sur voies ferroviaires commanditée par la SNCF et menée en collaboration avec IRSTEA. Les analyses qui ont été réalisées ont porté sur les vitesses d’impact des blocs avec le ballast et les distances de propagation.L’étude menée à grande échelle s’appuie sur plusieurs séries de lâchés de blocs réalisées sur le site expérimental de la carrière d'Authume dans le cadre d’un Benchmark proposé dans le cadre du Projet National C2ROP. L’objectif principal du Benchmark est de tester et de comparer entre eux des logiciels trajectographiques, des codes de calculs numériques et les pratiques d’ingénierie pour en définir la pertinence et les domaines de validité. Dans le cadre de la thèse, ce travail a été conduit en plusieurs phases (à l’aveugle puis avec des données partielles mesurées lors de la campagne d'essais) et nous présentons l'évolution de ces analyses à l'issue de chacune des phases. L’étude a porté principalement sur les vitesses, les hauteurs et les énergies de passage des blocs en certains points du profil de propagation, ainsi que sur les positions d’arrêt des blocs. Une étude sur l'influence de la forme des blocs sur les distances de propagations est également présentée.Enfin, un Benchmark interne réalisé au sein de l'entreprise IMSRN montre l’importance, sur les analyses, de l'expertise de l'opérateur, et des conséquences de l'utilisation de différents outils trajectographiques (en 2D et en 3D). Ces travaux mettent en lumière les problématiques actuelles auxquelles sont souvent confrontés les bureaux d'études et les ingénieurs en charge des études de risques
Numerous uncertainties related to the machanical interaction between rock boulders and the natural slope during block falls persist; and the forecast of such events is therefore still uncertain. Nevertheless, digital tools and computing power are constantly evolving. Previously, trajectory calculations were restricted to simplified geometries and two-dimensional ballistic movements, but it is now possible to incorporate refinements such as the complex shape of the blocks, three-dimensional numerical models of terrain of large sizes, as well as a better accounting of the dissipative mechanisms at the point of impact between the block and the run-out slope.The main objective of this work is to analyze, with a discrete elements code in three dimensions, the influence of the shape and interaction parameters on the nature of the rebound in an engineering context. We first present a methodology for identifying and studying the sensitivity of contact parameters, developed and validated from laboratory experiments. This methodology was subsequently applied to two block fall experiments conducted on medium and large real-scale scenarios.The study conducted on a medium scale allowed the numerical model to be compared with data obtained during an experimental rockfall tests campaign commissioned by the SNCF and conducted in collaboration with IRSTEA in a railway. The analyzes that were carried out mainly focused on the impact velocities of the blocks with ballast and propagation distances.The large-scale study is based on a series of block releases performed at the experimental site (Authume quarry, France) as part of a Benchmark proposed inside the National Project C2ROP. The mainly goal of this Benchmark is to access and compare trajectory softwares, numerical computation codes and engineering practices to define their relevance and validity domains. As part of the thesis, this work was conducted in several phases (blind phase and then conducted taking in account partial data measured during the experimental tests) and we present the evolution of these analyzes at the end of each one of these phases. The study focused on the velocities, heights and energies of the blocks at certain points of the propagation profile, as well as on the stopping positions of the blocks. The influence of block shapes on run-out distances is also presented.Lastly, an internal Benchmark performed within the IMSRN company shows the importance, on the analyzes, of the expertise of the operator, and the consequences derived from the application of different trajectography tools (in 2D and in 3D). This work highlights the current issues that are often faced by engineering offices and engineers in charge of risk quantification
APA, Harvard, Vancouver, ISO, and other styles
10

Djerboua, Abdelatif. "Prédétermination des pluies et crues extrêmes dans les Alpes franco-italiennes : prévision quantitative des pluies journalières par la méthode des analogues." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0030.

Full text
Abstract:
Le but de ce travail, en première partie est de construire un atlas expérimental des précipitations extrêmes à pas de temps de 1 à 24 heures dans les Alpes franco-italiennes (Alpes françaises, le Piémont, la Ligurie). Les caractéristiques statistiques des précipitations extrêmes sont déterminées en ajustant soit une loi de Gumbel, soit par l’utilisation d’une méthode appelée TCEV, basée sur la régionalisation des paramètres statistiques de la loi. Ensuite, différentes méthodes d’interpolation spatiale (krigeage, régression multiple,…) sont utilisées. Ensuite, on compare, sur deux bassins versants proches des méthodes de calcul de prédétermination des crues, dont l’une utilise les méthodes sur les pluies (méthode du GRADEX), et l’autre méthode italienne VAPI utilise l’information donnée par les débits. Enfin, on présente une méthode de prévision quantitative des précipitations journalières (méthode des Analogues). Cette méthode a été appliquée en temps réel
APA, Harvard, Vancouver, ISO, and other styles
11

Fressard, Mathieu. "Les glissements de terrain du Pays d’Auge continental : Caractérisation, cartographie, analyse spatiale et modélisation." Caen, 2013. https://tel.archives-ouvertes.fr/tel-00968473.

Full text
Abstract:
Les versants du plateau du Pays d'Auge (Normandie, France) sont régulièrement affectés par des phénomènes d’instabilité. En dépit d’un risque avéré, peu de travaux de recherches ont été effectués sur ces phénomènes complexes dans ce secteur à la topographie peu prononcée. Ce travail de recherche vise ainsi à combler le manque de connaissance sur les processus locaux et à proposer des approches permettant d’établir une cartographie préventive. Les objectifs sont concentrés sur deux points majeurs :(1) observation et caractérisation des phénomènes hydro-gravitaires (inventaire, typologie et cartographie géomorphologique) ; (2) cartographie de la susceptibilité aux glissements de terrain à échelle du 1/50. 000ème et du 1/10. 000ème. Ce travail de thèse a permis d’établir une typologie détaillée des mouvements de versant de la partie continentale du Pays d’Auge. Celle-ci a servi de support de base pour la réalisation d’inventaires des phénomènes à différentes échelles. Plusieurs jeux de données, représentant les facteurs de prédisposition des glissements de terrain ont été acquis, avec une attention particulière portée sur la qualité des données, leur coût et leur adaptation à l’échelle de travail. Le travail s’est focalisé sur la comparaison entre les approches dites “expertes”, “semi-expertes” et les approches probabilistes (régression logistique) pour la cartographie de la susceptibilité. Les résultats montrent que les approches probabilistes peuvent être complémentaires avec des approches expertes, constituant une aide dans le choix des facteurs à prendre en compte pour la cartographie, mais restent très largement dépendantes de la qualité des données
The Pays d’Auge plateau hillslopes (Normandy, France) are widely affected by instability processes. In spite of an actual risk, few studies were engaged on these complex phenomena in this smooth topography area. This research aims to complete the limited knowledge about the local instability processes and to develop a landslide susceptibility mapping strategy. Two main objectives are guiding the work : (1) observation and characterization de the instability phenomena (inventory, typology and geomorphological mapping) ; (2) landslide susceptibility mapping at the 1/50. 000 and at the 1/10. 000 scale. We obtained a detailed landslide typology for the continental part of the Pays d’Auge plateau. This was used as a basis for several landslides inventories at different scales. Datasets representing the landslide predisposing factors were acquired with a particular attention paid on the quality, the cost and the scale fitting of the data. The work was focused on the comparison between “expert”, “semi-expert” and probabilistic approaches to map the landslide susceptibility. The results show that probabilistic approaches can be used complementarily to the usual expert methods and can help in selecting more appropriate landslide predisposing factors, even if the method is widely influenced by the quality of the input data
APA, Harvard, Vancouver, ISO, and other styles
12

Liu, Zaobao. "Évaluation et amélioration des modèles numériques pour l'analyse de la stabilité des pentes." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10018/document.

Full text
Abstract:
La rupture des pentes et l’éclatement des roches, qui représentent deux types de risques naturels fréquents dans le monde, peuvent engendrer des conséquences économiques importantes et des pertes en vie humaine. Malgré que les phénomènes soient étudiés depuis de longues années, il reste encore des questions ouvertes et sans réponse et il est donc encore nécessaire poursuivre les recherches sur cette thématique. Le présent travail de thèse est consacré la modélisation numérique de la stabilité des grandes pentes et de l’éclatement des massifs rocheux en utilisant des méthodes basées sur l’intelligence artificielle en proposant des modifications et des améliorations de telles méthodes. En se basant sur des observations de déplacements de terrain, le glissement de terrain, qui est phénomène commun de la rupture de pentes, est étudié par le processus de Gauss afin de prédire son apparition temporelle. Ensuite, la question d’évaluation de la stabilité des pentes est abordée en utilisant la stratégie de machine à vecteurs de pertinence (RVM) avec des hyper-paramètres adaptatifs. Une approche itérative est proposée afin de déterminer les valeurs optimales des hyper-paramètres. Afin d’améliorer la prédiction, l’évaluation complète de la stabilité des pentes est réalisée en proposant un modèle basé sur la théorie de flou (CM) associé à un processus analytique d’hiérarchisation pondérée (WAHP). Ce modèle est utilisé à l’évaluation de la stabilité de la pente de rive gauche de la centrale hydroélectrique de Jinping 1, dans la région Sud-Ouest de Chine. Enfin, dans la dernière partie, la problématique de l’éclatement des massifs rocheux est abordée en utilisant des modèles basés sur la théorie du flou, en se basant sur une synthèse de 164 cas réels. Des comparaisons entre les résultats numériques et des données de terrain sont présentées pour de différents cas étudiés dans cette thèse
Slope failures and rock burst, which are two typical types of geological hazards, create tremendous economic damages and cause massive losses to the health of domestic humans or animals every year throughout the world. The severe situation implies that they are still in need to be further studied despite the fact that they have been discussed for a long time. The present work is devoted to presenting the analysis of slope failures and rock burst using some computational intelligent models with modifications and improvements. Then landslide, a common type of slope failure, is analyzed for time occurrence prediction using the Gaussian Process by means of field-observed displacement series. After that, the problem of slope stability evaluation is discussed using the strategy of relevance vector machine (RVM) with adaptive hyper-parameter. An iteration approach is presented to find optimal hyper-parameter values in this chapter. Afterwards, the comprehensive evaluation of slope stability is carried out with the cloud model (CM) and weighted analytical hierarchy process (WAHP) closely related to the left abutment slope of Jinping 1 Hydropower Station, southwest of China. Finally, prediction of rock burst classification is engaged using the cloud models synthesized with the attribution weights on the basis of 164 rock burst cases. In each modeling of the associated problems, comparisons are given on the performance of each strategy as well as some evaluations
APA, Harvard, Vancouver, ISO, and other styles
13

Drouet, Stéphane. "Analyse des données accélérimétriques pour la caractérisation de l'aléa sismique en France métropolitaine." Toulouse 3, 2006. http://www.theses.fr/2006TOU30062.

Full text
Abstract:
Ce travail est consacré à l'étude des données accélérométriques de la france métropolitaine, issues du Réseau Accélérométrique Permanent (RAP), en cours d'installation depuis 1996, pour caractériser l'aléa sismique. Il existe de nombreux modèles empiriques de prédiction des mouvements forts valables pour les régions sismiquement très actives (USA, Japon. . . ), mais leur utilisation dans le contexte français nécessite la ré-évaluation de paramètres tels que les magnitudes et les conditions de site. Dans un premier temps, l'analyse des données de séismes modérés a permis d'établir une échelle homogène de magnitudes issues du moment sismique. Par ailleurs, les réponses de site des stations du réseau RAP ont été calculées pour les Pyrénées, les Alpes et le fossé Rhénan. Enfin, les phénomènes d'atténuation au niveau de la France semblent présenter des variations régionales. En se basant sur les résultats précédents, l'applicabilité de certains modèles empiriques de mouvements forts a été démontrée, à partir des séismes les plus importants enregistés par le RAP
The aim of this study is to analyse the vertical structure of the low troposphere during the ESCOMPTE campaign in relation with transport and diffusion of pollutants. This analysis shows the difficulty to define a boundary layer. It allows us to highlight a complexe superposition of several internal boundary layers, particularly near the coast. The study of the layer where pollution may be accumulated or diluted pointed out the fact that pollution is trapped near the surface, close to the coastline under sea-breeze conditions whereas it is advected over the mountains where the boundary layers are deeper. During sea-breeze conditions, the ozone concentration is paradoxically weak near the sources at the coastline (titration). Over the mountains, the strong developments of the boundary layers result in a mixing between the highly polluted low troposphere and the surface which enhances the ozone concentration
APA, Harvard, Vancouver, ISO, and other styles
14

Votsi, Irène. "Evaluation des risques sismiques par des modèles markoviens cachés et semi-markoviens cachés et de l'estimation de la statistique." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2058.

Full text
Abstract:
Le premier chapitre présente les axes principaux de recherche ainsi que les problèmes traités dans cette thèse. Plus précisément, il expose une synthèse sur le sujet, en y donnant les propriétés essentielles pour la bonne compréhension de cette étude, accompagnée des références bibliographiques les plus importantes. Il présente également les motivations de ce travail en précisant les contributions originales dans ce domaine. Le deuxième chapitre est composé d’une recherche originale sur l’estimation du risque sismique, dans la zone du nord de la mer Egée (Grèce), en faisant usage de la théorie des processus semi-markoviens à temps continue. Il propose des estimateurs des mesures importantes qui caractérisent les processus semi-markoviens, et fournit une modélisation dela prévision de l’instant de réalisation d’un séisme fort ainsi que la probabilité et la grandeur qui lui sont associées. Les chapitres 3 et 4 comprennent une première tentative de modélisation du processus de génération des séismes au moyen de l’application d’un temps discret des modèles cachés markoviens et semi-markoviens, respectivement. Une méthode d’estimation non paramétrique est appliquée, qui permet de révéler des caractéristiques fondamentales du processus de génération des séismes, difficiles à détecter autrement. Des quantités importantes concernant les niveaux des tensions sont estimées au moyen des modèles proposés. Le chapitre 5 décrit les résultats originaux du présent travail à la théorie des processus stochastiques, c’est- à-dire l’étude et l’estimation du « Intensité du temps d’entrée en temps discret (DTIHT) » pour la première fois dans des chaînes semi-markoviennes et des chaînes de renouvellement markoviennes cachées. Une relation est proposée pour le calcul du DTIHT et un nouvel estimateur est présenté dans chacun de ces cas. De plus, les propriétés asymptotiques des estimateurs proposés sont obtenues, à savoir, la convergence et la normalité asymptotique. Le chapitre 6 procède ensuite à une étude de comparaison entre le modèle markovien caché et le modèle semi-markovien caché dans un milieu markovien et semi-markovien en vue de rechercher d’éventuelles différences dans leur comportement stochastique, déterminé à partir de la matrice de transition de la chaîne de Markov (modèle markovien caché) et de la matrice de transition de la chaîne de Markov immergée (modèle semi-markovien caché). Les résultats originaux concernent le cas général où les distributions sont considérées comme distributions des temps de séjour ainsi que le cas particulier des modèles qui sont applique´s dans les chapitres précédents où les temps de séjour sont estimés de manière non-paramétrique. L’importance de ces différences est spécifiée à l’aide du calcul de la valeur moyenne et de la variance du nombre de sauts de la chaîne de Markov (modèle markovien caché) ou de la chaîne de Markov immergée (modèle semi-markovien caché) pour arriver dans un état donné, pour la première fois. Enfin, le chapitre 7 donne des conclusions générales en soulignant les points les plus marquants et des perspectives pour développements futurs
The first chapter describes the definition of the subject under study, the current state of science in this area and the objectives. In the second chapter, continuous-time semi-Markov models are studied and applied in order to contribute to seismic hazard assessment in Northern Aegean Sea (Greece). Expressions for different important indicators of the semi- Markov process are obtained, providing forecasting results about the time, the space and the magnitude of the ensuing strong earthquake. Chapters 3 and 4 describe a first attempt to model earthquake occurrence by means of discrete-time hidden Markov models (HMMs) and hidden semi-Markov models (HSMMs), respectively. A nonparametric estimation method is followed by means of which, insights into features of the earthquake process are provided which are hard to detect otherwise. Important indicators concerning the levels of the stress field are estimated by means of the suggested HMM and HSMM. Chapter 5 includes our main contribution to the theory of stochastic processes, the investigation and the estimation of the discrete-time intensity of the hitting time (DTIHT) for the first time referring to semi-Markov chains (SMCs) and hidden Markov renewal chains (HMRCs). A simple formula is presented for the evaluation of the DTIHT along with its statistical estimator for both SMCs and HMRCs. In addition, the asymptotic properties of the estimators are proved, including strong consistency and asymptotic normality. In chapter 6, a comparison between HMMs and HSMMs in a Markov and a semi-Markov framework is given in order to highlight possible differences in their stochastic behavior partially governed by their transition probability matrices. Basic results are presented in the general case where specific distributions are assumed for sojourn times as well as in the special case concerning the models applied in the previous chapters, where the sojourn time distributions are estimated non-parametrically. The impact of the differences is observed through the calculation of the mean value and the variance of the number of steps that the Markov chain (HMM case) and the EMC (HSMM case) need to make for visiting for the first time a particular state. Finally, Chapter 7 presents concluding remarks, perspectives and future work
APA, Harvard, Vancouver, ISO, and other styles
15

Thiery, Yannick. "Susceptibilité aux mouvements de versant dans le bassin de Barcelonnette : cartographie morphodynamique, analyse spatiale et modélisation probabiliste." Caen, 2007. http://www.theses.fr/2007CAEN1501.

Full text
Abstract:
Des méthodologies d’analyse spatiale probabiliste fondées sur les SIG ont été développées pour cartographier la susceptibilité et l’aléa aux ‘mouvements de versant’ à méso-échelle (1/50 000ème-1/25 000ème), mais peu ou pas à l’échelle du 1/10 000ème, échelle de la cartographie réglementaire des risques. En France, le zonage des PPR est basé sur une approche ‘expert’ jugée assez subjective en raison des erreurs d’appréciation de l’expert. Ainsi, cette recherche a pour objectif de tester la validité de méthodes d’analyse spatiale et de modélisations probabilistes à cette échelle du 1/10 000ème. La démarche repose, en complément d’un zonage de type ‘expert’, sur la sélection de trois méthodes d’analyse spatiale par SIG fondées sur les Logiques floues, la Théorie de l’évidence et les Régressions logistiques. Ces trois méthodes étant sensibles aux variables à introduire (variables à modéliser et variables prédictives), la procédure comporte trois étapes : acquisition des variables à partir d’une cartographie morphodynamique, choix des variables par une analyse de sensibilité, comparaison des résultats pour déterminer la méthode la plus adaptée. Une néo-variable prédictive ayant un sens ‘géomorphologique’ et combinant plusieurs variables augmente la performance de chaque approche. Les meilleurs résultats acquis dans le bassin de Barcelonnette sont transposés sur un site secondaire pour tester leur validité. Un passage vers l’aléa est tenté par des modèles numériques à base physique. Cette thèse montre qu’il est possible d’obtenir des résultats performants à condition d’avoir une procédure de calage rigoureuse et d’introduire une vision experte dans le processus de calcul
APA, Harvard, Vancouver, ISO, and other styles
16

Saint-Geours, Nathalie. "Analyse de sensibilité de modèles spatialisés : application à l'analyse coût-bénéfice de projets de prévention du risque d'inondation." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20203/document.

Full text
Abstract:
L'analyse de sensibilité globale basée sur la variance permet de hiérarchiser les sources d'incertitude présentes dans un modèle numérique et d'identifier celles qui contribuent le plus à la variabilité de la sortie du modèle. Ce type d'analyse peine à se développer dans les sciences de la Terre et de l'Environnement, en partie à cause de la dimension spatiale de nombreux modèles numériques, dont les variables d'entrée et/ou de sortie peuvent être des données distribuées dans l'espace. Le travail de thèse réalisé a pour ambition de montrer comment l'analyse de sensibilité globale peut être adaptée pour tenir compte des spécificités de ces modèles numériques spatialisés, notamment la dépendance spatiale dans les données d'entrée et les questions liées au changement d'échelle spatiale. Ce travail s'appuie sur une étude de cas approfondie du code NOE, qui est un modèle numérique spatialisé d'analyse coût-bénéfice de projets de prévention du risque d'inondation. On s'intéresse dans un premier temps à l'estimation d'indices de sensibilité associés à des variables d'entrée spatialisées. L'approche retenue du « map labelling » permet de rendre compte de l'auto-corrélation spatiale de ces variables et d'étudier son impact sur la sortie du modèle. On explore ensuite le lien entre la notion d'« échelle » et l'analyse de sensibilité de modèles spatialisés. On propose de définir les indices de sensibilité « zonaux » et « ponctuels » pour mettre en évidence l'impact du support spatial de la sortie d'un modèle sur la hiérarchisation des sources d'incertitude. On établit ensuite, sous certaines conditions, des propriétés formelles de ces indices de sensibilité. Ces résultats montrent notamment que l'indice de sensibilité zonal d'une variable d'entrée spatialisée diminue à mesure que s'agrandit le support spatial sur lequel est agrégée la sortie du modèle. L'application au modèle NOE des méthodologies développées se révèle riche en enseignements pour une meilleure prise en compte des incertitudes dans les modèles d'analyse coût-bénéfice des projets de prévention du risque d'inondation
Variance-based global sensitivity analysis is used to study how the variability of the output of a numerical model can be apportioned to different sources of uncertainty in its inputs. It is an essential component of model building as it helps to identify model inputs that account for most of the model output variance. However, this approach is seldom applied in Earth and Environmental Sciences, partly because most of the numerical models developed in this field include spatially distributed inputs or outputs . Our research work aims to show how global sensitivity analysis can be adapted to such spatial models, and more precisely how to cope with the following two issues: i) the presence of spatial auto-correlation in the model inputs, and ii) the scaling issues. We base our research on the detailed study of the numerical code NOE, which is a spatial model for cost-benefit analysis of flood risk management plans. We first investigate how variance-based sensitivity indices can be computed for spatially distributed model inputs. We focus on the “map labelling” approach, which allows to handle any complex spatial structure of uncertainty in the modelinputs and to assess its effect on the model output. Next, we offer to explore how scaling issues interact with the sensitivity analysis of a spatial model. We define “block sensitivity indices” and “site sensitivity indices” to account for the role of the spatial support of model output. We establish the properties of these sensitivity indices under some specific conditions. In particular, we show that the relative contribution of an uncertain spatially distributed model input to the variance of the model output increases with its correlation length and decreases with the size of the spatial support considered for model output aggregation. By applying our results to the NOE modelling chain, we also draw a number of lessons to better deal with uncertainties in flood damage modelling and cost-benefit analysis of flood riskmanagement plans
APA, Harvard, Vancouver, ISO, and other styles
17

Gracia, Danies Fabio. "Application de la Méthode des Points Matériels aux phénomènes gravitaires." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI009.

Full text
Abstract:
Dans les régions de montagne, la prévision des évènements gravitaires reste un défi pour la gestion des risques. Des méthodes de calcul telles que la méthode des éléments discrets (DEM), où les particules interagissent les unes avec les autres pour restituer un comportement global d’une masse granulaire, ont été utilisées pour aborder ce type de problématique. L’application de la DEM reste normalement limitée aux évènements de petits volumes impliquant un nombre de blocs plutôt faible, puisque les temps de calcul peuvent devenir rapidement prohibitifs avec l’augmentation du nombre de particules. Les méthodes de calcul continues sont donc une alternative intéressante car elles permettent de réduire les temps de calcul. Elles nécessitent cependant la définition d’une loi de comportement macroscopique capable de représenter correctement les principaux traits de comportement mécanique du matériau au sein de la masse. L'objectif principal du travail de thèse réside dans le développement d’un outil numérique permettant de modéliser certains aléas gravitaires tels que les écoulements en masse. Notre choix s’est porté sur une méthode Lagrangienne-Eulérienne (méthode des points matériels – MPM) capable de gérer de grandes déformations tout en bénéficiant des principaux avantages de la méthode des éléments finis (FEM). La méthode utilise une grille Eulérienne fixe sur laquelle se déplacent des points matériels pendant les simulations. Un outil numérique, nommé MPMbox (2D et 3D), a été développé entièrement durant la thèse en C++. Le code a été validé à l'aide d'une série de solutions analytiques en quasi-statique (tests géotechniques standards) ainsi que par des applications de la littérature incluant des déformations importantes et rapides (tests d'affaissement). Après validation, le code a été confronté aux prédictions d’un outil de calcul DEM (DEMbox) dans le cadre de simulations numériques impliquant l'écoulement (initiation, régimes transitoires, propagation et arrêt) d'un matériau granulaire (particules sphero-polyhédriques) sur un plan incliné. Les résultats ont été comparés en termes de distance de propagation, de forme du dépôt et d'énergies dissipées à l'interface et dans la masse pendant l'écoulement. Pour les applications qui ont suivies, des éléments discrets ont été couplés à la MPM afin qu'un bloc rigide (DEM) puisse interagir avec un sol déformable (MPM). Cette application a consisté en l'analyse (2D) de la collision entre un bloc rocheux rigide (rond ou carré) et un sol bicouche élastoplastique. Les investigations ont été largement basées sur la mesure de coefficients de restitution (rapport des énergies cinétiques avant et après impact) qui reste difficile à déterminer expérimentalement
In mountainous regions, the prediction of gravitational phenomena remains a challenge for the management of risk. Computational methods such as the Discrete Element Method (DEM) have been used for the modeling of these types of phenomena, where particles interact with each other to give an overall behavior of the mass. Its application can be somewhat restricted to small and medium number of blocks, since the computational time can easily become too large. Continuum analyses are therefore an attractive approach, which can reduce the computational times, but that rely on a constitutive law to represent the behavior within the mass. The main objective of this PhD was to develop a numerical tool that allowed the modeling of some specific gravitational hazards, such as the flowing of mass. A Lagrangian-Eulerian method such as the Material Point Method (MPM) is able to handle large deformations, while preserving most of the capabilities of the Finite Element Method (FEM). The method uses an Eulerian grid which is only used as a numerical scratch-pad, and remains fixed during simulations. A numerical tool named MPMbox (2D and 3D) was then developed from the ground up using C++. The code was validated using a series of analytical solutions for quasi-static analysis (some standard geotechnical tests), as well as simulations including large and rather rapid deformations (slump tests). After validation, the code was first used to make a numerical comparison with the DEM. In the comparison, a parametric survey was carried out during which the flow of a granular material on a sloped surface was simulated. Results were compared in terms of run-out distance, spread of the deposit and energy dissipated at the interface and within the mass during the flow. For a second study, discrete elements were coupled with MPM so that a rigid block could interact with a deformable soil. This application consisted in the (2D) analysis of the collision between a discrete block (round and squared) and a bounded elasto-plastic double-layered soil (soft over hard layers). The investigations were largely based on the measurement of the restitution coefficient (ratio of kinetic energies before to after the impact), which cannot be easily determined experimentally
APA, Harvard, Vancouver, ISO, and other styles
18

Rakotoarisoa, Mahefa. "Les risques hydrologiques dans les bassins versants sous contrôle anthropique : modélisation de l'aléa, de la vulnérabilité et des conséquences sur les sociétés. : Cas de la région Sud-ouest de Madagascar." Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0067/document.

Full text
Abstract:
La ville de Toliara qui se trouve à l’exutoire du bassin de Fiherenana (Madagascar) est soumise chaque année aux aléas inondations. Les enjeux sont donc d'une importance majeure dans cette région. Cette étude débute par l’analyse de l’aléa avec les données hydro climatiques existantes. On cherche alors à déterminer les tendances en utilisant des modèles statistiques basés sur les séries temporelles. Une méthode de reconstitution des données manquantes est alors proposée. Ensuite, deux approches sont menées afin d’évaluer la vulnérabilité de la ville de Toliara et des villages alentours : une approche statique, à partir de relevés de terrain et de l’utilisation d’un système d’information géographique (SIG) ; et une autre avec l'utilisation d'un modèle multi-agents (SMA). La première étape est la cartographie d’un indicateur de vulnérabilité qui est l’agencement de plusieurs critères statiques propre à chaque maison comme la hauteur d’eau potentielle ou la typologie architecturale. La deuxième partie mettra en scène des agents afin de simuler un évènement catastrophique (montée des eaux et évacuation en simultanée). On cherche à savoir quelles sont les chances pour que les occupants d’une habitation puissent sortir indemne d’une inondation, en comparant divers paramètres et scénarios afin d’évaluer le degré de vulnérabilité de chaque ménage. Certains scénarios prennent en compte l’effet de certaines prises de décisions (Informations, sensibilisations etc.). Les indicateurs et les simulations permettent alors de mieux appréhender les risques inondations afin d’être une aide à la gestion des crises
Hydrological risks are recurrent on the Fiherenana watershed - Madagascar. The city of Toliara, which is located at the outlet of the river basin, is subject each year to hurricane hazards and floods. The stakes are of major importance in this part of the island. This study begins with the analysis of hazard by collecting all existing hydro-climatic data on the catchment. It then seeks to determine trends, despite the significant lack of data, using statistical models (time series). Then, two approaches are used to assess the vulnerability of the city of Toliara and its surrounding villages. First, a static approach, from surveys of land and the use of GIS are conducted. Then, the second method is based on a multi-agent model. The first step is the mapping of a microscale vulnerability index which is an arrangement of several static criteria. For each House, there are several criteria of vulnerability such as potential water depth or architectural typology. As for the second part, scenes of agents are simulated in order to evaluate the degree of housing vulnerability to flooding. The model aims to estimate the chances of the occupants to escape from a catastrophic flood. For this purpose, we compare various settings and scenarios, some of which are conducted to take into account the effect of various decisions made by the responsible entities (awareness campaign etc.). The simulation consists of two essential parts: the simulation of the rise of water and the simulation of the behaviour of the people facing the occurence of hazard. Indicators and simulations allow to better understand the risks in order to help crisis management. Key Words: Hy
APA, Harvard, Vancouver, ISO, and other styles
19

Pinson, Laura. "Analyse et représentation des épisodes de caniculaires en zones urbaines denses : de la durée à la conception d'un indice de dangerosité." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1061/document.

Full text
Abstract:
Le GIEC (groupe d’expert Intergouvernemental sur l’Evolution du Climat) dans leur 4 ème rapport souligne que les villes européennes seront impactées par des épisodes caniculaires plus fréquents et plus intenses dû aux modifications climatiques ayant lieu au cours du XXI ème siècle. La ville, espace climatique particulier, sensiblement plus chaud que son espace environnant amplifie le phénomène de l’îlot de chaleur urbain (ICU). Pour la ville de Paris, les îlots de chaleur urbains peuvent dépasser de 8 à 10°C les températures relevées quelques kilomètres plus loin. Cet effet est d’autant plus néfaste lors de période caniculaire comme a connu la France en 2003, 2006, 2010 ou bien même en 2015. La connaissance sur le phénomène de la canicule nécessite de mettre en relation des données autant spatiales que temporelles afin de définir des zones à risques .Pour pouvoir simuler une canicule, le modèle SURFEX-TEB, conçu par Météo-France, CNRS, a été choisi. Il permet d’estimer la température en ville à partir de conditions climatiques des plus hautes atmosphères. Ces prévisions sont importantes notamment en période de canicule où les écarts de température entre la ville et sa banlieue peuvent dépasser 8C°. Le risque caniculaire, induit par les ICU, est complexe à appréhender et à représenter.Pour caractériser, appréhender et représenter la canicule, avec l’aide du modèle SURFEX-TEB, nous avons effectué une assimilation avec des mesures réalisées pendant la canicule de 2015 sur Paris. Cette assimilation met en évidence par exemple les phénomènes d’accumulation et l’impact des configurations des appartements sur les températures intérieures et extérieures. Nos différentes configurations ont permis de confirmer l’importance de considérer les températures intérieures lors de périodes caniculaires.Ce travail de recherche propose donc un éclairage spécifique et technique de la représentation des canicules. Son objectif est une meilleure représentation des canicules et l’estimation de leur dangerosité en fonction de la durée du phénomène, de son intensité et des caractéristiques urbaines et humaines. Des cartes décrivant la canicule et sa dangerosité sont mises en valeur grâce à l’élaboration d’un site web grand public.Les résultats de cette recherche soulèvent une interrogation sur les seuils de canicule. Ils soulignent l’importance d’introduire un seuil de canicule intérieur et démontrent le rôle de la configuration urbaine et en particulier des types d’habitation pour mieux prendre en compte la dangerosité des canicules et espérer mieux atténuer leurs effets
The IPCC (Intergovernmental Panel on Climate Change) in its 4th report underlines that the European cities will be impacted by more frequent and more intense scorching episodes due to the climatic modifications taking place during the XXIth century. Peculiar climatic areas, significantly hotter than their surroundings, cities amplify the phenomenon of the urban heat island (UHI). In the example of Paris, the urban islands of heat can exceed by 8°C to 10°C the temperatures measured a few kilometers away. This effect is all the more fatal as heat wave periods become more and more regular (2003, 2006, 2010, 2015). The knowledge on the heat wave phenomenon requires to put in relation spatial and temporal data so as to define high-risk areas.To be able to simulate a heat wave, the SURFEX-TEB model, designed by Météo-France, and CNRS, was chosen. It allows to estimate the temperature in town from weather conditions of the highest atmospheres. These forecasts are particularly important in heat wave periods where temperature differences between cities and suburban areas can exceed 8°C. The heat wave risk, resulting from the UHI, is complex to both understand and represent.To characterize, understand and represent the heat wave by the means of the SURFEX-TEB model, we made a data fusion with measures realized during the 2015 heat wave in Paris. This assimilation highlights, for instance, the accumulation phenomena and the impact of the apartments configuration on the inside and outside temperatures. Our various configurations allowed to confirm the importance of taking into account the internal temperatures during heat waves periods.This research thus proposes a specific and technical perspective of the heat waves representation. Its objectives are a better representation of heat waves and a sharper estimation of their dangerousness according to the phenomenon duration, its intensity and the urban and human features. Maps describing the heat wave and its dangerousness are highlighted thanks to the elaboration of a public Web site.The results of this research rise an interrogation on the thresholds of heat wave. They underline the importance to introduce an internal threshold of heat wave and demonstrate the role of the urban configuration, particularly the types of house. This should contribute to better take into account the dangerousness of heat waves and to improve the mitigation of their effects
APA, Harvard, Vancouver, ISO, and other styles
20

Bouchenafa, Walid. "Modélisation des inondations en tunnel en cas de crue de la Seine pour le Plan de Protection des Risques Inondations de la RATP (PPRI)." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2338/document.

Full text
Abstract:
La crue de 1910 de la Seine a eu une incidence directe sur le fonctionnement des différents réseaux (réseau électrique, assainissement des eaux usées, transport, eau potable). Le réseau RATP a été particulièrement atteint dans son fonctionnement. Les dommages qu’une crue centennale pourrait engendrer aujourd’hui risquent d’être plus importants encore car le réseau actuel est plus vulnérable du fait des nombreux équipements électriques et informatiques qu’il comporte. La majorité des émergences (les entrées d’eau) de la RATP est située en zone inondable. Lors d’une crue majeure de la Seine, les écoulements dus aux inondations se propagent directement dans la partie souterraine et centrale du réseau (Métro et RER) par le biais de ces émergences. Cette thèse s'intéresse à la simulation hydrodynamique des écoulements dans le réseau RATP en utilisant le logiciel MIKE URBAN dédié à la modélisation des réseaux d’assainissement. Cette modélisation nécessite une bonne connaissance de l’origine des écoulements pour mieux les prendre en compte. En effet, le réseau RATP est inondé par les eaux superficielles et les eaux d’infiltration. Afin de mieux quantifier les volumes entrants dans le réseau, un modèle physique d’une bouche de métro type a été réalisé. Les résultats des essais physiques ont permis de valider un modèle numérique qui caractérise les écoulements autour d’une bouche de métro et quantifie les volumes entrants. Cela a permis également de proposer une formule théorique de débit tenant compte de la géométrie d’une bouche de métro. Les écoulements par infiltration sont quant à eux modélisés en fonction de la charge de la nappe et validés avec des mesures in situ. Ce travail de recherche a comme objectif d’améliorer et valider un modèle de simulation. Il s’agit de mettre en œuvre un outil opérationnel d’aide à la décision qui permettra à la cellule inondation de la RATP de bien comprendre le fonctionnement de son réseau afin d’améliorer son plan de protection contre le risque inondation
The 1910 flood of the Seine had a direct impact on the functioning of the different networks (Electricity network, sewerage, transport, water distribution). The RATP network was particularly affected in its functioning. The damage that centennial flood could cause today may be even greater because the current network is more vulnerable because of the numerous electrical and computer equipment that it comprises. The majority of the emergences (The water ingress) of the RATP is located in flood areas. During a major flooding of the Seine, the flows due to the floods propagate directly into the underground and central part of the network (Metro and RER) through these emergences. This thesis is interested in a hydrodynamic simulation by MIKE URBAN, Model used to model the RATP network due to its MOUSE engine developed by DHI for the sewerage networks. This work also presents the results obtained on a physical model of a subway station. The experimental data were used to model water ingress within the RATP network from the subway station. Network protection against infiltration requires a thorough knowledge of underground flow conditions. Infiltrations through the tunnels are estimated numerically. The aim of this research is to improve and validate a simulation model. It is a question of implementing an operational decision support tool which will allow the flood cell of the RATP to understand the functioning of its network in order to improve its flood risk protection plan
APA, Harvard, Vancouver, ISO, and other styles
21

Dumollard, Gaspard. "Gestion en futaie régulière d'une forêt à plusieurs classes d'âge et allocation des terres en présence d'un risque de tempête : caractérisation des états stationnaires et rôle des préférences." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA019/document.

Full text
Abstract:
Le risque de tempête a un impact fort sur la gestion forestière, de manière directe à travers les dégâts qu'une tempête peut occasionner, et de manière indirecte à travers les comportements de précaution qu'il induit chez les producteurs forestiers.Cette thèse aborde le problème de la gestion en futaie régulière d'une forêt à plusieurs classes d'âge en présence d'un risque de tempête et quand le producteur a des préférences récursives. Au contraire de l'espérance d'utilité, les préférences récursives permettent de distinguer aversion au risque et préférences intertemporelles.Une approche analytique originale basée sur les conditions de Karush-Kuhn-Tucker, ainsi qu'une approche numérique de programmation dynamique stochastique sont utilisées afin de caractériser les différents états stationnaires possibles et de clarifier le rôle de différents déterminants, en particulier les préférences. L'analyse est par ailleurs étendue aux problèmes de l'allocation des terres et du changement climatique.Les résultats montrent que le risque de tempête associé aux préférences pousse les producteurs à abaisser l'âge moyen de rotation par précaution, car cela permet de diminuer l'exposition et la vulnérabilité de la forêt. La diversification de l'usage des terres au profit d'activités non risquées et procurant un revenu régulier constitue par ailleurs un levier alternatif d'adaptation au risque. Enfin, les anticipations des producteurs sur une hausse de la probabilité du risque de tempête accompagnant le changement climatique sont également à l'origine de comportements de précaution.Dans tous les cas de figure envisagés dans cette thèse, aversion au risque et préférences intertemporelles ont des rôles distincts, confirmant la pertinence des préférences récursives dans l'étude de ce type de problèmes
The storm risk has a strong impact on forest management, directly through the damages a storm can cause and indirectly through induced precautionary behaviors.This PhD thesis addresses the issue of even-aged forest management with multiple age-classes in presence of a storm risk and when the producer has recursive preferences. Unlike expected utility preferences, recursive preferences distinguish between risk aversion and intertemporal preferences.An original analytical approach based on Karush-Kuhn-Tucker conditions, as well as a numerical stochastic dynamic programming approach are used to characterize stationary states and to clarify the role of determinants, in particular the role of preferences. In addition, the analysis is extended to the issues of land allocation and climate change.Results show that the storm risk combined with preferences leads forest producers to reduce the average rotation age out of precaution, as it permits to reduce the forest exposure and vulnerability. Moreover, land use diversification in favor of activities without risk and providing a regular income is shown to be another option to adapt to the storm risk. Finally, producers' expectations of an increase in the storm risk probability, which comes along climate change, are revealed as another source of precautionary behavior.In all the situations considered, risk aversion and intertemporal preferences are shown to have distinct roles, confirming that recursive preferences are relevant to deal with this type of issues
APA, Harvard, Vancouver, ISO, and other styles
22

Jia, Xiaojuan. "Fuzzy logic based decision support system for mass evacuation of cities prone to coastal or river flood." Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00858055.

Full text
Abstract:
The increasing risk of river flooding or coastal submersion is already visible through recent events like the storm Xynthia and the floods in the Var department, which caused several dozens of deaths in France. These catastrophic events, even if their extent remains relatively limited, would have justified a preventive evacuation of high risk prone areas. However, the consequences for the population would be much more serious when large cities of hundreds of thousands of people will be partially or totally threatened by floods. This possibility is already an actual danger for large megacities like Bangkok and Alexandria, and also threatens French cities like Tours, Paris or Nice. Being more and more aware of this possibility, big coastal, estuarine and river cities in France, in Europe and in all continents are incited to prepare emergency and mass evacuation plans in order to prevent and cope with exceptional events. The elaboration of these plans is extremely complex and difficult due to technical, organizational, sociological and even political aspects. The great majority of cities in the world prone to large scale disasters do not already have this kind of plan at their disposal. Moreover, the existing state of the art shows that there are few operational tools to help territorial managers implement these plans in the phases of preparation and crisis management. Our work aims to contribute to the development of a support method for the evacuation decision taken in a crisis management context. This method is partly based on the information included in the provisional evacuation plans produced in the preparation phase. To reach this objective, we propose to adapt the tools of the fuzzy logic approach and apply them to a set of synthesized indicators. These indicators or decision criteria have been first selected from a method of evacuation planning previously developed by the research team Avenues-GSU. These criteria integrate classic data on the hazard level (overall forecast level and local flood water levels), the vulnerability of the territory and population and, which is more innovative, some information about the ability of the organization to evacuate and the security or the risk of the evacuation itself. The final result of this method, applied to the spatial dimension with the Matlab and ArcGIS software, is a map of the necessity to evacuate. This map shows the areas with the highest priority to be evacuated according to a fuzzy multicriteria analysis. It has been tested 5 at the pilot site of the city of Bordeaux located upstream in the Gironde estuary, and the theoretical results were compared with historical floods of 1981 and 1999. A hypothetic flood scenario was also studied taking into account the potential climate change impact and the consequences of a 1 meter sea level rise during the 21st century. This method and prototype tool should help policymakers to better understand a complex situation in pre-alert phase and assess the real need for urban zones evacuation on the basis of a limited but representative set of criteria. The maps of the necessity to evacuate represents an innovative proposal which extend and complement the existing official maps of flood forecasting (vigicrue) and its implications in terms of local impacts and crisis management anticipation.
APA, Harvard, Vancouver, ISO, and other styles
23

Poiraud, Alexandre. "Les glissements de terrain dans le bassin tertiaire volcanisé du Puy-en-Velay (Massif central, France) : caractérisation, facteurs de contrôle et cartographie de l’aléa." Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF20014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography