Добірка наукової літератури з теми "Aléa sismique probabiliste"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Aléa sismique probabiliste".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Дисертації з теми "Aléa sismique probabiliste":

1

Oksuz, Hilal. "Comparaison des estimations d'aléa sismique probabiliste avec les observations (accélérations et intensités)." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'estimation probabiliste de l'aléa sismique est basée sur plusieurs modèles et hypothèses à chaque étape, tels que la caractérisation des sources sismiques, les récurrences en magnitude, et le choix d'équations de prédiction du mouvement du sol. Le résultat final de ces études est la courbe d'aléa qui donne les taux annuels de dépassement pour différentes valeurs d'accélération. Chaque étape du calcul comporte des incertitudes. Comprendre l'impact de ces incertitudes sur le résultat final est délicat. Jusqu'à récemment, peu d'études se sont intéressées à tester le résultat final des calculs d'aléa sismique. Des données accélérométriques ou d'intensités macrosismiques, partiellement dépendantes des calculs d'aléa sismique, peuvent être utilisées, comme l'ont proposé quelques articles récents (Stirling & Gerstenberger 2006, Stirling & Gestenberger 2010, Albarello & D'Amico 2008). Cette étude vise à tester les estimations probabilistes de l'aléa sismique en France (MEDD2002, AFPS2006 et SIGMA2012) et aussi en Turquie (SHARE), en développant une méthode quantitative pour comparer les nombres prédits et observés de sites avec dépassement pendant la durée d'observation. La méthode développée s'appuie sur les travaux de Stirling & Gerstenberger (2010) et Albarello & D'Amico (2008). Les modèles sont évalués pour une large zone géographique en sélectionnant tous les sites et en sommant les durées d'observation à chaque site. L'objectif est de comprendre les possibilités et les limites de cette approche, car les durées d'observations sont courtes par rapport aux périodes de retour pertinentes en génie parasismique. Les résultats montrent que le modèle AFPS2006 est cohérent avec les observations du Réseau Accélérométrique Permanent (RAP) pour les accélérations entre 40 et 100 cm/s2 (temps de retour entre 50 et 200 ans). Le modèle MEDD2002 surestime l'aléa sismique pour un temps de retour de 100 ans. Ces résultats ne peuvent pas être extrapolés aux niveaux d'accélérations plus élevés. Pour des temps de retour plus longs (475 et 975 ans), il n'y a pas d'observation au dessus du seuil d'accélération. A l'heure actuelle en France, il n'est pas possible de tester les estimations probabilistes pour des niveaux d'accélérations utiles au génie parasismique. La méthode proposée a aussi été appliquée en Turquie. Les modèles d'aléa sismique peuvent être testés sur des durées d'observation plus longues et pour des niveaux d'accélération plus élevés qu'en France. Le modèle est testé pour différentes sélections de stations accélérométriques, différentes valeurs de la distance minimum entre stations, et différentes durées totales d'observations. Pour des accélérations entre 0.1 et 0.4 g, le modèle SHARE est cohérent avec les observations pour tous les tests. Pour des seuils plus bas, les résultats varient en fonction des décisions prises. Enfin, les modèles probabilistes d'aléa sismique en France ont été évalués à partir des intensités de la base de données SISFRANCE. Les périodes d'observations complètes sont estimées par une analyse statistique des données (I≥5, MSK). Nous avons sélectionné 25 sites avec des durées d'observations pour I≥5 variant entre 66 et 207 ans, localisés dans les zones les plus actives de France. Pour un temps de retour de 100 ans, le modèle MEDD2002 prédit un nombre de sites avec dépassement plus élevé que le nombre observé. Pour des temps de retour de 475 ans et plus longs, les modèles MEDD2002 et AFPS2006 ne peuvent pas être distingués car ils sont tous les deux compatibles avec les observations. Ces résultats basés sur les données d'intensité doivent être considérés de façon très prudente considérant les incertitudes sur la sélection des sites, sur la détermination des durées d'observations et la complétude, et sur l'équation utilisée pour convertir les intensités en accélérations
PSHA calculations rely on several models and assumptions in its components, such as the characterization of seismic sources, the establishment of recurrence laws in magnitude, and the choice of ground-motion prediction equations. The final output of a PSHA study is the hazard curve that gives annual rates of exceedances of different acceleration levels. All steps of the PSHA calculation bear uncertainties. Understanding the impact of these uncertainties on the final output of the PSHA is not straightforward. Until recently, little attention has been paid to testing the final output of PSHA models against observations. Acceleration datasets and intensity databases, partially independent from the PSHA calculations, can be used, as proposed in a handful of recent papers (Stirling & Gerstenberger 2006, Stirling & Gestenberger 2010, Albarello & D'Amico 2008). This study is aimed at testing PSH models in France (MEDD2002, AFPS2006 and SIGMA2012) and also in Turkey (SHARE), developing a quantitative method for comparing predicted and observed number of sites with exceedance over the lifetime of the network. This method builds on the studies of Stirling & Gerstenberger (2010) and Albarello & D'Amico (2008). All sites are sampled, observation time windows are stacked, and the PSHA is evaluated over a large geographical area at once. The objective is to understand the possibilities and limits of this approach, as observation time windows are short with respect to the return periods of interest in earthquake engineering. Results show that the AFPS2006 PSH model is consistent with the observations of the RAP accelerometric network over the acceleration range 40-100 cm/s2 (or 50-200 years of return periods). The MEDD2002 PSH model over-predicts the observed hazard for the return period of 100 years. For longer return periods (475 and 975 years), the test is not conclusive due to the lack of observations for large accelerations. No conclusion can be drawn for acceleration levels of interest in earthquake engineering. The proposed method is applied to Turkey. The PSH model can be tested using longer observation periods and higher accelerations levels than in France. The PSH model is tested for different selections of accelerometric sites, minimum inter-site distance and total observation period. For accelerations between 0.1 and 0.4g, the model is consistent with the observations for all tests. At lower acceleration levels, the agreement between the model and the observations varies depending on the decisions taken. Finally, the PSHA models in France are evaluated using the macroseismic intensity database (SISFrance). Completeness time windows are estimated from statistics on the intensity data (I≥5, MSK). Twenty-five sites are selected, with completeness time periods for I≥5 extending between 66 and 207 years, located in the highest active zones in France. At 100 years return period, MEDD2002 models predicts more sites with exceedances than the observed number of sites. At return periods higher than or equal to 475 years, both models AFPS2006 cannot be discriminated as both are consistent with observations. Considering the uncertainties on the selection of sites, on the determination of completeness time periods, and on the equation selected for converting intensities into accelerations, the results based on macroseismic intensities should be considered very carefully
2

Aristizabal, Claudia. "Intégration des effets de site dans les méthodes d'estimation probabiliste de l'aléa sismique." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de cette thèse s'inscrivent dans l'objectif général de fournir des recommandations sur la façon d'intégrer les effets du site dans l'évaluation probabiliste des risques sismiques, mieux connue sous le nom de PSHA, une méthodologie connue et utilisée à l'échelle mondiale pour estimer l'aléa et le risque sismiques à l'échelle régionale et locale. Nous passons donc en revue les méthodes disponibles dans la littérature pour obtenir la courbe d'aléa sismique en surface d'un site non-rocheux, en commençant par les méthodes les plus simples et plus génériques (partiellement probabiliste), jusqu'aux méthodes site-spécifiques (partiellement et entièrement probabilistes) qui nécessitent une caractérisation du site de plus en plus poussée, rarement disponible sauf cas exceptionnel comme par exemple le site test d'Euroseistest. C'est justement sur l'exemple de ce site que sont donc comparées un certain nombre de ces méthodes, ainsi qu'une nouvelle.La spécificité et la difficulté de ces études PSHA "site-spécifiques" vient du caractère non-linéaire de la réponse des sites peu rigides, ainsi que du fait que le rocher de référence contrôlant cette réponse est souvent très rigide. Les aspects "ajustement rocher dur" et "convolution" de l'aléa sismique au rocher avec la fonction d'amplification ou la fonction transfert (empirique ou numérique) d’un site font donc l'objet d'une attention particulière dans ces études comparatives. Un cadre général est présenté sur la façon de prendre en compte simultanément les caractéristiques spécifiques au site, la variabilité aléatoire complète ou réduite ("single station sigma"), les ajustements hôte-cible et le comportement linéaire / non linéaire d'un site, où nous expliquons toutes les étapes, corrections, avantages et difficultés que nous avons trouvés dans le processus et les différentes façons de les mettre en oeuvre.Cette étude comparative est divisée en deux parties: la première porte sur les méthodes non site-spécifiques et les méthodes hybrides site-spécifique (évaluation probabiliste de l'aléa au rocher et déterministe de la réponse de site), la seconde porte sur deux approches prenant en compte la convolution aléa rocher / réponse de site de façon probabiliste. Un des résultats majeurs de la première est l'augmentation de l'incertitude épistémique sur l'aléa en site meuble comparé à l'aléa au rocher, en raison du cumul des incertitudes associées à chaque étape. Un autre résultat majeur commun aux deux études est l'impact très important de la non-linéarité du sol dans les sites souples, ainsi que de la façon de les prendre en compte: la variabilité liée à l'utilisation de différents codes de simulation NL apparaît plus importante que la variabilité liée à différentes méthodes de convolution 100% probabilistes. Nous soulignons l'importance d'améliorer la manier d’inclure les effets du site dans les méthodes de l’estimation de l’aléa sismique probabiliste ou PSHA, et nous soulignons aussi l'importance d'instrumenter des sites actifs avec des sédiments meubles, comme l'Euroseistest, afin de tester et valider les modèles numériques.Finalement, on présente un résumé des résultats, des conclusions générales, de la discussion sur les principaux problèmes méthodologiques et des perspectives d'amélioration et de travail futur.Mots-clés: Effets du site, incertitude épistémique, PSHA, single station sigma, ajustements hôte-cible, effets linéaires et non linéaires, réponse de site
The overall goal of this research work is of provide recommendations on how to integrate site effects into Probabilistic Seismic Hazard Assessment, better known as PSHA, a well-known and widely used methodology. Globally used to estimate seismic hazard and risk at regional and local scales. We therefore review the methods available in the literature to obtain the seismic hazard curve at the surface of a soft soil site, starting with the simplest and most generic methods (partially probabilistic), up to the full site-specific methods (partially and fully probabilistic), requiring an excellent site-specific characterization, rarely available except exceptional cases such as the case of Euroseistest site. It is precisely on the example of this site that are compared a number of these methods, as well as a new one. And it is precisely at the Euroseistest that we performed an example of application of the different methods as well as a new one that we propose as a result of this work.The specificity and difficulty of these "site-specific" PSHA studies comes from the non-linear nature of the response of the soft sites, as well as from the fact that the reference rock controlling this response is often very rigid. The "rock to hard rock adjustment" and "convolution" aspects of the rock seismic hazard, together with the amplification function or the transfer function (empirical or numerical) of a site are therefore the subject of particular attention in these studies. comparative studies. A general framework is presented on how to simultaneously take into account the site-specific characteristics, such as the complete or reduced random variability ("single station sigma"), host-to -target adjustments and the linear / nonlinear behavior of a site, where we explain all the followed steps, the different corrections performed, the benefits and difficulties that we found in the process and the ways we sort them and discussing them when the answer was not straight forward.This comparative study is divided into two parts: the first deals with non-site-specific methods and site-specific hybrid methods (probabilistic evaluation of rock hazard and deterministic of the site response). The second deals with two approaches taking into account the convolution of rock hazard and the site response in a probabilistically way. One of the major results of the first is the increase of the epistemic uncertainty on the soft site hazard compared to the rock hazard, due to acumulation of uncertainties associated to each step. Another major common result to both studies is the very important impact of non-linearity on soft sites, as well as the complexity on how to account for them: the variability associated with the use of different non-linear simulation codes appears to be greater than the method-to-method variability associated with the two different full convolution probabilistic methods. We emphasize on the importance of improving the way in which the site effects are included into probabilistic seismic hazard methods, PSHA. And we also emphasize on the importance of instrumenting active sites with soft sediments, such as the Euroseistest, to test and validate numerical models.Finally, a summary of the results, the general conclusions, discussion of key methodological issues, and perspectives for improvement and future work are presented.Keywords: Site Effects, Epistemic Uncertainty, PSHA, single station sigma, host to target adjustments, linear and nonlinear site effects, soil site response
3

Donniol, Jouve Bénédicte. "Vers l'intégration des taux de déformation dans les modèles de source PSHA en Europe : test de la compatibilité entre les taux de moment sismique et géodésique." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALU006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La plupart des réglementations sismiques nationales et internationales exigent la quantification de l'aléa sismique en se basant sur des méthodes d'évaluation probabiliste (PSHA). Le PSHA fournit aux autorités une base et une référence à partir desquelles les mouvements du sol sont être pris en compte pour la conception parasismique. La connaissance des sources et des magnitudes susceptibles de se produire doit être interprétée en termes de probabilités d'occurrence sur des fenêtres temporelles futures (modèle de source). Le modèle de source est combiné à un modèle de mouvement du sol pour déterminer les probabilités de dépassement des niveaux de mouvement du sol sur des sites d'intérêt au cours de fenêtres temporelles futures. Le présent travail de recherche vise à comprendre comment la surveillance géodésique peut fournir des contraintes sur le modèle de source.Nous abordons la question de la dérivation des modèles d'aléa sismique à partir du taux de déformation dans les régions de sismicité faible à modérée. Là, la sismicité est diffuse, peu de tremblements de terre peuvent être associés pour identifier des failles actives, et les géométries de failles réalistes ne peuvent pas être intégrées dans les études d'aléa sismique. Les catalogues de séismes, fusionnant des données instrumentales et historiques, sont généralement utilisés pour établir des modèles de récurrence des séismes. Bien que ces catalogues s'étendent sur plusieurs siècles, les fenêtres temporelles d'observation sont souvent courtes par rapport aux temps de récurrence des événements de taille modérée à grande, et les modèles de récurrence peuvent être faiblement contraints. Les mesures GPS fournissent des estimations des taux de déformation et représentent une alternative pour estimer le taux futur de sismicité.En tirant parti du champ de vélocités généré dans EPOS-GNSS en Europe, des cartes de taux de déformation ont été inversées pour l'Europe (Piña Valdes et al. 2020). Les vitesses horizontales sont prises en compte pour estimer le budget de moment potentiellement disponible pour les séismes. Le nouveau modèle de risque sismique ESHM20 (Danciu et al. 2021) est testé par rapport à ces nouvelles données, en comparant les taux de moment sismiques, qui prennent en compte les incertitudes sur le modèle de source ESHM20 avec les taux de moment sismique géodésique. Nous proposons une nouvelle méthodologie pour tenir compte des incertitudes associées aux taux de moment géodésique et constatons que les deux quantités peuvent être en accord dans les zones de forte activité, et, dans certains cas, dans des zones de faible activité (comme dans plusieurs régions françaises). Ensuite, nous tirons parti du travail réalisé par Marsan et Tan (2020) pour générer des catalogues de sismicité synthétiques, équilibrés en terme de moment, afin de questionner si une divergence entre les moments sismiques et géodésiques pourraient être dus à un biais d'échantillonnage des catalogues sismiques
Most national and international seismic regulations require quantifying seismic hazard based on probabilistic seismic hazard assessment (PSHA) methods. PSHA provides authorities with a basis and reference from which ground motions should be considered for earthquake- resistant design. The knowledge about the sources and the magnitudes that may occur must be interpreted in terms of probabilities of occurrence over future time windows (source model). The source model is combined to a ground-motion model to determine the exceedance probabilities of ground-motion levels at sites of interest over future windows of time. The present research work aims at understanding how geodetic monitoring can provide constraints on the source model.We address the issue of deriving seismic hazard models from strain rate in low-to-moderate seismicity regions. There, the seismicity is diffuse, few earthquakes can be associated to identify active faults, and realistic fault geometries cannot be integrated in seismic hazard studies. Earthquake catalogs, merging instrumental and historical data, are usually used to establish earthquake recurrence models. Although these catalogs extend over several centuries, the observation time windows are often short with respect to the recurrence times of moderate-to-large events and the recurrence models can be weakly constrained. GPS measurements provide estimates for deformation rates and represent an alternative for estimating the future rate of seismicity. The model obtained can be coupled with ground-motion models to estimate probabilistic seismic hazard, similarly to a gridded- seismicity model. Taking advantage of the velocity field generated in EPOS-GNSS in Europe, strain rates maps have been derived for Europe (Piña Valdes et al. 2020). Horizontal velocities are considered to estimate the budget potentially available for earthquakes, which implies understanding the origin of the vertical displacement (tectonics, post-glacial rebound). The new ESHM20 seismic hazard model (Danciu et al. 2021) is tested against this new data, comparing the seismic budgets, accounting for uncertainties both on the ESHM20 source model and on geodetic seismic moment rates. We propose a new methodology to account for the uncertainties associated with geodetic moment rates and we find that the two quantities could be in agreement in high activity areas, and, in some cases in low activity area (as in several french regions). Then, we take advantage of the work made by Marsan and Tan (2020) to generate moment balanced synthetic earthquakes catalogs in order to assess the adequacy of earthquake catalog sampling for long-term seismicity in low-to-moderate seismic regions thanks to geodesy
4

Lemaire, Jean. "Un modèle d'évaluation de la vulnérabilité sismique du bâti existant selon l'Eurocode : essai méthodologique et application sur un territoire." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le risque sismique est un sujet d’étude pluridisciplinaire qui fait l’objet de nombreux travaux de recherches. Pendant longtemps, il a été étudié sous l’aspect de l’aléa et ce n’est qu’au milieu du XXe siècle que nous nous sommes intéressés à la vulnérabilité des éléments exposés. Malgré la multiplicité des études sur le risque sismique, aucune d’entre elles n’adopte une démarche globale en utilisant la règlementation parasismique. Dans le cadre de cette thèse, nous soutenons l’hypothèse selon laquelle il est possible d’évaluer la vulnérabilité des lieux d’habitation à l’échelle de plusieurs bâtiments en utilisant la norme Européenne, l’Eurocode 8. Utiliser cette règlementation a l’avantage de réduire les temps d’étudede la vulnérabilité physique puisque l’on évalue la résistance sismique d’un unique bâtiment dont ce dernier représente une population de plusieurs immeubles à usage d’habitation collective. La méthodologie proposée, illustrée sur l’exemple de la conurbation Mulhouse-Bâle, se compose de deux phases. La première consiste à étudier l’aléa sismique de la zone urbaine de Mulhouse et de Bâle à travers les études bibliographiques de quelques auteurs. Cette phase consiste aussi à examiner la compatibilité de la règlementation parasismique européenne et helvétique. En dernier lieu, un diagnostic du bâti existant et de la population est réalisé pour évaluer la vulnérabilité de ces deux territoires urbains, après un découpage des deux villes en secteurs historico géographiques. Une seconde phase consiste à proposer un modèle simplifié d’évaluation déterministe et probabiliste de la vulnérabilité du bâti, Celui-ci est fondé à partir de la nouvelle règlementation Européenne et de la mécanique des structures, pour évaluer la résistance sismique des bâtiments. L’aspect probabiliste a permis d’affiner le modèle proposé afin d’intégrer certaines incertitudes. Une étude de cas simulant un séisme important de magnitude Mw égale à 6 sur l’échelle de Richter, intégrant les phénomènes d’effets de site comme le préconise l’Eurocode 8, a permis de valider l’application du modèle envisagé. Le modèle d’évaluation proposé a pour intérêt de fournir un outil permettant d’évaluer la vulnérabilité du bâti sans effectuer de calcul mécanique. Il se veut donc accessible à tous(géographes, ingénieurs, sismologues, etc.…). Plus généralement, ce modèle pour objectif de fournir un outil d’aide à la décision dans la démarche de prévention que doivent les autorités publiques à la population, puisqu’ils permettent de déterminer la plus ou moins grande vulnérabilité des zones étudiées
The seismic risk is a subject of multidisciplinary study which is the object of numerous research works. For a long time, it was studied in terms of hazard and it is only in the middle of the 20th century that we became interested in the vulnerability of the exposed elements. In spite of the multiplicity of the studies on the seismic risk, none of them adopts a global approach by using the earthquake-resistant regulations. Within the framework of thesis, we support the hypothesis that it possible to estimate the vulnerability of dwellings on the scale of several buildings by using the European standard, Eurocode 8. Using these regulations has the advantage reducing the time to study physical vulnerability by assessing the seismic resistance of a single building, where the latter represents a population of several buildings used as collective dwellings. The proposed methodology, illustrated on the example of the Mulhouse-Basel conurbation, consists of two phases. The first one consists in studying the seismic hazard of the urban area of Mulhouse and Basel through the bibliographical studies of some authors. This phase also consists in examining the compatibility of the European and Helvetian seismic regulations. Finally, a diagnosis of the existing structures and of the population is made to assess the vulnerability of these two urban territories, after a division of both cities into historic-geographical sectors. A second phase consists in proposing a simplified model of deterministic and probabilistic assessment of the vulnerability of the built, based on the new European regulation and the mechanics of the structures, to evaluate the seismic resistance of buildings. The probability aspect allowed to refine the proposed model to integrate certain uncertainties. A case study feigning an important earthquake of magnitude Mw equal to 6 on the Richter scale, integrating the phenomena of site effects as recommended by Eurocode 8, validated the application of the envisaged model. The proposed evaluation model is intended to provide a tool for assessing the vulnerability of the built without performing mechanical calculations. Thus, it aims to be accessible to all (geographers, engineers, seismologists, etc…). More generally, this model aims to provide a decision-making tool in the approach of prevention which the public authorities owe to the population, because they allow to determine the more or less big vulnerability of the studied areas
5

Beauval, Céline. "Analyse des incertitudes dans une estimation probabiliste de l'aléa sismique, exemple de la France." Phd thesis, 2003. http://tel.archives-ouvertes.fr/tel-00673231.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose une nouvelle méthodologie permettant d'une part d'identifier les paramètres clefs qui contrôlent l'estimation de l'aléa sismique probabiliste, et d'autre part de quantifier l'impact des incertitudes de ces paramètres sur les estimations d'aléa. La méthode de Cornell-McGuire est utilisée dans cette étude. Tout d'abord, les incertitudes sur les déterminations de magnitude et de localisation sont modélisées et quantifiées : la variabilité résultante sur les estimations d'aléa est comprise entre 5 et 25% (=COV), selon le site et la période de retour considérés. Une étude est ensuite menée afin de hiérarchiser les impacts sur l'aléa liés aux choix de quatre paramètres : corrélation intensité-magnitude, magnitudes minimales et maximales, troncature de la relation d'atténuation du mouvement du sol. Les résultats à 34 Hz (PGA) indiquent que la magnitude maximale est le paramètre le moins influent (de 100 à 10000 ans) ; tandis que la corrélation I-M et la troncature des prédictions du mouvement du sol (>2¾) jouent un rôle clef quelle que soit la période de retour considérée (diminution de l'aléa jusqu'à 30% à 10000 ans). Une augmentation de la magnitude minimale contribuant à l'aléa, de 3.5 à 4.5, peut également produire des impacts non négligeables à courtes périodes de retour (diminution des valeurs d'aléa jusqu'à 20% à 475 ans). Enfin, la variabilité totale des estimations d'aléa, due aux choix combinés des quatre paramètres, peut atteindre 30% (COV, à 34 Hz). Pour des fréquences plus faibles (<5Hz), la variabilité totale augmente et la magnitude maximale devient un paramètre important. Ainsi, la variabilité des estimations due aux incertitudes de catalogue et aux choix de ces quatre paramètres doit être prise en compte dans toute étude d'estimation de l'aléa sismique probabiliste en France. Cette variabilité pourra être réduite en élaborant une corrélation intensité-magnitude plus appropriée, et en recherchant une manière plus réaliste de prendre en compte la dispersion du mouvement du sol.

До бібліографії