Tesis sobre el tema "Risque de propagation"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Risque de propagation.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 46 mejores tesis para su investigación sobre el tema "Risque de propagation".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Lignon, Sylvain. "Approche robuste du risque sismique". Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/slignon.pdf.

Texto completo
Resumen
A l'heure actuelle, la question de la modélisation sismique est encore très ouverte au plan international. Les travaux rapportés dans ce document proposent une modélisation de l'ensemble de la chaîne, depuis la description de l'initialisation de la secousse sismique jusqu'à l'endommagement de la structure en béton armé, en passant par la transmission de l'onde à travers le sol, le but étant de mettre en oeuvre une approche robuste de l'endommagement des structures. Un découplage des différents phénomènes est pour cela introduit, de façon à travailler sur des modèles simplifiés à chaque niveau. Pour commencer, un modèle original de faille sismique est développé, le modèle 3S. La propagation des ondes est alors étudiée considérant le sol comme un milieu stratifié. Enfin, des incertitudes sont prises en compte dans l'évaluation de l'endommagement des structures. Des méthodes spécifiques d'analyse convexe sont alors mises en oeuvre
At present, the question of seismic modelling is still very open. The work reported in this document proposes a modelling of the whole of the chain, from the description of the initialization of the earth tremor until the damage of the reinforced concrete structure, while passing by the transmission of the wave through the ground, the goal being to implement a robust approach of the damage structure. A decoupling of the various phenomena is introduced, in order to work on simplified models on each level. To start, an original model of seismic fault is developed, the 3S model. The wave propagation is then studied by regarding the ground as a stratified medium. Lastly, uncertainties are taken into account in the evaluation of the damage of the structures. Specific methods of convex analysis are then implemented
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Hessas, Nassima. "Évaluation cartographique et évolution diachronique par télédétection du risque incendie de forêt : simulation de la propagation du feu dans le bassin versant du Paillon, Nice, Alpes-Maritimes". Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10248.

Texto completo
Resumen
Les Alpes-Maritimes est le milieu le plus sensible aux risques incendies en raison de son climat, de son relief, de ses enjeux touristiques, urbanistiques et économiques. La démarche consiste à détecter les risques et mesurer leurs conséquences. Afin de connaître l'impact de ces feux, il est nécessaire de déterminer leur répartition spatiale et temporelle. De très larges étendues sont concernées et la télédétection est l'un des moyens d'appréhender le phénomène à une aussi grande échelle. Les statistiques annuelles réalisées regroupent trente années d'incendies, à l'échelle départementale ensuite communales sous - tendues par plusieurs questions : Quelles sont les causes et les fréquences des feux et leur ampleur? Les feux de saison sont- ils de même proportion ? Pourquoi 2003 a – t - il été une vraie catastrophe ? L'utilisation du SIG, pour l'évaluation cartographique, se révèle être à la fois un outil scientifique performant pour connaître et rendre compte de l'aléa et exprimer la vulnérabilité et pour déterminer des zonages que les aménageurs et décideurs intégreront dans leur démarche globale d'aménagements du territoire aux échelles appropriées. La multiplication des classifications et ACP sur une image satellitaire et l'AFC sur l'ensemble du bassin apportent une contribution importante à la compréhension de ce phénomène. Les incendies de forêts engendrent des modifications fondamentales. L'étude diachronique de l'évolution du Paillon, par le biais de 3 séries de photographies grâce à la télédétection et au SIG permet de cerner des dimensions spatio-temporelles très précises. L'étude de la simulation de la propagation du feu aide à la prise de décision
Due to its climate and mountainous relief, as well as the tourism, urban and economic stakes involved, Alpes-Maritimes is the most exposed to fire risks. This thesis has sought to detect and locate risks, then assess their consequences. In order to study the environmental impacts of fires, it was necessary to determine how often and where they occur. As vast areas are involved, remote sensing by aerial or satellite photography is one of the means of understanding such large-scale phenomena. Yearly statistical were made of 30 years of fires, first over the whole department, then town by town, on the basis of the following questions: What are the causes? How often do fires occur and of what amplitude? Do weather conditions play a part in starting and spreading fires? Why was summer 2003 such a catastrophe? The use of GIS for cartographic assessment was shown to be an efficient scientific tool for examining and highlighting exposure to hazard as well as for expressing vulnerability and determining the zoning which developers, prescribers and decision makers incorporate in their overall approach to local development at various appropriate. The multiplication of classifications and PCA of a satellite picture and the FCA of the entire basin contribute considerably to understanding the phenomenon. Forest fires engender fundamental modifications of land use and zoning. A diachronic study of the evolution of the Paillon, based on 3 series of aerial photographs and with the help of remote sensing and GIS, enabled extremely precise spatial-temporal dimensions to be determined. Studying simulations of the way fires spread can help with decision-making
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Baudrit, Cédric. "Représentation et propagation de connaissances imprécises et incertaines : application à l'évaluation des risques liés aux sites et aux sols pollués". Phd thesis, Université Paul Sabatier - Toulouse III, 2005. http://tel.archives-ouvertes.fr/tel-00011933.

Texto completo
Resumen
Actuellement, les choix relatifs à la gestion des sites potentiellement pollués s'appuient, notamment,
sur une évaluation des risques pour l'homme et l'environnement. Cette évaluation est effectuée à l'aide de modèles qui simulent le transfert de polluant depuis une source de pollution vers une cible vulnérable, pour différents scénarii d'exposition. La sélection des valeurs des paramètres de ces modèles s'appuie autant que possible sur les données recueillies lors des investigations de terrain (phase de diagnostic de site). Or pour des raisons de délais et de coûts, l'information recueillie lors de cette phase de diagnostic est toujours incomplète; elle est donc entachée d'incertitude. De même, les modèles de transferts et d'exposition présentent également des incertitudes à intégrer dans les procédures. Cette notion globale d'incertitude doit être prise en compte dans l'évaluation du risque pour que les résultats soient utiles lors la phase décisionnelle.

L'incertitude sur les paramètres peut avoir deux origines. La première provient du caractère aléatoire de l'information due à une variabilité naturelle résultant de phénomènes stochastiques. On parle alors d'incertitudes de variabilité ou d'incertitudes stochastiques. La seconde est liée au caractère imprécis de l'information lié à un manque de connaissance et qui résulte par exemple d'erreurs systématiques lors de mesures ou d'avis d'experts.
On parle alors d'incertitudes épistémiques. Dans le calcul de risque, ces deux notions sont souvent confondues alors qu'elles devraient être traitées de manière différente.

L'incertitude en évaluation des risques a surtout été appréhendée dans un cadre purement probabiliste.
Cela revient à supposer que la connaissance sur les paramètres des modèles est toujours de nature aléatoire (variabilité). Cette approche consiste à représenter les paramètres incertains par des distributions de probabilité uniques et à transmettre l'incertitude relative à ces paramètres sur celle du risque encouru par la cible, en appliquant en général la technique dite Monte Carlo. Si cette approche est bien connue, toute la difficulté tient à une définition cohérente des distributions de probabilité affectées aux paramètres par rapport à la connaissance disponible. En effet dans un contexte d'évaluation des risques liés à l'exposition aux polluants, l'information dont on dispose concernant certains paramètres est souvent de nature imprécise. Le calage d'une distribution de probabilité unique sur ce type de
connaissance devient subjectif et en partie arbitraire.

L'information dont on dispose réellement est souvent plus riche qu'un intervalle mais moins riche qu'une distribution de probabilité. En pratique, l'information de nature aléatoire est traitée de manière rigoureuse par les distributions de probabilité classiques. Celle de nature imprécise est traitée de manière rigoureuse par des familles de distributions de probabilité définies au moyen de paires de probabilités cumulées hautes et basses ou, à l'aide de théories plus récentes, au moyen de distributions de possibilité (aussi appelées intervalles flous) ou encore au moyen d'intervalles aléatoires utilisant les fonctions de croyance de Dempster-Shafer.

Un des premiers objectifs de ce travail est de promouvoir la cohérence entre la manière dont on représente la connaissance sur les paramètres
des modèles du risque et la connaissance dont on dispose réellement. Le deuxième objectif est de proposer différentes méthodes pour propager l'information de nature aléatoire et l'information de nature imprécise à travers les modèles du risque tout en essayant de tenir compte des dépendances entre les paramètres. Enfin, ces méthodes alternatives ont été testées sur des cas synthétiques puis sur des cas réels simplifiés, notamment pour proposer des moyens de présenter les résultats pour une phase décisionnelle:
- Calcul de dose : Transfert d'un polluant radioactif (le strontium) depuis le dépôt jusqu'à
l'homme, au travers de la consommation d'un aliment (le lait de vache).
- Risque toxique après un déversement accidentel de trichloréthylène (TCE) au dessus d'une nappe d'eau (modèle semi analytique).

- Risque pour la santé liée aux sols pollués par des retombées de plomb.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Favier, Philomène. "Une approche intégrée du risque avalanche : quantification de la vulnérabilité physique et humaine et optimisation des structures de protection". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU051/document.

Texto completo
Resumen
La quantification du risque avalanche à long terme dans un but de zonage et d'optimisation des moyens de protection est fait dans la plupart des pays sur la base de la connaissance des événements de forte intensité. Ces approches fondées sur les périodes de retours, centrées uniquement sur l'aléa, ne considèrent pas explicitement les éléments à risque étudiés (bâtiments, personnes à l'intérieur, etc.) et négligent les possibles contraintes budgétaires. Afin de palier à ces limitations, les méthodes de zonage basés sur le risque et les analyses coût-bénéfice ont récemment émergées. Elles combinent la distribution de l'aléa avec les relations de vulnérabilité des éléments étudiés. Ainsi, l'évaluation systématisée de la vulnérabilité des bâtiments permet de mieux quantifier le risque dans un couloir d'avalanche donné. Cependant, en pratique, les relations de vulnérabilité disponibles restent principalement limitées à de rares estimations empiriques déduites de l'analyse de quelques catastrophes survenues. De plus, les méthodes existantes basées sur le risque font face à des calculs encore lourds, et les hypothèses sur la modélisation de l'aléa sont discutables (choix de quelques scénarios, faible considération des valeurs extrêmes, etc.). Dans cette thèse, ces problèmes sont abordés en construisant grâce à une approche fiabiliste des relations de fragilité de différents configurations de bâtiments en béton armé (BA) sollicités par des avalanches de neige et également des relations de fragilité pour les personnes potentiellement à l'intérieur de ces bâtiments. Ces relations sont ensuite utilisées dans un cadre de quantification du risque et de recherche de structure de défense optimale. L'apport de cette thèse est donc l'enrichissement de la caractérisation de la vulnérabilité et du risque face aux avalanches par des approches de complexités variables utilisables en fonction de la spécificité du cas et du temps imparti pour conduire l'étude. La thèse est composée de quatre volets. D'abord, les courbes de fragilité associées à différents états limites de murs en BA soumis au chargement uniforme d'une avalanche sont obtenues à partir d'approches classiques de dimensionnement du BA. Ensuite, l'approche est étendue à des modèles numériques de bâtis plus riches (modèle masse-ressort) permettant de décrire en particulier l'évolution temporelle de la réponse du système. A partir de ces relations de fragilité, de nouvelles relations pour les personnes à l'intérieur de ces bâtiments sont proposées. Ces relations pour les bâtiments et les personnes sont utilisées dans une analyse complète de sensibilité du risque. Enfin, une formule analytique du risque basée sur la statistique des valeurs extrêmes est proposée pour efficacement quantifier le risque et obtenir une caractéristique optimale de digue paravalanche
Long term avalanche risk quantification for mapping and the design of defense structures is done in mostcountries on the basis of high magnitude events. Such return period/level approaches, purely hazardoriented,do not consider elements at risk (buildings, people inside, etc.) explicitly, and neglect possiblebudgetary constraints. To overcome these limitations, risk based zoning methods and cost-benefit analyseshave emerged recently. They combine the hazard distribution and vulnerability relations for the elementsat risk. Hence, the systematic vulnerability assessment of buildings can lead to better quantify the riskin avalanche paths. However, in practice, available vulnerability relations remain mostly limited to scarceempirical estimates derived from the analysis of a few catastrophic events. Besides, existing risk-basedmethods remain computationally intensive, and based on discussable assumptions regarding hazard modelling(choice of few scenarios, little consideration of extreme values, etc.). In this thesis, we tackle theseproblems by building reliability-based fragility relations to snow avalanches for several building types andpeople inside them, and incorporating these relations in a risk quantification and defense structure optimaldesign framework. So, we enrich the avalanche vulnerability and risk toolboxes with approaches of variouscomplexity, usable in practice in different conditions, depending on the case study and on the time availableto conduct the study. The developments made are detailed in four papers/chapters.In paper one, we derive fragility curves associated to different limit states for various reinforced concrete(RC) buildings loaded by an avalanche-like uniform pressure. Numerical methods to describe the RCbehaviour consist in civil engineering abacus and a yield line theory model, to make the computations asfast as possible. Different uncertainty propagation techniques enable to quantify fragility relations linkingpressure to failure probabilities, study the weight of the different parameters and the different assumptionsregarding the probabilistic modelling of the joint input distribution. In paper two, the approach is extendedto more complex numerical building models, namely a mass-spring and a finite elements one. Hence, muchmore realistic descriptions of RC walls are obtained, which are useful for complex case studies for whichdetailed investigations are required. However, the idea is still to derive fragility curves with the simpler,faster to run, but well validated mass-spring model, in a “physically-based meta-modelling” spirit. Inpaper three, we have various fragility relations for RC buildings at hand, thus we propose new relationsrelating death probability of people inside them to avalanche load. Second, these two sets of fragilitycurves for buildings and human are exploited in a comprehensive risk sensitivity analysis. By this way,we highlight the gap that can exist between return period based zoning methods and acceptable riskthresholds. We also show the higher robustness to vulnerability relations of optimal design approaches ona typical dam design case. In paper four, we propose simplified analytical risk formulas based on extremevalue statistics to quantify risk and perform the optimal design of an avalanche dam in an efficient way. Asensitivity study is conducted to assess the influence of the chosen statistical distributions and flow-obstacleinteraction law, highlighting the need for precise risk evaluations to well characterise the tail behaviour ofextreme runouts and the predominant patterns in avalanche - structure interactions
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Boulanger, Xavier. "Modélisation du canal de propagation Terre-Espace en bandes Ka et Q/V : synthèse de séries temporelles, variabilité statistique et estimation de risque". Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0009/document.

Texto completo
Resumen
Les bandes de fréquences utilisées conventionnellement pour les systèmes fixes de télécommunication par satellites (bandes C et Ku i.e. 4-15 GHz) sont congestionnées. Néanmoins, le marché des télécommunications civil et de défense accuse une demande de plus en plus importante en services multimédia haut-débit. Par conséquent, l'augmentation de la fréquence porteuse vers les bandes Ka et Q/V (20-40/50 GHz)est activement étudiée. Pour des fréquences supérieures à 5 GHz, la propagation des signaux radioélectriques souffre de l'atténuation troposphérique. Parmi les différents contributeurs à l'affaiblissement troposphérique total(atténuation, scintillation, dépolarisation, température de bruit du ciel), les précipitations jouent un rôle prépondérant. Pour compenser la détérioration des conditions de propagation, des techniques de compensation des affaiblissements (FMT: Fade Mitigation Technique) permettant d'adapter en temps réel les caractéristiques du système en fonction de l'état du canal de propagation doivent être employées. Une alternative à l'utilisation de séries temporelles expérimentales peu nombreuses est la génération de séries temporelles synthétiques d'atténuation due à la pluie et d'atténuation totale représentatives d'une liaison donnée.Le manuscrit est organisé autour de cinq articles. La première contribution est dédiée à la modélisation temporelle de l'affaiblissement troposphérique total. Le deuxième article porte sur des améliorations significatives du modèle de génération de séries temporelles d'atténuation due à la pluie recommandé par l'UITR.Les trois contributions suivantes constituent une analyse critique et une modélisation de la variabilité des statistiques du 1er ordre utilisées lors des tests des modèles de canal. La variance de l'estimateur statistique des distributions cumulatives complémentaires de l'atténuation due à la pluie et de l'intensité de précipitation est alors mise en évidence. Un modèle à application mondiale paramétré au moyen de données expérimentales est proposé. Celui-ci permet, d'une part, d'estimer les intervalles de confiance associés aux mesures de propagation et d'autre part, de quantifier le risque en termes de disponibilité annuelle associée à la prédiction d'une marge de propagation donnée. Cette approche est étendue aux variabilités des statistiques jointes. Elle permet alors une évaluation statistique de l'impact des techniques de diversité de site sur les performances systèmes, tant à microéchelle(quelques kms) qu'à macro-échelle (quelques centaines de kms)
Nowadays, C and Ku bands used for fixed SATCOM systems are totally congested. However, the demand of the end users for high data rate multimedia services is increasing. Consequently, the use of higher frequency bands (Ka: 20 GHz and Q/V 40/50 GHz) is under investigation. For frequencies higher than 5 GHz, radiowave propagation is strongly affected by tropospheric attenuation. Among the different contributors, rain is the most significant. To compensate the deterioration of the propagation channel, Fade Mitigation Techniques (FMT) are used. The lack of experimental data needed to optimize the real-time control loops of FMT leads tothe use of rain attenuation and total attenuation time series synthesizers. The manuscript is a compilation of five articles. The first contribution is dedicated to the temporal modelling of total impairments. The second article aims at providing significant improvements on the rain attenuation time series synthesizer recommended by ITU-R. The last three contributions are a critical analysis and a modelling of the variability observed on the 1st order statistics used to validate propagation channel models. The variance of the statistical estimator of the complementary cumulative distribution functions of rainfall rate and rain attenuation is highlighted. A worldwide model parameterized in compliance with propagation measurements is proposed. It allows the confidence intervals to be estimated and the risk on a required availability associated with a given propagation margin prediction to be quantified. This approach is extended to the variability of joint statistics. It allows the impact of site diversity techniques on system performances at small scale (few kms) and large scale (few hundred of kms) to be evaluated
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Salines, Morgane. "Modélisation de la propagation du virus de l'hépatite E dans la filière porcine et évaluation de stratégies de réduction du risque d'exposition humaine". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B039/document.

Texto completo
Resumen
Le virus de l’hépatite E (HEV) est un agent zoonotique dont les porcs représentent le principal réservoir dans les pays industrialisés. Le présent projet de recherche a combiné études épidémiologiques, modélisation mathématique et sciences sociales pour proposer des leviers de réduction du risque d’exposition humaine au HEV par consommation de produits à base de porc. Deux essais expérimentaux et une étude en conditions naturelles ont mis en évidence le rôle majeur des co-infections immunomodulatrices dans la dynamique de l’infection par le HEV chez le porc, ces pathogènes intercurrents conduisant à une infection chronique par le HEV et à un risque augmenté de présence du virus dans le foie, le sang et les muscles des animaux abattus. Le développement d’un modèle intra-élevage, stochastique, individu-centré et multi-pathogènes, a permis de dégager des pistes de maîtrise à la fois zootechniques et sanitaires pour réduire la prévalence du virus en élevage. En complément, la conception d’un modèle inter-troupeaux a rendu possible l’analyse des facteurs de diffusion du virus dans un réseau d’élevages français. L’ensemble de ces mesures de gestion du HEV a été soumis à l’avis des organisations publiques et privées et des acteurs individuels de la filière porcine (éleveurs, conseillers, vétérinaires) par des approches de sciences humaines et sociales. Finalement, ce projet transversal et multi-disciplinaire a permis de définir des axes d’action tangibles et réalisables de gestion du HEV dans la filière porcine tout en apportant des contributions méthodologiques significatives en épidémiologie et en modélisation
Hepatitis E virus (HEV) is a zoonotic pathogen whose main reservoir in industrialised countries is pigs. This research project combined epidemiological studies, mathematical modelling and social sciences to propose levers for reducing the risk of human exposure to HEV through the consumption of pork products. Two experimental trials and one study under natural conditions highlighted the major role of immunomodulating co-infections on the dynamics of HEV infection in pigs, as these intercurrent pathogens led to chronic HEV infection and an increased risk of the virus in the liver, blood and muscles of slaughtered animals. The development of a within-herd, stochastic, individual-based and multi-pathogen model has made it possible to identify both zootechnical and sanitary control measures to reduce the prevalence of the virus on farms. In addition, the design of a between-herd model has enabled to analyse the factors responsible for the spread of the virus in a network of French farms. All these HEV control measures have been submitted for the opinion of public and private organisations and individual players in the pig sector (farmers, farming advisors, veterinarians) through social science approaches. Finally, this transversal and multidisciplinary project made it possible to define tangible and achievable lines of action for the management of HEV in the pig sector while making significant methodological contributions in epidemiology and modelling
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Heipertz, Jonas. "Three Essays in Financial Networks and Shock Propagation". Thesis, Paris, EHESS, 2019. http://www.theses.fr/2019EHES0106.

Texto completo
Resumen
Depuis la crise financière, les interdépendances entre les institutions financières font partie intégrante de l’analyse et de la politique économique. Le monde entier a appris douloureusement comment des chocs relativement petits et localisés (comme la crise des subprimes aux États-Unis) peuvent se propager par le système financier à travers le monde et générer des conséquences importantes pour l’économie réelle. Depuis lors, les analyses académiques ont cherché à comprendre les caractéristiques du système financier qui déterminent le risque systémique. Le point de départ de la majorité de ces études est de considérer la structure du réseau financier comme étant donnée. Cependant, chaque jour des quantités importantes d’instruments financiers sont échangées. Cette structure change donc. Cette thèse démontre que ces ajustements endogènes jouent un rôle clé pour la transmission de chocs par les réseaux financiers. Sur le plan théorique, la thèse construit des modèles d’équilibre général qui permettent de comprendre la formation endogène des réseaux. En effet, le réseau est le résultat d’échanges d’instruments financiers entre les institutions financières. Les analyses empiriques exploitent quant-à-elles plusieurs bases de données micro- et macro-économiques pour mesurer l’importance des mécanismes théoriques. La thèse bénéficie particulièrement des bases confidentielles et détaillées de la Banque de France.Le premier chapitre fait le lien avec l’économie réelle. Il montre comment les chocs de productivité au niveau d’une entreprise peuvent se propager par le réseau financier : deux entreprises peuvent être liées par leur financement externe même si elles n’ont pas ou peu de liens par leur activité réelle. Ces liens peuvent avoir des conséquences macro-économiques. Le chapitre construit un modèle théorique multi-sectoriel de la production avec des entreprises hétérogènes qui financent une partie de leurs dépenses en émettant des titres. Ces titres de créances sont achetés par les banques qui sont contraintes de respecter un certain ratio de capitalisation. A l’équilibre, les chocs de productivité se propagent par les réseaux financiers. Le modèle est estimé et pourra également se prêter à l’étude de la régulation macro-prudentielle et la politique monétaire.Le deuxième chapitre de la thèse exploite les données désagrégées sur les avoirs et les engagements des banques. Elles permettent d’identifier et estimer un modèle d’équilibre général d’échanges d’instruments financiers. Les banques choisissent la taille et la diversification de leurs bilans. La propagation de chocs est déterminée, non pas par le montant des investissements mais par les ajustements des bilans bancaires face à ces chocs. Le réseau a les caractéristiques clés suivantes : (i) un réseau plus connecté implique moins d’amplification, (ii) l’influence d’une banque est indépendante de la taille de ses positions, (iii) les banques qui sont plus averses au risque réussissent à diminuer leur risque, mais accroissent leur influence sur les autres banques du réseau. Sur le plan empirique, le chapitre montre que la réponse endogène du réseau est deux à trois fois plus importante pour la propagation de chocs que le réseau préexistant. Le modèle estimé permet d’évaluer les effets des programmes d’achat de titres mis en place par la Banque Centrale Européenne.Le troisième chapitre conclue la thèse avec une analyse plus agrégée. Il montre d’abord que des évolutions sectorielles, comme l’expansion de l’endettement extérieur du secteur public français, ont été à l’origine de la détérioration de la position extérieure nette de la France entre 2008 et 2014. Il fournit une représentation de réseau des liens entre les secteurs institutionnels domestiques avec l’étranger et documente leurs évolutions sur la période. La propagation des chocs sectoriels à travers les détentions de titres est étudiée dans un modèle de contagion qui est estimé grâce à la méthode de moments généralisés
Financial inter-dependencies are since the financial crisis at the forefront of macroeconomic research and policy making. The world had painfully learned how small and localized events can travel through the global financial system with huge repercussions for the real economy. Since then, many studies have analyzed the propagation properties of given financial exposure networks. Each day, however, large amounts of financial assets are traded and financial institutions’ balance-sheets change in response to new information, regulation or monetary policy. Changes in exposures crucially affect the transmission of shocks. This thesis develops general equilibrium frameworks that show how financial networks emerge endogenously from trade in financial assets between heterogeneous institutions. I use micro and macro-level datasets including confidential data from the Banque de France to structurally identify risk-preferences, institutions' beliefs about the distribution of future financial asset returns, and the specific constraints that drive financial network formation. The thesis also derives an explicit firm-level link of financial networks to an economy's productive structure.Chapter 1 of the thesis shows how firm-level productivity shocks propagate through financial networks. If firms need external funds to finance capital expenditure, banks create linkages between them that go beyond their input-output relationships. These links can affect aggregate output. The chapter builds a multi-sector production model of heterogeneous firms that are financed by heterogeneous leverage targeting banks. Banks are themselves connected through bilateral cross-holdings. Endogenous financial asset prices introduce a new propagation channel of productivity shocks. Structural parameters such as bank-level leverage constraints determine the strength of this channel and one statistic is sufficient to capture it. I use confidential matched bank-firm-level data from the Banque de France on corporate bond investments to estimate the model. The model can be used to study macro-prudential regulation and monetary policy.Chapter 2 uses bank- and instrument-level data on asset holdings and liabilities to identify and estimate a general equilibrium model of trade in financial instruments shaping an endogenous network of interlinked banks' balance-sheets. Bilateral ties are formed as each bank selects the size and the diversification of its assets and liabilities. Shocks propagate due to the response, rather than the size, of bilateral ties to such shocks. The network exhibit key theoretical properties: (i) more connected networks lead to less amplification of partial equilibrium shocks, (ii) the influence of a bank's equity is independent of the size of its holdings; (iii) more risk-averse banks are more diversified, lowering their own volatility but increasing their influence on other banks. The structural estimation of the network model for the universe of French banks shows that the endogenous change in the network matters two to three times more than the initial network of cross-holdings for the transmission of shocks. The estimated network is used to assess the effects of the ECB's quantitative easing policy.Chapter 3 concludes the thesis with a more aggregated sector-level analysis. It first studies how the sharp deterioration of the net external portfolio position of France between 2008 and 2014 was driven by sectoral patterns such as the banking sector retrenchment and the increase in foreign liabilities of the public and corporate sectors but was mitigated by the expansion of domestic and foreign asset portfolios of insurance companies. It provides a network representation of the links between domestic sectors and the rest of the world. Sectoral shock propagation through inter-sectoral security holdings is studied in an estimated balance-sheet contagion model
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Fang, Chao. "Modeling and Analysing Propagation Behavior in Complex Risk Network : A Decision Support System for Project Risk Management". Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-01018574.

Texto completo
Resumen
Project risk management is a crucial activity in project management. Nowadays, projects are facing a growing complexity and are thus exposed to numerous and interdependent risks. However, existing classical methods have limitations for modeling the real complexity of project risks. For example, some phenomena like chain reactions and loops are not properly taken into account. This Ph.D. thesis aims at analyzing propagation behavior in the project risk network through modelling risks and risk interactions. An integrated framework of decision support system is presented with a series of proposed methods. The construction of the project risk network requires the involvement of the project manager and the team of experts using the Design Structure Matrix (DSM) method. Simulation techniques are used and several network theory-based methods are developed for analyzing and prioritizing project risks, with respect to their role and importance in the risk network in terms of various indicators. The proposed approach serves as a powerful complement to classical project risk analysis. These novel analyses provide project managers with improved insights on risks and risk interactions under complexity and help them to design more effective response actions. Considering resource constraints, a greedy algorithm and a genetic algorithm are developed to optimize the risk response plan and the allocation of budget reserves dedicated to the risk management. Two examples of application, 1) to a real musical staging project in the entertainment industry and 2) to a real urban transportation system implementation project, are presented to illustrate the utility of the proposed decision support system.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Grondin, Julien. "Evaluation ultrasonore de l'os cortical en transmission transverse : études numérique et expérimentale de la propagation d’ondes circonférentielles pour la caractérisation de la résistance mécanique du col fémoral". Paris 6, 2010. http://www.theses.fr/2010PA066434.

Texto completo
Resumen
Les mesures ultrasonores en transmission transverse permettent d’évaluer un site osseux. Notre objectif est de mettre en évidence et d’exploiter les ondes qui se propagent circonférentiellement dans la coque corticale du col fémoral pour caractériser la résistance de la hanche à la fracture. Des simulations numériques de la propagation d’ondes dans des sections transverses de col du fémur ont été réalisées pour étudier les phénomènes mis en jeu. Nous avons montré que le premier signal (« first arriving signal », FAS) en transmission transverse est toujours associé aux ondes circonférentielles. Une forte corrélation entre le temps de vol du FAS (TOFFAS) et des paramètres géométriques liés à la résistance osseuse (R² = 0. 87 pour le moment d’inertie minimum) a été observée. Les ondes circonférentielles se sont révélées être sensibles à la porosité et à l’élasticité de la coque corticale. Un montage ultrasonore expérimental a été conçu afin d’étudier la relation entre TOFFAS et la résistance à la fracture obtenue par test mécanique. Une première série de mesures sur neuf échantillons a montré que TOFFAS peu prédire la résistance mécanique de l’extrémité supérieure du fémur (R² = 0. 79) au moins aussi bien que la technique de référence (R² = 0. 78) utilisant les rayons-X. Ce montage expérimental peut être optimisé et combiné au scanner ultrasonore du col du fémur existant pour augmenter le niveau de prédiction du risque de fracture. Nous proposons comme perspective l’utilisation de la méthode DORT pour déterminer les vitesses de phase des ondes circonférentielles dans le col du fémur à partir desquelles la géométrie et les propriétés matérielles de l'os pourraient être déduites.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Anker, Wolfram. "Représentation spatiale des risques de propagation des pollutions par hydrocarbures en milieu souterrain : application en milieu alluvial". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 1997. http://tel.archives-ouvertes.fr/tel-00825624.

Texto completo
Resumen
Ce travail de thèse est destiné à l'élaboration d'une méthodologie d'analyse des risques issus des pollutions accidentelles par hydrocarbures. Cette méthodologie s'appuie sur l'intégration d'outils de modélisation des phénomènes complexes de pollution des eaux souterraines par les LN APL ("Light Non Aqueous Phase Liquids"). En zone non saturée, il s'agit de représenter un écoulement polyphasique puisque les phases air, eau et huile coexistent. La modélisation de la propagation d'une pollution polyphasique se heurte aux limites dues aux nombreuses incertitudes introduites par les phénomènes de non-linéarité. Néanmoins, les échelles spatiales et temporelles sont plus petites qu'en zone saturée. De ce fait, 1' erreur introduite pour 1' estimation des risques est moins importante. En zone saturée, la propagation de la pollution se fait sous forme dissoute. Nous effectuons la simulation par approche hydrodispersive. Dans cette zone, la direction de propagation est essentiellement horizontale. Il est donc nécessaire de disposer d'un outil d'analyse spatiale pour estimer les risques de propagation. Pour obtenir une erreur homogène sur tout le trajet de propagation d'une pollution ponctuelle, il faut prendre en compte l'influence de l'échelle à laquelle les coefficients de dispersivité sont déterminés. A l'aide d'un système d'information géographique, les paramètres d'un site d'application test sont introduits dans les modèles hydrodynamiques. L'interprétation des résultats s'effectue par analyse spatiale pour représenter l'évolution spatio-temporelle de la propagation de la pollution.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Darmet, Natacha. "Prise en compte du risque de propagation de l'emballement thermique dans le développement des modules de batteries. Approche expérimentale tenant compte de la génération de gaz". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALI024.

Texto completo
Resumen
Dans le cadre de la transition énergétique, les batteries au lithium-ion prennent une place prépondérante, notamment dans l’optique du stockage et du transport. L’analyse des modes de défaillance montre que même si la probabilité reste faible, l’auto-emballement d’une batterie présente des conséquences à maitriser. Il est donc indispensable d’étudier les phénomènes menant à la propagation de l’emballement d’une cellule aux cellules voisines. Ainsi, cette thèse propose une évaluation fine des paramètres moteurs de la propagation de l’ dans un module de batteries. L’état actuel de l’état de l’art propose différentes approches basées sur une pluralité de méthodes de caractérisation. Cependant, certains mécanismes restent encore à approfondir via des mesures particulières à chaque étape de l’évènement.Tout d’abord, lors d’incidents, la matière présente dans la cellule réagit en produisant du gaz, sollicitant ainsi mécaniquement les parois de la cellule. Un dispositif expérimental de mesure de pression interne de la cellule a ainsi été développé, permettant un suivi operando de cette génération de gaz. Le couplage de cette mesure aux déformations des parois a confirmé par ailleurs l’impact non négligeable des phénomènes de gonflement des électrodes sur la tenue mécanique du godet.A partir d’une température critique, l’emballement thermique de la cellule lithium-ion se déclenche, suivi de l’éjection de matière (gaz, flamme, particules) à haute température. La dynamique de ce jet a été analysée, de sa genèse, dans la cellule, à son éjection par l’utilisation de capteurs de pression et caméras rapides à différents spectres.Des transferts thermiques s’opèrent ensuite entre les éjectas et les cellules proches, pouvant provoquer la propagation de l’emballement thermique. Afin de prévoir ces échanges thermiques, l’énergie libérée par la 1ere cellule a été caractérisée par calorimétrie selon différentes configurations. Puis, à partir de la connaissance de ce paramètre clef et de la dynamique d’éjection, un calcul de flux thermique émis a alors été proposé. Par ailleurs, l’observation aux rayons X de la matière active pendant l’évènement a mis en évidence le lien direct entre la cinétique de dégradation et la génération de gaz, tout en soulevant l’importance des particules de la cellule gâchette dans l’étude thermique des risques de propagation.Enfin, la propagation de l’emballement thermique entre cellules tout solide reconstituées a été évaluée expérimentalement, pour la première fois. Ces travaux ont démontré que la propagation est possible sur ces nouvelles technologies de batterie et que cette étude doit être approfondie
Lithium-ion batteries are playing a prominent role in the energy transition, particularly in terms of storage and transportation. The analysis of failure modes reveals that despite of a low probability, the battery self heating has consequences that requires mitigation. Studying the phenomena that lead to the propagation from a cell’s thermal runaway to neighboring cells is essential. The key parameters involved in the thermal runaway propagation for a battery module are evaluated in details in this thesis. Different approaches based on a plurality of characterization methods are proposed. Still, some mechanisms need further developments through specific measures at each stage of the phenomenon.When incidents occur, the cell’s materials react by producing gas, which mechanically affects the cell casing. An experimental device has been developed to measure the internal pressure of the cell, allowing an operando monitoring of this gas generation. The correlation of this measurement with the casing deformations also confirms the significant impact of electrode swelling on the casing’s mechanical strength.At a critical temperature, the lithium-ion cell initiates thermal runaway, which leads to the ejection of materials (gas, flame, particles) at high temperature. Pressure sensors and fast cameras at different spectra were used to analyze the jet dynamics, from its genesis in the cell to its ejection.Heat transfers then occur between the ejecta and surrounding cells, which can results in a thermal runaway propagation. Calorimetry was used to characterize the first cell in order to predict its thermal exchanges in different configurations. Then, based on the knowledge of this energy release and the jet dynamics, a calculation of the emitted heat flow is proposed. The X-rays observations of the active material during the thermal runaway propagation revealed that degradation kinetics and gas generation are linked. It also stresses the importance of trigger cell particles in the thermal propagation risks.Lastly, the thermal runaway propagation between rebuilt charged all-solid-states batteries cells were evaluated experimentally, for the first time. This research has demonstrated that the propagation is feasible with these new battery technologies. The study must be conducted further
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Laurent, Pierre. "Etude de la vitesse de propagation de l'onde de pouls : de la recherche expérimentale à la pratique clinique". Bordeaux 2, 1994. http://www.theses.fr/1994BOR2M132.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Delepine, Nicolas. "Modélisation des effets de site sismiques dans les bassins sédimentaires et influence des non-linéarités de comportement des sols". Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003827.

Texto completo
Resumen
linéarités de comportement des sols Cette thèse traite de la réponse locale de bassins sédimentaires à des mouvements sismiques faible et fort en utilisant la modélisation numérique (SEM et FEM). A faible niveau de distorsion, des configurations théoriques 3D et 2D sont prises en compte pour l'étude des effets de site linéaires: dans le cas de bassins 3D à symétrie de révolution, on identifie les conditions d'existence de la «résonance 3D» en fonction des paramètres géométriques et rhéologiques. Dans le cas 2D, la réponse sismique de deux vallées alpines est modélisée: les résultats sont cohérents avec les phénomènes observés dans la réalité. A fort niveau de distorsion, la formulation théorique 3D d'un modèle viscoélastique non linéaire (VNL) est proposée. Son implémentation par la méthode des éléments finis dans le cas 1 D permet de l'appliquer à un cas réel (Kushiro, 1993). Les résultats obtenus sont comparés à ceux d'autres modèles (linéaire équivalent et élastoplastique) et à l'enregistrement réel de surface.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Chandra, Johanes. "Analyses expérimentales de la réponse sismique non-linéaire du système sol-structure". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU023/document.

Texto completo
Resumen
La concentration de plus en plus importante de la population dans les milieux urbains exposés à une forte sismicité peut générer de plus en plus de dommages et de pertes. La réponse sismique en milieu urbain dépend des effets du site (direct amplification et non-linéarité du sol) et du couplage entre le sol et les structures (interaction sol-structure et site-ville). Par conséquent, la compréhension de la sismologie urbaine, c'est-à-dire le mouvement du sol intégrant l'environnement urbain, est critique pour réduire les dommages. Cela passe par la prédiction du mouvement du sol dans le milieu urbain, ingrédient fondamental à l'évaluation de l'aléa sismique. La prise en compte de l'amplification provoquée par la présence de sédiments est largement étudiée. Au contraire, la réponse non-linéarité du sol et du couplage entre le sol et la structure est rarement intégrée à la prédiction du mouvement du sol. A cause de leur complexité, ces problèmes ont toujours été abordés séparément. Dans ce contexte, cette thèse analyse la réponse non-linéaire du système sol-structure en intégrant la non-linéarité du sol et de l'interaction sol-structure. Deux travaux expérimentaux ont été conduits, avec comme but de proposer un proxy, rendant compte de la non-linéarité du sol. Le premier est l'essai en centrifugeuse qui reproduit à échelle réduite la réponse du sol et des structures. L'état de contrainte et de déformation est conservé en appliquant une accélération artificielle au modèle. Cet essai a été effectué à IFSTTAR Nantes dans le cadre de l'ANR ARVISE. Différentes configurations ont été testées, avec et sans bâtiments, sous différents niveaux de sollicitation, pour analyser la réponse du sol et des structures. Le deuxième utilise les enregistrements des réseaux accélérométriques verticaux de deux sites tests californiens : Garner Valley Downhole Arrat (GVDA) et Wildlife Liquefaction Array (WLA), gérés tout deux par l'Université de Californie, Santa Barbara (UCSB), Etats-Unis. La réponse in-situ est importante car elle décrit le comportement réel du site. Plusieurs informations décrivant les conditions de sites sont disponibles et les séismes enregistrés ont permis de tester plusieurs niveaux de déformations pour reconstruire la réponse globale de chaque site. De plus, le site GVDA est équipé d'une structure Soil-Foundation-Structure-Interaction (SFSI) qui a comme objectif d'étudier les problèmes d'interaction sol-structure. Dans les deux expériences, grace au réseau accélérométrique vertical dans le sol et la structure, on peut appliquer la méthode de propagation d'ondes 1D pour extraire la réponse de ces systèmes. Les ondes sont considérées comme des ondes SH qui se propage horizontalement dans une couche 1D. La méthode interférométrie sismique par déconvolution est appliquée pour extraire l'Impulse Response Function (IRF) du système 1D. On analyse ainsi la variation de Vs en fonction de la solliictation et à différente position dans le sol ainsi que la variation des éléments expliquant la réponse dynamique du système sol-structure. On propose au final un proxy de déformation permettant de rendre compte mais aussi de prédire la nonlinéarité des sols en fonction des niveaux sismiques subits
The concentration of population in urban areas in seismic-prone regions can generate more and more damages and losses. Seismic response in urban areas depends on site effects (direct amplification and nonlinearity of the soil) and the coupling between the soil and structures (soil-structure and site-city interaction). Therefore, the understanding of urban seismology, that is the ground motion incorporating the urban environment, is critical to reduce the damage. This requires the prediction of ground motion in urban areas, a fundamental element in the evaluation of the seismic hazard. Taking into account the amplification caused by the presence of sediment has been widely studied. However, the non-linearity of the soil and the coupling between the ground and the structure is seldom integrated to the prediction of the ground motion. Because of their complexity, these problems have been addressed separately. In this context, this dissertation analyzes the non-linear response of the soil-structure by integrating the non-linearity of the soil and the soil-structure interaction. Two experimental studies were performed, with the aim of providing a proxy that reflects the non-linearity of the soil. The first is the centrifuge test that reproduces the response of soil and structures at reduced scale. The state of stress and strain is conserved by applying an artificial acceleration model. This test was performed at IFSTTAR Nantes in the framework of the ANR ARVISE. Different configurations were tested with and without buildings, under different stress levels, to analyze the response of the soil and structures. The second uses the vertical accelerometric networks of two sites in California: Garner Valley Downhole (GVDA) and the Wildlife Liquefaction Array (WLA), both managed by the University of California, Santa Barbara (UCSB), USA. In-situ response is important since it describes the actual behavior of the site. Information describing the conditions of sites is widely available and the earthquakes recorded were used to test several levels of shaking to reconstruct the overall response of each site. In addition, the GVDA site is equipped with a Soil-Foundation-Structure-Interaction structure (SFSI) which aims to study the problems of soil-structure interaction. In both experiments, thanks to the vertical accelerometer network in the ground and the structure we are able to apply the 1D wave propagation method to extract the response of these systems. The waves are considered as an SH wave which propagates in a 1D horizontal layer. Seismic interferometry by deconvolution method is applied to extract the Impulse Response Function (IRF) of the 1D system. Thus the analysis of the variation in function of elastic properties of the soil and the structure is done under several magnitude of shaking, including variation in depth and the elements of the total response of the structure including the soil-structure interaction. At the end, a deformation proxy to evaluate and also to predict the nonlinear response of the soil, the structure and the soil-structure interaction is proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Houret, Thomas. "Méthode d’estimation des valeurs extrêmes des distributions de contraintes induites et de seuils de susceptibilité dans le cadre des études de durcissement et de vulnérabilité aux menaces électromagnétiques intentionnelles". Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0011.

Texto completo
Resumen
Une Interférence Electromagnétique Intentionnelle (IEMI) agressant un équipement électronique peut provoquer une défaillance de ce dernier. L’étude des effets d’une IEMI commence par l’évaluation du risque de défaillance afin de mettre en place les protections adéquates. Malheureusement, une prédiction déterministe d’une défaillance est impossible car les caractéristiques de l’équipement et de l’agression sont très incertaines. La stratégie proposée consiste à modéliser la contrainte générée par l’agression, ainsi que la susceptibilité de l’équipement, comme des variables aléatoires. Ensuite, trois étapes sont nécessaires. La première concerne l’estimation de la distribution probabiliste de la variable aléatoire de susceptibilité, la seconde porte sur celle de la contrainte, pour enfin, dans une troisième étape, en déduire la probabilité de défaillance. Pour la première étape, nous utilisons des méthodes d’inférence statistique sur un petit échantillon de seuils de susceptibilités mesurés. Nous comparons deux types d’inférence paramétrique : bayésienne et celle du maximum de vraisemblance. Nous concluons qu’une approche pertinente pour l'analyse du risque CEM consiste à utiliser les intervalles de confiance ou de crédibilité des estimations des paramètres pour encadrer la probabilité de défaillance, quelle que soit la méthode d’inférence choisie. Pour la deuxième étape, nous explorons les techniques de recherche de valeurs extrêmes tout en réduisant le nombre de simulations nécessaires. En particulier, nous proposons la technique de la stratification contrôlée par un métamodèle de krigeage. Nous montrons que cette technique améliore drastiquement les performances par rapport à l’approche classique (simulation Monte Carlo). De plus, nous proposons une implémentation particulière de cette technique afin de maitriser le coût de calcul. Enfin, la troisième étape est la plus simple une fois les deux premières franchies puisque, par définition, une défaillance survient lorsque la contrainte est supérieure à la susceptibilité. A partir d’un cas test final comportant la simulation de l’agression d’un équipement et de données de susceptibilité de cet équipement, nous calculons un encadrement de la probabilité de défaillance en recourant aux méthodes développées pendant cette thèse. En particulier, nous montrons que l’utilisation conjointe de la stratification contrôlée par le krigeage et de l’inférence de la distribution de la susceptibilité permet effectivement d’encadrer l’estimation de la vraie probabilité de défaillance
Intentional ElectroMagnetic Interference (IEMI) can cause equipment failure. The study of the effects of an IEMI begins with an assessment of the risk of equipment failure in order to implement appropriate protections, if required. Unfortunately, a deterministic prediction of a failure is impossible because both characteristics of equipment and of the aggression are very uncertain. The proposed strategy consists of modelling the stress generated by the aggression, as well as the susceptibility of the equipment, as random variables. Then, three steps are necessary: The first step deals with the estimation of the probability distribution of the random susceptibility variable. The second step deals with the similar estimation for the constraint / stress then that of the stress. Eventually, the third step concerns the calculation of the probability of failure. For the first step, we use statistical inference methods on a small sample of measured susceptibility thresholds. We compare two types of parametric inference: bayesian and maximum likelihood. We conclude that a relevant approach for a risk analysis is to use the confidence or credibility intervals of parameter estimates to frame the probability of failure, regardless of the inference method chosen. For the second step we explore extreme value exploration techniques while reducing the number of simulations required. In particular, we propose the technique of Controlled Stratification by Kriging. We show that this technique drastically improves performance compared to the classic approach (Monte Carlo simulation). In addition, we propose a particular implementation of this technique in order to control the calculation effort. Finally, the third step is the simplest once the first two steps have been completed since, by definition, a failure occurs when the stress is greater than the susceptibility. With the help of a final test case comprising the simulation of an electromagnetic aggression on a piece of equipment, we use the method developed in our work to estimate the frame of the probability of failure, More specifically, we show that the combined use of controlled stratification by kriging and inference of susceptibility distribution, allows to frame the estimated true value of the probability of failure
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Okhulkova, Tatiana. "Integration of uncertainty and definition of critical thresholds for CO2 storage risk assessment". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC021/document.

Texto completo
Resumen
L'objectif principal de la thèse est de définir comment l'incertitude peut être prise en compte dans leprocessus d'évaluation des risques pour le stockage de CO2 et de quantifier, à l'aide de modèles numériques,les scénarios de fuite par migration latérale et à travers la couverture. Les scénarios choisis sont quantifiéspar l'approche de modélisation de système pour laquelle des modèles numériques prédictifs ad-hoc sontdéveloppés. Une étude probabiliste de propagation d'incertitude paramétrique par un méta-modèle depolynômes de chaos est réalisée. La problématique de la prise en compte de la variabilité spatiale comme unesource d'incertitude est éclairée et une étude comparative entre représentations homogène et hétérogène de laperméabilité est fournie
The main goal of the thesis is to define how the uncertainty can be accounted for in the process of riskassessment for CO2 storage and to quantify by means of numerical models the scenarii of leakage by lateralmigration and through the caprock. The chosen scenarii are quantified using the system modeling approachfor which ad-hoc predictive numerical models are developed. A probabilistic parametric uncertaintypropagation study using polynomial chaos expansion is performed. Matters of spatial variability are alsodiscussed and a comparison between homogeneous and heterogeneous representations of permeability isprovided
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Diab, Ahmad. "Study of the nonlinear properties and propagation characteristics of the uterine electrical activity during pregnancy and labor". Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2140/document.

Texto completo
Resumen
L'EMG utérin appelé Electrohystérogramme (EHG) a été exploité depuis longtemps par ses caractéristiques temporelles, fréquentielles, et temps-fréquence, pour la prédiction de l'accouchement prématuré, tandis que l'étude de sa propagation est rare. Tous les résultats des études antérieures n'ont pas montré un potentiel satisfaisant pour une application clinique. L'objectif de cette thèse est l'analyse de la propagation ainsi que de la non-linéarité des signaux EHG pendant la grossesse et le travail en vue d'une application clinique. Une analyse monovariée a été faite pour étudier la non-linéarité et la sensibilité des méthodes aux différentes caractéristiques des signaux. Une analyse bivariée a ensuite été menée pour l‟étude de la propagation de l‟EHG, en mesurant le couplage entre les voies ainsi que la direction de couplage, ce qui est une nouveauté de notre thèse. Dans cette analyse, nous proposons une approche de filtrage-fenêtrage pour améliorer les méthodes d'estimation du couplage et de sa direction. Une autre nouveauté de cette thèse est l'implantation d'un outil de localisation de source d'EHG pour étudier la dynamique de l'utérus au niveau de la source, et non pas au niveau des électrodes comme fait dans les études précédentes. Les résultats montrent que les méthodes non linéaires sont plus capables que les méthodes linéaires, de classifier les contractions de grossesse et de travail. La méthode de réversibilité de temps est la moins sensible à la fréquence d'échantillonnage et au contenu fréquentiel du signal. Les résultats indiquent également une augmentation de couplage et une concentration des directions vers le col de l‟utérus, en allant de la grossesse vers le travail. En respectant la non-stationnarité des signaux EHG et en se libérant de l'effet de filtrage de la graisse, très variable durant la grossesse et entre les différentes femmes, notre méthode de filtrage-fenêtrage (segmentation et filtrage du signal EHG pour ne garder que la composant FWL), améliore les performances des méthodes de connectivité. L'intensité des sources localisées et leur nombre sont plus élevés durant le travail que durant la grossesse. Les sources localisées sont actives et propagées durant le travail alors que durant la grossesse elles restent faibles et localisées. Une amélioration de la matrice d'électrodes du protocole expérimental de rat a été effectuée par le développement d'une électrode à succion. Ce protocole pourra ensuite être utilisé pour la validation de nos méthodes et celle du modèle électrophysiologique
The uterine EMG -called Electrohysterogramme (EHG)- temporal, frequency, and time-frequency characteristics have been used for a long time for the prediction of preterm labor. However, the investigation of its propagation is rare. All the results of the previous studies did not show a satisfactory potential for clinical application. The objective of this thesis is the analysis of the propagation as well as of the nonlinear characteristics of EHG signals during pregnancy and labor for clinical application. A monovariate analysis was done to investigate the nonlinearity and the sensibility of methods to different characteristics of the signals. A bivariate analysis was then done for the investigation of the propagation of EHG by measuring the coupling between channels, as well as the direction of coupling, which is an innovative part of our thesis. In this analysis we propose a new approach to improve the coupling and direction estimation methods. Another innovation of this thesis is the implementation of a tool for EHG source localization to investigate the dynamic of the uterus at the source level, not at electrodes level as previously done. Results show that nonlinear methods are more able to classify pregnancy and labor contractions than linear ones, and that time reversibility method is the least sensitive to sampling frequency and frequency content of the signal. Results also indicate an increase in coupling and a concentration of coupling direction toward the cervix when going from pregnancy to labor. We also proposed to respect the nonstationarity of EHG signal and to recover the effect of variable fat filtering along pregnancy, by segmenting and filtering the EHG in its FWL component. This filtering-windowing approach permits to improve the performances of connectivity methods. Finally, the intensity of localized sources and their number is higher in labor than in pregnancy contractions. The identified sources are more active and more propagated in labor whereas in pregnancy they remain weak and local. An improvement in the electrode matrix of the rat experimental protocol has also been done by developing a suction electrode. This protocol can then be used for the validation of our methods and of the electrophysiological model
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Boukraa, Lotfi. "Simulation of wireless propagation in a high-rise building". Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2004. http://library.nps.navy.mil/uhtbin/hyperion/04Dec%5FBoukraa.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Diquélou, Laurent. "Propagation des signaux sur les lignes d'énergie électrique : étude des risques de compromission par rayonnement". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10052.

Texto completo
Resumen
L’objectif de cette thèse était d’étudier la possibilité de compromissions électromagnétiques par le rayonnement des lignes d’énergie électrique. Nous nous sommes concentrés sur deux cas de figure. Le premier, à l’intérieur de bâtiments, concerne la technologie CPL « courant porteur en ligne ». Le second, en extérieur, sur un site industriel, porte sur la problématique de la propagation et du rayonnement de signaux caractéristiques d’un matériel industriel.Dans le premier cas, nous détaillons les mécanismes mis en jeu dans le rayonnement des câbles « basse tension » (BT) par la mesure et la modélisation. On distingue deux canaux de propagation. Le premier « filaire » correspond au canal usuel d’une liaison CPL entre deux modems. Le second est le canal « sans fil », qui correspond à la réception, aux bornes d’une antenne magnétique, d’une injection en mode différentiel sur 2 fils du câble. Ces deux types de canaux de propagation sont caractérisés expérimentalement, ce qui permet de déduire grâce à un logiciel les possibilités de décodage de l’information portée par le rayonnement compromettant. Dans le second cas, qui prend en compte les lignes « haute tension » (HT), nous considérons les fonctions de transfert successives du courant, associées à la propagation sur les lignes BT, au passage du transformateur BT/HT, puis à la propagation sur les lignes HT. Des modélisations ont été réalisées à l’aide du logiciel commercial EMTP, dont les résultats ont été comparés aux mesures expérimentales obtenues au cours de ce travail. Le rayonnement des lignes HT est abordé tant d’un point de vue théorique qu’expérimental
The aim of this thesis was to study the possibility for power lines to emit compromising electromagnetic radiations. We focused on two cases. The first one was inside buildings, on PLC “Power Line Communication”. The second one was outside, on an industrial site, and about propagation and radiation of the characteristic signals produced by an industrial material.In the first case, we describe, measuring and modeling, the mechanisms involved in radiation cable Low Voltage (LV). There are two channels of propagation. The first is "wired" and the usual channel of a PLC link between two modems. The second channel is "wireless", which corresponds to the reception, across a magnetic antenna, of a differential injection of 2 lines of the cable. Both types of propagation channels are characterized experimentally, which enable us to deduced, using software, the decoding possibility of the information carried out by the compromising emanations.In the second case, considering "High Voltage" (HV) lines, we studies the successive transfer functions of the current associated with the spread on LV lines, crossing the transformer LV / HV, and then spreading on HV lines. Modelings were performed using commercial software EMTP. The results were compared with experimental measurements obtained during our study. HV lines radiations are discussed both from a theoretical and an experimental perspective
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Fang, Chao. "Modélisation et Analyse de Propagation dans un Réseau Complexe de Risques : Un système D'aide à la Décision Pour la Gestion des Risques Projet". Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00699953.

Texto completo
Resumen
La gestion des risques projet est une activité cruciale dans le management de projet. Aujourd'hui, les projets sont confrontés à une complexité croissante et sont ainsi exposés à de nombreux risques interdépendants. Cependant, les méthodes classiques ont des limites pour la modélisation de la complexité réelle des risques du projet. Par exemple, certains phénomènes comme les réactions en chaîne et des boucles ne sont pas correctement pris en compte. Cette thèse de doctorat vise à analyser le comportement du réseau de risques projet grâce à la modélisation des risques et des interactions entre risques. Un système d'aide à la décision est introduit avec une série de méthodes associées. La construction du réseau de risques projet nécessite l'implication du manager de projet et l'équipe d'experts en utilisant la méthode Design Structure Matrix (DSM). Des techniques basées sur la simulation et la théorie des réseaux sont développées pour analyser et hiérarchiser les risques du projet, en regard de leur rôle et leur importance dans le réseau des risques. L'approche proposée constitue un puissant complément à l'analyse classique des risques projet. Ces nouvelles analyses fournissent aux managers de projet une meilleure vision sur les risques et sur leurs interactions complexes et les aident à élaborer des réponses plus efficaces. Prenant en compte les contraintes de ressources, un algorithme glouton et un algorithme génétique sont développés pour optimiser le plan de réponse aux risques et l'allocation des réserves budgétaires. Deux exemples d'application, 1) à un projet réel de mise en scène musicale dans l'industrie du divertissement et 2) à un projet réel de construction d'un système de transport urbain, sont présentés pour illustrer l'utilité du système d'aide à la décision proposé.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Alileche, Nassim. "Etude des effets dominos sur une zone industrielle". Thesis, Rouen, INSA, 2015. http://www.theses.fr/2015ISAM0013.

Texto completo
Resumen
Les effets dominos ou cascade d’événements dans les industries et particulièrement dans les industries chimiques et de transformation, sont reconnus comme des scénarios d’accidents possibles depuis environ trois décennies. Ils représentent une préoccupation croissante, car ils ont le potentiel de provoquer des conséquences dévastatrices. L’effet domino, comme phénomène, est un sujet controversé lorsque son évaluation est nécessaire. L’examen de la bibliographie a démontré l’absence d’une définition commune et d’une procédure simple d’utilisation et précise pour son appréciation. C’est pourquoi l’un des objectifs de cette recherche est de formaliser les connaissances relatives aux effets dominos afin de comprendre les mécanismes de leurs occurrences. Pour ce faire nous avons étudié les paramètres à examiner pour déterminer la possibilité de cascade et être en mesure d’identifier les scénarios dominos. L’enjeu étant de permettre l’amélioration de la prévention du risque d’effet domino. L’autre objectif est donc de produire une méthode pour l’identification et l’analyse des effets dominos. Nous avons développé une méthodologie globale pour l’étude des effets dominos en chaîne initiés par des pertes de confinement. Elle permet l’identification et la hiérarchisation des chemins de propagation des accidents. Cette méthode facilite la prise de décision pour la prévention des effets dominos, tout en proposant un outil efficace et simple d’utilisation. Les résultats de l’étude sont fournis sous forme d’une hiérarchisation quantitative des équipements impliqués dans les scénarios dominos, en tenant compte des effets des conditions météorologiques et des mesures de maîtrise des risques existantes ou proposées.Cette hiérarchisation donne une idée claire des dangers que représentent les équipements par rapport aux accidents en cascade, en précisant si la dangerosité de l’équipement provient de sa capacité à initier ou à propager un effet de cascade.La méthode est basée sur une description topographique de la zone étudiée, incluant les caractéristiques de chaque équipement, et prend en compte les mesures de maîtrise des risques mises en œuvre par l’industriel. Elle repose sur deux phases principales : La première, est l’identification des chemins de propagation des accidents. Pour ce faire, la méthode d’analyse par arbre d’événements est utilisée. Les cibles potentielles sont déterminées en combinant les valeurs seuils d’escalade et les modèles de vulnérabilité (pour l’estimation de la probabilité d’endommagement). Cette première phase est implémentée sous MATLAB® et Visual Basic for Applications (VBA) afin de faciliter l’entrée des données, et l’analyse des résultats dans Microsoft Excel®. La deuxième phase est l’identification des équipements les plus dangereux vis-à-vis des effets dominos. Elle consiste à hiérarchiser les équipements impliqués dans les chemins de propagation, en fonction de leur vraisemblance à causer ou à propager un effet domino. L’algorithme qui effectue cette phase est codé sous VBA. La méthode a été conçue de façon à ce qu’elle puisse être utilisée sans qu’il soit nécessaire de s’appuyer sur les résultats des études de dangers. Néanmoins, si ces résultats sont disponibles, il est alors possible d’alléger certaines étapes de la méthode. Elle s’est révélée facile à utiliser, cela a été constaté lors de son application dans le cadre de projets et stages d’étudiants
Domino effects or cascading events in the chemical and process industries are recognized as credible accident scenarios since three decades. They are raising a growing concern, as they have the potential to cause catastrophic consequences. Domino effect, as phenomenon, is still a controversial topic when coming to its assessment. There is still a poor agreement on the definition of domino effect and its assessment procedures. A number of different definitions and approaches are proposed in technical standards and in the scientific literature. Therefore, one of this research objectives is to formalize domino effects knowledges in order to comprehend their occurrence mechanisms. Thus, the parameters that should be looked at so as to understand the escalation possibility and in order to identify domino scenarios, were analyzed. The aim is to improve domino effect hazards prevention, through the development of a methodology for the identification and the analysis of domino effects.We developed a method for the analysis of domino accident chain caused by loss of containments. It allow the identification and prioritization of accident propagation paths. The method is user-friendly and help decision making regarding the prevention of cascading events. The final outcomes of the model are given in form of quantitative rankings of equipment involved in domino scenarios, taking into account the effect of meteorological conditions and safety barriers. The rankings give a clear idea of equipment hazard for initiating or continuing cascading events.The methodology is based on a topography of the industrial area of concern, including the characteristics of each unit and accounting for protection and mitigation barriers. It is based on two main stages. The first is the identification of accident propagation paths. For this, the event tree method is used. The possible targets are identified combining the escalation thresholds and vulnerability models (to estimate damage probability). This first stage was implemented using the MATLAB® software and Visual Basic for Applications (VBA) to enable an easy input procedure and output analysis in Microsoft Excel®.The second stage is the identification of the most dangerous equipment. It consists in prioritizing equipment involved in the propagation paths according to their likelihood to cause/propagate domino effect. The algorithm that performs this phase was coded in VBA.The method was designed so as it can be used without the need to rely on the results of safety reports. However, if such results are available, it is possible to lighten some steps of the method. It revealed easy to apply, this was confirmed through projects and student internships
Gli effetti domino, in cui un primo incidente causa in cascata altri scenari incidentali, sono tragli scenari incidentali più severi che avvengono nell’industria chimica. Nonostante l’attenzioneche anche la normativa dedica a tali scenari, la valutazione dell’effetto domino è un soggettocontroverso. L’analisi della letteratura tecnica e scientifica ha mostrato l’assenza di unadefinizione comune di « effetto domino » e di una semplice procedura per l’identificazione ditali scenari. È per tale motivo che uno degli obiettivi di questo lavoro di ricerca è diformalizzare le conoscenze relative agli effetti domino al fine di meglio comprendere imeccanismi che possono provocarli. A tal proposito sono stati studiati i parametri necessariper determinare la possibilità dell’insorgere di cascate di eventi e per essere in grado diidentificare i possibili scenari incidentali dovuti ad effetto domino. L’obiettivo finale del lavoroè stato di sviluppare un metodo per l’identificazione e l’analisi quantitativa della propagazionedi incidenti primari nell’ambito di scenari dovuti ad effetto domino.E’ stata sviluppata una metodologia generale per l’analisi degli effetti domino causati daperdite di confinamento. Tale metodologia permette l’identificazione e la classificazione deipercorsi di propagazione degli incidenti. Tale metodo facilita inoltre la prevenzione deglieffetti domino, proponendo uno strumento efficace e semplice da utilizzare.I risultati di questo studio sono forniti in forma di una classificazione delle apparecchiaturecoinvolte in scenari dovuti ad effetto domino, tenendo conto degli effetti delle condizionimeteorologiche e delle misure esistenti per la gestione del rischio. Tale classificazione fornisceanche un chiara idea dei pericoli rappresentati dalle singole apparecchiature nel caso diincidenti in cascata, in quanto precisando se la pericolosità delle attrezzature proviene dallaloro capacità di innescare o propagare un reazione a catena.Il metodo è basato su una descrizione topografica del sito studiato, che comprende anche lecaratteristiche di ogni attrezzatura, che tiene conto delle misure di gestione dei rischi e dellebarriere di sicurezza presenti, basato su due fasi principali. La prima è l’identificazione deipercorsi di propagazione degli incidenti. A tale scopo è stato utilizzato un metodo basatoVIsull’albero degli eventi. I potenziali bersagli vengono determinati combinando i valori di sogliaper la propagazione degli eventi ed i modelli di vulnerabilità delle apparecchiature. Questaprima fase è implementata in MATLAB® e Visual Basic for Applications (VBA) in modo dafacilitare la gestione dei dati e l’analisi dei risultati in Microsoft Excel®.La seconda fase è l’identificazione delle apparecchiature più pericolose per gli effetti domino.Tale fase consiste nel classificare le apparecchiature coinvolte nei percorsi di propagazione infunzione della loro capacità di causare o propagare un effetto domino. L’algoritmo dedicato inquesta fase è eseguito su VBA.I risultati ottenuti anche nell’applicazione ad un caso di studio hanno evidenziato le potenzialitàdel metodo, che rappresenta un significativo progresso nell’analisi quantitativa dell’effetto domino
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Da, Silva Garcia Bruna. "Analyse des mécanismes d'interaction entre un bloc rocheux et un versant de propagation : application à l'ingénierie". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI062/document.

Texto completo
Resumen
De nombreuses incertitudes liées aux mécanismes d'interaction entre les blocs rocheux et le versant naturel lors des chutes de blocs persistent ; la prévision de tels événements reste de ce fait encore incertaine. Néanmoins, les outils numériques et la puissance de calcul ne cessent d'évoluer. Si, auparavant, les calculs trajectographiques étaient restreints à des géométries simplifiées et à des mouvements balistiques en deux dimensions, il devient désormais possible d'y intégrer des raffinements tels que la forme complexe des blocs, des modèles numériques tridimensionnels de terrain d’une grande définition ou une prise en compte fine des mécanismes dissipatifs au niveau du point d'impact entre le bloc et le versant de propagation.L’objectif principal de la thèse est d’analyser, avec un code numérique discret en trois dimensions, l’influence des paramètres de forme et d’interaction sur la nature du rebond dans un contexte d’ingénierie. Nous présentons tout d’abord une méthodologie d'identification et d'étude de sensibilité des paramètres de contact, élaborée et validée à partir d’expérimentations de laboratoire. Cette méthodologie a été appliquée par la suite à deux expérimentations de chute de blocs menées sur sites réels à moyenne et à grande échelle.L’étude réalisée à moyenne échelle a permis de confronter le modèle numérique à des données obtenues lors d'une campagne expérimentale sur voies ferroviaires commanditée par la SNCF et menée en collaboration avec IRSTEA. Les analyses qui ont été réalisées ont porté sur les vitesses d’impact des blocs avec le ballast et les distances de propagation.L’étude menée à grande échelle s’appuie sur plusieurs séries de lâchés de blocs réalisées sur le site expérimental de la carrière d'Authume dans le cadre d’un Benchmark proposé dans le cadre du Projet National C2ROP. L’objectif principal du Benchmark est de tester et de comparer entre eux des logiciels trajectographiques, des codes de calculs numériques et les pratiques d’ingénierie pour en définir la pertinence et les domaines de validité. Dans le cadre de la thèse, ce travail a été conduit en plusieurs phases (à l’aveugle puis avec des données partielles mesurées lors de la campagne d'essais) et nous présentons l'évolution de ces analyses à l'issue de chacune des phases. L’étude a porté principalement sur les vitesses, les hauteurs et les énergies de passage des blocs en certains points du profil de propagation, ainsi que sur les positions d’arrêt des blocs. Une étude sur l'influence de la forme des blocs sur les distances de propagations est également présentée.Enfin, un Benchmark interne réalisé au sein de l'entreprise IMSRN montre l’importance, sur les analyses, de l'expertise de l'opérateur, et des conséquences de l'utilisation de différents outils trajectographiques (en 2D et en 3D). Ces travaux mettent en lumière les problématiques actuelles auxquelles sont souvent confrontés les bureaux d'études et les ingénieurs en charge des études de risques
Numerous uncertainties related to the machanical interaction between rock boulders and the natural slope during block falls persist; and the forecast of such events is therefore still uncertain. Nevertheless, digital tools and computing power are constantly evolving. Previously, trajectory calculations were restricted to simplified geometries and two-dimensional ballistic movements, but it is now possible to incorporate refinements such as the complex shape of the blocks, three-dimensional numerical models of terrain of large sizes, as well as a better accounting of the dissipative mechanisms at the point of impact between the block and the run-out slope.The main objective of this work is to analyze, with a discrete elements code in three dimensions, the influence of the shape and interaction parameters on the nature of the rebound in an engineering context. We first present a methodology for identifying and studying the sensitivity of contact parameters, developed and validated from laboratory experiments. This methodology was subsequently applied to two block fall experiments conducted on medium and large real-scale scenarios.The study conducted on a medium scale allowed the numerical model to be compared with data obtained during an experimental rockfall tests campaign commissioned by the SNCF and conducted in collaboration with IRSTEA in a railway. The analyzes that were carried out mainly focused on the impact velocities of the blocks with ballast and propagation distances.The large-scale study is based on a series of block releases performed at the experimental site (Authume quarry, France) as part of a Benchmark proposed inside the National Project C2ROP. The mainly goal of this Benchmark is to access and compare trajectory softwares, numerical computation codes and engineering practices to define their relevance and validity domains. As part of the thesis, this work was conducted in several phases (blind phase and then conducted taking in account partial data measured during the experimental tests) and we present the evolution of these analyzes at the end of each one of these phases. The study focused on the velocities, heights and energies of the blocks at certain points of the propagation profile, as well as on the stopping positions of the blocks. The influence of block shapes on run-out distances is also presented.Lastly, an internal Benchmark performed within the IMSRN company shows the importance, on the analyzes, of the expertise of the operator, and the consequences derived from the application of different trajectography tools (in 2D and in 3D). This work highlights the current issues that are often faced by engineering offices and engineers in charge of risk quantification
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Boulanger, Rémi. "La prise de feu et la génération d'incendie en milieu pyrotechnique ; propagation dans un environnement à risques". Poitiers, 1999. http://www.theses.fr/1999POIT2290.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Kaya, Yildirim. "Simulation of wireless propagation and jamming in a high-rise building". Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2005. http://library.nps.navy.mil/uhtbin/hyperion/05Sep%5FKaya.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Despontin-Monsarrat, Emmanuelle. "Aide à la décision pour la coopération inter-entreprises dans le cadre de la production à la commande". Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00008466.

Texto completo
Resumen
Ce travail propose une méthode d'aide à la coopération inter-entreprises dans un contexte de production à la commande. L'objectif est de tendre les flux de production inter-entreprises grâce à une coopération entre les décideurs de chaque entreprise. L'approche retenue assimile le problème d'organisation globale à un processus de décision distribuée dans lequel l'organisation est progressivement construite par un ensemble de coopérations entre des couples d'acteurs du réseau d'entreprises. Nous étudions en particulier les couples d'entreprises client-fournisseur pour lesquels la coopération concerne les attributs des commandes passées entre eux. Nos objectifs sont de fournir aux décideurs un cadre plus formel qui contractualise la coopération et des outils d'aide à la décision pour la coopération permettant de les assister dans les diverses phases du processus.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Roullé, Agathe. "Etude du mouvement sismique dans la vallée de Mexico à partir d'un réseau accélérométrique 3D de faible ouverture dans la colonia Roma". Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/ROULLE_Agathe_2004.pdf.

Texto completo
Resumen
La ville de Mexico est connue pour les importants effets de site observables dans son ancienne zone lacustre et dus à la présence d'une couche d'argile molle superficielle. Ces effets de site se traduisent en particulier par une amplification importante du mouvement sismique (pouvant aller jusqu'à un facteur 50 entre 0. 3 et 1 Hz) entre la zone lacustre et la zone de collines. De plus, dans la zone lacustre, la durée du mouvement sismique est anormalement longue. Malgré l'installation de plus de 100 accélérographes dans la vallée de Mexico depuis le tremblement de terre de Michoacán de 1985 (M=8. 1), nous ne sommes toujours pas en mesure de comprendre la relation entre l'amplification du mouvement sismique et sa longue durée. Afin d'améliorer notre compréhension du champ d'ondes observé dans la ville de Mexico, nous avons donc réalisé une analyse systématique de ses paramètres de propagation à partir d'un réseau accélérographique 3D de faible ouverture nouvellement installé dans un quartier localisé dans la zone lacustre, la colonia Roma. En 2001, 11 nouveaux accélérographes ont été installés autour d'un réseau géré par le CENAPRED et appelé "réseau Roma". Le réseau complet (anciennes stations + nouvelles stations) forme un réseau 3D de faible ouverture (moins de 1 km), constitué de 15 stations de surface et 6 de puits, et disposant d'une base de temps absolu. Depuis son installation, ce réseau a permis d'enregistrer deux séismes : le séisme de Coyuca, dans l'état du Guerrero, le 08/10/2001 (M=6. 1) et le séisme de Colima (M=7. 6) du 22/01/2003. Cette thèse présente les résultats obtenus lors de l'analyse de ces deux séismes. En raison de la complexité du champ d'ondes à étudier, la première étape du travail a consisté à choisir une méthode d'analyse de données adaptée au cas de Mexico. Pour cela, trois méthodes ont été testées : la méthode fréquence-nombre d'onde (f-k) conventionnelle, la méthode f-k haute résolution, et la méthode MUSIC. Les tests ont été réalisés à partir de données synthétiques et d'enregistrements sismologiques réalisés par deux réseaux distincts : le nouveau réseau de la colonia Roma et un réseau temporaire installé en 1994 dans la zone de collines. Les tests ont démontré que la méthode f-k conventionnelle, plus robuste en cas de données peu cohérentes, était la mieux adaptée à notre cas. Afin d'estimer en détail les paramètres du champ d'ondes enregistré dans la colonia Roma, nous avons combiné plusieurs méthodes d'analyse: analyse visuelle des enregistrements, rapports spectraux, analyse temps-fréquence des données enregistrées en surface, analyse temps-fréquence basée sur une méthode de corrélation pour le jeu de données 3D, et analyse de polarisation. Les résultats ont montré la différence de comportement sismique de part et d'autre de la période de résonance du site à 2. 5 s. Pour les périodes supérieures à 2. 5 s, le champ d'ondes se compose d'une succession de trains d'ondes correspondants au mode fondamental d'ondes de surface venant de l'épicentre et à des ondes diffractées probablement formées au niveau de la frontière sud de l'Axe Volcanique Transmexicain. A 5 s de période, on observe une amplification régionale du mouvement sismique caractérisée par une domination des ondes de Love. Pour les périodes inférieures à 2. 5 s, le mouvement sismique est gouverné par la résonance de la couche d'argile superficielle. Le champ d'ondes consiste alors en une superposition d'ondes diffractées provenant de l'Ouest de la vallée. Les résultats suggèrent une interaction constructive entre la résonance locale due à la couche d'argile molle et les modes successifs de propagation des ondes de surface guidées par la structure crustale profonde du bassin de Mexico
The seismic motion in the lake-bed zone of Mexico City is affected by strong site effects due to the presence of a soft surficial clay layer. These site effects are, in particular, responsible for an important amplification of ground motion, which can reach a factor 50 for periods between 0. 3 and 1 Hz, between the lake-bed zone and the hill zone. We also can observe a large duration of strong ground motion in this area. Despite the installation of more than 100 new digital strong motion stations in Mexico City after 1985, only little progress have been done towards understanding the relation between the amplification of ground motion in the lake-bed zone and the large duration of seismic motion. In order to improve our comprehension of the observed wavefield in Mexico City, we have realized a systematic analysis of its characteristics from the records of a small aperture 3D array installed in 2001 in the colonia Roma, in the lake-bed zone of the city. In 2001, it has been decided to install 11 new accelerometers in the colonia Roma, a district located the lake-bed zone of the city, near an existing array operated by CENAPRED and known as "the Roma array". Together with the existing stations, these new instruments form a 3D array of small aperture (less than 1 km), with 15 surface and 6 borehole stations. Since its installation, this new array recorded the 10/08/2001 Coyuca event, Guerrero, (M=6. 1) and the 01/22/2003 Colima (M=7. 6) event. [. . . ]
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Lhomme, Serge. "Les réseaux techniques comme vecteur de propagation des risques en milieu urbain - Une contribution théorique et pratique à l'analyse de la résilience urbaine". Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00772204.

Texto completo
Resumen
Les réseaux techniques sont des infrastructures critiques qui peuvent être vulnérables aux inondations. Leur bon fonctionnement représente donc un enjeu majeur pour la gestion des risques et des territoires. Cette recherche postule que l'analyse de la résilience des réseaux techniques constitue un préalable nécessaire, mais non suffisant, à la mise en place de politiques d'amélioration de la résilience urbaine face aux inondations. Une méthodologie d'analyse de la résilience des réseaux techniques est proposée. Elle requiert l'analyse des capacités de résistance, d'absorption et de récupération de ces réseaux. Dans ce cadre, des développements ont été réalisés afin d'analyser les propriétés structurelles des réseaux techniques, les interdépendances entre les réseaux techniques et la remise en service de ces réseaux. Ces développements reposent principalement sur la théorie des graphes, les méthodes issues de la Sûreté de Fonctionnement, l'optimisation linéaire et l'analyse spatiale. Enfin, un prototype web-SIG a été développé puis appliqué à la ville de Dublin.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Carladous, Simon. "Approche intégrée d’aide à la décision basée sur la propagation de l’imperfection de l’information – application à l’efficacité des mesures de protection torrentielle". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEM008/document.

Texto completo
Resumen
Depuis le 19ème siècle, de nombreux dispositifs de protection ont été implantés en montagne pour réduire le risque torrentiel. L'évaluation multi-échelle de leur efficacité est nécessaire pour comparer et choisir les stratégies de maintenance et de gestion de l’occupation des sols. Le chapitre I met en évidence les ambiguïtés du concept d’efficacité évalué selon plusieurs critères dans un contexte d’information imparfaite, issue de sources multiples, inégalement fiables. Pour aider l’évaluation multidimensionnelle, le problème de décision est décomposé en plusieurs sous-problèmes formulés, modélisés, traités puis intégrés. L’état de l’art du chapitre II permet de retenir les méthodes de la sûreté de fonctionnement (SdF) et d'aide à la décision (AD) basées sur le Raisonnement Évidentiel, associant les ensembles flous, les possibilités, les fonctions de croyance et la fusion d’information pour traiter chaque problème. Le chapitre III explicite le concept d'efficacité puis propose une adaptation des méthodes de la SdF à la formulation multi-échelle des problèmes. Le chapitre IV adapte les méthodes d'AD basées sur le Raisonnement Évidentiel, les améliore pour mieux représenter la connaissance disponible et évaluer la qualité d’une décision, et les associe. Le chapitre V propose une méthodologie séquentielle qui intègre ces méthodes pour évaluer les mesures de protection, de l’échelle de l’ouvrage à celle du bassin d’enjeux. Enfin, le chapitre VI discute les résultats, identifie les apports respectifs de l'intégration et des nouvelles méthodes, puis décrit les perspectives de déploiement opérationnel de la méthodologie développée
Many torrential protective check dams have been built in French mountainous areas since the 19th century. They aim to reduce risk in torrential watersheds. Analysis of their effectiveness is needed to assess residual risk and to choose the best maintenance strategy in a context of reduced budgets. Chapter I introduces main issues due both to definition of effectiveness concept and also the several criteria and system scales that have to be assessed. Moreover, required expertise is based on imperfect information, provided by several sources with different reliability levels. To help such decisions, this thesis proposes to break down general assessment into several smaller decision-making problems. In chapter II, dependability analysis tools and Evidential Reasoning based-decision-aiding methods (ER-DAMs), using fuzzy sets and possibility theories, are chosen to help individual decisions. Chapters III to V then introduce new developments. Effectiveness concept is first defined. A multi-scale dependability analysis helps to describe each decision-making problem. ER-DAMs are then adapted to help effectiveness assessment at each system’s scale. Technical improvements are provided to these methods for a better knowledge representation and final decision. Improved methods are then associated. Finally, individual problems and associated methods are integrated in a generic methodology to help torrential protective measures’ effectiveness assessment at watershed scale. The last chapter VI focuses on discussion of integrative aspects and of ER-DAMs’ specific developments. It gives some elements to improve methods but also to help operational implementation of the generic methodology
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Davila, Sylvie. "Etude de l'influence de la virulence des souches de peste procine classique, sur les risques de propagation de la maladie. Etude de l'immunopathogénicité d'une souche moyennement virulente". Rennes 1, 2004. http://www.theses.fr/2004REN10096.

Texto completo
Resumen
La Peste Porcine Classique est une maladie infectieuse virale ayant un grand impact économique sur l’industrie porcine. Les isolats récents sont suspectés être des souches de virulence modérée rendant le diagnostic difficile augmentant ainsi le risque de propagation de la maladie. L’étude de l’influence de la virulence sur la propagation de la maladie en calculant le taux de reproduction de base (R0) ont confirmé : l’influence de la virulence sur le R0 et le haut niveau de contagion en intra-parc. Les porcs infectés présentent une leucopénie et une atrophie des organes lymphoi͏̈des qui semble être causé par l’apoptose indirecte des lymphocytes. L’apoptose induite par une souche moyennement virulente dans le sang et la mise en place d’un modèle in vitro de co-culture ont révélé: 1) une leucopénie dès les premières 48 heures accompagnée d’une apoptose des cellules de la périphérie sanguine, 2) la nécessité d’un contact cellulaire pour induire l’apoptose.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Jaber, Hadi. "Modeling and analysis of propagation risks in complex projects : application to the development of new vehicles". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC022/document.

Texto completo
Resumen
La gestion de projets complexes nécessite d’orchestrer la coopération de centaines de personnes provenant de diverses entreprises, professions et compétences, de travailler sur des milliers d'activités, livrables, objectifs, actions, décisions et risques. En outre, ces nombreux éléments du projet sont de plus en plus interconnectés, et aucune décision ou action n’est indépendante. Cette complexité croissante est l'un des plus grands défis de la gestion de projet et l'une des causes de l'échec du projet en termes de dépassements de coûts et des retards. Par exemple, dans l'industrie automobile, l'augmentation de l'orientation du marché et de la complexité croissante des véhicules a changé la structure de gestion des projets de développement de nouveaux véhicules à partir d'une structure hiérarchique à une structure en réseau, y compris le constructeur, mais aussi de nombreux fournisseurs. Les dépendances entre les éléments du projet augmentent les risques, car les problèmes dans un élément peuvent se propager à d'autres éléments qui en dépendent directement ou indirectement. La complexité génère un certain nombre de phénomènes, positifs ou négatifs, isolés ou en chaînes, locaux ou globaux, qui vont plus ou moins interférer avec la convergence du projet vers ses objectifs.L'objectif de la thèse est donc de réduire les risques associés à la complexité des projets véhicules en augmentant la compréhension de cette complexité et de la coordination des acteurs du projet. Pour ce faire, une première question de recherche est de prioriser les actions pour atténuer les risques liés à la complexité. Puis, une seconde question de recherche est de proposer un moyen d'organiser et de coordonner les acteurs afin de faire face efficacement avec les phénomènes liés à la complexité identifiés précédemment.La première question sera abordée par la modélisation de complexité du projet en analysant les phénomènes liés à la complexité dans le projet, à deux niveaux. Tout d'abord, une modélisation descriptive de haut niveau basée facteur est proposé. Elle permet de mesurer et de prioriser les zones de projet où la complexité peut avoir le plus d'impact. Deuxièmement, une modélisation de bas niveau basée sur les graphes est proposée. Elle permet de modéliser plus finement les éléments du projet et leurs interdépendances. Des contributions ont été faites sur le processus complet de modélisation, y compris l'automatisation de certaines étapes de collecte de données, afin d'augmenter les performances et la diminution de l'effort et le risque d'erreur. Ces deux modèles peuvent être utilisés en conséquence; une première mesure de haut niveau peut permettre de se concentrer sur certains aspects du projet, où la modélisation de bas niveau sera appliquée, avec un gain global d'efficacité et d'impact. Basé sur ces modèles, certaines contributions sont faites pour anticiper le comportement potentiel du projet. Des analyses topologiques et de propagation sont proposées pour détecter et hiérarchiser les éléments essentiels et les interdépendances critiques, tout en élargissant le sens du mot polysémique "critique".La deuxième question de recherche sera traitée en introduisant une méthodologie de « Clustering » pour proposer des groupes d'acteurs dans les projets de développement de nouveaux produits, en particulier pour les acteurs impliqués dans de nombreuses interdépendances liées aux livrables à différentes phases du cycle de vie du projet. Cela permet d'accroître la coordination entre les acteurs interdépendants qui ne sont pas toujours formellement reliés par la structure hiérarchique de l'organisation du projet. Cela permet à l'organisation du projet d’être effectivement plus proche de la structure en « réseau » qu’elle devrait avoir. L'application industrielle aux projets de développement de nouveaux véhicules a montré des résultats prometteurs pour les contributions aux deux questions de recherche
The management of complex projects requires orchestrating the cooperation of hundreds of individuals from various companies, professions and backgrounds, working on thousands of activities, deliverables, and risks. As well, these numerous project elements are more and more interconnected, and no decision or action is independent. This growing complexity is one of the greatest challenges of project management and one of the causes for project failure in terms of cost overruns and time delays. For instance, in the automotive industry, increasing market orientation and growing complexity of automotive product has changed the management structure of the vehicle development projects from a hierarchical to a networked structure, including the manufacturer but also numerous suppliers. Dependencies between project elements increase risks, since problems in one element may propagate to other directly or indirectly dependent elements. Complexity generates a number of phenomena, positive or negative, isolated or in chains, local or global, that will more or less interfere with the convergence of the project towards its goals. The thesis aim is thus to reduce the risks associated with the complexity of the vehicle development projects by increasing the understanding of this complexity and the coordination of project actors. To do so, a first research question is to prioritize actions to mitigate complexity-related risks. Then, a second research question is to propose a way to organize and coordinate actors in order to cope efficiently with the previously identified complexity-related phenomena.The first question will be addressed by modeling project complexity and by analyzing complexity-related phenomena within the project, at two levels. First, a high-level factor-based descriptive modeling is proposed. It permits to measure and prioritize project areas where complexity may have the most impact. Second, a low-level graph-based modeling is proposed, based on the finer modeling of project elements and interdependencies. Contributions have been made on the complete modeling process, including the automation of some data-gathering steps, in order to increase performance and decrease effort and error risk. These two models can be used consequently; a first high-level measure can permit to focus on some areas of the project, where the low-level modeling will be applied, with a gain of global efficiency and impact. Based on these models, some contributions are made to anticipate potential behavior of the project. Topological and propagation analyses are proposed to detect and prioritize critical elements and critical interdependencies, while enlarging the sense of the polysemous word “critical."The second research question will be addressed by introducing a clustering methodology to propose groups of actors in new product development projects, especially for the actors involved in many deliverable-related interdependencies in different phases of the project life cycle. This permits to increase coordination between interdependent actors who are not always formally connected via the hierarchical structure of the project organization. This allows the project organization to be actually closer to what a networked structure should be. The automotive-based industrial application has shown promising results for the contributions to both research questions. Finally, the proposed methodology is discussed in terms of genericity and seems to be applicable to a wide set of complex projects for decision support
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Amitrano, Davide. "Emission acoustique des roches et endommagement : approches experimentale et numerique, application a la sismicite miniere". Grenoble 1, 1999. http://www.theses.fr/1999GRE10002.

Texto completo
Resumen
Lors de la sollicitation mecanique des roches, la propagation de fissures provoque l'emission d'une onde acoustique (ea) ainsi qu'une modification des proprietes elastiques du materiau. L'ea est donc un moyen direct pour etudier l'evolution de l'endommagement, depuis le stade diffus jusqu'a celui ou il se localise pour former une discontinuite macroscopique. L'ea est egalement consideree comme un modele a petite echelle de la sismicite induite par les travaux souterrains ou de celle de la croute terrestre. En effet, on observe a ces differentes echelles des distributions en loi puissance (exposant b) qui indiquent une invariance d'echelle. La premiere partie de ce travail est consacree a une etude experimentale de l'ea du granite du sidobre en compression triaxiale. Nous montrons que l'ea est liee a un comportement macroscopique non lineaire et peut etre utilisee comme un estimateur de l'endommagement. L'augmentation de la pression de confinement rend le comportement mecanique plus ductile et fait diminuer l'exposant b. Nous proposons, dans la deuxieme partie, un modele numerique base sur l'endommagement elastique et sur la methode des elements finis. Ce modele permet de simuler les principales observations concernant l'ea et le comportement des roches. En particulier, il permet de simuler un comportement macroscopique allant du fragile avec un endommagement localise au ductile avec un endommagement diffus avec un seul parametre de controle : l'angle de frottement interne. En utilisant des valeurs experimentales de ce parametre, nous parvenons a simuler les transitions fragile-ductile et localise-diffus observees lorsque la pression de confinement augmente. La troisieme partie concerne l'etude de la sismicite induite dans une mine. Le caractere critique de la distribution de la taille des seismes est propose comme un critere de surveillance du risque sismique. La relation entre l'exposant b et la dimension de correlation spatiale des sources sismiques est etudiee.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Bazzoli, Sébastien. "Caractérisation et simulation de la susceptibilité des circuits intégrés face aux risques d'inductions engendrées par des micro-ondes de forte puissance". Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Bazzoli.pdf.

Texto completo
Resumen
Cette thèse a pour objectif de comprendre les phénomènes pouvant apparaître sur les circuits imprimés lorsqu'ils sont soumis à des interférences provenant de sources Micro-ondes de Fortes Puissances. Le couplage de ces ondes électromagnétiques sur les éléments conducteurs peut donner naissance à des perturbations de plusieurs volts à des fréquences de l'ordre du GHz, il est alors possible que les lignes de plusieurs centimètres connectées aux composants entrent en résonance. Ce phénomène est très pénalisant pour le fonctionnement du système. Pour reproduire ce type de contrainte, nous exploitons le couplage par diaphonie entre deux lignes de transmission parallèles qui permet d'induire une perturbation assimilable à l'illumination rasante d'une onde plane. A l'aide de ce dispositif, nous étudions le comportement d'une ligne de transmission lorsqu'elle est connectée à un composant non linéaire tout d'abord réduit à une diode, nous regarderons plus particulièrement les phénomènes survenant aux abords des résonances quart d'onde et demi onde. Ces observations sont ensuite étendues au cas d'un circuit intégré logique simple de type inverseur puis à un composant programmable de technologie évoluée. Cette étude, complétée par des mesures de susceptibilité réalisées sur ces composant connectés à une ligne perturbée, a permis de mettre en évidence l'impact des protections contre les décharges électrostatiques sur la sensibilité des composants. D'autre part, nous montrons que l'impédance de sortie des circuits intégrés est également un paramètre qui influe fortement la susceptibilité du composant placé en aval. Enfin, une étude prospective sur des logiciels de simulation usuels disponibles au laboratoire a permis d'appréhender les difficultés et les contraintes d'une prédiction numérique de la sensibilité des systèmes électroniques, nous montrons que pour prendre en considérations les phénomènes décrits précédemment, une solution temporelle est préférable aux approches classiques abordées dans le domaine fréquentiel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Meyer, Arnd y Peter Steinhorst. "Modellierung und Numerik wachsender Risse bei piezoelektrischem Material". Universitätsbibliothek Chemnitz, 2010. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-qucosa-61981.

Texto completo
Resumen
Zur numerischen Simulation piezoelektrischer Probleme mit linearem Materialgesetz wird die adaptive Finite-Element-Methode genutzt. Bei der Lösung der entstehenden Gleichungssysteme vom Sattelpunktstyp wird auf eine Variante des Bramble-Pasciak-CG zurückgegriffen. Die Einbettung von Projektionstechniken in den Löser erlaubt eine Behandlung von verschiedenen Problembesonderheiten, speziell wird hier auf die Fälle konstanten Potentials auf Teilrändern sowie Kontaktprobleme an wachsenden Rissen eingegangen. Erste numerische Ergebnisse werden an einigen Beispielen demonstriert.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Woesteland, Alexandre. "Contribution à l'étude de la propagation d'ondes électromagnétiques utilisées dans un système de localisation pour les transports guides : étude des risques de couplage entre voies à différentes fréquences". Lille 1, 1994. http://www.theses.fr/1994LIL10102.

Texto completo
Resumen
Les nouvelles méthodes de localisation des véhicules guidés utilisent intensivement les propriétés des ondes électromagnétiques. Dans le cas de balises de localisation, il est nécessaire d'étudier la sélectivité spatiale du rayonnement des dispositifs embarqués, ou de voies, vis-a-vis des équipements situés sur la voie adjacente. Ceci permet de quantifier les risques de diaphonie entre voies. Dans ce travail de thèse, nous avons tout d'abord étudié et caractérisé le rayonnement d'un dispositif utilisant à l'émission une fréquence de 1 GHz en développant des réseaux à antennes plaquées. Puis, nous avons réalisé une étude à une fréquence plus basse (10 MHz) afin de comparer les performances respectives de chaque modèle. L'avantage apporté par le dispositif fonctionnant à une fréquence basse, utilisant une transmission en champ magnétique, n'est pas sans incidence sur les risques de perturbation entre voies. En effet, il faut tenir compte de certains types de pannes comme, par exemple, une rupture de connexion dans la transition entre le câble de liaison et le système d'antennes positionné sous la caisse du véhicule. La suite de notre travail a donc consisté à montrer et à quantifier les configurations les plus pénalisantes, au niveau de la diaphonie entre voies, lorsqu'une défaillance intervient dans un des éléments du système : le câble de liaison. Nos études théoriques ont toutes fait l'objet de vérifications expérimentales. Les difficultés de mesures rencontrées au laboratoire ont été atténuées en se rendant sur un site ferroviaire pour procéder aux expériences de facon plus objective
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Dutozia, Jérôme. "Espaces à enjeux et effets de réseaux dans les systèmes de risques". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00785772.

Texto completo
Resumen
Les territoires sont innervés par une multitude de réseaux sur lesquels se sont construits les modes de vie modernes et le fonctionnement de la société tout entière; cette dépendance de la société à leur égard se double d'une interdépendance entre les territoires eux-mêmes puisque de par leur structure, les réseaux d'énergie, de télécommunication, d'assainissement ou de circulation intègrent des territoires distincts dans un système commun. Ainsi peut-on poser l'hypothèse que le développement de réseaux va de pair avec le développement de la vulnérabilité des territoires. Cette interdépendance multi-niveau des territoires et des réseaux tend à complexifier les situations à risque et place l'anticipation de systèmes de risques et la détection des espaces à enjeux, dans un contexte de très forte incertitude. L'incomplétude, l'imprécision et l'incertitude autour de la connaissance rétrospective, spatiale et technique de ces systèmes de risques contraignent d'autant plus cette démarche. Malgré cela, pour parvenir à un niveau de prédictibilité et d'anticipation satisfaisant, la modélisation spatiale des systèmes de risque doit alors être capable d'intégrer différents types d'effets dominos et d'envisager les nombreuses trajectoires possibles de la diffusion spatiale des impacts d'un aléa. Dans ce cadre possibiliste, la modélisation spatiale des systèmes de risques et la détection des espaces à enjeux s'appuient sur l'articulation originale de quatre concepts liés à l'analyse des risques et la stabilité des systèmes : la susceptibilité, la criticité, la résilience et la dépendance, que nous avons regroupées sous l'acronyme SCReD. L'estimation de ces propriétés territoriales est réalisée à partir de traitements géomatiques permettant de prendre en compte l'incertitude et l'imprécision, et aboutit à une délimitation des espaces à risques, influencée notamment par les concepts d'espaces géographiques flous. La démarche, orientée à la fois vers le théorique et l'opérationnel, repose sur la compréhension des liens entre vulnérabilité des territoires, vulnérabilité des réseaux et vulnérabilité des populations. Ces méthodes sont appliquées de manière rétrospective aux cas de Barcelone et du département du Var, et dans une logique anticipative et de détection des espaces à enjeux dans le cas de Marseille. Les systèmes de risques associés à ces applications peuvent être d'une complexité variable et déclenchés par différents types d'aléas ; dans le cas de Barcelone, l'évènement est initialement une coupure électrique, dans le cas du Var, on considère également les interactions du système territoire-réseau avec les aléas naturels incendies et tempêtes de neige, alors que pour le cas Marseillais, les systèmes de risques sont initiés par une inondation. Progressivement, au fil des exemples proposés, la complexité des méthodes de spatialisation des systèmes de risques s'accroit en prenant en compte l'incertitude et l'imprécision de manière de plus en plus explicite. Les résultats apparaissent alors plus nuancés, les limites spatiales des systèmes de risques s'estompent et perdent en termes de netteté ce qu'elles gagnent en termes d'exactitude.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Toe, David. "Etude de l’influence des peuplements forestiers de type taillis sur la propagation des blocs rocheux". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU023/document.

Texto completo
Resumen
L'objectif principal de ce travail de thèse est d'améliorer la prise en compte des peuplements de taillis dans les logiciels d'analyse trajectographique.Dans un premier temps, un modèle numérique permettant de créer des peuplements virtuels de taillis à l'échelle du versant a été développé et validé sur la base d'inventaires forestiers réalisés dans des taillis.Deux modèles numériques permettant de simuler des impacts de blocs sur des franc pieds et des cépées ont été également développés en utilisant la Méthode des Éléments Discrets (MED).Ces modèles ont été calibrés par des essais d'impact sur des tiges de hêtre.Ils permettent d'intégrer l'influence du houppier et du système racinaire, de modéliser explicitement le contact entre le bloc et les tiges impactées, et d'intégrer les non-linéarités matérielles (rupture des tiges, délaminage) se développant dans le tronc au cours de l'impact.Ces travaux ont conduit à la construction d'un modèle trajectographique MED permettant de simuler la propagation d'un bloc dans une forêt de taillis à l'échelle du versant. Finalement, le rôle protecteur de différents peuplements de taillis contre l'aléa de chute de bloc a été caractérisé à l'aide de ce modèle
This research work is dedicated to improve the integration of coppice stands in rockfall analyses.First, a model was built to create virtual coppice stands. This model was validated using field inventories in coppice stands.Two numerical models were developed to simulate impacts of blocks on single trees and coppice stools using the Discrete Elements Method (MED).These models were calibrated using laboratory impact tests on beech stems.They account for the influence of the root system and of the crown on the tree dynamic response, the explicit modeling of the contact between the block and the impacted stem and the non-linearity evolution into the trunk during impact.Finally, a DEM rockfall software was developed to model rockfall propagation in coppice stands.The protective role against rockfall hazard of different coppice stands was characterized with this model
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Coudoro, Kodjo. "Etude expérimentale et modélisation de la propagation de flammes en milieu confiné et semi confiné". Thesis, Orléans, 2012. http://www.theses.fr/2012ORLE2005.

Texto completo
Resumen
Cette étude s’inscrit dans le cadre de l’évaluation du risque d’accélération de flamme en situation accidentelle. La méthodologie développée dans le cadre de l’évaluation du risque hydrogène dans l’industrie nucléaire a permis de proposer un critère permettant d’évaluer le risque d’accélération des flammes de prémélange hydrogène/air/diluants, sur la base des propriétés du mélange. L’objectif de cette étude est l’acquisition de données fondamentales relatives aux mélanges gaz naturel/air et gaz de synthèse/air puis l’extension de la méthodologie appliquée aux mélanges hydrogène/air à ces mélanges. Ainsi, trois mélanges gazeux ont été choisis et ont fait l’objet de cette étude. Il s’agit du G27 (82%CH4/18%N2), du G222 (77%CH4/23%H2), et du H2/CO (50%H2/50%CO). Au cours de ce travail les limites d’inflammabilités des mélanges ont été déterminées pour une température initiale de 300 K et une pression de 1 et 2 bars. Les vitesses fondamentales de flamme et les longueurs de Markstein ont été mesurées à différentes températures initiales (300, 330 et 360 K) et à deux pressions initiales (1 et 2 bar) pour chacun des mélanges. Une modélisation cinétique de la vitesse de flamme a été réalisée et a permis l’évaluation de l’énergie d’activation globale sur la base du modèle cinétique présentant le meilleur accord avec l’expérience. La propension des mélanges a s’accélérer fortement en présence d’obstacles a ensuite été caractérisée au cours de l’étude de l’accélération de flamme. Cette étude de l’accélération de flamme a permis de mettre en évidence que différents critères d’accélération s’appliquent selon que la flamme soit stable ou pas. Un critère permettant de prédire l’accélération de flamme a été proposée dans les deux cas
The context of the current study is the assessment of the occurrence of flame acceleration in accidental situations. The methodology developed for the assessment of hydrogen hazard in the nuclear industry led to the definition of a criterion for the prediction of the acceleration potential of a hydrogen/air/dilutant mixture based on its properties. This study aims to extend this methodology to gaseous mixtures that can be encountered in the classical industry. Therefore, three mixtures were chosen: the first two are representatives of a natural gas/air mixture: G27 (82%CH4/18%N2) and G222 (77%CH4/23%H2). The third one is a H2/CO (50%H2/50%CO) mixture and represents the Syngas. During this work, flammability limits were measured at 300 K and two initial pressures (1 and 2 bar) for each mixture. Fundamental flame speeds and Markstein lengths were also measured at three initial temperatures (300, 330, 360 K) and 2 initial pressures (1 and 2 bar) for each mixtures. A kinetic modeling was performed based on three detailed kinetic models and allowed the calculation of the global activation energy on the basis of the kinetic model which showed the best agreement with the experimental data. The acceleration potential for each mixture in presence of obstacles has then been investigated. It was found that different criteria were to be applied depending on whether the flame is stable or not. A predicting criterion was proposed in both case
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Picot, Alexis. "2P optogenetics : simulation and modeling for optimized thermal dissipation and current integration Temperature rise under two-photon optogenetics brain stimulation". Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB227.

Texto completo
Resumen
Depuis maintenant quinze ans, l’optogénétique a bouleversé la recherche en neurosciences en permettant de contrôler les circuits neuronaux. Le développement récent de plusieurs approches d’illumination, combinées à de nouvelles protéines photosensibles, les opsines, ont permis d’ouvrir une voie vers le contrôle neuronale avec la précision de la cellule unique. L’ambition nouvelle d’utiliser ces approches afin d’activer des dizaines, centaines, milliers de cellules in vivo a soulevé de nombreuses questions, notamment concernant les possibles dégâts photoinduits et l’optimisation du choix du couple illumination/opsine. Lors de mon doctorat, j’ai conçu une simulation vérifiée expérimentalement qui permet de calculer, dans toutes les conditions actuelles d’illumination, quel sera l’échauffement au sein du tissus cérébral dû à l’absorption de la lumière par le cerveau. Parallèlement, j’ai paramétré à partir de données expérimentales des modèles de dynamique des populations, à partir d’enregistrements d’électrophysiologie, qui permettent de simuler les courants intracellulaires observés lors de ces photostimulations, pour trois protéines différentes. Ces modèles permettront les chercheurs d’optimiser leurs protocoles d’illumination afin de garantir l’échauffement le plus faible possible dans l’échantillon, tout en favorisant des dynamiques de photocourant adaptées aux besoins expérimentaux
Over the past fifteen years, optogenetics has revolutionized neuroscience research by enabling control of neuronal circuits. The recent development of several illumination approaches, combined with new photosensitive proteins, opsins, have paved the way to neuronal control with the single-cell precision. The new ambition to use these approaches in order to activate tens, hundreds, thousands of cells in vivo has raised many questions, in particular concerning the possible photoinduced damages and the optimization of the choice of the illumination / opsin couple. During my PhD, I developed an experimentally verified simulation that calculates, under all actual illumination protocols, what will be the temperature rise in the brain tissue due to the absorption of light. In parallel, I modeled, from electrophysiology recordings, the intracellular currents observed during these photostimulations, for three different opsins, allowing me to simulate them. These models will allow the researchers to optimize their illumination protocols to keep heating as low as possible in the sample, while helping to generate optimized photocurrent dynamics according to experimental requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Mühle, Volker. "Theoretische und numerische Untersuchungen zu morphologischen Übergängen beim Rißwachstum". Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2000. http://nbn-resolving.de/urn:nbn:de:swb:14-993117114171-16728.

Texto completo
Resumen
In dieser Arbeit wird die Strukturbildung beim Risswachstum im stationären und instationärem Temperaturfeld im Rahmen der linear-elastischen Bruchmechanik analysiert und numerisch mittels der Methode der finiten Elemente (FEM) untersucht. Die beim langsamen Eintauchen eines heißen schmalen Glasstreifens in kaltes Wasser mit wachsender Temperaturdifferenz oder Eintauchgeschwindigkeit beobachteten Übergänge zwischen keinem, einem geraden und einem oszillierenden Riss werden in ein morphologisches Diagramm eingetragen und die Art des Überganges zur oszillierenden Rissausbreitung bestimmt. Die theoretischen Ergebnisse werden mit Experimenten verschiedener Autoren verglichen. Gleichartige Untersuchungen werden für die Ausbreitung mehrerer Risse durchgeführt. Beim Abschrecken einer erwärmten breiten Probe entstehen hierarchisch geordnete Risslängenstrukturen. Das Skalenverhalten der Rissdichte in Abhängigkeit von der Risslänge wird untersucht. Die Theorie liefert ohne Fitparameter eine sehr gute Übereinstimmung mit dem Experiment
This paper investigates the formation of crack patterns in stationary and transient temperature fields analytically with linear elastic fracture mechanics and numerically with the finite elements method (FEM). In particular, we consider the experimental situation of a narrow thin strip of hot glass slowly lowered into cold water, with temperature difference and velocity as variable parameters. The parameter regions of no crack, one straight crack and one oscillating crack are determined. The type of phase transition related to the borderline between straight and oscillating crack is characterized. The theoretical results are compared with those of other authors. Similar investigations and comparisions are done for the propagation of multiple cracks. Quenching of a wide thin strip leads to a hierarchy of cracks whose scaling properties are analyzed. Without any fitting, theory and experiment agree surprisingly well
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Mühle, Volker. "Theoretische und numerische Untersuchungen zu morphologischen Übergängen beim Rißwachstum". Doctoral thesis, Technische Universität Dresden, 1999. https://tud.qucosa.de/id/qucosa%3A24726.

Texto completo
Resumen
In dieser Arbeit wird die Strukturbildung beim Risswachstum im stationären und instationärem Temperaturfeld im Rahmen der linear-elastischen Bruchmechanik analysiert und numerisch mittels der Methode der finiten Elemente (FEM) untersucht. Die beim langsamen Eintauchen eines heißen schmalen Glasstreifens in kaltes Wasser mit wachsender Temperaturdifferenz oder Eintauchgeschwindigkeit beobachteten Übergänge zwischen keinem, einem geraden und einem oszillierenden Riss werden in ein morphologisches Diagramm eingetragen und die Art des Überganges zur oszillierenden Rissausbreitung bestimmt. Die theoretischen Ergebnisse werden mit Experimenten verschiedener Autoren verglichen. Gleichartige Untersuchungen werden für die Ausbreitung mehrerer Risse durchgeführt. Beim Abschrecken einer erwärmten breiten Probe entstehen hierarchisch geordnete Risslängenstrukturen. Das Skalenverhalten der Rissdichte in Abhängigkeit von der Risslänge wird untersucht. Die Theorie liefert ohne Fitparameter eine sehr gute Übereinstimmung mit dem Experiment.
This paper investigates the formation of crack patterns in stationary and transient temperature fields analytically with linear elastic fracture mechanics and numerically with the finite elements method (FEM). In particular, we consider the experimental situation of a narrow thin strip of hot glass slowly lowered into cold water, with temperature difference and velocity as variable parameters. The parameter regions of no crack, one straight crack and one oscillating crack are determined. The type of phase transition related to the borderline between straight and oscillating crack is characterized. The theoretical results are compared with those of other authors. Similar investigations and comparisions are done for the propagation of multiple cracks. Quenching of a wide thin strip leads to a hierarchy of cracks whose scaling properties are analyzed. Without any fitting, theory and experiment agree surprisingly well.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Nekkab, Narimane. "Spread of hospital-acquired infections and emerging multidrug resistant enterobacteriaceae in healthcare networks : assessment of the role of interfacility patient transfers on infection risks and control measures". Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1180/document.

Texto completo
Resumen
The spread of healthcare-associated infections (HAIs) and multi-drug resistance in healthcare networks is a major public health issue. Evaluating the role of inter-facility patient transfers that form the structure of these networks may provide insights on novel infection control measures. Identifying novel infection control strategies is especially important for multi-drug resistant pathogens such as Carbapenemase-producing Enterobacteriaceae (CPE) due to limited treatment options. The increasing use of inter-individual contact and inter-facility transfer network data in mathematical modelling of HAI spread has helped these models become more realistic; however, they remain limited to a few settings and pathogens. The main objectives of this thesis were two-fold: 1) to better understand the structure of the healthcare networks of France and their impact on HAI spread dynamics; and 2) to assess the role of transfers on the spread of CPE in France during the 2012 to 2015 period. The French healthcare networks are characterized by centralized patient flows towards hubs hospitals and a two-tier community clustering structure. We also found that networks of patients with HAIs form the same underlying structure as that of the general patient population. The number of CPE episodes have increased over time in France and projections estimate that the number of monthly episodes could continue to increase with seasonal peaks in October. The general patient network was used to show that, since 2012, patient transfers have played an increasingly important role over time in the spread of CPE in France. Multiple spreading events of CPE linked to patient transfers were also observed. Despite subtle differences in the flows of patients with an HAI and the general patient population, the general patient network may best inform novel infection control measures for pathogen spread. The structure of healthcare networks may help serve as a basis for novel infection control strategies to tackle HAIs in general but also CPE in particular. Key healthcare hubs in large metropoles and key patient flows connecting hospital communities at the local and regional level should be considered in the development of coordinated regional strategies to control pathogen spread in healthcare systems
La propagation des infections nosocomiales (IN), notamment liées aux bactéries multi-résistantes, au sein du réseau des hôpitaux, est un grand enjeu de santé publique. L’évaluation du rôle joué par les transferts inter-établissements des patients sur cette propagation pourrait permettre l’élaboration de nouvelles mesures de contrôle. L’identification de nouvelles mesures de contrôle est particulièrement importante pour les bactéries résistantes aux antibiotiques comme les entérobactéries productrices de carbapenemase (EPC) pour lesquelles les possibilités de traitement sont très limitées. L’utilisation des données de réseaux de contact inter-individus et de transferts inter-établissement dans la modélisation mathématique ont rendu ces modèles plus proches de la réalité. Toutefois, ces derniers restent limités à quelques milieux hospitaliers et quelques pathogènes. La thèse a eu pour objectifs de 1) mieux comprendre la structure des réseaux hospitaliers français et leur impact sur la propagation des IN ; et 2) évaluer le rôle des transferts sur la propagation des EPC.Les réseaux hospitaliers français sont caractérisés par des flux de patients vers des hubs et par deux niveaux de communautés des hôpitaux. La structure du réseau de transfert des patients présentant une IN n’est pas différente de celle du réseau général de transfert des patients. Au cours des dernières années, le nombre d’épisode d’EPC a augmenté en France et les prédictions prévoient une poursuite de cette augmentation, avec des pics de saisonnalité en octobre. Ce travail a également montré que, depuis 2012, les transferts de patients jouent avec les années un rôle de plus en plus important sur la diffusion des EPC en France. Des évènements de propagation multiple liée aux transferts sont également de plus en plus souvent observés.En conséquence, la structure du réseau des hôpitaux pourrait servir de base pour la proposition des nouvelles stratégies de contrôles des IN en général, et des EPC en particulier. Les hôpitaux très connectés des grandes métropoles et les flux des patients entre les communautés locale et régionale doivent être considérés pour le développement de mesures de contrôle coordonnées entre établissements de santé
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Bzduch, Pavel. "Využití počítačové grafiky v silnoproudé elektrotechnice". Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2008. http://www.nusl.cz/ntk/nusl-217593.

Texto completo
Resumen
The aim of this work is to describe news in Autodesk Inventor Professional 2008. In second part of the work there are described the possibilities of technical drawing in Autodesk Inventor. In third part there is mentioned basic information about ANSYS Workbench. There is thermal simulation of asynchronous motor too.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Nefzi, Amani. "Analysis and dosimetry of the coupling of electromagnetic waves with biological tissues : application to applicator design for biomedical and study of health effects". Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0011.

Texto completo
Resumen
L’évolution et l’utilisation croissante des systèmes de communications mobiles sont associées à des études en laboratoire pour s’assurer de l’innocuité d’une exposition aux ondes électromagnétiques radiofréquences. Dans ce contexte, ce mémoire se concentre sur la caractérisation de systèmes d'exposition permettant des études en laboratoire sur des modèles cellulaires in vitro. Une double approche, numérique et expérimentale, est mise en œuvre pour réaliser la dosimétrie de ces dispositifs, afin de déterminer et maîtriser les niveaux d’exposition. Une des problématiques liées à cette dosimétrie est due aux dimensions micrométriques mises en jeu. Aussi, une technique de microscopie basée sur un marqueur fluorescent dépendant de la température, nommé Rhodamine B, a été mise en place et évaluée. Il ressort de cette évaluation une recommandation sur la concentration du marqueur de l’ordre de 50 μM. Après calibration, il est alors possible d’estimer le débit d’absorption spécifique (DAS) à partir de la variation de température, et ce même pour de faibles niveaux de DAS (< W/kg) avec une résolution spatiale inférieure à la dizaine de micron. On parle alors de microdosimétrie. Les deux principaux systèmes d’exposition étudiés, basés sur des réseaux de microélectrodes (MEA), permettent l’enregistrement d’une activité électrophysiologie de neurones. L’exposition aux ondes électromagnétiques est réalisée simultanément en insérant ces MEA dans des cellules TEM. De la dosimétrie effectuée à 1.8GHz, il ressort une plus forte sensibilité du premier MEA à son environnement. On a montré que les modifications apportées au second MEA, taille de l’ouverture et plan de masse, ont permis de limiter de façon significative l’influence de l’environnement. La microdosimétrie a mis en évidence une bonne homogénéité du DAS entre les électrodes avec une valeur estimée à 7±1W/kg pour1W incident. Enfin, un dispositif d'exposition microfluidique basé sur un guide d'ondes coplanaire a été caractérisé en conditions statiques
The evolution and increasing use of mobile communications systems was associated with laboratory investigations to study radiofrequency electromagnetic waves exposure safety. In this context, this thesis focuses on the characterization of exposure systems allowinglaboratory in vitro studies on cell models. A dual numerical and experimental approach is implemented to perform the devices dosimetry allowing to determine and control the exposure levels. One of the limitations associated with this dosimetry is due to the micrometric dimensions involved. Therefore, a microscopy technique based on a temperature-dependent fluorescent dye named Rhodamine B was set up and evaluated. This assessment recommends an optimal concentration of the dye at around 50 μM. After calibration, it is possible to estimate the specific absorption rate (SAR) from the temperature variation, even for low levels of SAR (< W / kg) with a spatial resolution of less than ten micrometers i.e. microdosimetry. The two main exposure systems studied, based on microelectrode arrays (MEA), allow the recording of neurons electrophysiological activity. Exposure to electromagnetic waves is achieved simultaneously by inserting these MEAs into TEM cells exposure systems. Dosimetry carried out at 1.8 GHz shows a higher sensitivity of one MEA to its environment. It was shown that the modifications made to the second MEA such as its aperture size and ground planes, have reduced the proximity environment influence. The microdosimetry demonstrated good homogeneity of the SAR between the electrodes with an estimated value of 7 ± 1 W / kgfor 1 W incident power. Finally, a microfluidic exposure device based on a coplanar waveguide was characterized under static conditions
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Deobarro, Mikaël. "Etude de l'immunité des circuits intégrés face aux agressions électromagnétiques : proposition d'une méthode de prédiction des couplages des perturbations en mode conduit". Thesis, Toulouse, INSA, 2011. http://www.theses.fr/2011ISAT0002/document.

Texto completo
Resumen
Avec les progrès technologiques réalisés au cours de ces dernières décennies, la complexité et les vitesses de fonctionnement des circuits intégrés ont beaucoup été augmentées. Bien que ces évolutions aient permis de diminuer les dimensions et les tensions d’alimentations des circuits, la compatibilité électromagnétique (CEM) des composants a fortement été dégradée. Identifiée comme étant un verrou technologique, la CEM est aujourd’hui l’une des principales causes de « re-design » des circuits car les problématiques liées aux mécanismes de génération et de couplage du bruit ne sont pas suffisamment étudiées lors de leur conception.Ce manuscrit présente donc une méthodologie visant à étudier la propagation du bruit à travers les circuits intégrés par mesures et par simulations. Afin d’améliorer nos connaissances sur la propagation d’interférences électromagnétiques (IEM) et les mécanismes de couplage à travers les circuits, nous avons conçu un véhicule de test développé dans la technologie SMOS8MV® 0,25 µm de Freescale Semiconductor. Dans ce circuit, plusieurs fonctions élémentaires telles qu’un bus d’E/S et des blocs numériques ont été implémentées. Des capteurs de tensions asynchrones ont également été intégrés sur différentes alimentations de la puce pour analyser la propagation des perturbations injectées sur les broches du composant (injection DPI) et sur les conducteurs permettant d’alimenter ce dernier (injection BCI). En outre, nous proposons différents outils pour faciliter la modélisation et les simulations d’immunité des circuits intégrés (extraction des modèles de PCB, approches de modélisation des systèmes d’injection, méthode innovante permettant de prédire et de corréler les niveaux de tension/ de puissance injectés lors de mesures d’immunité conduite, flot de modélisation). Chaque outil et méthode de modélisation proposés sont évalués sur différents cas test. Enfin, pour évaluer notre démarche de modélisation, nous l’appliquons sur un bloc numérique de notre véhicule de test et comparons les résultats de simulations aux différentes mesures internes et externes réalisées sur le circuit
With technological advances in recent decades, the complexity and operating speeds of integrated circuits have greatly increased. While these developments have reduced dimensions and supply voltages of circuits, electromagnetic compatibility (EMC) of components has been highly degraded. Identified as a technological lock, EMC is now one of the main causes of circuits re-designs because issues related to generating and coupling noise mechanisms are not sufficiently studied during their design. This manuscript introduces a methodology to study propagation of electromagnetic disturbances through integrated circuits by measurements and simulations. To improve our knowledge about propagation of electromagnetic interferences (EMI) and coupling mechanisms through integrated circuits, we designed a test vehicle developed in the SMOS8MV® 0.25µm technology from Freescale Semiconductor. In this circuit, several basic functions such as I/O bus and digital blocks have been implemented. Asynchronous on-chip voltage sensors have also been integrated on different supplies of the chip to analyze propagation of disturbances injected on supply pins and wires of the component (DPI and BCI injection). In addition, we propose various tools to facilitate modeling and simulations of Integrated Circuit’s immunity (PCB model extraction, injection systems modeling approaches, innovative method to predict and correlate levels of voltage / power injected during conducted immunity measurements, modeling flow). Each tool and modeling method proposed is evaluated on different test cases. To assess our modeling approach, we finally apply it on a digital block of our test vehicle and compare simulation results to various internal and external measurements performed on the circuit
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Hessas, Nassima. "Evaluation cartographique et évolution diachronique par télédétection du risque incendie de forêt. Simulation de la propagation du feu dans le bassin versant du Paillon, Nice, Alpes-Maritimes". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00142644.

Texto completo
Resumen
Les Alpes-Maritimes est le milieu le plus sensible aux risques incendies en raison de son climat, de son relief, de ses enjeux touristiques, urbanistiques et économiques. La démarche consiste à détecter les risques et mesurer leurs conséquences. Afin de connaître l'impact de ces feux, il est nécessaire de déterminer leur répartition spatiale et temporelle. De très larges étendues sont concernées et la télédétection est l'un des moyens d'appréhender le phénomène à une aussi grande échelle. Les statistiques annuelles réalisées regroupent trente années d'incendies, à l'échelle départementale ensuite communales sous - tendues par plusieurs questions : Quelles sont les causes et les fréquences des feux et leur ampleur? Les feux de saison sont- ils de même proportion ? Pourquoi 2003 a – t - il été une vraie catastrophe ? L'utilisation du SIG, pour l'évaluation cartographique, se révèle être à la fois un outil scientifique performant pour connaître et rendre compte de l'aléa et exprimer la vulnérabilité et pour déterminer des zonages que les aménageurs et décideurs intégreront dans leur démarche globale d'aménagements du territoire aux échelles appropriées. La multiplication des classifications et ACP sur une image satellitaire et l'AFC sur l'ensemble du bassin apportent une contribution importante à la compréhension de ce phénomène. Les incendies de forêts engendrent des modifications fondamentales. L'étude diachronique de l'évolution du Paillon, par le biais de 3 séries de photographies grâce à la télédétection et au SIG permet de cerner des dimensions spatio-temporelles très précises. L'étude de la simulation de la propagation du feu aide à la prise de décision.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

GENTILI, FILIPPO. "Multi-physics modelling for the safety assessment of complex structural systems under fire. The case of high-rise buildings". Doctoral thesis, 2013. http://hdl.handle.net/11573/918045.

Texto completo
Resumen
Among all structures, high-rise buildings pose specific design challenges with respect of fire safety for a number of reasons, in particular the evaluation of both the fire development (fire action) and response of the structural system to fire (structural behaviour). In relation to the fire action, large compartments and open hallways often present in modern high-rise buildings don’t let themselves to be designed within compliance to current codes and standards. A comprehensive analysis of the fire environment is required to understand the fire dynamics in these cases. A Computational Fluid Dynamic (CFD) model allows a quite accurate representation of realistic fire scenarios, because it takes into account the distribution of fuel, the geometry, the occupancy of individual compartments and the temperature rise in structural elements that are located outside the tributary area of fire scenario. In relation to the structural behaviour under fire, the passive fire resistance of structural elements and the intrinsic robustness of the system are the only measures to rely on in order to maintain the structural integrity of the building during and after the fire and avoid major economic losses due to structural failures and prolonged inoperability of the premises. Disproportionate damages induced by fire can be avoided with a proper design of the structure, aimed at reducing the vulnerability of the elements to fire (i.e. their sensitivity to fire) or at increasing the robustness of the structural system (i.e. its sensitivity to local damages). The topic of this thesis is the evaluation of the structural safety in case of fire by means of advanced multi-physics analyses with direct reference to the modern Performance-Based Fire Design (PBFD) framework. A fundamental aspect is how some basic failure mechanisms can be triggered or modified by the presence of fire on a part of a structural system, such as three hinge mechanism, bowing effects, catenary action, thermal buckling and snap-through, sway and non-sway collapse. High rise buildings, which are expected to be susceptible to fire-induced progressive collapse, will be investigated. Critical elements will be identified in the system and countermeasure for enhancement of structural integrity will be suggested. The investigation of the response of such a complex structures subjected to fire scenarios requires the use of CFD and Finite Element (FE) models for a realistic evaluation of the fire action and of the structural response respectively.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía