Academic literature on the topic 'Analyse financière – Effets des conditions météorologiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Analyse financière – Effets des conditions météorologiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Analyse financière – Effets des conditions météorologiques"

1

Leloup, Xavier. "Conditions de logement des ménages immigrants et dynamiques métropolitaines à Montréal : une analyse multiniveau exploratoire." Articles 36, no. 1 (December 5, 2008): 5–48. http://dx.doi.org/10.7202/019489ar.

Full text
Abstract:
RésuméÀ l’aide de données du recensement de 2001, cette étude présente une analyse qui vise à mettre en évidence les effets ou les conséquences que peuvent avoir un ensemble de caractéristiques intra-urbaines sur les conditions de logement des ménages immigrants. D’un point de vue théorique, elle propose une interprétation des conditions de logement de ces ménages qui repose sur une étude historique des dynamiques métropolitaines et sur l’approche néo-wébérienne ou institutionnaliste du marché du logement (Rex et Moore, 1967). Elle rompt ainsi avec une tendance dominante de la recherche urbaine au Canada qui fait des différences culturelles l’explication des variations observées dans les conditions de logement entre les différents groupes ethniques. Du point de vue empirique, l’accession à la propriété et l’accessibilité financière au logement locatif sont successivement estimées au moyen de modèles multiniveaux permettant de combiner dans la même analyse des facteurs individuels et contextuels. Les résultats de l’étude confirment l’intérêt de ce choix méthodologique et ouvrent la voie à d’autres enquêtes sur les effets des dynamiques métropolitaines sur les conditions de logement des ménages.
APA, Harvard, Vancouver, ISO, and other styles
2

Cantat, Olivier, and Alexandre Follin. "Les singularités thermiques d’un espace périurbain dans une agglomération de dimension moyenne : le cas de Caen durant l’hiver 2018/2019." Climatologie 17 (2020): 3. http://dx.doi.org/10.1051/climat/202017003.

Full text
Abstract:
L’analyse comparative des données météorologiques de la station rurale de Carpiquet avec une station expérimentale en périphérie de la ville de Caen a permis de montrer la présence en hiver d’un léger îlot de chaleur péri-urbain (ICPU) (moyenne de +0,4°C). Il est caractérisé par un maximum d’intensité en fin d’après-midi et début de soirée (+0,8°C) et des écarts faibles le reste du temps. Derrière cette image moyenne, une analyse du continuum temporel au pas de temps journalier puis horaire a mis en exergue des comportements différenciés selon les types de temps. Le caractère le plus original des résultats est la présence certes rare, mais significative en termes d’intensité, d’un îlot de fraîcheur péri-urbain (IFPU). Il se forme de nuit par temps clair et calme et se prolonge dans la matinée, jusqu’à présenter un maximum d’intensité vers 9 h UTC. Cette inversion par rapport au schéma classique de fonctionnement des îlots de chaleur urbain (ICU) s’explique par un mode d’occupation du sol favorable à la formation d’une poche froide par rayonnement nocturne, favorisée par l’absence totale de vent (effet de barrage du bâti et de la végétation) et par la faible densité urbaine, alors que sur la campagne ces mécanismes de refroidissement sont atténués par la persistance d’un léger flux. Cet IFPU résiste et s’intensifie en début de matinée, jusqu’à temps que le soleil et la turbulence de l’air ne viennent échauffer et disperser cette pellicule d’air froid plus dense. Ici, les conditions stationnelles semblent donc primer sur les effets purement urbains car l’agglomération de Caen ne présente pas une masse suffisante pour créer une « bulle chaude » jusque dans ses quartiers périphériques quand un type de temps radiatif s’impose.
APA, Harvard, Vancouver, ISO, and other styles
3

Grundmann, Stefan. "On the Unity of Private Law from a Formal to a Substance-Based Concept of Private Law." European Review of Private Law 18, Issue 6 (December 1, 2010): 1055–78. http://dx.doi.org/10.54648/erpl2010080.

Full text
Abstract:
Abstract: This article starts out with asking the question of where lies the heart of private law. Core societal developments and theories (like the European Union or the so-called Private Law Society) would seem to indicate what virtually all private law theorists say as well: the heart of private law is party autonomy – and, one may add, regulation guaranteeing the pre-conditions of a meaningful use of such party autonomy. The article then analyses the fact that traditional areas of the civilian tradition – torts, property, family law, and wills and estates – are much less paradigmatic for this combination than contracts and that, contrary to what the idea of a law of obligations might insinuate, there is not a very extended common core of rules. This is different between contract and company – market and firm. These are indeed the two most important institutions and modes of organization based on party autonomy and, therefore, also subject to extended regulation. In a final section, the article then analyses the cross-roads between both types of institutions and thus sheds light on phenomena of high practical importance, which are, however, too little discussed, namely long-term relationships (so important in a services society), networks of contracts that dominate modern market economies, and third-party effects of the organization – the main problem in the world’s financial crisis. Seeing contract and company as companions helps modernizing both areas. Résumé : La question de départ de cet article est de savoir quel est le pillier central du droit privé. D’après les grands concepts de droit et de la société – l’Union Européenne et la théorie d’une société de droit privé – et la théorie de droit privé dominante, ce pillier est l’autonomie privée – et, également, les règles (‘regulation’) garantissant l’exercice de cette autonomie. L’article analyse ensuite des domaines qui sont traditionnellement considérés comme constituant le noyau de la tradition civiliste et constate qu’aucun d’eux – la responsabilité extracontractuelle, le droit de la propriété, de la famille et des successions – ne s’appuie autant sur cette combinaison, autonomie et règles s’y afférant, que le droit des contrats et que, en fait, les règles communes sont peu nombreuses. Ceci est différent s’agissant du contrat et de la société – les deux institutions qui sont en fait les plus caractérisées par la combinaison entre autonomie/règle. Pour cela, l’article analyse quelques parallélismes entre droit des contrats et droit des sociétés, notamment : le concept des relations de longue durée (essentielles dans une société de services), la notion de réseau (qui domine les économies de marché de nos jours) et l’idée que ces formes d’organisation ont des effets sur les tiers (la crise financière en a apporté clairement la preuve). Mettre à jour les parallèles existant entre les notions de contratet de société devrait faire avancer la discussion dans ces deux domaines.
APA, Harvard, Vancouver, ISO, and other styles
4

Vrins, Frédéric. "Focus 30 - mars 2023." Regards économiques, March 30, 2023. http://dx.doi.org/10.14428/regardseco2023.03.30.01.

Full text
Abstract:
Le 17 mars 2023, Silicon Valley Bank (SVB), 16ème banque aux Etats-Unis par sa taille, déposait le bilan. Le jour même, l’action de Crédit Suisse, 17ème plus grande banque d’Europe, chutait de plus de 60% et sera rachetée deux jours plus tard par son principal concurrent, UBS, sous la pression du gouvernement helvète. Autour du 15 mars, les principales valeurs bancaires européennes perdaient plus de 10%, lâchant près de 20% en un mois. On peut donc légitimement se demander si nous ne sommes pas sur le point de revivre le scénario d’une crise bancaire mondiale avec les effets que l’on connait. La question se pose : faut-il avoir peur de nos banques ? La régulation est-elle assez stricte ? Les institutions qui dépendent du régulateur bancaire européen n’ont jamais été aussi solides, mais les réactions des investisseurs, y compris des épargnants, peuvent créer de grosses turbulences. En 2008, la crise financière trouvait son origine dans les subprimes. Via la titrisation, ces crédits hypothécaires toxiques se sont retrouvés sur le bilan d’un grand nombre de banques (voir le numéro 64 de Regards économiques). Ne connaissant pas précisément l’exposition des autres institutions financières à ces produits, la méfiance contamina l’ensemble du secteur et le robinet des liquidités interbancaires fut coupé. La crise de 2008 révéla au grand jour le risque de liquidité des banques (à savoir le risque de ne pas pouvoir se refinancer), y compris de celles présentant un risque systémique. Elle mena à des réformes importantes dans la régulation bancaire, notamment via l’introduction des ratios de liquidités de Bâle III (Leverage Coverage Ratio, LCR et Net Stable Funding Ratio, NSFR) destinés à mesurer les risques associés (voir le numéro 96 de Regards économiques). Les problèmes de SVB et de Crédit Suisse ont des origines différentes, mais engendrent le même climat de méfiance et de panique dans le secteur. Le cas de SVB La faillite de SVB est malheureusement un exemple tout à fait classique d’une gestion catastrophique : un bilan de 212 milliards de dollars composé notamment, côté passif, d’environ 173 milliards de dépôts (essentiellement d’entreprises) et, du côté actif, de 112 milliards de titres à revenu fixe, principalement des créances garanties par des institutions bénéficiant du support du gouvernement américain (MBS) ainsi que des bons du Trésor de maturité supérieure à 10 ans. Malgré l’excellente qualité de ces titres, le bilan de la banque californienne était fort déséquilibré, car très exposé au risque de taux d’intérêt : l’augmentation des taux à 10 ans de 1,5% à 4% au cours de l’année 2022 [1] aura entrainé une perte de valeur sur ces titres de près de 15 milliards de dollars, ce qui correspond à la quasi-totalité des 16 milliards de dollars que comptaient les fonds propres de haute qualité (Core Equity Tier 1, CET1) de la banque [2]. Le plus surprenant dans cette histoire est que SVB était tout à fait consciente de sa large exposition au risque de taux, comme l’attestent des rapports de risque datant de 2021. Il est probable qu’elle n’y ait pas suffisamment porté attention, ayant l’intention de détenir ces actifs jusqu’à leur maturité (l’autre explication proviendrait d’une absence de gestion de risque, le poste de directeur financier (CRO) étant resté vacant pendant la quasi-totalité de 2022 [3]). Le faible rendement des titres détenus (qu’on estime à environ 2%) ne permettait pas à SVB de répercuter sur ses dépôts l’augmentation brutale des taux décidée par la FED. Le doute quant à la solidité de la banque s’était immiscé, et la chute fut précipitée par le retrait massif des dépôts issus d’entreprises (très réactives aux taux offerts), et dont la plupart excédaient le seuil de protection garantie de 250.000 dollars. On estime qu’environ 97% des 173 milliards dépôts de SVB provenaient d’entreprises, une situation très inhabituelle dans la mesure où les dépôts dans les banques de détail proviennent en général majoritairement des particuliers (moins réactifs à une variation de taux et avec des montants se situant souvent sous la garantie de l’Etat). Le cas de Crédit Suisse S’agissant de la 45ème banque la plus importante du monde en 2022 et d’une des plus grandes d’Europe, Crédit Suisse est un mastodonte. Néanmoins, cette institution accumule les problèmes depuis de nombreuses années. Il y a quelques mois à peine, en octobre 2022, elle accepta de verser une compensation de plus d’un demi-milliard de dollars lors d’une transaction financière avec les autorités judiciaires américaines dans le cadre de la résolution d’un conflit lié à la crise de 2008. A cette époque, son cours était d’environ 80 francs suisses (CHF). Dix ans plus tard, en mars 2018, il n’était plus que de 15 CHF pour terminer à environ 2 CHF avant son rachat par UBS (au prix de 76 centimes par action). De manière assez paradoxale, c’est l’un des plus gros actionnaires de l’institution suisse, la Banque nationale saoudienne, qui a allumé la mèche en indiquant ne pas être en mesure d’injecter de nouveaux capitaux dans la banque helvète en raison d’une part actuelle de 9,9%, un niveau proche de la limite maximale autorisée dans leur mandat (10%) [4]. Apporter la précision qu’une augmentation de capital de Crédit Suisse n’était, selon elle, pas nécessaire n’y changera rien : à la mi-mars, les retraits s’enchainèrent à concurrence d’environ 10 milliards CHF par jour. Au suivant ? Comme souvent dans le secteur bancaire, les séismes se propagent très rapidement, la plupart des actions financières ayant lâché près de 20% depuis leur niveau enregistré au début du mois de mars. Dès lors, faut-il redouter une contagion à l’ensemble du secteur ? D’un côté, nous l’avons vu, les situations de ces deux institutions sont très particulières : SVB est une banque ayant un bilan très atypique, déséquilibré et essentiellement financé par des dépôts volatils d’entreprises très spécifiques (sociétés technologiques et investisseurs de capital à risque). De plus, son bilan étant inférieur à 250 milliards de dollars, elle n’était pas considérée comme une banque systémique par le régulateur américain, ce qui implique qu’elle n’était pas tenue de respecter des ratios de liquidités évoqués plus haut. Crédit Suisse, quant à elle, accumulait les problèmes depuis des années, et n’a pas pu bénéficier du soutien de son plus gros actionnaire pour des raisons de limite d’exposition atteinte. Il est donc très hasardeux de vouloir généraliser ces problèmes à l’ensemble du secteur. La situation des banques européennes reste très bonne. La régulation y est une des plus strictes au monde. La Belgique, en particulier, se situe parmi les meilleurs élèves de la classe en termes de capitalisation. Avec 19,7% de CET1 et beaucoup de cash, les banques belges sont très bien capitalisées (top 6 en Europe) [5,6]. Initialement fixé à 60% en 2015, le seuil minimum requis pour le ratio LCR a été poussé à 100% sous les normes de Bâle III, en 2018. L’autorité bancaire européenne (EBA) rapporte que la moyenne de ces ratios sur plus de 300 banques se situe actuellement bien au-delà, autour de 170% [7]1. Un point cependant nécessite une attention particulière : les ratios réglementaires de SVB et de Crédit Suisse étaient au vert. Ces banques étaient bien capitalisées (ratios CET1 et Tier One Leverage de 12,05% et de 8,11% pour SVB, et de 14,1% et 7,7% pour Crédit Suisse), plus du double des minimas requis. Bien que SVB n’était pas tenue de rapporter ses ratios de liquidité, plusieurs analystes s’accordent pour dire qu’ils auraient probablement été satisfaisants. C’était d’ailleurs le cas pour Crédit Suisse, dont les ratios de liquidité étaient de 144% (LCR) et 117% (NSFR), nettement supérieurs au seuil de 100% requis [8]. Du côté du régulateur, donc, ces banques étaient jugées suffisamment solides. Faut-il en conclure que la régulation doit être renforcée ? Indéniablement, la règlementation est déjà très stricte, et pèse lourdement sur la rentabilité des banques, particulièrement en Europe. De plus, il faut prendre conscience que la régulation est un jeu d’équilibriste avec des effets potentiellement pervers. En effet, des contraintes excessives limiteront les profits des institutions financières, et pousseront donc les banques dans des situations plus précaires encore. D’un autre côté, force est de constater qu’une banque, même saine (dans le sens où elle remplit toutes les conditions requises par le régulateur) reste très vulnérable à un bank run, c’est-à-dire un retrait massif des dépôts. De manière intéressante, la modélisation de la panique bancaire et les crises économiques qui en résultent sont au centre des recherches de D. Diamond et Ph. Dybvig, lauréats du prix de la Banque de Suède en sciences économiques (connu sous l’appellation de prix Nobel en économie) 2022 avec l’ancien président de la FED, Ben Bernanke [9]. La période actuelle démontre qu’au-delà des risques financiers réels mesurés par une pléthore d’indicateurs sophistiqués, le talon d’Achille du secteur bancaire réside essentiellement dans les réactions émotionnelles des investisseurs et épargnants [10]. Elles sont le symptôme d’une perte de confiance dans le secteur mais aussi, ce qui est plus inquiétant, dans la capacité des autorités régulatoires à pouvoir évaluer correctement la solidité des banques, et à garantir la stabilité de l’écosystème financier. Les banques restent fortement exposées au retrait massif de dépôts, source principale de leur financement. La résistance au bank run est difficile à évaluer, mais la régulation bancaire gagnerait probablement à renforcer ses analyses sur ce type de scénarios. 1 Lorsque l’on analyse la solvabilité ou la prise de risque d’une institution financière, les montants absolus (tel que, par exemple, le montant des fonds propres) ne donnent pas une image complète concernant sa solidité; il faut analyser ces chiffres au regard des risques encourus. C’est la raison pour laquelle la régulation bancaire s’appuie sur des ratios où, en général, le numérateur correspond à des «rentrées» et le dénominateur à un «risque». Ainsi, par exemple, le taux de capitalisation CET1 correspond au rapport entre le montant de fonds propres de haute qualité et l’ensemble des actifs pondérés par les risques associés (risk-weighted assets, RWA, qui augmentent avec la prise de risque). Les banques belges ont, en moyenne, 19,7% de leurs RWA sous la forme de fonds propres de haute qualité. Le seuil minimum pour ce ratio, tel que déterminé dans les normes de Bâle III, est de 4,5%. D’autres ratios s’appliquent. Par exemple, les ratios LCR et NSFR mesurent la capacité qu’a l’institution financière de pouvoir faire face à des flux financiers sortants, pour lesquels les minimas requis sont actuellement de 100%. En Europe, ces ratios s’appliquent à toutes les banques (qu’elles soient systémiques ou non) et sont destinés à compenser le risque associé à la tendance naturelle qu’ont les banques à «jouer sur la courbe de taux», c’est-à-dire, à financer des besoins long-terme via des financements à court-terme. Cette approche permet à la banque de capter le différentiel de taux résultant de la différence de maturités entre actif et passif mais, comme l’illustre parfaitement le cas de SVB, elle entraine un risque de taux sur le bilan.
APA, Harvard, Vancouver, ISO, and other styles
5

"Autorisation de rejet d'effluents radioactifs gazeux. Centrale de Gravelines Enquête publique. Dossier d'enquête. Notice explicative. Précision suffisante des données météorologiques. Annulation du jugement. Nécessité d'analyser les effets cumulés des rejets gazeux et liquides dans l'étude préliminaire non requise par les textes. Procédures distinctes. Nécessité de reprendre la totalité des éléments de l'étude préliminaire (non). Etude d'impact. Contenu. Mesure de la radioactivité naturelle. Analyse des effets, raisons du choix de la localisation. Précisions suffisantes. Contenu de l'arrêté. Modalités de rejet. Prescriptions de modalités applicables aux seules conditions normales de fonctionnement. Légalité (oui). Absence de dispositions expresses concernant l'existence sur le site propre d'un laboratoire de mesures et d'analyses. Illégalité (non). Prescriptions générales définies par les arrêtés du 10 août 1976. Conseil d'État, 26 juillet 1985 Ministre délégué auprès du Ministre de la Recherche et de l'Industrie, chargé de l'Industrie c/ Comité antipollution de Dunkerque (Req. n° 44-670) ." Revue Juridique de l'Environnement 11, no. 2 (1986): 259–62. http://dx.doi.org/10.3406/rjenv.1986.2119.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Analyse financière – Effets des conditions météorologiques"

1

Chaudhuri, Pritish. "Effect of variation in sunlight on the behaviour of stock analysts." Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0524.

Full text
Abstract:
En utilisant les données européennes de 1999 à 2018, nous constatons que les analystes commettent généralement des erreurs dans les estimations pendant les jours ensoleillés et les jours ensoleillés sont les indicateurs d'une humeur positive. De plus, par temps nuageux, les estimations des analystes sont plus précises et les jours nuageux sont des indicateurs d'humeur négative. De plus, l’imprécision des estimations des analystes change en raison de facteurs supplémentaires tels que la période de crise financière, le classement par étoiles de l’analyste et l’individualisme qui est une approximation des traits culturels. En outre, nous avons constaté que les estimations des analystes sont biaisées positivement par une journée ensoleillée, ce qui est un indicateur de la bonne humeur et négativement biaisées par une journée nuageuse, ce qui est un indicateur de la tristesse. En outre, ces biais changent lorsque des facteurs supplémentaires tels que la capitalisation boursière, le score de recommandation IBES et l'évitement de l'incertitude, qui est une approximation des traits culturels, sont ajoutés au modèle. Cependant, l'inexactitude et les biais ne changent pas dans le cas des analystes masculins et féminins. En fait, il agit à un niveau subconscient impossible à réaliser pour tout analyste. Dans l'ensemble, nos résultats sont cohérents avec le concept de stimulus cognitif conçu par l'humeur des analystes, qui font des estimations moins ou plus précises sous l'influence d'un état d'esprit positif ou négatif dû à la variation de la lumière du soleil
Using Europe data over the 1999 to 2018, we find that analysts generally commit errors in the estimates during sunny days and sunny days are the proxies for positive mood. Further, in cloudy days, the estimates by the analysts are more accurate and cloudy days are proxies for negative mood. Moreover, the inaccuracy in analyst’s estimates changes due to additional factors like financial crisis period, star rating of the analyst and individualism which is a proxy for the cultural traits. In addition, we found that analyst’s estimates are positively biased in a sunny day which is a proxy for the happy mood and negatively biased in a cloudy day which is a proxy for the sad mood. Also, these biases change when additional factors like market cap, IBES recommendation score and uncertainty avoidance which is a proxy for cultural traits are added in the model. However, the inaccuracy and the biases do not change in case of male and female analysts. In fact, it effects at a subconscious level that is impossible for any analyst to realise. Overall, our results are consistent with the concept of cognitive stimulus conceived by mood of the analysts, who make less or more accurate estimates under the influence of positive or negative mindset due to variation in sunlight
APA, Harvard, Vancouver, ISO, and other styles
2

Dufour, Florence. "Méta-analyse des effets de l’environnement sur la dynamique des stocks de thonidés." Pau, 2010. http://www.theses.fr/2010PAUU3029.

Full text
Abstract:
Il est probable que le changement climatique influence la distribution spatiale et temporelle des espèces de thonidés de par son impact sur les bas niveaux trophiques. L’objet de cette thèse est donc (1) de déterminer quelles sont les principales variables environnementales définissant l’habitat des thonidés, (2) de définir les gammes de préférence, tolérance et rejet pour ces mêmes variables et (3) d’étudier, à différentes échelles, l’effet de l’environnement sur la distribution spatiale et temporelle des thonidés et poissons à rostre de l’Atlantique. Des modèles additifs généralisés (GAM) ont donc été mis en place afin de déterminer quelles sont les variables environnementales définissant le mieux l’habitat des thonidés à l’échelle mondiale. Pour chacune des espèces le meilleur modèle incluait toutes les variables environnementales considérées : température, salinité, oxygène dissous, anomalie du niveau de la mer, profondeur de la couche de mélange et concentration en chlorophylle. Les GAMs ont révélé que la plupart des espèces sont principalement liées à la température de surface, l’oxygène et l’anomalie du niveau de la mer. L’analyse des quotients a par ailleurs été utilisée pour définir les gammes de préférence et rejet des thonidés pour les différentes variables environnementales. Les espèces tropicales préfèrent des eaux plus oxygénées, plus chaudes et moins productives que les espèces tempérées. La deuxième partie de cette thèse a permis de démontrer que la migration saisonnière du germon et du thon rouge vers le Golfe de Gascogne est plus précoce dans les années 2000 de respectivement 2 et 5,6 jours par décennie que lors des années 1960 et 1980. Ce changement phénologique est corrélé avec l’évolution de la température sur les mêmes périodes. De plus, la température, notamment la latitude de l’isotherme 17 °C, a également montré une corrélation avec la latitude de capture des germons dans les eaux adjacentes au Golfe de Gascogne. Celle-ci a également évolué de 2,5° vers le nord sur les 40 dernières années. On a enfin pu montrer que le changement de régime de l’Atlantique Nord à la fin des années 1980 a eu une influence sur la migration de ces deux espèces. Finalement, une synthèse de toutes les études locales concernant les thonidés et poissons à rostre de l’Atlantique Nord et Sud a été adressée par le biais d’une méta-analyse. Le résultat général indique que la distribution latitudinale de l’ensemble des espèces ne semble pas présenter de corrélation avec la température. Cependant, la corrélation générale est positive si on ne s’intéresse qu’à l’hémisphère Nord. Les latitudes de captures des différentes espèces présentent de plus fortes corrélations avec l’oscillation Nord Atlantique et l’oscillation du Sud qu’avec la température. Ces différents résultats laissent penser qu’à l’échelle locale la température pourrait être un facteur déterminant de la distribution des espèces tandis qu’une plus grande partie des processus physiques de l’océan doivent être pris en considération pour comprendre la dynamique spatiale des thonidés à l’échelle de l’océan
Climate change may affect spatial and temporal distribution of tuna species due to its impact on lower trophic levels. Hence, the aims of this thesis are (1) to determine the main environmental variables that define tuna habitat (2) to define the ranges of preference, tolerance and avoidance for these variables and (3) to study, at different scales, the effect of environment on spatiotemporal distribution of tuna and billfish of the Atlantic. Generalized additive models (GAM) were carried out to determine the environmental variables defining global tuna habitat. For each species the best model included all environmental variables considered i. E. Temperature, salinity, dissolved oxygen, sea level anomaly, mixed layer depth and chlorophyll. GAMs revealed that for most species surface temperature, dissolved oxygen and sea level anomaly were variables explaining most of CPUE deviance. Besides, the quotient analysis was used to define tuna ranges of preference, tolerance and avoidance for different environmental variables. It appeared that tropical species prefer warmer, less productive, and more oxygenated waters than temperate species. The second part of this thesis revealed that albacore and bluefin tuna seasonal movements to the Bay of Biscay appeared earlier in the 2000s than in the 1960s and 1980s, respectively. The rate of change was 2 and 5. 6 days for decade, respectively. This change was correlated with phenological changes in temperature over the same periods. Moreover, the temperature, latitude of 17 °C isotherm in particular, also showed a correlation with albacore catch latitude in adjacent waters of the Bay of Biscay. It also moved 2. 5 ° northwards over the last 40 years. Lastly, we showed that the late 1980s regime shift of the North Atlantic had an influence on the migration of these two species. Finally, a synthesis of all local studies on tuna and billfish in North and South Atlantic was addressed in a meta-analytic framework. The overall result indicates that species distribution do not correlate with temperature. However, the overall correlation was positive in the northern hemisphere. Species catch latitude showed stronger correlations with the North Atlantic Oscillation and the Southern Oscillation than with temperature. These different results suggest that temperatures could be a factor determining species local distribution whereas some ocean physical processes should be considered in order to understand tuna spatial dynamics across oceans
APA, Harvard, Vancouver, ISO, and other styles
3

Franco, Cavalcante Jacqueline. "La mondialisation financière et ses effets sur le développement économique au Brésil et au Chili : Une analyse sous l'optique du marché du travail : les années quatre-vingt-dix." Paris 13, 2001. http://www.theses.fr/2001PA131019.

Full text
Abstract:
Cette thèse prétend apporter une contribution à la discussion sur le rapport entre la mondialisation financière et le développement économique au Brésil et au Chili, et leurs impacts en particulier sur le marché du travail pendant les années quatre-vingt-dix. L"étude analyse initialement l'importance des flux des investissements étrangers dans les pays en développement, le Brésil et Chili sont mis en évidence. Plus spécifiquement, cette approche souhaite identifier les probables corrélations que l'ont peut établir entre la mondialisation financière et le marché du travail des économies citées. Les réformes structurelles des économies latino-américaines sont originaires d'un ensemble plus important de règles et instructions reservées aux pays en développement à travers les délibérations du Consensus de Washington c'est ce que nous voulons mettre en lumière. Dans ce sens, on considère l'existence d'un paradigme, celui de la "modernité conservatrice", basée sur la déréglementation, l'ouverture commerciale et financière et sur les politiques de privatisation et de réduction du rôle de l'Etat dans l'économie. . .
APA, Harvard, Vancouver, ISO, and other styles
4

Goffart, Jeanne. "Impact de la variabilité des données météorologiques sur une maison basse consommation. Application des analyses de sensibilité pour les entrées temporelles." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00982150.

Full text
Abstract:
Ce travail de thèse s'inscrit dans le cadre du projet ANR FIABILITE qui porte sur la fiabilité des logiciels de simulation thermique dynamique et plus particulièrement sur les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique et énergétique des bâtiments basse consommation. Les sollicitations telles que les occupants, la météo ou encore les scénarios de consommation des usages font partie des entrées les plus incertaines et potentiellement les plus influentes sur les performances d'un bâtiment basse consommation. Il est nécessaire pour pouvoir garantir des performances de déterminer les dispersions de sortie associées à la variabilité des entrées temporelles et d'en déterminer les variables responsables pour mieux réduire leur variabilité ou encore concevoir le bâtiment de manière robuste. Pour répondre à cette problématique, on se base sur les indices de sensibilité de Sobol adaptés aux modèles complexes à grandes dimensions tels que les modèles de bâtiment pour la simulation thermique dynamique. La gestion des entrées fonctionnelles étant un verrou scientifique pour les méthodes d'analyse de sensibilité standard, une méthodologie originale a été développée dans le cadre de cette thèse afin de générer des échantillons compatibles avec l'estimation de la sensibilité. Bien que la méthode soit générique aux entrées fonctionnelles, elle a été validée dans ce travail de thèse pour le cas des données météorologiques et tout particulièrement à partir des fichiers météo moyens (TMY) utilisés en simulation thermique dynamique. Les deux aspects principaux de ce travail de développement résident dans la caractérisation de la variabilité des données météorologiques et dans la génération des échantillons permettant l'estimation de la sensibilité de chaque variable météorologique sur la dispersion des performances d'un bâtiment. A travers différents cas d'application dérivés du modèle thermique d'une maison basse consommation, la dispersion et les paramètres influents relatifs à la variabilité météorologique sont estimés. Les résultats révèlent un intervalle d'incertitude sur les besoins énergétiques de l'ordre de 20% à 95% de niveau de confiance, dominé par la température extérieure et le rayonnement direct.
APA, Harvard, Vancouver, ISO, and other styles
5

Xiang, Yang. "Analyse dynamique en champ proche de la contribution des sources de composés organiques volatils, en région urbaine sous influence industrielle." Thesis, Littoral, 2011. http://www.theses.fr/2011DUNK0408.

Full text
Abstract:
À ce jour, l'identification des sources de Composés Organiques Volatils (COV) a fait l'objet de nombreuses études, afin de déterminer leur contribution à la pollution atmosphérique. Néanmoins, le comportement dynamique de l'atmosphère, dans sa dimension micro-météorologique, n'a jamais été pris en compte dans une approche sources-récepteur. Celui-ci est pourtant essentiel dans l'interprétation des mesures physico-chimiques de la pollution de l'air en champ proche, dans une région urbaine sous influence industrielle. La complexité de ces zones d'études provient non seulement des différents modes d'émissions et de la variété des activités industrielles, mais aussi des phénomènes météorologiques à multi-échelles, qui influent la dispersion et le transport à petite échelle spatiale (typiquement quelques kilomètres). En nous appuyant sur la mesure de 85 COV (dont 23 COV oxygénés) sur une durée de plusieurs mois, nous avons développé une méthodologie novatrice, associant lors de l'analyse des résultats d'un modèle sources-récepteur PMF (Positive Matrix Factorization) des grandeurs météorologiques, pour identifier des sources et comprendre leur comportement dynamique. En introduisant la turbulence verticale, pour la première fois dans ce type d'analyse, la température et le rayonnement solaire, comme paramètre d'analyse des facteurs de comportements ont pu être différenciés, permettant de distinguer les modes d'émissions diffuses et canalisées. Ainsi, nous avons pu classer les sources des COV par nature et par mode d'émissions, et également mettre en évidence des masses d'air âgées contenant des espèces secondaires
Recently, sources apportionment of Volatile Organic Compounds (VOC) has been the subject of a great numbers of studies, in order to determine their contributions to atmospheric pollution. However, the dynamical behavior of atmosphere, within its micro-meteorological scale, has never been taken into account in the sources-receptor approach, yet it is the main factor to interpret near-field physic-chemical measurements of air pollution, in an urban area under industrial influences. The complexity of such a study area results from not only the emission modes and the various industrial activities, but also the meteorological phenomenon in multi-scale, which influences the dispersion and transport in a small scale (tipically several kilometers). With measurements of 85 VOC (including 23 oxygenated VOC) during several months, we have developed an innovative methodology, associating the results of the PMF (Positive Matrix Factorization) modeling and the meteorological parameters, in order to identify the sources and to understand their dynamical behaviors. By introducing the vertical turbulence for the first time in this kind of analysis, the temperature and the solar radiation, as parameters of factor analyses, two behaviors have been distinguished, leading to identify the emissions near ground and in the upper part of surface layer. In this way, we have labeled the sources according to their nature as well as their emission mode, and we have highlighted the aged air mass containing secondary pollutants
APA, Harvard, Vancouver, ISO, and other styles
6

Demestihas, Constance. "Analyse des conflits et synergies entre services écosystémiques multiples en vergers de pommiers." Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0690/document.

Full text
Abstract:
Le concept de « service écosystémique », en plein essor depuis la publication du Millenium Ecosystem Assessment en 2005, a permis de souligner l'importance des performances non-marchandes des écosystèmes. En arboriculture, assurer une bonne productivité tout en préservant les ressources naturelles et la santé humaine est aujourd’hui un défi majeur, qui peut être analysé sous l’angle des services écosystémiques. Quels sont ces services au sein d’un verger de pommiers ? Comment les analyser ? Quels sont les liens - conflits et synergies - entre services écosystémiques multiples et comment les systèmes de culture modifient-ils les profils de services multiples? Ce travail de thèse vise à répondre à ces questions avec une démarche novatrice combinant mesures expérimentales, modélisation et analyse statistique. Suite à une analyse bibliographique des services écosystémiques pouvant être délivrés dans des vergers, cinq services ont été sélectionnés. Il s’agit de la production de fruits, de la disponibilité de l’azote dans le sol, de la régulation du climat reposant sur la prévention de la dénitrification de l’azote et sur la séquestration du carbone, de la maintenance et de la régulation du cycle de l’eau y compris de sa qualité, et de la régulation des bioagresseurs. Conjointement à ces services nous avons considéré les nuisances environnementales dues aux pesticides. Pour chaque service nous avons identifié les fonctions écosystémiques sous-jacentes ainsi que les pratiques agricoles et les conditions pédoclimatiques ayant un impact sur ces fonctions. Les services et fonctions ont été décrits par un ou plusieurs indicateurs et quantifiés à l’aide de modèles dans les cas suivants : (i) neuf systèmes de culture réels sur deux dispositifs expérimentaux dans le sud-est de la France et (ii) 150 systèmes de culture fictifs conçus à partir de la combinaison de cinq leviers de pratiques et de leurs modalités, dans des conditions pédoclimatiques identiques. Les deux modèles utilisés ont été STICS, un modèle générique de simulation du fonctionnement du sol et des cultures sous l’influence des pratiques, qui a nécessité une paramétrisation et une évaluation sur pommier à partir de mesures expérimentales, et IPSIM, une plateforme de modélisation simulant les effets des pratiques et des conditions du milieu sur les dégâts aux cultures causés par les bioagresseurs. IPSIM a été paramétré sur pommier, sur la base d’une importante étude bibliographique et à dires d’experts. Les simulations des modèles ont fait l’objet d’analyses statistiques simples dans le cas des systèmes de culture réels, et d’analyses multivariées à deux tableaux (analyse en composantes principales avec variables instrumentales) pour les systèmes de culture fictifs. Pour les neufs systèmes de culture réels, 14 liens importants entre services écosystémiques ont été identifiés, notamment des conflits comme celui entre la prévention de la dénitrification ou de la lixiviation de l’azote et la disponibilité de l’azote dans le sol à court terme, et des synergies, comme celle entre l’humidité du sol ou la séquestration du carbone et la disponibilité de l’azote dans le sol à court terme. Ces liens entre services sont expliqués par les fonctions écosystémiques sous-jacentes. La comparaison de profils de services entre systèmes a mis en évidence l’impact de pratiques agricoles sur certains services. Ainsi, sur un même site, une forte densité de plantation augmente la production de fruits et la séquestration du carbone. La fertilisation exclusivement sous une forme organique diminue la production de fruits via un stress azoté mais diminue également la lixiviation. Par ailleurs, les profils de services sont fortement influencés par les caractéristiques pédoclimatiques de chaque site. Ces résultats confortent la nécessité d’une prise en compte explicite de l’interdépendance ‘pratiques x conditions du milieu’ pour analyser les services
The concept of « ecosystem service », which has been used increasingly since the publication of the Millennium Ecosystem Assessment in 2005, has highlighted the importance of ecosystem’s non-marketed performances. In orchards, ensuring high productivity while preserving natural resources and human health has become a real challenge that could be analyzed with the concept of ecosystem service. Which ecosystem services are delivered in an apple orchard? How to analyze them? What are the relationships - conflicts or synergies – among multiple ecosystem services and how do cropping systems change multiple ecosystem service profiles? This PhD work aims at answering those questions with an innovative approach combining experimental measures, modeling and statistical analysis.Based on a literature review of ecosystem services in orchards, five services were selected: fruit production, nitrogen availability in soil, climate regulation based on the prevention of nitrogen denitrification and on carbon sequestration, maintenance and regulation of water cycle, including water quality, and pest control. We also considered the environmental disturbances caused by the use of pesticides. For each service, we identified the underlying ecosystem functions as well as the agricultural practices and soil and climate conditions affecting these functions. Services and functions were described by one or multiple indicators and quantified using models in the case of (i) nine existing cropping systems on two experimental sites in southeastern France differing in terms of soil and climate conditions, and (ii) 150 virtual cropping systems designed out of the combination of five major agricultural practice levers and their modalities, in identical soil and climate conditions. The two models used were STICS, a generic soil-crop simulation model under the influence of practices which required a parameterization and an evaluation on apple orchards based on experimental measures, and IPSIM, a generic modeling framework simulating the impacts of agricultural practices and local conditions on crop injuries caused by pests. IPSIM was parameterized on apple orchards, based on an important literature review and expert opinions. Model simulations were analyzed with simple statistics in the case of the nine existing cropping systems and with two-table multivariate analyses (principal component analysis with instrumental variables) for virtual cropping systems.Concerning the existing cropping systems, 14 important relationships were identified among ecosystem services, especially conflicts, like the one between nitrogen denitrification or leaching prevention and soil nitrogen availability on the short term, and synergies such as the one between soil humidity or carbon sequestration and nitrogen availability on the short term. These relationships are explained by the underlying ecosystem functions. Comparing service profiles among cropping systems highlighted the impacts of agricultural practices on some services. That way, on a same site, a high planting density increases fruit production and carbon sequestration. An exclusively organic fertilization decreases fruit production through nitrogen stress but also nitrogen leaching in drained water. Furthermore, service profiles are strongly influenced by the soil and climate conditions of each site. These results strengthen the need to explicitly consider the ‘agricultural practices x soil and climate conditions’ interdependence in order to analyze ecosystem services. The results obtained with the virtual cropping systems simulations confirmed those of the existing ones and gave precision on the impacts of fertilization, irrigation and pest control for codling moth, rosy apple aphid and apple scab on ecosystem functions and services
APA, Harvard, Vancouver, ISO, and other styles
7

Rimetz, Juliette. "Les aérosols de pollution en zone urbaine et industrielle sous influence marine : physico-chimie des particules." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2007. http://tel.archives-ouvertes.fr/tel-00282543.

Full text
Abstract:
Les grands ports de marchandises sont généralement proches de zones urbaines très peuplées et de zones industrielles comportant des raffineries de pétrole, des complexes métallurgiques, des cimenteries, et des transports par rail, par route et par mer. Ces activités font des domaines portuaires des sources très importantes de pollution de l'air. Les mesures de concentrations de NOx, SO2, O3 et des constituants chimiques de la matière particulaire (PM) ont été effectuées en 2005 et 2006 dans l'agglomération du port de Dunkerque dans le cadre de l'Institut IRENI. Dans des conditions de dépression atmosphérique, les vents dominants préservent l'air de la zone urbaine des émissions de la zone d'activité. Par contre dans des conditions anticycloniques, la faible dispersion ainsi que les phénomènes de brise de mer concentrent les émissions locales. Les analyses chimiques effectuées sur des échantillons de PM prélevées en fonction du diamètre aérodynamique (Da) des particules montrent que les ions (Na+, NH4+, Cl-, NO3-, SO42), les éléments métalliques (Fe, Zn, Pb, Cd, etc...) et les composés organiques (EC, OC) sont associés à des particules sub- et/ou supermicroniques. Les imageries Raman et d'émission X (MEBE-EDS) sont obtenues sur des particules individuelles des fractions 1
APA, Harvard, Vancouver, ISO, and other styles
8

Boussougou, Boussougou Guy Fidèle. "Vulnérabilité des paysages forestiers en relation avec les activités humaines et la variabilité climatique en Tanzanie : analyse prospective des dynamiques de l'occupation du sol des réserves forestières de Pugu et de Kazimzumbwi." Thesis, La Réunion, 2017. http://www.theses.fr/2017LARE0035/document.

Full text
Abstract:
L'objectif de ce travail est de montrer la vulnérabilité des paysages forestiers en relation avec la variabilité climatique à l'échelle de la Tanzanie d’une part et d'analyser les dynamiques forestières, afin de réaliser une étude prospective des dynamiques de l'occupation des sols dans les réserves forestières de Pugu et de Kazimzumbwi d'autre part. L'analyse des données TRMM sur la période 2001-2013 a permis de mettre en évidence une variabilité saisonnière et interannuelle des précipitations à l'échelle du pays. Les cartes de précipitations interannuelles ont permis de distinguer les années à faible pluviométrie, les années à forte pluviométrie et les années à pluviométrie intermédiaire. Cette analyse a également permis de mettre en évidence 11 types de régimes pluviométriques marqués par des modes de variabilité saisonnière différents à l'échelle de la Tanzanie. Des oppositions existent entre les régimes pluviométriques de la région centrale savanicole marquées par des hauteurs annuelles faibles, un nombre de mois secs important (7 mois) et plus affectée par la variabilité interannuelle des précipitations d'une part et d’autre part les régions forestières du nord, sud et l'est plus humides et présentant des faibles déficits des hauteurs pluviométriques interannuelles. La sensibilité de la phénologie végétale à la variabilité pluviométrique a été analysé par l'étude des relations spatio-temporelles entre l'indice de végétation normalisé NDVI-MODIS et la pluviométrie (pluie TRMM). Les cartes de corrélations pluie/NDVI mettent en évidence une opposition entre les régions sèches du centre marquée par des paysages de savane fortement vulnérables à la variabilité pluviométrique et les régions du sud de forêts humides de montagnes et des régions côtières de forêts de mangroves réagissant peu à cette variabilité pluviométrique. Dans les régions de savanes du centre l'intensité de la dépendance pluie/NDVI est mesurée par un coefficient de corrélation de 0.70. Un suivi de l'analyse des pressions humaines sur les réserves forestières a été réalisé à partir de l'exemple des forêts de Pugu et de Kazimzumbwi sur la période 1995-2015 à partir de l'imagerie SPOT 6 (haute résolution) et LANDSAT. Les classifications de l’occupation du sol ont été réalisées à partir de la méthode orientée objet. Le bilan forestier montre que, des deux réserves forestières, seule la réserve de Pugu conserve encore près de la moitié de sa surface en forêt en 2015 (55% dont 32 % de forêt dense). À l'inverse la réserve de Kazimzumbwi ne contient que 5 % de forêt dense de sa superficie. Sur l'ensemble de la période étudiée (1995-2014), la sous-période 2009-2014 a été la plus critique en terme de perte de forêt. En effet, en l’espace de 5 ans les réserves forestières de Pugu et Kazimzumbwi ont presque perdu le double de leur superficie. Partant du constat d'une vulnérabilité accrue des pressions humaines dans les réserves, une analyse multicritère a permis d'identifier les zones de fortes et faibles pressions humaines. Les zones les plus vulnérables restent celles situées à proximité des axes de communication et des villes. Ainsi, les réserves forestières sont plus vulnérables dans leurs parties est, proches des routes principales et des grands centres urbains comme Pugu et Kisarawé. L'utilisation d’un modèle pour une modélisation prospective en 2050 a nécessité l’intégration des variables explicatives des changements observés et des cartes d'occupation du sol de 1995 et 2014. Le modèle est validé à partir d’une carte prédite et d’une carte réelle. Le résultat montre une simulation exacte à 72 %. Le modèle prévoit ainsi, à l’horizon 2050 une expansion et densification des surfaces artificialisées notamment à la périphérie nord-est de la réserve de Pugu et au sud dans la réserve de Kazimzumbwi. Cette croissance des surfaces artificialisées entraînera un recul important des surfaces forestières existantes à l’intérieur des réserves
The objective of this work is on one hand to show the vulnerability of forest landscapes in relation to climate variability at the scale of Tanzania and on the other hand to analyze forest dynamics in order to carry out a prospective study of the dynamics of land use in the forest reserves of Pugu and Kazimzumbwi. Analysis of the TRMM data over the period from 2001 to 2013 has allowed revealing a seasonal and inter-annual variability in precipitation across the country. The inter-annual precipitation maps have made it possible to distinguish the years with low rainfall (2003, 2005, 2012 ), the years of high rainfall (2002, 2007, 2006, 2011) and the years of intermediate rainfall (2001, 2007, 2008, 2009, 2013). It has also help to distinguish 11 types of rainfall regimes marked by different patterns of seasonal variability at the scale of Tanzania. There are oppositions between the rainfall regimes of the central savannah region on one hand marked by low annual heights over an important period of seven dry months, also more affected by inter-annual variability, and the northern, southern and eastern forest regions are more humid and presenting low deficits of heights inter-annual rainfall. The sensitivity of plant phenology to rainfall variability has been analyzed by the examination of the spatio-temporal relationships between the standardized vegetation index NDVI-MODIS and rainfall (rain TRMM). The rain / NDVI correlation maps show an opposition between the dry regions of the center marked by savannah landscapes highly vulnerable to rainfall variability and the southern regions of moist forests, mountains and coastal regions, mangrove forests Reacting poorly to this rainfall variability. In the savannah regions of the center, the intensity of rain / NDI dependence is measured by a correlation coefficient of 0.70. A monitoring of the analysis of human pressures on forest reserves was carried out using the example of the Pugu and Kazimzumbwi forests during the period 1995-2015 using SPOT 6 (high resolution) and LANDSAT imagery. The land use classifications were realized from the object oriented method. The forest review shows that in 2015 (55% of which 32% is dense forest), from the two reserves only the reserve of Pugu still preserves nearly the half of its surface in forest while the reserve forest of Kazimzumbwi contains only 5% of its area. Over the entire period studied, the sub-period 2009-2014 was the most critical in terms of forest loss. In fact, within five years the forest reserves of Pugu and Kazimzumbwi have almost lost the double of their area. Based on the increased vulnerability of human pressures in the Pugu and Kazimzumbwi forest reserves and their periphery, a multicriteria analysis has made it possible to identify areas of high and low human pressures. The most vulnerable areas remain those located close to the communication axes and cities. Consequently forest reserves are more vulnerable in their eastern parts, close to major roads and major urban centers such as Pugu and Kazimzumbwi. The use of a model for prospective modeling in 2050 has required the integration of the explanatory variables of the observed changes and the land use maps of 1995 and 2014. The model is validated from a predicted map and a real map. The result shows an exact simulation at 72%, based on this hypothesis of an increase in anthropogenic human pressures on the two forest reserves over time; we have predicted the land use map of 2050 under the effect of explanatory variables. This prospective modeling therefore envisages, by 2050, an expansion and densification of artificial surfaces, notably at the north-eastern periphery of the reserve of Pugu and on the south in the kazimzumbwi reserve. This growth in artificial surfaces will result in a significant decline in existing forest areas within reserves
APA, Harvard, Vancouver, ISO, and other styles
9

Rimetz, Juliette. "Les aérosols de pollution en zone urbaine et industrielle sous influence marine : physico-chimie des particules." Phd thesis, Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-247.pdf.

Full text
Abstract:
Les grands ports de marchandises sont généralement proches de zones urbaines très peuplées et de zones industrielles comportant des raffineries de pétrole, des complexes métallurgiques, des cimenteries, et des transports par rail, par route et par mer. Ces activités font des domaines portuaires des sources très importantes de pollution de l'air. Les mesures de concentrations de NOx, SO2, O3 et des constituants chimiques de la matière particulaire (PM) ont été effectuées en 2005 et 2006 dans l'agglomération du port de Dunkerque dans le cadre de l'Institut lRENI. Dans des conditions de dépression atmosphérique, les vents dominants préservent l'air de la zone urbaine des émissions de la zone d' activité. Par contre dans des conditions anticycloniques, la faible dispersion ainsi que les phénomènes de brise de mer concentrent les émissions locales. Les analyses chimiques effectuées sur des échantillons de PM prélevées en fonction du diamètre aérodynamique (Da) des particules montrent que les ions (Na+, NH4+, Cl-, NO3-, SO4²), les éléments métalliques (Fe, Zn, Pb, Cd, etc. . . ) et les composés organiques (EC, OC) sont associés à des particules sub- et/ou supermicroniques. Les imageries Raman et d'émission X (MEBE-EDS) sont obtenues sur des particules individuelles des fractions 1
APA, Harvard, Vancouver, ISO, and other styles
10

Allard, Julie. "Qualité de l'air dans la Vallée de l'Arve : météorologie locale et mesures des réductions des émissions liées au chauffage au bois." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU020/document.

Full text
Abstract:
La combustion de la biomasse, en particulier le chauffage au bois résidentiel, constitue une source d’émissions fortement contributrice aux concentrations de PM10 en hiver, de façon globale, en Europe. Afin de réduire les émissions de cette source, un programme de large envergure de renouvellement d’appareils de chauffage au bois non-performant, le Fonds Air Bois a été lancé depuis 2013 dans la vallée de l’Arve. Cette action étant amenée à se multiplier en France, l’évaluation de son effet sur les concentrations atmosphériques constitue un enjeu pour les futures politiques de gestion de la qualité de l’air. Le programme PRIMEQUAL DECOMBIO (2013-2018) a été proposé afin de mettre en place des méthodologies permettant d’évaluer l’impact de cette opération sur les concentrations de PM10 à partir de mesures de terrains. Ce programme DECOMBIO, qui a servi de cadre à ce travail de thèse, s’est appuyé sur la confrontation durant 4 hivers des mesures en continu des PM10 issus de la combustion de la biomasse (noté PM10wb), des conditions météorologiques, et des variations d’émissions liées au renouvellement des appareils. Pour répondre à cet enjeu, les travaux de cette thèse ont eu pour objectif de développer des méthodes permettant de prendre en compte l’influence des conditions atmosphériques sur les concentrations hivernales de PM10 et d’évaluer les paramètres et facteurs d’incertitudes permettant de comparer les variations estimées d’émissions de PM10wb avec celles des concentrations mesurées de PM10wb au cours des 4 hivers.Ces travaux se sont appuyés sur d’importantes bases de données de mesures chimiques et météorologiques constitués durant 4 hivers (13-14 à 16-17) au niveau de 3 sites dans la vallée de l’Arve. Par ailleurs, les données techniques issues des dossiers de renouvellements des appareils pour bénéficier de l’aide financière du Fonds Air Bois nous ont été communiquées, nous permettant de spatialiser et temporaliser les réductions des émissions de PM10wb estimées provenant de ces remplacements d’appareils. L’état de la stabilité thermique de l’atmosphère, paramètre essentiel pour déterminer les épisodes d’inversions thermiques, a été suivi en continu grâce à un système peu onéreux de capteurs de température sous abris installés le long des pentes. Ces mesures ont permis de montrer que les conditions météorologiques locales dans ces vallées encaissées sont le facteur premier conditionnant les concentrations atmosphériques. Une classification automatique des conditions atmosphériques a été établie, permettant de s’affranchir de cette variabilité et de comparer les concentrations pour des conditions atmosphériques similaires entre les différents hivers. L’innovation de cette approche repose principalement sur la prise en compte du degré d’influence de variables météorologiques et de paramètres liés à l’intensité des émissions. Une diminution graduelle des concentrations de PM10wb au cours des hivers a ainsi pu être constatée au niveau des 3 sites pour certaines classes de conditions atmosphériques, résultat consolidé par la diminution concomitante des traceurs de la combustion de la biomasse à la masse des PM10. Afin de préciser ces résultats, nous nous sommes intéressés à estimer la réduction des émissions de PM10 des remplacements d’appareils au niveau des sites de mesures et leurs incertitudes.Au terme de ce travail et du programme DECOMBIO, nous avons été à même de développer et de valider plusieurs outils méthodologiques applicables dans l’évaluation de futurs fonds air bois (utilisation de capteurs le long des pentes, classification météorologique adaptée à la qualité de l’air, estimation des incertitudes sur les émissions de parc de dispositifs de chauffage au bois). Ces bases solides nous ont permis de mieux comprendre les mesures réalisées sur les PM atmosphériques, et leurs liens avec les estimations des émissions
Biomass burning, particularly residential wood burning, is a source of atmospheric particles that contributes significantly to winter PM10 levels globally in Europe. In order to reduce emissions from this source, a large-scale program for the renewal of non-efficient wood-burning appliances, the “Fonds Air Bois” has been launched since 2013 in the Arve Valley. The assessment of its impact on atmospheric concentrations is an issue for future air quality management policies. The research DECOMBIO program (2013-2018) has been proposed to evaluate the impact of this operation on PM10 concentrations from measurements. This DECOMBIO program, which includes these thesis works, was based on the confrontation during 4 winters of continuous measurements of PM10 resulting from biomass burning (noted PM10wb), weather conditions, and emissions variations related to appliances renewal. To answer this challenge, the aim of this thesis was to develop methods to take into account the influence of atmospheric conditions on winter PM10 concentrations and to evaluate the parameters and uncertainties that make it possible to compare the estimated PM10wb emission variations with those of the measured PM10wb concentrations during the 4 winters.This work was based on large datasets of chemical and meteorological measurements made during 4 winters (13-14 to 16-17) at 3 sites in the Arve Valley. In addition, the technical data from wood appliances renewal files was provided to us, allowing us to spatially and temporally estimated reductions of PM10wb emissions from these appliances replacements. The state of atmospheric stability, an essential parameter for determining episodes of temperature inversions, has been continuously monitored thanks to an inexpensive system of sheltered temperature sensors installed along the slopes. These measurements have shown that local weather conditions in these valleys are the primary factor conditioning atmospheric concentrations. An automatic weather types classification has been established, making it possible to overcome this variability and to compare the concentrations for similar atmospheric conditions between the different winters. The innovation of this approach is mainly based on taking into account the degree of influence of meteorological variables and parameters related to the intensity of emissions. A gradual decrease of PM10wb concentrations during winters was thus observed at the 3 sites for certain weather types, a result consolidated by the concomitant decrease in tracer biomass combustion at the mass of PM10. To clarify these results, we were interested in estimating the reduction of PM10 emissions from device replacements at measurement sites and their uncertainties.At the end of this work and of the DECOMBIO program, we have been able to develop and validate several methodological tools applicable in the evaluation of future “fonds air bois” (use of sensors along the slopes, meteorological classification adapted to the quality of the air, estimation of uncertainties on wood appliances renewable emissions). This solid foundation has allowed us to better understand the measurements made on atmospheric PM, and their relationship to emission estimates
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!