Articles de revues sur le sujet « Variations structurelles »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Variations structurelles.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 48 meilleurs articles de revues pour votre recherche sur le sujet « Variations structurelles ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.

1

POCH-OLIVE, D., et B. HARMEGNIES. « VARIATIONS STRUCTURELLES DES SYSTÈMES VOCALIQUES EN FRANÇAIS ET ESPAGNOL SOUS L'EFFET DU STYLE DE PAROLE ». Le Journal de Physique IV 02, no C1 (avril 1992) : C1–283—C1–286. http://dx.doi.org/10.1051/jp4:1992160.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Tacnet, Jean-Marc, Elodie Forestier, Eric Mermet, Corinne Curt et Frédéric Berger. « Résilience territoriale : du concept à l'analyse d'infrastructures critiques en montagne ». La Houille Blanche, no 5-6 (octobre 2018) : 20–28. http://dx.doi.org/10.1051/lhb/2018047.

Texte intégral
Résumé :
En montagne, les routes et les infrastructures de transport sont essentielles d'un point de vue économique, social, environnemental et sécuritaire mais également fortement exposées aux phénomènes naturels : les effets indirects dus aux pertes des fonctions de liaison assurées par ces infrastructures critiques s'avèrent très dommageables pour les territoires. Actuellement, la plupart des analyses de risque se concentrent cependant sur des études locales en considérant quasi exclusivement des aspects de vulnérabilité directe liés aux dommages causés aux personnes, biens, infrastructures. À l'échelle territoriale, d'autres techniques permettent de considérer les vulnérabilités indirectes et quantifier la vulnérabilité et la résilience territoriale. Cet article décrit puis discute tout d'abord le concept de résilience avant de proposer une méthodologie appliquée à l'analyse de territoires et de réseaux de transport.Pour ce faire, l'analyse des propriétés structurelles des réseaux combine l'analyse spatiale et la théorie des graphes pour produire des indicateurs structurels évaluant l'importance, la criticité de sections de route mais aussi l'accessibilité de territoires dans le contexte de risques naturels. L'indicateur de centralité, par exemple, évalue le niveau d'utilisation d'une route pour accéder à tout point du territoire (une mesure de l'importance). L'évolution de l'indicateur d'éloignement moyen (topologique) quantifie la difficulté d'accès aux points du territoire sur la base des contraintes sur le réseau liées aux phénomènes naturels. GeoGraphLab (GGL) est un nouveau logiciel libre qui utilise cette méthodologie pour l'analyse d'infrastructures de réseaux. En utilisant ces techniques, les réseaux sont étudiés pour plusieurs scénarios d'exposition et de défaillance pour évaluer leur vulnérabilité et la résilience territoriale quantifiée à partir des variations relatives d'indicateurs structurels.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Godih, Djamel, Mohammed Lazreg et Mohammed Kameli. « Plaidoyer pour une bonne gouvernance des politiques publiques ». les cahiers du cread 38, no 3 (3 septembre 2022) : 283–320. http://dx.doi.org/10.4314/cread.v38i3.11.

Texte intégral
Résumé :
Les politiques publiques se caractérisent d’une part, par des politiques conjoncturelles qui sont des politiques ayant trait à des variations de court terme de l’activité économique et d’autre part, par des politiques structurelles qui portent sur l’évolution à long terme des structures de l’économie et du social. Toutefois, pour asseoir et promouvoir des politiques publiques efficientes, il y a lieu de mettre en oeuvre la bonne gouvernance. L’objectif principal de notre article, est de mettre en exergue le fait que la bonne gouvernance contribue efficacement à la concrétisation des politiques publiques. Les principaux résultats de notre papier mettent en évidence les effets induits par la bonne gouvernance sur les politiques publiques.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Paugam, Serge, et Marion Selz. « La perception de la pauvreté en Europe depuis le milieu des années 1970. Analyse des variations structurelles et conjoncturelles ». Economie et statistique 383, no 1 (2005) : 283–305. http://dx.doi.org/10.3406/estat.2005.7203.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Hayez, Jérôme. « La voix des morts ou la mine de données : deux siècles et demi d’édition des correspondances privées des XIIIe-XVIe siècles ». Mélanges de l École française de Rome Moyen Âge 117, no 1 (2005) : 257–304. http://dx.doi.org/10.3406/mefr.2005.10927.

Texte intégral
Résumé :
Une tentative de recensement des éditions de correspondances pratiques écrites en Europe occidentale au cours de cette période (bibliographie en annexe) nous incite à nous interroger sur l’histoire de leur redécouverte. La pratique éditoriale qui se met en place à partir du XVIIIe siècle, avec des variations nationales marquées, s’émancipe des filons des biographies d’hommes illustres et du canon littéraire pour constituer peu à peu ces écrits anciens en source historique. Si les érudits offrent d’abord aux amateurs une lecture esthétisante ou morale, prévaut à partir de 1900 une exploitation par les philologues et les historiens de spécialités variées, au détriment d’une analyse de la forme d’écriture. Le regain d’intérêt que connaît la source depuis une vingtaine d’années, motivé surtout par les perspectives de l’histoire sociale, favorisera peut-être un retour réflexif et comparatiste, plus attentif aux dimensions structurelles de l’acte discursif, de la relation interpersonnelle, du réseau épistolaire et du fonds d’archives.
Styles APA, Harvard, Vancouver, ISO, etc.
6

De Jaeger, Dominique, et Nicole Schepens-Boisacq. « La préparation au mouvement dans le cadre des praxies motrices complexes : Rôle spécifique de l'aire motrice supplémentaire ». STAPS 11, no 21 (1990) : 33–45. http://dx.doi.org/10.3406/staps.1990.1546.

Texte intégral
Résumé :
Cet article tente de synthétiser d’une manière cohérente les données expérimentales récemment acquises dans le domaine des processus neurophysiologiques préalables et sous-jacents au mouvement, en se centrant sur la contribution spécifique de l’aire motrice supplémentaire (A.M.S.). Parmi les résultats retenus, certains sont issus d’expériences classiques chez l’animal (stimulations et lésions d’aires corticales), d’autres ont été obtenus grâce à des techniques plus sophistiquées d’observation et d’enregistrement, appliquées tant chez l’homme que chez l’animal. Les techniques récemment développées permettent, en effet, de mettre en évidence les structures corticales plus spécifiquement impliquées dans l’une ou l’autre phase de la préparation motrice. Ainsi, s’agissant de la programmation des séquences motrices complexes apprises - telles que mises en oeuvre en gymnastique sportive -, les données soulignent le rôle de l’aire motrice supplémentaire (A.M.S.) : son interaction fonctionnelle, déjà apparente dans les études morphologiques, structurelles et d’expérimentation classique, paraît mieux précisée par les méthodes dynamiques d’enregistrement des potentiels corticaux et des variations du flux sanguin cérébral régional. La présentation des données est suivie d’une brève discussion, débouchant sur la formulation de notre hypothèse et de quelques propositions pour la recherche future, en rapport avec l’apprentissage moteur de praxies sportives.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Aglietta, Michel, et Camille Baulant. « Contrainte extérieure et compétitivité dans la transition vers l'union économique et monétaire ». Revue de l'OFCE 48, no 1 (1 janvier 1994) : 7–54. http://dx.doi.org/10.3917/reof.p1994.48n1.0007.

Texte intégral
Résumé :
Résumé La convergence réelle n'a pas été directement adressée dans les critères formels du Traité de Maastricht. Elle hante pourtant la crise monétaire européenne et alimente le doute sur la réalisation de IVEM. La convergence réelle concerne la capacité d'un pays d'absorber des chocs asymétriques sans recourir à une modification de son taux de change nominal. C'est aussi à plus long terme la possibilité pour un pays de préserver la croissance compatible avec le meilleur emploi de ses ressources au sein d'une union monétaire. Les moyens de la convergence réelle doivent être recherchés du côté de l'offre dans la combinaison des facteurs de la compétitivité-prix et de la compétitivité hors prix. Le présent article étudie ces facteurs à la fois théoriquement et empiriquement pour mesurer les forces et faiblesses des cinq plus grands pays de la Communauté. Les différences structurelles entre ces pays demeurent considérables. Seules la France et l'Allemagne paraissent capables de soutenir la concurrence du marché unique sans modification tendancielle des taux de change réels. Pour les autres pays, les variations des taux de changes nominaux depuis septembre 1992 ont aidé les dépréciations réelles qui demeurent indispensables.
Styles APA, Harvard, Vancouver, ISO, etc.
8

MASTROIANNI, Michèle. « Un écrit inédit d’Henry Bauchau : la « traduction » d’une idée préliminaire pour Œdipe sur la route ». Revue internationale Henry Bauchau. L’écriture à l’écoute, no 4 (15 juin 2012) : 130–46. http://dx.doi.org/10.14428/rihb.v0i4.17013.

Texte intégral
Résumé :
Michele Mastroianni s’interroge sur ce que signifie Henry Bauchau lorsqu’il se dit « le traducteur infidèle » de quelque chose qui a voulu parler à travers lui dans le moment de l’inspiration. Pour ce faire, il analyse comparativement la première et la deuxième version d’Œdipe sur la route, sur le plan des variations lexicales et syntagmatiques. L’analyse structurelle révèle les mécanismes d’intratextualité propres à l’écrivain, et repère cinq mouvements fondamentaux dans son processus d’écriture.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Hung, N. M. « L’instabilité structurelle dans le modèle de croissance avec ressource non renouvelable ». Articles 57, no 3 (21 janvier 2009) : 387–406. http://dx.doi.org/10.7202/600991ar.

Texte intégral
Résumé :
ABSTRACT The analysis of the question of structural stability in the growth model with exhaustible resources consists essentially in the examination of the long term values of capital and consumption as they result from parametric variations. The parameters used in this study relate to ethic (discount rate) and to technology (elasticity of substitution between resource and capital and technical progress). Considering the structural stability, the already known results are generalized in two directions. First, a general description of production technology is made. Second, a special attention is given to the question of technological innovation. An analysis of the form of the Hicksian neutral technical progress is made considering an economy with a Cobb-Douglas production function.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Thiebaut, Georges-Charles, Lambert Farand et Marie-Josée Fleury. « Politiques et plans d’action en santé mentale dans l’OCDE : leçons pour le Québec ? » Santé mentale au Québec 39, no 1 (10 juillet 2014) : 65–84. http://dx.doi.org/10.7202/1025907ar.

Texte intégral
Résumé :
Cette étude examine les politiques de santé mentale énoncées au cours des quinze dernières années par les pays de l’OCDE et les provinces canadiennes afin d’en décrire les variations, d’identifier certaines configurations et d’en tirer des leçons pour le Québec. Vingt et une politiques sont analysées en faisant appel à un modèle conceptuel dérivé de la théorie de l’action sociale de Parsons. Les politiques varient en termes de différenciation (besoins et groupes priorisés, niveaux d’intervention, finalités, bases factuelles, niveaux de spécification), en termes d’intégration (mécanismes d’efficacité variable allant du fonctionnement en créneaux à l’intégration complète de certaines composantes) et en termes de gouvernance (théories de programme plus ou moins explicites ou fondées, importance variable donnée aux structures, aux processus et aux résultats, mécanismes d’imputabilité et de financement, systèmes d’information et gouvernance clinique variables). Cinq configurations sont identifiées : santé publique, professionnelle, technocratique structurelle, technocratique fonctionnelle et politique. La politique québécoise actuelle, correspondant à une configuration technocratique structurelle, pourrait être bonifiée par le renforcement de ses aspects de santé publique, professionnels et fonctionnels si les obstacles politiques pouvaient être surmontés.
Styles APA, Harvard, Vancouver, ISO, etc.
11

CARDOSO, Fernando H. « Les obstacles structurels et institutionnels au développement ». Sociologie et sociétés 2, no 2 (30 septembre 2002) : 297–316. http://dx.doi.org/10.7202/001119ar.

Texte intégral
Résumé :
Résumé Plutôt que d'adopter une approche " culturaliste " des obstacles au développement ou de reprendre l'opposition " traditionnel-moderne " dans ses acceptions classiques d'échelle ou d'antinomie, l'auteur étudie le développement sous l'angle des combinaisons plus ou moins particulières auxquelles donne lieu l'interaction de différents modes de production dans une société donnée, ainsi que des obstacles résultant de cette même combinaison. Dans cette optique, F. H. Cardoso analyse tout d'abord la variation produite dans le mode de production qui prévalait au xixe siècle en Amérique latine par suite de la combinaison entre, d'une part, la prise de contrôle par l'étranger de l'économie d'exportation et une technologie plus développée et, d'autre part, les moyens de participation au pouvoir des groupes locaux et l'utilisation des richesses. Ainsi, dans les " économies d'enclave ", l'ancienne classe dirigeante exerce une domination proprement politique et, faute d'une couche locale d'entrepreneurs, l'édification d'une économie interne nécessite une révolution sociale et politique plus ou moins profonde et l'interventionnisme de l'État, alors qu'ailleurs le modèle reste plus libéral. Indépendamment de cette variante, dans tous les pays à industrialisation très tardive, le système de production national est dans une position de dépendance structurelle de par sa seule intégration à la société industrielle moderne : les caractéristiques qui lui sont imposées, en matière technologique par exemple, accentuent le phénomène de la marginalité et créent une nouvelle dualité au sein même du secteur industriel-urbain. C'est donc le modèle même de développement qui engendre ici ses obstacles et non la résistance d'institutions liées à la culture traditionnelle.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Mei, Mingxiang, Muhammad Riaz, Ardiansyah Koeshidayatullah, Ziliang Liu, Mohamed S. Ahmed et Douaa Fathy. « The Role of Cyanobacteria In the Microfabric Heterogeneity of Cambrian Leiolite, North China ». Journal of Sedimentary Research 93, no 8 (24 août 2023) : 503–21. http://dx.doi.org/10.2110/jsr.2022.035.

Texte intégral
Résumé :
ABSTRACT Based on their mesostructures, carbonate microbialites are divided into four major groups: laminated stromatolite, clotted thrombolites, structureless leiolites, and dendritic dendrolite. Among the various types of microbialites, leiolites, also known as “cryptomicrobial deposits,” are uncommon in the stratigraphic records. This is exacerbated by leiolites relatively structureless and aphanitic structure, making their identification and characterization more challenging. Previous studies have revealed that leiolites have contrasting fabrics at different scale, heterogeneous microscopic fabrics and structureless mesoscopic to macroscopic fabrics. While it is widely assumed that cyanobacteria play a significant role in the formation of carbonate microbialites in marine environments, the origin and controlling mechanisms of variations in leiolites microstructures and macrostructures remain enigmatic. In the central part of the North China Platform, two excellent exposures of massive, structureless Cambrian bioherms (Furongian) dominated by leiolites were observed (Qijayu section). The Qijayu-section leiolites offer a unique opportunity to investigate the role of cyanobacterial input in governing the formation and textural heterogeneities of such microbialites. In addition, the significance of the Furongian leiolites stems from their association with a period of global development of microbial-dominated carbonate platforms. Our findings suggest that these Furongian leiolites developed during the forced-regressive systems tract. At the microscopic level, these Furongian leiolites exhibit a high degree of heterogeneity which is controlled by the presence of various types of cyanobacteria (Hedstroemia, Subtifioria, Girvanella), sponge mummy, and benthic ooids. The Hedstroemia, Subtifioria and Girvanella excreted extracellular polymeric substances that form multiple biofilms in cyanobacterial microbial mats where Furongian leiolites grew. The role of cyanobacteria in the microscale heterogeneity of Cambrian leiolites is evident, and this provides new insights into the development of microbial-dominated carbonate platforms in similar settings elsewhere. As a result, this study provides not only a reference example for global correlation but also some solid clues for further understanding the growth style of leiolites in the geologic record.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Desvignes, Guy, Véronique Barthes et Alain Tabbagh. « Direct determination of the natural remanent magnetization effect in a hole drilled in layered ground from magnetic field and susceptibility logs ». GEOPHYSICS 57, no 7 (juillet 1992) : 872–84. http://dx.doi.org/10.1190/1.1443300.

Texte intégral
Résumé :
A new method as presented, allows the joint interpretation of both electromagnetic (EM) and magnetic logs in layered ground, based on the fact that the susceptibility responses for these two measurements are linear. Thus we can make use of the classical properties of the Fourier transform to extract from these two signals the magnetic field due to remanent magnetization. Theoretical models show that for a sufficient sample step this remanent magnetization can be recovered, even if the Koenigsberger ratio is of the order of 0.2 and if the thickness of the magnetized layer is of the order of 1 m. The results for two case examples in a sedimentary context are also shown. Despite the difficulties due to experimental procedures, we show that the amplitude of the extracted information is significant in these two cases, even if its variations are somewhat structureless and cannot be easily explained by the geology.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Anastasio, Simona. « L’expression du déplacement en italien L2 ». Language, Interaction and Acquisition 10, no 2 (4 novembre 2019) : 204–28. http://dx.doi.org/10.1075/lia.19003.ana.

Texte intégral
Résumé :
Résumé Cet article vise à analyser la conceptualisation spatiale dans une tâche narrative orale (Frog story) chez des adultes apprenants d’italien langue seconde (L2) qui se distinguent (a) par leur langue maternelle (L1, anglais ou français) et (b) par leur niveau de compétence en L2 (intermédiaire vs avancé). Pour ce faire, nous adoptons une méthodologie impliquant des comparaisons entre les récits de groupes natifs et non natifs ayant accompli la même tâche, afin de comprendre de quelle manière les apprenants se rapprochent de la langue cible (LC) et s’ils sont influencés par leur L1 lors du discours spatial en L2. Les usages natifs des locuteurs des L1 observées confirment les différences inter-typologiques entre les langues à cadrage verbal, le français et l’italien, et à cadrage satellitaire, l’anglais (Talmy, 1985, 2000). Néanmoins, une variation intra-typologique entre l’italien et le français est attestée : seul l’italien exploite des constructions satellitaires. Les données en L2 révèlent que les productions des apprenants intermédiaires sont assez similaires quelle que soit la L1, alors que des phénomènes évidents de transfert conceptuel sont attestés aux stades avancés lorsqu’il y a des similarités structurelles entre la langue source (LS) et la LC et que l’input en fournit une évidence positive.
Styles APA, Harvard, Vancouver, ISO, etc.
15

KROTSCHECK, E., et M. D. MILLER. « GENERIC ELECTRON MOBILITY IN SURFACE STATES ON HELIUM FILMS ». International Journal of Modern Physics B 21, no 13n14 (30 mai 2007) : 2103–14. http://dx.doi.org/10.1142/s0217979207043506.

Texte intégral
Résumé :
We study the mobility of electrons adsorbed to thin 4 He films. Utilizing the time-dependent version of the Euler-Lagrange, hypernetted chain variational theory, we compute the inelastic scattering rate of an electron due to collisions with film excitations (third sound). We obtain an analytic result valid in the long wavelength limit. In agreement with experiment, the mobility shows oscillations due to the underlying transverse film structure. The oscillations are explicitly due to the appearance of the third sound speed in the scattering rate since the third sound speed itself oscillates in conjunction with the 4 He film structure. The mobilities tend to be higher than reported mobilities on thin films, which we attribute to substrate structure. We interpret our results as generic mobilities that are valid in the limit of perfectly smooth, structureless substrates.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Dillinger, R., et G. Gliemann. « Polarized Low Temperature Luminescence of Single Crystal Pentacarbonylpyridinotungsten(0)-Complexes ». Zeitschrift für Naturforschung A 41, no 8 (1 août 1986) : 1071–78. http://dx.doi.org/10.1515/zna-1986-0816.

Texte intégral
Résumé :
Polarized luminescence spectra of single crystal W (CO )5-X (with X = pyridine, 4-methylpyridine, 4-t-butylpyridine, 3,4-dimethylpyridine, 4-am inopyridine, 3-acetylpyridine, 3,5-dibromopyridine, 3-benzoylpyridine, 4-formylpyridine) at low temperatures (1.9 K≦ T ≦ 80 K) are reported.Depending on the nature of the pyridine substituent the emitting state is either a ligand field (LF) state or a metal to ligand charge transfer (CT) state. This results in drastic differences in both bandshape and temperature behaviour of the luminescence spectra. The CT-luminescence is structureless and is not influenced by temperature variation, whereas the LF-lum inescence spectra exhibit in most cases a distinct vibrational fine structure at low temperatures and show a remarkable temperature dependence.The emission spectra of single crystal W (CO )5-3,4-dim ethylpyridine and W (CO )5-pyridine can be strongly influenced by magnetic fields (H ≦ 6 T).The results are explained within a model assuming molecular C4v symmetry and regarding spin orbit coupling.
Styles APA, Harvard, Vancouver, ISO, etc.
17

White, Scott M., Erin Smoak, Andrew L. Leier et Alicia M. Wilson. « Small Muddy Paleochannels and Implications for Submarine Groundwater Discharge near Charleston, South Carolina, USA ». Geosciences 13, no 8 (2 août 2023) : 232. http://dx.doi.org/10.3390/geosciences13080232.

Texte intégral
Résumé :
The spatial variations in Quaternary sediments on the inner continental shelf are produced by the progression of depositional environments during the latest sea-level rise, and this sedimentary architecture plays a fundamental role in controlling groundwater discharge. However, coincident seismic mapping, sediment cores, and hydrological studies are rare. Here, we combine high-resolution, 0.5–10 kHz, high-frequency seismic profiles with sediment cores to examine the nature of the sediment deposits, including paleochannels, where submarine groundwater discharge has also been studied in a 150 km2 area of the inner shelf north of Charleston, South Carolina. We used high-frequency seismic reflection to interpret seismic facies boundaries, including 16 paleochannel crossings, to 20 km offshore. From 13 vibracores taken at the intersections of the seismic lines, we defined seven lithofacies representative of specific depositional environments. The paleochannels that we cored contain thick layers of structureless mud sometimes interbedded with silt, and mud is common in several of the nearshore cores. Our results indicate that paleochannels are often mud-lined or filled in this area and were most likely former estuarine channels. Neither the paleochannels nor a mud layer were found farther than 11 km off the present shoreline. This offshore distance coincides with the strongest pulses of groundwater discharge, emerging just beyond the paleochannels. This suggests that the muddy paleochannel system acts as a confining layer for submarine groundwater flow.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Cukur, Deniz, In-Kwon Um, Jong-Hwa Chun, Gwang-Soo Lee, Gee-Soo Kong, Samuel Y. Johnson et Senay Horozal. « Deepwater debrites and linked megaturbidites in confined basins : An example from the Onnuri Basin, East Sea of Korea ». Journal of Sedimentary Research 91, no 1 (31 janvier 2021) : 1–20. http://dx.doi.org/10.2110/jsr.2020.115.

Texte intégral
Résumé :
ABSTRACT We analyzed data from seven piston cores, multi-channel seismic-reflection (MCS) and chirp profiles, and multibeam echosounder (MBES) data to study the distribution, emplacement time, sedimentary facies, and depositional processes of sediment-gravity-flow deposits in the Onnuri Basin, a confined basin in the East Sea. These data reveal that debris flows have traveled ca. 30 km downslope, forming a seismic facies consisting of stacked, wedge-shaped, transparent units separated by high-amplitude continuous reflectors. Analysis of piston cores shows three distinct sedimentary units, throughout the basin. The lowest unit, I, is a debrite containing numerous mud clasts of varying size and color distributed in a mud-rich matrix; it is absent over elevated basinal highs or ridges, such as the Onnuri Ridge, suggesting that local topography controls its distribution. The debrite forms a recognizable acoustically transparent layer on subbottom chirp profiles (av. 7 m thick), covers approximately 500 km2, and has an estimated volume of ∼ 3.5 km3. The overlying unit, II, contains normally graded beds composed of massive sand, laminated and cross-laminated sand and silt, and a thick cap of structureless mud. This unit is interpreted to be a megaturbidite deposited from turbidity currents that originated from the flow transformation of debris flows on the upper continental slope. The megaturbidite covers the entire basin (at least 650 km2), and has an average thickness of 2.8 m (maximum thickness of 4.35 m), and comprises a volume of 1.8 km3. Variations in grain size and sedimentary structures suggest that the megaturbidite was deposited by progressively waning flows that reflected off basin flanks and ridges. The thick (up to 3.65 m) structureless mud cap further indicates deposition in a confined basin. The sharp basal contact, together with the lack of hemipelagic sediments between debrite and overlying megaturbidite, suggest that both were deposited during the same flow event, likely to have originated from a single catastrophic slope failure. Collapsing slide material evolved into a debris flow, from which a turbidite formed by dilution of the debris flow. Radiocarbon dates suggest that the slope failure occurred about 13–11 ka, a time when sea level was ca. 50 m lower than at the present day. Hemipelagic sediments in the topmost unit, III-2, above the megaturbidite indicate that the basin has been stable since ca. 11 ka. We provide robust evidence that submarine slope failures evolve downslope into slides, debris flows, and finally, thick megaturbidites. This contribution highlights the importance of seafloor morphology on the distribution and stratigraphy of submarine flows in confined basins.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Fall, Amar, et Assane Ndao. « Reconnaissance « sociale » au travail, motivation intrinsèque et performance des agents d’un hôpital public sénégalais ». Gestion et management public Volume 12 / N° 1, no 1 (27 mars 2024) : 9–28. http://dx.doi.org/10.3917/gmp.121.0009.

Texte intégral
Résumé :
Cette recherche examine les relations entre la reconnaissance de la part des supérieurs hiérarchiques, la motivation intrinsèque et la performance au travail. Elle soulève une problématique partiellement explorée en comportement organisationnel, notamment dans le milieu hospitalier. Prenant appui sur un échantillon de 158 agents d’un hôpital public sénégalais, cette recherche apporte un début de réponse à de nombreux travaux théoriques qui aboutissent à la conclusion d’un effet potentiellement plus puissant de la reconnaissance dite sociale, comparativement à la reconnaissance dite financière. Les résultats, issus d’une modélisation par équations structurelles sous LISREL, complétée par une analyse des effets indirects (Hayes, 2013), montrent que la reconnaissance de la part des supérieurs hiérarchiques peut effectivement constituer un déterminant majeur de la motivation et de la performance au travail. En effet, cette forme de reconnaissance au travail présente un fort pouvoir explicatif de la motivation et de la performance des agents. Plus précisément, elle est fortement associée à leur motivation intrinsèque et à leur performance dans la tâche. Elle explique au moins 23 % de la variation de la motivation des agents et plus de 74 % de leur performance dans la tâche lorsque ces derniers sont intrinsèquement motivés. Par conséquent, cette recherche apporte un soutien empirique notable à de nombreuses avancées théoriques, non encore élucidées d’un point de vue pratique. Elle permet, en revanche, de noter que l’influence positive de la reconnaissance de la part des supérieurs hiérarchiques sur la performance au travail dépend, en réalité, du type de performance évaluée : performance dans la tâche ou performance contextuelle. Parallèlement, cette recherche met en évidence le rôle déterminant de la motivation intrinsèque pour favoriser la performance des agents. Elle implique ainsi des contributions théoriques et managériales quasi inédites, résultant d’une recherche dont les prémisses théoriques n’ont pas encore suffisamment de réponses.
Styles APA, Harvard, Vancouver, ISO, etc.
20

BARNOUIN, J., N. GEROMEGNACE, M. CHASSAGNE, N. DORR et P. SABATIER. « Facteurs structurels de variation des niveaux de comptage cellulaire du lait et de fréquence des mammites cliniques dans 560 élevages bovins répartis dans 21 départements français ». INRAE Productions Animales 12, no 1 (23 février 1999) : 39–48. http://dx.doi.org/10.20870/productions-animales.1999.12.1.3853.

Texte intégral
Résumé :
Une enquête épidémiologique a été menée dans 560 élevages de vaches laitières situés dans 21 départements français, grâce à une collaboration entre l’Unité d’Ecopathologie de l’INRA et les Contrôles Laitiers. Les élevages, sélectionnés de manière aléatoire dans chaque département, ont été répartis en deux groupes. Le premier groupe était constitué d’élevages à concentration cellulaire du lait de tank inférieure à 250 000 cellules/ml (élevages CE-), et le second d’élevages à concentration cellulaire supérieure à 300 000 cellules (élevages CE+). La fréquence des mammites cliniques a été déterminée dans les élevages, qui ont été répartis en trois groupes, en fonction de la fréquence des mammites. Le groupe MA- a été constitué par les élevages à fréquence de mammite inférieure à 15 %, le groupe MA+ par les élevages à fréquence égale ou supérieure à 15 %, le groupe MA? correspondant aux élevages dans lesquels la fréquence de mammite n’a pu être évaluée. Les facteurs de variation structurels des niveaux de comptage cellulaire et de fréquence de mammite clinique ont été étudiés à l’aide de modèles de régression logistique multiple. La fréquence moyenne des mammites cliniques a été de 24,3 %, les caractéristiques de l’échantillon étudié étant proches de celles de l’ensemble des élevages français. Les modalités ayant caractérisé les élevages CE-, par rapport aux élevages CE+, sont une fréquence inférieure de mammites cliniques, la race Montbéliarde, un fort pourcentage de primipares, une production laitière plus élevée, une plus grande facilité à dépister et à traiter les mammites. Au sein du groupe CE-, les variables ayant caractérisé les élevages MA- par rapport aux élevages MA+, sont une production laitière inférieure et une moindre difficulté à traiter avec succès les mammites. Ces résultats sont discutés dans le cadre de l’élevage français, notamment dans le but de fournir des éléments méthodologiques à de futures études concernant les facteurs de risque et les moyens de maîtrise des mammites.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Fukuda, Sojiro, et Hajime Naruse. « Shape difference of mud clasts depending on depositional facies : application of newly modified elliptic Fourier analysis to hybrid event beds ». Journal of Sedimentary Research 90, no 10 (1 octobre 2020) : 1410–35. http://dx.doi.org/10.2110/jsr.2020.67.

Texte intégral
Résumé :
ABSTRACT Hybrid event beds are the deposits from sediment gravity flows that change their rheological behavior through their passage, entraining muddy sediments and damping turbulence. Muddy facies of hybrid event beds are often associated with abundant mud clasts which show a wide variety of size and shape. The variation of clast occurrence in hybrid event beds is expected to preserve the information of entrainment and transport processes of muddy sediments in submarine density currents. However, previous analyses of hybrid event beds have focused on describing the overall clast occurrence rather than the statistical size and shape analyses because traditional shape parameters are incapable of characterizing the complex shape of mud clasts. Here, a new quantitative grain-shape analysis of mud clasts is conducted and allows visualization of the spatial variation of clast size and shape, which suggests the wide variety of origin and transport systems of entrained mud clasts. This new method revises the traditional elliptic Fourier analysis, substituting Fourier power spectra (FPS) for traditional elliptic Fourier descriptors to overcome the mirror-wise shape problem. Further, principal-component analysis is shown to capture significant shape attributes more effectively than traditional shape parameters. The proposed method is applied to mud clasts in sediment-gravity-flow deposits in the lower Pleistocene Otadai Formation, central Japan. Results imply that there are distinctive shape and size differences of mud clasts that are strongly associated with depositional facies rather than the distance from the source. The clasts have a higher angularity than other facies in the debrite intervals in hybrid event beds. It is also shown that clasts in sandy, structureless facies have different characteristics in shapes based on elongation and convexity compared to laminated facies. Comparison between different shape-analysis methods demonstrates that none of the traditional methods are able to visualize these trends as effectively as the method presented herein. These results highlight the importance of the quantitative shape analysis of sediment grains and the effectiveness of FPS-based elliptic Fourier analysis.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Esposito, Tonino, Johanna Caldwell, Martin Chabot, Sonia Hélie et Nico Trocmé. « What if Universal Services Don’t Have a Universal Impact ? A Spatial Equity Perspective on the Prevalence of Child Protection Intervention in a Canadian Province ». Revue française des affaires sociales, no 3 (5 décembre 2023) : 31–48. http://dx.doi.org/10.3917/rfas.233.0031.

Texte intégral
Résumé :
Au cours des dernières décennies, des preuves solides ont montré que les vulnérabilités socio-économiques au niveau de la famille et du quartier sont significativement associées à un risque plus élevé d’intervention de la protection de l’enfance. Pour les enfants et les familles de la province canadienne du Québec, les dépenses relativement élevées consacrées aux services universels et ciblés et aux transferts de revenus ont permis de réduire les inégalités de revenus à l’un des niveaux les plus bas d’Amérique du Nord. Bien que l’intervention du système de protection de l’enfance soit censée être « exceptionnelle », des données récentes sur la prévalence de l’intervention de la protection de l’enfance au Québec montrent que l’intervention de la protection de l’enfance au cours de l’enfance est assez similaire aux taux d’autres juridictions ayant des régimes de protection de l’enfance similaires, mais des niveaux de soutien social variés. Ce commentaire s’appuie sur les résultats récents de la prévalence au Québec pour illustrer comment les résultats en matière de protection de l’enfance varient de manière significative entre les zones géographiques malgré l’allocation de services universels dans toute la province. Plus précisément, nous illustrons ces disparités entre des régions présentant des vulnérabilités socio-économiques et des densités de population variées. À travers une lentille théorique d’équité spatiale, nous examinons les explications possibles des disparités dans les résultats de la protection de l’enfance à travers les géographies, en considérant l’accessibilité, la disponibilité et la pertinence des prestations, le risque différentiel lié aux histoires structurelles et coloniales, et la variation de la perception du risque liée aux situations familiales – tous ces éléments peuvent également avoir un impact sur l’efficacité des politiques universelles à atteindre les familles et à avoir un impact positif souhaité sur leur vie. Cette discussion invite les décideurs politiques, les praticiens et les chercheurs des juridictions dotées de politiques universelles à examiner dans quelle mesure ces politiques s’alignent sur les besoins uniques d’une population. Pour que les services universels aient un impact universel, il doit être prouvé que des résultats équitables sont obtenus plutôt que simplement envisagés.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Russell, W. B., et G. H. La Roi. « Natural vegetation and ecology of abandoned coal-mined land, Rocky Mountain Foothills, Alberta, Canada ». Canadian Journal of Botany 64, no 7 (1 juillet 1986) : 1286–98. http://dx.doi.org/10.1139/b86-177.

Texte intégral
Résumé :
The natural vegetation and spoils of two abandoned, unreclaimed coal mines in the Mountain Park area were studied quantitatively in 34 stands. After 26 years of abandonment the vegetation of both Townsite and West Mine was sparse. Total plant cover was usually < 10% and isolated plants were common. The communities were dominated by perennial grasses and forbs. Seven plant community types were recognized: (i) Festuca rubra – Epilobium angustifolium, (ii) Agropyron latiglume –Agropyron repens, and (iii) Agropyron spp. – Artemisia borealis on the Townsite; and (iv) Equisetum arvense – Potentilla fruticosa, (v) Agoseris glauca – Crepis nana, (vi) Agropyron latiglume – Crepis elegans, and (vii) Crepis nana – Eriogonum androsaceum on the West Mine. The spoil materials were generally coarse textured and structureless, consisting of rock fragments and loose single grains. Spoil samples were analysed for 20 physical and chemical properties. Variation in spoil properties appeared to strongly influence plant distribution and community development. Total plant cover and species richness were correlated with several spoil properties; highest correlations were with fine earth content (<2 mm) and clay content on the Townsite and West Mine sites, respectively. Slope position strongly influenced plant distribution on both study sites. Total plant cover, species richness, and the frequency of most species were highest at the slope base and lowest at the upper slope, midslope, and (or) crest positions. The sites were only 1.2 km apart, differed only 30 m in elevation, and were abandoned for the same length of time. Nevertheless, they differed edaphically and supported significantly different plant communities.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Di Donna, Alice, Fabrice Emeriault, Lionel Demongodin et Jean-François Gobichon. « Aspects géotechniques et énergétiques des géostructures thermoactives : application à un cas d’étude réel ». Revue Française de Géotechnique, no 164 (2020) : 4. http://dx.doi.org/10.1051/geotech/2021001.

Texte intégral
Résumé :
La technologie des géostructures énergétiques consiste à adapter les structures géotechniques, comme les pieux de fondation, les parois moulées ou les tunnels, afin de les transformer en échangeurs de chaleur avec le sol. De fait, ce sont des systèmes géothermiques à basse enthalpie, avec le gros avantage de réduire les coûts initiaux d’installation grâce à l’utilisation des structures géotechniques qui seraient réalisées dans tous les cas. Les échanges de chaleur entre la géostructure et le sol induisent des variations de température cycliques sur les deux, et l’efficacité du système doit répondre à la fois à des critères énergétiques (bonne production de chaleur ou de froid) et géotechniques-structurels (analyse des contraintes et déformations thermiques du sol et de la structure en béton), qui dépendent fortement des conditions locales du site accueillant la construction. Il s’agit donc d’un système complexe avec un comportement dépendant de différents phénomènes thermiques, hydrauliques et mécaniques, éventuellement couplés, à la fois dans le sol et dans la structure. Dans un premier temps, une vue globale des différents aspects qui jouent un rôle important dans le comportement géotechnique et énergétique des géostructures thermoactives est présentée, depuis l’échelle de l’élément de sol jusqu’à celle de l’ouvrage. Ensuite, un cas récent d’application de la technologie aux parois moulées de la gare Jules Ferry de Rennes, en France, est décrit et analysé. D’abord, les premières mesures des Tests de Réponse Thermique Opérationnels (T.R.T.O.) réalisés sur le site d’étude sont discutées. Ensuite, l’analyse porte sur les résultats de la modélisation thermo-hydraulique (TH) par éléments finis du cas d’étude et la comparaison avec les mesures in situ. Le modèle numérique permet de reproduire correctement les données expérimentales quand un écoulement souterrain est pris en compte. Les résultats montrent une bonne efficacité énergétique de la technologie qui se confirme très prometteuse.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Harris, Chris, et Geoffrey H. Grantham. « Geology and petrogenesis of the Straumsvola nepheline syenite complex, Dronning Maud Land, Antarctica ». Geological Magazine 130, no 4 (juillet 1993) : 513–32. http://dx.doi.org/10.1017/s0016756800020574.

Texte intégral
Résumé :
AbstractThe 170 Ma Straumsvola nepheline syenite complex in western Dronning Maud Land, Antarctica, is located on the eastern edge of the Penck-Jutul Trough, a major tectonic feature which may be a Palaeozoic-Mesozoic rift system. The 5 km diameter pluton consists entirely of nepheline syenite and can be divided into two volumetrically important units: a relatively structureless outer zone which is overlain by a layered zone. The latter exhibits continuous rhythmic alternations of layers containing different proportions of alkali feldspar to amphibole+Na-rich pyroxene+biotite+nepheline throughout its 350 m thickness. The mafic zone is a volumetrically minor unit which unconformably overlies the layered zone and consists almost entirely of mafic minerals and nepheline. The layered zone shows no systematic stratigraphic variation in major or trace composition or mineral chemistry which is interpreted as being due to a combination of migration of intercumulus liquid and action of deuteric fluids. The remarkably constant thickness of successive layers throughout the layered zone suggests that layering resulted from an internally self-regulating process(es). The layering is defined by changing proportions of alkali feldspar to mafic minerals+nepheline which is consistent with layering being caused by differences in nucleation rate during eutectic crystallization. Dykes associated with the complex show wide-ranging compositions and include both over-and undersaturated types. Low σ18O values of the nepheline syenites (mean 5.9%, n = 9) suggest that the magma from which the nepheline syenites crystallized was mantlederived. Peralkaline microgranite dykes have higher σ18O values (mean 7.3%, n = 4) and it is suggested that they are either undersaturated liquids contaminated by siliceous crust, or derived by partial melting of partly fenitized gneiss. Oxygen isotope ratios of the surrounding gneiss indicate that the intrusion of the nepheline syenite did not cause extensive circulation of meteoric or magmatic hydrothermal fluids.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Nash, David J., T. Jake R. Ciborowski, Timothy Darvill, Mike Parker Pearson, J. Stewart Ullyott, Magret Damaschke, Jane A. Evans et al. « Petrological and geochemical characterisation of the sarsen stones at Stonehenge ». PLOS ONE 16, no 8 (4 août 2021) : e0254760. http://dx.doi.org/10.1371/journal.pone.0254760.

Texte intégral
Résumé :
Little is known of the properties of the sarsen stones (or silcretes) that comprise the main architecture of Stonehenge. The only studies of rock struck from the monument date from the 19th century, while 20th century investigations have focussed on excavated debris without demonstrating a link to specific megaliths. Here, we present the first comprehensive analysis of sarsen samples taken directly from a Stonehenge megalith (Stone 58, in the centrally placed trilithon horseshoe). We apply state-of-the-art petrographic, mineralogical and geochemical techniques to two cores drilled from the stone during conservation work in 1958. Petrographic analyses demonstrate that Stone 58 is a highly indurated, grain-supported, structureless and texturally mature groundwater silcrete, comprising fine-to-medium grained quartz sand cemented by optically-continuous syntaxial quartz overgrowths. In addition to detrital quartz, trace quantities of silica-rich rock fragments, Fe-oxides/hydroxides and other minerals are present. Cathodoluminescence analyses show that the quartz cement developed as an initial <10 μm thick zone of non-luminescing quartz followed by ~16 separate quartz cement growth zones. Late-stage Fe-oxides/hydroxides and Ti-oxides line and/or infill some pores. Automated mineralogical analyses indicate that the sarsen preserves 7.2 to 9.2 area % porosity as a moderately-connected intergranular network. Geochemical data show that the sarsen is chemically pure, comprising 99.7 wt. % SiO2. The major and trace element chemistry is highly consistent within the stone, with the only magnitude variations being observed in Fe content. Non-quartz accessory minerals within the silcrete host sediments impart a trace element signature distinct from standard sedimentary and other crustal materials. 143Nd/144Nd isotope analyses suggest that these host sediments were likely derived from eroded Mesozoic rocks, and that these Mesozoic rocks incorporated much older Mesoproterozoic material. The chemistry of Stone 58 has been identified recently as representative of 50 of the 52 remaining sarsens at Stonehenge. These results are therefore representative of the main stone type used to build what is arguably the most important Late Neolithic monument in Europe.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Stewart, Andrew J., Scott B. Patten, Kirsten M. Fiest, Tyler S. Williamson, James P. Wick et Paul E. Ronksley. « Facteurs associés aux dépenses élevées en soins de santé chez les patients atteints de schizophrénie ». Promotion de la santé et prévention des maladies chroniques au Canada 42, no 10 (octobre 2022) : 486–95. http://dx.doi.org/10.24095/hpcdp.42.10.02f.

Texte intégral
Résumé :
Introduction La compréhension des motifs de la grande variation des dépenses en soins de santé chez les patients atteints de schizophrénie est susceptible de contribuer à l’élaboration d’interventions visant à améliorer les résultats pour les patients et l’efficience des dépenses en soins de santé. Notre étude visait à déterminer les facteurs associés aux dépenses élevées en soins de santé chez les patients atteints de schizophrénie. Méthodologie Cette étude transversale en série a utilisé les dossiers de santé administratifs de résidents de l’Alberta (Canada) entre le 1er janvier 2008 et le 31 décembre 2017 ainsi que les méthodes provinciales d’établissement des coûts afin de calculer les dépenses totales en soins de santé et les coûts par secteur. Les facteurs modifiant la probabilité d’être un patient à coût élevé (dans le 95e percentile ou plus) atteint de schizophrénie ont été estimés au moyen d’équations d’estimation généralisées. Résultats Cette étude a recueilli 242 818 années‑personnes d’observations chez 38 177 patients atteints de schizophrénie. Une probabilité accrue d’être un patient à coût élevé a été associée à un âge plus jeune (18 à 29 ans), le fait d’être de sexe masculin, un état de logement instable et des besoins de soins dans de multiples spécialités médicales. Les associations estimées les plus fortes entre l’état d’un patient à coût élevé et la comorbidité concernaient le cancer métastatique (RC = 2,26) et la cirrhose (RC = 2,07). À l’opposé, la polypharmacie a été associée à une diminution de la probabilité de coûts élevés comparativement aux patients non traités. Conclusion Les facteurs associés au fait d’être un patient à coût élevé résultent d’interactions complexes entre facteurs individuels, facteurs structurels et facteurs liés au traitement. Les efforts visant à améliorer les résultats des patients et à faire face à la hausse des coûts des soins de santé doivent tenir compte de la valeur de l’affectation des ressources au dépistage précoce et au soutien des patients atteints de schizophrénie ainsi qu’à la prévention et à la gestion de la comorbidité
Styles APA, Harvard, Vancouver, ISO, etc.
28

Hooker, Jerry J., Pim F. Van Bergen, Ros L. Singer, Margaret E. Collinson, Jan W. De Leeuw et Tim P. Jones. « Reconstruction of Tertiary palaeoenvironments using a combination of molecular and conventional palaeobiology ». Paleontological Society Special Publications 6 (1992) : 134. http://dx.doi.org/10.1017/s2475262200006948.

Texte intégral
Résumé :
The Bembridge Limestone Formation (BLF), Late Eocene of Headon Hill, Isle of Wight, England, contains a diverse array of mammals (around 50 spp.) distributed through 10 levels. Its lower part (“lower fauna”) marks the appearance of a significant number of species, genera and one family unknown from earlier English Late Eocene strata. Towards the top of the BLF there is a reversion to faunas (“upper fauna”) more typical of the underlying Headon Hill Formation. This represents their last appearance in England. The succeeding Bembridge Marls Member fauna is similar to that in the lower part of the BLF. These changes are provincial in scale and may be climate induced (reflecting a slight warming followed by terminal Eocene cooling). Superimposed on these changes are smaller-scale more frequent fluctuations linked to alternating marl and black mud lithologies which may represent local habitat changes. In order to obtain overall understanding of the environment of deposition and taphonomic bias influencing these mammalian assemblages an integrated multidisciplinary study is being undertaken.Plant macrofossils are unfortunately extremely rare in this sequence. Those few which are present typify the fresh-water marsh vegetation widespread in the Late Eocene/Early Oligocene of England. In contrast mammalian faunas indicate more wooded conditions. Seeds like those of the modern free-floating fresh-water plant Stratiotes occur in three levels. However, they are poorly-preserved. The chemical composition of the seed coat as revealed by flash pyrolysis gas chromatography indicates a very simple polyphenol macromolecule probably resulting from transformations of more complex polyphenols in well-preserved Stratiotes seeds.Determinable palynomorphs are very rare and largely restricted to the part of the sequence which contains the “upper fauna”. They suggest a tranquil fresh-water depositional setting as do several molluscs and charophytes. Palynomorphs also include fungal remains, fern spores and a few tree pollen, the latter possibly from regional vegetation. However, the bulk of the palynological organic matter consists of brown structureless organic matter (SOM), resin-like particles and “platy kerogen”. In the lower beds, pale shelly muds with potamidids and corbiculids lack mammals and contain palynological organic matter dominated by resin-like particles and with abundant pyrite. These beds probably reflect brackish influence, the loss of which largely coincides with the reappearance of abundant mammals (“lower fauna”), occurrence of Stratiotes and of charophytes. Resin-like particles remain dominant in the palynological organic matter. “Platy kerogen” dominates three units including that containing the first occurrence of the “upper fauna”. Subsequently resin-like particles again dominate. Brown SOM is scattered throughout but is well represented in two units one of which contains “lower fauna” the other “upper fauna”.Variations in palynological organic matter are reflected in the chemical composition of residues studied. Results from five black muds show that samples which mainly contain resin-like particles are dominated by n-alkanes and n-alk-1-enes in their pyrolysates. However, there is no indication of known resin chemical signatures. This indicates that the organic matter in these residues is mainly derived from cuticles (cutan) and/or cell wall remains (algaenan) of fresh-water algae. Samples containing “platy kerogen” and brown SOM are dominated by aromatics and phenols in their pyrolysates indicating an origin from woody materials. Work in progress on stable isotope analyses of the residues may further clarify the nature of the organic input.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Horkheimer, Max, et Theodor W. Adorno. « Les rapports structurels entre les théories sociales de Comte et de Hegel (par Oskar Negt) ». Variations, no 26 (12 octobre 2023). http://dx.doi.org/10.4000/variations.2315.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Nezar, Mohammed Karim, et Latifa Kadi. « Oralisation des écrits procéduraux : vers une variation structurelle du genre ? Étude de cas ». Multilinguales, no 16 (31 décembre 2021). http://dx.doi.org/10.4000/multilinguales.7125.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Durand, Sandrine. « Spatial analysis and modelling in commodity transport with the method of structural coefficients ». Les Cahiers Scientifiques du Transport - Scientific Papers in Transportation 39 | 2001 (31 mars 2001). http://dx.doi.org/10.46298/cst.11992.

Texte intégral
Résumé :
The spatial analysis and modelling established with the method of structural coefficients are based on a distinction of two dimensions in the commodity transport. The first one is a dimension of economic structure and the second one a dimension of territory structuring. This second dimension expressed by the structural coefficients deals with the differences in the volume of freight between two areas attributable to the act of structuring territory factors (transport cost, regional economic specificities, etc.).The spatial analysis and the modelling highlight for the economic structure dimension a variable reactivity of the freight to industrial growth, differentiated according to the category of product and the geographical scale of transport. For the territory structuring dimension, the spatial structure of freight is mainly related to transport cost and spatial proximity and exhibits a strong temporal stability. Long-run simulations confirm the high sensitivity of freight with contrasted economic growth and more modest but interesting impacts with various spatial transformations. L’analyse et la modélisation spatiales réalisées avec la méthode des coefficients structurels reposent sur la distinction de deux dimensions dans le fret, une dimension de structure économique et une dimension de structuration du territoire. Cette seconde dimension exprimée en coefficients structurels traduit la déformation du volume de biens échangé entre deux zones engendrée par l’action de facteurs de structuration du territoire (coûts de transport, spécificités économiques régionales, etc.).L’analyse spatiale et le modèle de simulation mis au point mettent en évidence dans le cas de la dimension de structure économique une sensibilité variable du fret à la croissance industrielle, différenciée selon la catégorie de produits transportés et l’échelle géographique de transport. Pour la dimension de structuration du territoire, la structure spatiale du fret interrégional est expliquée par les facteurs de coût de transport et de proximité interrégionale et connaît à long terme une forte inertie. Les simulations à long terme confirment les différents degrés de sensibilité du fret, avec un fort impact des variations de la croissance économique et des répercussions plus modestes mais intéressantes des transformations spatiales.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Pang, Qian, Guang Hu, Chaowei Hu et Cong Zhang. « Variation of Organic Pore Structure With Maceral Types in the Longmaxi Shale, Sichuan Basin ». Frontiers in Earth Science 9 (26 août 2021). http://dx.doi.org/10.3389/feart.2021.715278.

Texte intégral
Résumé :
Organic matter (OM), composed of various macerals, has a strong influence on the enrichment of shale gas. Nevertheless, the connection between OM-hosted pore structure and maceral type is not yet fully understood because of the difficulty to identify the maceral types by traditional scanning electron microscope (SEM). Using a combination of the reflected light microscopy, focused ion beam SEM (FIB-SEM), and Raman spectrum, three maceral types, including alginite, graptolite, and solid bitumen, are identified in the Longmaxi Shale of the Sichuan Basin. The alginate is characterized by the linear arrangement of OM-hosted pores due to the inherited biological structure of benthic algae. Pores in the structureless solid bitumen are randomly distributed with the highest abundance. The graptolite containing pore rarely is unfavorable for the pore generation but can be a good proxy for thermal maturity. Variation in thermal maturity levels accounts for the change of total pore volume in a given marcel type in the Longmaxi Shale obtained from different shale gas fields.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Fortineau, Julien, René Mathieu, Michel Foata et Bertrand Chassignole. « Développement d’un procédé automatisé pour le contrôle ultrasonore d’un matériau anisotrope hétérogène ». e-journal of nondestructive testing 28, no 9 (septembre 2023). http://dx.doi.org/10.58286/28468.

Texte intégral
Résumé :
Le circuit primaire des centrales nucléaires françaises comporte un grand nombre de soudures entre composants. Elles subissent en service des contraintes thermiques et mécaniques. De ce fait, la surveillance par examen non destructif (END) de ces soudures représente un enjeu majeur pour la sûreté des installations. Cette présentation traite du contrôle ultrasonore d’une soudure de forte épaisseur en acier inoxydable austénitique entre deux composants en acier inoxydable austéno-ferritique moulé caractérisé par une structure métallurgique à gros grains. L’ensemble soudure et métal de base présente une structure fortement anisotrope et hétérogène susceptible de dégrader les performances du procédé de contrôle par des phénomènes physiques qui perturbent les faisceaux ultrasonores (déviation et division des faisceaux, important bruit de structure, forte variation de l’atténuation …). En collaboration avec EDF, Omexom NDT E&S a qualifié un procédé de contrôle par ultrasons automatisés composé de différents capteurs permettant de s’adapter aux contraintes structurelles de ces matériaux complexes. Les impacts métallurgiques induits par la structure contrôlée ont été étudiés et pris en considération dans les performances du procédé grâce notamment à une comparaison entre mesures expérimentales et simulations numériques avec les logiciels CIVA et ATHENA. Nous présenterons dans cette étude la méthodologie retenue pour modéliser les différents matériaux dans les codes de simulation. L’impact du matériau sur les performances du procédé qualifié et sur les gestes opératoires de la procédure sera également abordé.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Drummond, Katherine A., Matthew J. Pranter et Michael G. Grammer. « Regional stratigraphy and proximal to distal variation of lithology and porosity within a mixed carbonate-siliciclastic system, Mississippian strata of northern and central Oklahoma ». Interpretation, 21 juillet 2021, 1–56. http://dx.doi.org/10.1190/int-2020-0170.1.

Texte intégral
Résumé :
Mississippian carbonate and silica-rich reservoirs of northern and central Oklahoma formed along a regionally extensive carbonate ramp to basin transect. The stratigraphy, lithology, and porosity characteristics of the Mississippian Meramec and Osage series vary significantly as older ramp carbonates prograde southward and transition into younger calcareous and quartz-rich silt deposits of the Anadarko Basin. Lithofacies identified within the northern carbonate-dominated portion of the system commonly include altered chert, skeletal grainstones, peloidal packstones-grainstones, bioturbated wackestones-packstones, bioturbated mudstones-wackestones, glauconitic sandstones, and siliceous shale. Lithofacies within the southern siliciclastic-dominated portion of the system include structureless to bioturbated sandstones, siltstones, and laminated mudstones, each with varying degrees of carbonate content. We group these core-based lithofacies into dominant lithologies/rock types which tie to well-log properties. Electrofacies classification methods including Artificial-Neural Network (ANN) and k-means clustering predict lithologies in non-cored wells. ANNs yielded the highest overall prediction accuracy of 85% for lithologies. Core, well log, and lithology log data establish the regional stratigraphic framework. In this study, the Mississippian interval of interest subdivides into sixteen stratigraphic zones. A depositional-dip oriented cross section and associated reservoir models illustrate both proximal to distal and stratigraphic variability of lithology and porosity. Lithology trends moving from north to south, from older to younger strata, reveal a carbonate-dominated succession capped by diagenetically altered chert northward shifting into a siliciclastic-dominated interval, which increases in clay content southward. Northward, prospective conventional reservoirs developed near cycle tops within diagenetically replaced cherts and cherty limestones associated with subaerial exposure and sea-level fluctuations. Southward, higher total porosity associates with increased clay content linked to the suppression of calcite cement, forming prospective unconventional targets near the bases of depositional cycles.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Bendimerad, Samya, Nacereddine Bibi-Triki, Abderrahmane Abène, Belkacem Draoui et Mohammed Benramdane. « Modélisation, caractérisation et analyse du comportement dynamique des transferts de chaleur à travers la paroi en polyéthylène et en verre des serres agricoles ». Journal of Renewable Energies 13, no 3 (25 octobre 2023). http://dx.doi.org/10.54966/jreen.v13i3.217.

Texte intégral
Résumé :
La serre tunnel agricole classique est largement répandue dans les pays méditerranéens malgré les insuffisances qu’elle présente, notamment la surchauffe pendant le jour et le refroidissement nocturne intense, qui parfois se traduit par l’inversion thermique interne. La serre chapelle habillée en verre est relativement plus performante, mais son évolution reste lente en raison de son coût d’investissement et son amortissement. La serre agricole a pour objectifs de créer un microclimat favorable aux exigences et à la croissance des plantes à partir des conditions climatologiques environnantes ; de produire en fonction des calendriers culturaux des fruits, légumes et fleurs hors saison à bon marché et largement disponibles le long de l’année. Elle est définie par son architecture structurelle et fonctionnelle, par la qualité optique, thermique et mécanique de sa paroi et par les moyens techniques d’accompagnement. La serre est considérée comme un milieu confiné où plusieurs composantes s’échangent entre elles et dont les principaux facteurs intervenant sont: la lumière, la température et l’humidité relative. La culture protégée s’échauffe bien plus qu’à l’air libre grâce à la présence de la paroi faisant barrière aux influences néfastes des vents et des variations climatiques environnantes, ainsi qu’à la réduction de la convection de l’air intérieur. Cet état d’évolution thermique est fonction du degré d’étanchéité de la couverture et de ses caractéristiques physiques, pour être transparente aux rayonnements solaires, absorbante et réfléchissante des rayonnements infrarouges émis par le sol, d’où l’effet de piégeage des radiations solaires autrement appelé «effet de serre». Nous proposons dans cet article la modélisation du système serre dynamique, la caractérisation et l’analyse du comportement thermique de la paroi des deux serres expérimentales, l’une en polyéthylène (serre tunnel) et l’autre en verre (serre chapelle) à travers l’expérimentation et la simulation couronnées enfin par l’identification de l’évolution du coefficient (K) des déperditions thermiques à travers la paroi.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Osman, Ariana, Ronald J. Steel, Ryan Ramsook et And Cornel Olariu. « Impact of wave, tides, and fluid mud on fluvial discharge across a compound clinoform (Pliocene Orinoco Delta) ». Sedimentology, 27 novembre 2023. http://dx.doi.org/10.1111/sed.13167.

Texte intégral
Résumé :
AbstractCompound clinoforms are well‐recognized in modern large muddy deltas and in some ancient deltas, but there is still a lack of understanding regarding their lithology variations and the process by which sand from the shoreline clinothem reaches the subaqueous clinothem foresets that are sometimes 100 km away. Net‐to‐gross, thickness and facies association evaluation show overall coarsening‐upward through a 191 m thick exposure of the late Pliocene Orinoco, Lower Morne L'Enfer Formation, with a distinct tripartite lithology distribution. The subaqueous clinothem records a lower, relatively muddy coarsening‐upward interval, 112 m thick, with net‐to‐gross increasing from zero to 60%. On the lower delta front, zero net sand units show graded beds of silt and mud with occasional spring–neap rhythmites, strongly suggesting gravity flows influenced by tidal currents. These foreset beds are overlain by structureless very fine sand, interbedded with deformed wavy to lenticular, grey fluid mud layers that rapidly accumulated near the subaqueous clinoform rollover point. The tidally dominated subaqueous platform (subaqueous delta topset), 1 to 4 m thick, shows zero net sand units with anomalously high mud content, >70%, due to the high near‐bed suspended sediment concentration of externally derived fluid mud that migrated littorally alongshore from the Amazon Delta. The interaction of freshwater river flood discharge with fluid‐mud banks gave rise to density stratification with fine sand hypopycnally dispersing as a turbulent layer above the denser fluid‐mud carpet. The shoreline clinothem (<8 m thick) has high net‐to‐gross, >85%, attributed to winnowing of sediment by waves and tides. Utilizing net‐to‐gross trends and facies changes provide useful criteria to identify compound clinoforms in the rock record. The Orinoco Delta deposits, however, are unusual, since fluid mud hinders sand deposition on the platform, allowing for easy identification of platform facies and a clear distinction between the subaqueous and shoreline clinothem in outcrop.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Bourgain, Arnaud, Kirti Mehta, Fatemeh Shadman et Henri Sneessens. « Numéro 141 - octobre 2018 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15153.

Texte intégral
Résumé :
Ce numéro de Regards économiques publie les résultats d’une étude consacrée à la formation des salaires en Belgique sur la période 1995-2015. L’article examine le rôle des interactions salariales entre secteur privé et secteur public. La question de fond est de savoir si des hausses de salaires octroyées dans un secteur peuvent provoquer des hausses excessives dans l’autre au regard par exemple de la compétitivité et de l’emploi. L’intérêt de distinguer les secteurs privé et public résulte de plusieurs facteurs. Le secteur privé se distingue par l’importance du progrès technique et des gains de productivité, mais aussi par son exposition à la concurrence internationale et donc une moindre maîtrise des prix de vente. Les logiques économiques des deux secteurs sont également radicalement différentes, marchande pour l’un, non-marchande pour l’autre. On peut faire l’hypothèse que les gains de productivité récurrents permettent aux entreprises du secteur privé d’accorder des hausses de salaires régulières à leurs travailleurs. Dans le cas de marchés du travail parfaitement fluides avec de faibles coûts de mobilité intersectorielle, le secteur public n’aurait d’autre choix que d’aligner ses salaires sur ceux du privé s’il veut rester attractif sur le marché du travail. En d’autres termes, le secteur privé jouerait automatiquement le rôle de leader salarial. Mais on peut aussi imaginer un mécanisme semblable en sens inverse : le secteur public étant «abrité» de la concurrence internationale pourrait accepter des augmentations de salaire, qui, par effet de contagion, se transmettraient au secteur privé et dégraderaient la compétitivité et donc l’emploi de celui-ci. Les résultats économétriques sur la période 1995-2015 ne suggèrent pas l’existence, dans la formation des salaires belges, d’un secteur «leader» qui imposerait systématiquement ses hausses de salaire à l’autre secteur. Ce résultat désamorce la crainte d’effets distorsifs pour la compétitivité et l’emploi. Par contre, des interactions sectorielles sont bien observées et sont importantes. Elles sont bidirectionnelles (sans «leader» systématique) et impliquent de forts effets de contagion puisqu’environ 50% d’une variation de salaire observée dans un secteur est rapidement répercutée dans l’autre secteur. Ce résultat est cohérent avec le degré relativement élevé de centralisation et de coordination dans la formation des salaires en Belgique. Ces fortes interactions salariales sectorielles expliquent aussi la rapide propagation dans les deux secteurs des effets de chocs macroéconomiques. A long terme cependant, chaque secteur garde une large autonomie. Dans le secteur privé, les salaires répercutent intégralement l’évolution de la productivité du travail, avec néanmoins une tendance systématique négative de quelque 0,36% l’an qu’on peut interpréter en termes de changements structurels et de modération salariale. Au final, les salaires du secteur privé ont évolué moins vite que ceux du secteur public. Les fortes interrelations sectorielles ne signifient donc pas que les évolutions salariales sont strictement parallèles. La grande récession de 2008-2009 par exemple a affecté très différemment les secteurs privé et public. Le secteur privé est nettement plus sensible aux variations de l’environnement économique (productivité, chômage).
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bourgain, Arnaud, Kirti Mehta, Fatemeh Shadman et Henri Sneessens. « Numéro 141 - octobre 2018 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco2018.10.01.

Texte intégral
Résumé :
Ce numéro de Regards économiques publie les résultats d’une étude consacrée à la formation des salaires en Belgique sur la période 1995-2015. L’article examine le rôle des interactions salariales entre secteur privé et secteur public. La question de fond est de savoir si des hausses de salaires octroyées dans un secteur peuvent provoquer des hausses excessives dans l’autre au regard par exemple de la compétitivité et de l’emploi. L’intérêt de distinguer les secteurs privé et public résulte de plusieurs facteurs. Le secteur privé se distingue par l’importance du progrès technique et des gains de productivité, mais aussi par son exposition à la concurrence internationale et donc une moindre maîtrise des prix de vente. Les logiques économiques des deux secteurs sont également radicalement différentes, marchande pour l’un, non-marchande pour l’autre. On peut faire l’hypothèse que les gains de productivité récurrents permettent aux entreprises du secteur privé d’accorder des hausses de salaires régulières à leurs travailleurs. Dans le cas de marchés du travail parfaitement fluides avec de faibles coûts de mobilité intersectorielle, le secteur public n’aurait d’autre choix que d’aligner ses salaires sur ceux du privé s’il veut rester attractif sur le marché du travail. En d’autres termes, le secteur privé jouerait automatiquement le rôle de leader salarial. Mais on peut aussi imaginer un mécanisme semblable en sens inverse : le secteur public étant «abrité» de la concurrence internationale pourrait accepter des augmentations de salaire, qui, par effet de contagion, se transmettraient au secteur privé et dégraderaient la compétitivité et donc l’emploi de celui-ci. Les résultats économétriques sur la période 1995-2015 ne suggèrent pas l’existence, dans la formation des salaires belges, d’un secteur «leader» qui imposerait systématiquement ses hausses de salaire à l’autre secteur. Ce résultat désamorce la crainte d’effets distorsifs pour la compétitivité et l’emploi. Par contre, des interactions sectorielles sont bien observées et sont importantes. Elles sont bidirectionnelles (sans «leader» systématique) et impliquent de forts effets de contagion puisqu’environ 50% d’une variation de salaire observée dans un secteur est rapidement répercutée dans l’autre secteur. Ce résultat est cohérent avec le degré relativement élevé de centralisation et de coordination dans la formation des salaires en Belgique. Ces fortes interactions salariales sectorielles expliquent aussi la rapide propagation dans les deux secteurs des effets de chocs macroéconomiques. A long terme cependant, chaque secteur garde une large autonomie. Dans le secteur privé, les salaires répercutent intégralement l’évolution de la productivité du travail, avec néanmoins une tendance systématique négative de quelque 0,36% l’an qu’on peut interpréter en termes de changements structurels et de modération salariale. Au final, les salaires du secteur privé ont évolué moins vite que ceux du secteur public. Les fortes interrelations sectorielles ne signifient donc pas que les évolutions salariales sont strictement parallèles. La grande récession de 2008-2009 par exemple a affecté très différemment les secteurs privé et public. Le secteur privé est nettement plus sensible aux variations de l’environnement économique (productivité, chômage).
Styles APA, Harvard, Vancouver, ISO, etc.
39

Delbeque, Bernard. « Numéro 13 - juin 2003 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16163.

Texte intégral
Résumé :
Afin d'assurer le respect durable de la discipline budgétaire après le passage à l'Union monétaire, les Etats membres de l'Union européenne ont jugé utile d'adopter en juin 1997 le Pacte de stabilité et de croissance dans lequel ils se sont engagés à maintenir leur déficit budgétaire en dessous de 3 % du PIB et ont accepté le principe d’être sanctionnés en cas de dépassement de ce plafond. Les difficultés récentes rencontrées par l'Allemagne et la France pour respecter les obligations imposées par le Pacte de stabilité ont amené le Conseil européen en mars dernier à adopter un certain nombre de propositions de la Commission européenne destinées à améliorer l'interprétation et la mise en œuvre du Pacte de stabilité. L'engagement pris par les Etats membres de parvenir à un solde budgétaire "proche de l'équilibre ou en excédent" défini en termes structurels, c’est-à-dire corrigé des variations conjoncturelles et des effets transitoires, constitue l'amélioration principale du Pacte. Dans l'article ci-joint, nous analysons les principaux éléments du Pacte de stabilité et les améliorations récentes qui lui ont été apportées. Nous formulons également des propositions pour renforcer davantage l'efficacité du Pacte de stabilité à court terme ainsi que dans une perspective de long terme. Les principales conclusions de notre article peuvent se résumer ainsi. Le Pacte de stabilité est indispensable au bon fonctionnement de l'Union monétaire, à la fois dans une perspective de court terme pour permettre au déficit de fluctuer d’un bout à l’autre du cycle conjoncturel, ainsi que dans une perspective de long terme pour permettre aux pays de relever le défi du vieillissement. Les difficultés budgétaires actuelles de l'Allemagne confirment l'importance de ramener les déficits structurels vers une position proche de l'équilibre pour disposer à tout moment d'une marge de sécurité suffisante pour empêcher le déficit effectif de dépasser le plafond de 3 % du PIB. La disposition du Pacte de stabilité qui précise qu'un Etat membre ne peut invoquer un ralentissement conjoncturel pour justifier un dépassement du plafond de déficit de 3 % du PIB que lorsque celui-ci entraîne une baisse annuelle du PIB réel d'au moins 0,75 % est trop restrictive. Il faudrait assouplir cette disposition pour permettre à un pays confronté à un ralentissement conjoncturel persistant de dépasser le plafond de déficit de 3 % du PIB pour autant que son solde budgétaire structurel reste proche de l'équilibre, que son taux d'inflation est inférieur à celui dans la zone euro, et que son taux d'endettement – s'il est supérieur à 60 % du PIB – continue à diminuer à un rythme satisfaisant. Les architectes du Pacte de stabilité ont fait preuve d'une grande clairvoyance en proposant d'instituer l'objectif d'une position budgétaire "proche de l'équilibre ou en excédent". La réalisation de cet objectif est en effet indispensable pour permettre aux pays européens de pouvoir absorber le coût budgétaire du vieillissement démographique par la réduction des charges d'intérêt de la dette publique. Cette analyse nous amène à formuler deux recommandations qui ont un caractère contre intuitif : Premièrement, les pays faiblement endettés devraient adopter des objectifs de solde budgétaire plus ambitieux que les pays lourdement endettés. En fait, les pays faiblement endettés devraient s'efforcer de dégager des surplus budgétaires structurels d'ici la fin de la décennie car c'est la seule façon pour ces pays d'atteindre un niveau de surplus primaire suffisant pour enclencher une baisse prolongée de leur taux d'endettement. Deuxièmement, si un pays fortement endetté atteint l'équilibre budgétaire trop tôt et décide de ne pas dégager de surplus budgétaire, il risque de se retrouver à la veille du choc démographique avec un niveau de surplus primaire insuffisant pour financer le choc démographique. Pour éviter ce risque, il y a lieu que ces pays mettent de côté une partie plus ou moins importante des marges budgétaires dégagées par la baisse des charges d'intérêt dans un fonds de vieillissement. 5. Le Pacte de stabilité continuera à être utile bien au-delà de 2010. C'est en effet à partir de cette date que le vieillissement de la population commencera à exercer des pressions considérables sur les budgets et les systèmes de protection sociale en Europe. Le Pacte de stabilité jouera alors un rôle essentiel de garde-fou contre les dérapages budgétaires. Ce n'est que lorsque les pays européens commenceront à voir la fin du tunnel dans lequel le choc démographique va les entraîner qu'ils pourront revendiquer un assouplissement des règles du Pacte de stabilité. Appliquées à la Belgique, les conclusions de notre analyse nous conduisent à proposer aux négociateurs gouvernementaux de fonder la politique budgétaire du prochain gouvernement belge sur les deux objectifs suivants : Le maintien de l'équilibre budgétaire défini en termes structurels. Compte tenu de la faiblesse de la croissance attendue pour cette année-ci, cet objectif permet d'accepter l'apparition d'un déficit budgétaire en 2003. Il implique également de mettre à profit tout redressement de la conjoncture pour éliminer le déficit et dégager des surplus budgétaires à moyen terme (2005-2007) si la croissance économique renoue avec des taux supérieurs à la croissance potentielle de l'économie belge. Le renforcement des montants investis dans le Fonds de vieillissement. Etant donné que le maintien de l'équilibre budgétaire structurel permet de profiter de la baisse spontanée des charges d'intérêt de la dette publique pour financer des initiatives nouvelles, la Belgique risque de se retrouver à la fin de la décennie avec un surplus primaire insuffisant pour pouvoir financer le choc démographique sans augmenter les impôts et/ou le déficit. Par conséquent, les négociateurs gouvernementaux devraient prévoir d’utiliser une partie des moyens dégagés par la baisse des charges d'intérêt et d'éventuelles ventes d'actifs pour alimenter le Fonds de vieillissement de manière appropriée. Pour établir clairement que les objectifs budgétaires retenus sont suffisamment ambitieux, il serait utile de calculer les besoins du Fonds de vieillissement sur base d'une projection réaliste de l'évolution des finances publiques à long terme.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Delbeque, Bernard. « Numéro 13 - juin 2003 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco2003.06.02.

Texte intégral
Résumé :
Afin d'assurer le respect durable de la discipline budgétaire après le passage à l'Union monétaire, les Etats membres de l'Union européenne ont jugé utile d'adopter en juin 1997 le Pacte de stabilité et de croissance dans lequel ils se sont engagés à maintenir leur déficit budgétaire en dessous de 3 % du PIB et ont accepté le principe d’être sanctionnés en cas de dépassement de ce plafond. Les difficultés récentes rencontrées par l'Allemagne et la France pour respecter les obligations imposées par le Pacte de stabilité ont amené le Conseil européen en mars dernier à adopter un certain nombre de propositions de la Commission européenne destinées à améliorer l'interprétation et la mise en œuvre du Pacte de stabilité. L'engagement pris par les Etats membres de parvenir à un solde budgétaire "proche de l'équilibre ou en excédent" défini en termes structurels, c’est-à-dire corrigé des variations conjoncturelles et des effets transitoires, constitue l'amélioration principale du Pacte. Dans l'article ci-joint, nous analysons les principaux éléments du Pacte de stabilité et les améliorations récentes qui lui ont été apportées. Nous formulons également des propositions pour renforcer davantage l'efficacité du Pacte de stabilité à court terme ainsi que dans une perspective de long terme. Les principales conclusions de notre article peuvent se résumer ainsi. Le Pacte de stabilité est indispensable au bon fonctionnement de l'Union monétaire, à la fois dans une perspective de court terme pour permettre au déficit de fluctuer d’un bout à l’autre du cycle conjoncturel, ainsi que dans une perspective de long terme pour permettre aux pays de relever le défi du vieillissement. Les difficultés budgétaires actuelles de l'Allemagne confirment l'importance de ramener les déficits structurels vers une position proche de l'équilibre pour disposer à tout moment d'une marge de sécurité suffisante pour empêcher le déficit effectif de dépasser le plafond de 3 % du PIB. La disposition du Pacte de stabilité qui précise qu'un Etat membre ne peut invoquer un ralentissement conjoncturel pour justifier un dépassement du plafond de déficit de 3 % du PIB que lorsque celui-ci entraîne une baisse annuelle du PIB réel d'au moins 0,75 % est trop restrictive. Il faudrait assouplir cette disposition pour permettre à un pays confronté à un ralentissement conjoncturel persistant de dépasser le plafond de déficit de 3 % du PIB pour autant que son solde budgétaire structurel reste proche de l'équilibre, que son taux d'inflation est inférieur à celui dans la zone euro, et que son taux d'endettement – s'il est supérieur à 60 % du PIB – continue à diminuer à un rythme satisfaisant. Les architectes du Pacte de stabilité ont fait preuve d'une grande clairvoyance en proposant d'instituer l'objectif d'une position budgétaire "proche de l'équilibre ou en excédent". La réalisation de cet objectif est en effet indispensable pour permettre aux pays européens de pouvoir absorber le coût budgétaire du vieillissement démographique par la réduction des charges d'intérêt de la dette publique. Cette analyse nous amène à formuler deux recommandations qui ont un caractère contre intuitif : Premièrement, les pays faiblement endettés devraient adopter des objectifs de solde budgétaire plus ambitieux que les pays lourdement endettés. En fait, les pays faiblement endettés devraient s'efforcer de dégager des surplus budgétaires structurels d'ici la fin de la décennie car c'est la seule façon pour ces pays d'atteindre un niveau de surplus primaire suffisant pour enclencher une baisse prolongée de leur taux d'endettement. Deuxièmement, si un pays fortement endetté atteint l'équilibre budgétaire trop tôt et décide de ne pas dégager de surplus budgétaire, il risque de se retrouver à la veille du choc démographique avec un niveau de surplus primaire insuffisant pour financer le choc démographique. Pour éviter ce risque, il y a lieu que ces pays mettent de côté une partie plus ou moins importante des marges budgétaires dégagées par la baisse des charges d'intérêt dans un fonds de vieillissement. 5. Le Pacte de stabilité continuera à être utile bien au-delà de 2010. C'est en effet à partir de cette date que le vieillissement de la population commencera à exercer des pressions considérables sur les budgets et les systèmes de protection sociale en Europe. Le Pacte de stabilité jouera alors un rôle essentiel de garde-fou contre les dérapages budgétaires. Ce n'est que lorsque les pays européens commenceront à voir la fin du tunnel dans lequel le choc démographique va les entraîner qu'ils pourront revendiquer un assouplissement des règles du Pacte de stabilité. Appliquées à la Belgique, les conclusions de notre analyse nous conduisent à proposer aux négociateurs gouvernementaux de fonder la politique budgétaire du prochain gouvernement belge sur les deux objectifs suivants : Le maintien de l'équilibre budgétaire défini en termes structurels. Compte tenu de la faiblesse de la croissance attendue pour cette année-ci, cet objectif permet d'accepter l'apparition d'un déficit budgétaire en 2003. Il implique également de mettre à profit tout redressement de la conjoncture pour éliminer le déficit et dégager des surplus budgétaires à moyen terme (2005-2007) si la croissance économique renoue avec des taux supérieurs à la croissance potentielle de l'économie belge. Le renforcement des montants investis dans le Fonds de vieillissement. Etant donné que le maintien de l'équilibre budgétaire structurel permet de profiter de la baisse spontanée des charges d'intérêt de la dette publique pour financer des initiatives nouvelles, la Belgique risque de se retrouver à la fin de la décennie avec un surplus primaire insuffisant pour pouvoir financer le choc démographique sans augmenter les impôts et/ou le déficit. Par conséquent, les négociateurs gouvernementaux devraient prévoir d’utiliser une partie des moyens dégagés par la baisse des charges d'intérêt et d'éventuelles ventes d'actifs pour alimenter le Fonds de vieillissement de manière appropriée. Pour établir clairement que les objectifs budgétaires retenus sont suffisamment ambitieux, il serait utile de calculer les besoins du Fonds de vieillissement sur base d'une projection réaliste de l'évolution des finances publiques à long terme.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Koyano, Sho, Fumito Shiraishi, Yosuke Yokoyama et Kazuhiko Fujita. « Microscale evolution of reefal microbialites ». Coral Reefs and Sea-Level Change : Quaternary Records and Modelling, 1 décembre 2022, 39–67. http://dx.doi.org/10.54780/iassp49/02.

Texte intégral
Résumé :
Reefal microbialites are crusts and infills of microbialites developed within primary cavities of late Quaternary coralgal reef frameworks. In spite of many previous studies, factors controlling mesofabric transitions, particularly from laminated to digitate microbialites but as well as the microscale formation process in relation to microbial communities, have not yet been fully understood. Furthermore, there are still controversies regarding age differences between reef framework growth and microbialite formation. The authors have discussed the macroscale evolution of primary cavities as well as the microscale evolution of reefal microbialites obtained in a middle Holocene reef core drilled off Okinawa Island, south-west Japan, based on petrographic observations using light and scanning electron microscopy with energy dispersive X-ray spectroscopy and radiocarbon (14C) ages of corals and reefal microbialites. The authors’ petrographic observations show that coralgal reef framework growth was followed by encrusting foraminifers and metazoans, coevally with macro-bioerosion and microbioerosion of coralgal frameworks, then finally infilled with an intraskeletal and boring-filling microbialite (IBFM) and encrusted by reefal microbial crusts (RMCs), including structureless and digitate microbialites. The observed macroscale evolution was probably driven in response to progressive changes to reduced light and water circulation in the primary cavities associated with middle Holocene transgression and reef formation. The microfabric of reefal microbialites consists of primary in situ precipitated peloids (spherical micritic clots), voids (primary pores) and allochthonous detrital grains (bioclastic and siliciclastic) fallen from upper reef surfaces. IBFM geopetally infilled inside bioeroded cavities soon after the bioerosion of coralgal frameworks. RMCs have a two-layered microfabric succession, which is composed of the alternation of dense peloidal aggregates and laterally aligned voids in the lower part and the mixing of peloidal aggregates and irregularly and vertically developed voids in the upper part. The authors speculate that the repeated occurrences of laterally aligned voids in the lower part may imply the intermittent pauses of peloidal formation, while peloids accumulated on the irregular outer surfaces may result in the formation of vertically developed voids and digitate surfaces in the upper part. These peloids are probably formed by coccoid sulfate-reducing bacteria in anoxic environments developed by the degradation of bacterial biofilms and organic matters, allowing sulfate reduction and increasing alkalinity, therefore carbonate precipitation. The two-layered microfabric succession generally observed in RMCs may reflect spatial-temporal oxic/anoxic variations in interstitial water and the degree of sulfate ion supply by the gradual closing of primary cavities.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Leclerc, Véronique, Alexandre Tremblay et Chani Bonventre. « Anthropologie médicale ». Anthropen, 2020. http://dx.doi.org/10.17184/eac.anthropen.125.

Texte intégral
Résumé :
L’anthropologie médicale est un sous-champ de l’anthropologie socioculturelle qui s’intéresse à la pluralité des systèmes médicaux ainsi qu’à l’étude des facteurs économiques, politiques et socioculturels ayant un impact sur la santé des individus et des populations. Plus spécifiquement, elle s’intéresse aux relations sociales, aux expériences vécues, aux pratiques impliquées dans la gestion et le traitement des maladies par rapport aux normes culturelles et aux institutions sociales. Plusieurs généalogies de l’anthropologie médicale peuvent être retracées. Toutefois, les monographies de W.H.R. Rivers et d’Edward Evans-Pritchard (1937), dans lesquelles les représentations, les connaissances et les pratiques en lien avec la santé et la maladie étaient considérées comme faisant intégralement partie des systèmes socioculturels, sont généralement considérées comme des travaux fondateurs de l’anthropologie médicale. Les années 1950 ont marqué la professionnalisation de l’anthropologie médicale. Des financements publics ont été alloués à la discipline pour contribuer aux objectifs de santé publique et d’amélioration de la santé dans les communautés économiquement pauvres (Good 1994). Dans les décennies qui suivent, les bases de l’anthropologie médicale sont posées avec l’apparition de nombreuses revues professionnelles (Social Science & Medicine, Medical Anthropology, Medical Anthropology Quarterly), de manuels spécialisés (e.g. MacElroy et Townsend 1979) et la formation du sous-groupe de la Society for Medical Anthropology au sein de l’American Anthropological Association (AAA) en 1971, qui sont encore des points de références centraux pour le champ. À cette époque, sous l’influence des théories des normes et du pouvoir proposées par Michel Foucault et Pierre Bourdieu, la biomédecine est vue comme un système structurel de rapports de pouvoir et devient ainsi un objet d’étude devant être traité symétriquement aux autres systèmes médicaux (Gaines 1992). L’attention portée aux théories du biopouvoir et de la gouvernementalité a permis à l’anthropologie médicale de formuler une critique de l’hégémonie du regard médical qui réduit la santé à ses dimensions biologiques et physiologiques (Saillant et Genest 2007 : xxii). Ces considérations ont permis d’enrichir, de redonner une visibilité et de l’influence aux études des rationalités des systèmes médicaux entrepris par Evans-Pritchard, et ainsi permettre la prise en compte des possibilités qu’ont les individus de naviguer entre différents systèmes médicaux (Leslie 1980; Lock et Nguyen 2010 : 62). L’aspect réducteur du discours biomédical avait déjà été soulevé dans les modèles explicatifs de la maladie développés par Arthur Kleinman, Leon Eisenberg et Byron Good (1978) qui ont introduit une distinction importante entre « disease » (éléments médicalement observables de la maladie), « illness » (expériences vécues de la maladie) et « sickness » (aspects sociaux holistes entourant la maladie). Cette distinction entre disease, illness et sickness a joué un rôle clé dans le développement rapide des perspectives analytiques de l’anthropologie médicale de l’époque, mais certaines critiques ont également été formulées à son égard. En premier lieu, Allan Young (1981) formule une critique des modèles explicatifs de la maladie en réfutant l'idée que la rationalité soit un model auquel les individus adhèrent spontanément. Selon Young, ce modèle suggère qu’il y aurait un équivalant de structures cognitives qui guiderait le développement des modèles de causalité et des systèmes de classification adoptées par les personnes. Au contraire, il propose que les connaissances soient basées sur des actions, des relations sociales, des ressources matérielles, avec plusieurs sources influençant le raisonnement des individus qui peuvent, de plusieurs manières, diverger de ce qui est généralement entendu comme « rationnel ». Ces critiques, ainsi que les études centrées sur l’expérience des patients et des pluralismes médicaux, ont permis de constater que les stratégies adoptées pour obtenir des soins sont multiples, font appel à plusieurs types de pratiques, et que les raisons de ces choix doivent être compris à la lumière des contextes historiques, locaux et matériaux (Lock et Nguyen 2010 : 63). Deuxièmement, les approches de Kleinman, Eisenberger et Good ont été critiquées pour leur séparation artificielle du corps et de l’esprit qui représentait un postulat fondamental dans les études de la rationalité. Les anthropologues Nancy Scheper-Hughes et Margeret Lock (1987) ont proposé que le corps doit plutôt être abordé selon trois niveaux analytiques distincts, soit le corps politique, social et individuel. Le corps politique est présenté comme étant un lieu où s’exerce la régulation, la surveillance et le contrôle de la différence humaine (Scheper-Hughes et Lock 1987 : 78). Cela a permis aux approches féministes d’aborder le corps comme étant un espace de pouvoir, en examinant comment les discours sur le genre rendent possible l’exercice d’un contrôle sur le corps des femmes (Manderson, Cartwright et Hardon 2016). Les premiers travaux dans cette perspective ont proposé des analyses socioculturelles de différents contextes entourant la reproduction pour contrecarrer le modèle dominant de prise en charge médicale de la santé reproductive des femmes (Martin 1987). Pour sa part, le corps social renvoie à l’idée selon laquelle le corps ne peut pas être abordé simplement comme une entité naturelle, mais qu’il doit être compris en le contextualisant historiquement et socialement (Lupton 2000 : 50). Finalement, considérer le corps individuel a permis de privilégier l’étude de l’expérience subjective de la maladie à travers ses variations autant au niveau individuel que culturel. Les études de l’expérience de la santé et la maladie axées sur l’étude des « phénomènes tels qu’ils apparaissent à la conscience des individus et des groupes d’individus » (Desjarlais et Throop 2011 : 88) se sont avérées pertinentes pour mieux saisir la multitude des expériences vécues des états altérés du corps (Hofmann et Svenaeus 2018). En somme, les propositions de ces auteurs s’inscrivent dans une anthropologie médicale critique qui s’efforce d’étudier les inégalités socio-économiques (Scheper-Hughes 1992), l’accès aux institutions et aux savoirs qu’elles produisent, ainsi qu’à la répartition des ressources matérielles à une échelle mondiale (Manderson, Cartwright et Hardon 2016). Depuis ses débuts, l’anthropologie médicale a abordé la santé globale et épidémiologique dans le but de faciliter les interventions sur les populations désignées comme « à risque ». Certains anthropologues ont développé une perspective appliquée en épidémiologie sociale pour contribuer à l’identification de déterminants sociaux de la santé (Kawachi et Subramanian 2018). Plusieurs de ces travaux ont été critiqués pour la culturalisation des pathologies touchant certaines populations désignées comme étant à risque à partir de critères basés sur la stigmatisation et la marginalisation de ces populations (Trostle et Sommerfeld 1996 : 261). Au-delà des débats dans ce champ de recherche, ces études ont contribué à la compréhension des dynamiques de santé et de maladie autant à l’échelle globale, dans la gestion des pandémies par l’Organisation Mondiale de la Santé (OMS), qu’aux échelles locales avec la mise en place de campagnes de santé publique pour faciliter l’implantation de mesures sanitaires, telles que la vaccination (Dubé, Vivion et Macdonald 2015). L’anthropologie a contribué à ces discussions en se penchant sur les contextes locaux des zoonoses qui sont des maladies transmissibles des animaux vertébrés aux humains (Porter 2013), sur la résistance aux antibiotiques (Landecker 2016), comme dans le cas de la rage et de l’influenza (Wolf 2012), sur les dispositifs de prévention mis en place à une échelle mondiale pour éviter l’apparition et la prolifération d’épidémies (Lakoff 2010), mais aussi sur les styles de raisonnement qui sous-tendent la gestion des pandémies (Caduff 2014). Par ailleurs, certains auteur.e.s ont utilisé le concept de violence structurelle pour analyser les inégalités socio-économiques dans le contexte des pandémies de maladies infectieuses comme le sida, la tuberculose ou, plus récemment, l’Ébola (Fassin 2015). Au-delà de cet aspect socio-économique, Aditya Bharadwaj (2013) parle d’une inégalité épistémique pour caractériser des rapports inégaux dans la production et la circulation globale des savoirs et des individus dans le domaine de la santé. Il décrit certaines situations comme des « biologies subalternes », c’est à dire des états de santé qui ne sont pas reconnus par le système biomédical hégémonique et qui sont donc invisibles et vulnérables. Ces « biologies subalternes » sont le revers de citoyennetés biologiques, ces dernières étant des citoyennetés qui donnes accès à une forme de sécurité sociale basée sur des critères médicaux, scientifiques et légaux qui reconnaissent les dommages biologiques et cherche à les indemniser (Petryna 2002 : 6). La citoyenneté biologique étant une forme d’organisation qui gravite autour de conditions de santé et d’enjeux liés à des maladies génétiques rares ou orphelines (Heath, Rapp et Taussig 2008), ces revendications mobilisent des acteurs incluant les institutions médicales, l’État, les experts ou encore les pharmaceutiques. Ces études partagent une attention à la circulation globale des savoirs, des pratiques et des soins dans la translation — ou la résistance à la translation — d’un contexte à un autre, dans lesquels les patients sont souvent positionnés entre des facteurs sociaux, économiques et politiques complexes et parfois conflictuels. L’industrie pharmaceutique et le développement des technologies biomédicales se sont présentés comme terrain important et propice pour l’analyse anthropologique des dynamiques sociales et économiques entourant la production des appareils, des méthodes thérapeutiques et des produits biologiques de la biomédecine depuis les années 1980 (Greenhalgh 1987). La perspective biographique des pharmaceutiques (Whyte, Geest et Hardon 2002) a consolidé les intérêts et les approches dans les premières études sur les produits pharmaceutiques. Ces recherches ont proposé de suivre la trajectoire sociale des médicaments pour étudier les contextes d’échanges et les déplacements dans la nature symbolique qu’ont les médicaments pour les consommateurs : « En tant que choses, les médicaments peuvent être échangés entre les acteurs sociaux, ils objectivent les significations, ils se déplacent d’un cadre de signification à un autre. Ce sont des marchandises dotées d’une importance économique et de ressources recelant une valeur politique » (traduit de Whyte, Geest et Hardon 2002). D’autres ont davantage tourné leur regard vers les rapports institutionnels, les impacts et le fonctionnement de « Big Pharma ». Ils se sont intéressés aux processus de recherche et de distribution employés par les grandes pharmaceutiques à travers les études de marché et les pratiques de vente (Oldani 2014), l’accès aux médicaments (Ecks 2008), la consommation des produits pharmaceutiques (Dumit 2012) et la production de sujets d’essais cliniques globalisés (Petryna, Lakoff et Kleinman 2006), ainsi qu’aux enjeux entourant les réglementations des brevets et du respect des droits politiques et sociaux (Ecks 2008). L’accent est mis ici sur le pouvoir des produits pharmaceutiques de modifier et de changer les subjectivités contemporaines, les relations familiales (Collin 2016), de même que la compréhensions du genre et de la notion de bien-être (Sanabria 2014). Les nouvelles technologies biomédicales — entre autres génétiques — ont permis de repenser la notion de normes du corps en santé, d'en redéfinir les frontières et d’intervenir sur le corps de manière « incorporée » (embodied) (Haraway 1991). Les avancées technologiques en génomique qui se sont développées au cours des trois dernières décennies ont soulevé des enjeux tels que la généticisation, la désignation de populations/personnes « à risque », l’identification de biomarqueurs actionnables et de l’identité génétique (TallBear 2013 ; Lloyd et Raikhel 2018). Au départ, le modèle dominant en génétique cherchait à identifier les gènes spécifiques déterminant chacun des traits biologiques des organismes (Lock et Nguyen 2010 : 332). Cependant, face au constat que la plupart des gènes ne codaient par les protéines responsables de l’expression phénotypique, les modèles génétiques se sont depuis complexifiés. L’attention s’est tournée vers l’analyse de la régulation des gènes et de l’interaction entre gènes et maladies en termes de probabilités (Saukko 2017). Cela a permis l’émergence de la médecine personnalisée, dont les interventions se basent sur l’identification de biomarqueurs personnels (génétiques, sanguins, etc.) avec l’objectif de prévenir l’avènement de pathologies ou ralentir la progression de maladies chroniques (Billaud et Guchet 2015). Les anthropologues de la médecine ont investi ces enjeux en soulevant les conséquences de cette forme de médecine, comme la responsabilisation croissante des individus face à leur santé (Saukko 2017), l’utilisation de ces données dans l’accès aux assurances (Hoyweghen 2006), le déterminisme génétique (Landecker 2011) ou encore l’affaiblissement entre les frontières de la bonne santé et de la maladie (Timmermans et Buchbinder 2010). Ces enjeux ont été étudiés sous un angle féministe avec un intérêt particulier pour les effets du dépistage prénatal sur la responsabilité parentale (Rapp 1999), l’expérience de la grossesse (Rezende 2011) et les gestions de l’infertilité (Inhorn et Van Balen 2002). Les changements dans la compréhension du modèle génomique invitent à prendre en considération plusieurs variables en interaction, impliquant l’environnement proche ou lointain, qui interagissent avec l’expression du génome (Keller 2014). Dans ce contexte, l’anthropologie médicale a développé un intérêt envers de nouveaux champs d’études tels que l’épigénétique (Landecker 2011), la neuroscience (Choudhury et Slaby 2016), le microbiome (Benezra, DeStefano et Gordon 2012) et les données massives (Leonelli 2016). Dans le cas du champ de l’épigénétique, qui consiste à comprendre le rôle de l’environnement social, économique et politique comme un facteur pouvant modifier l’expression des gènes et mener au développement de certaines maladies, les anthropologues se sont intéressés aux manières dont les violences structurelles ancrées historiquement se matérialisent dans les corps et ont des impacts sur les disparités de santé entre les populations (Pickersgill, Niewöhner, Müller, Martin et Cunningham-Burley 2013). Ainsi, la notion du traumatisme historique (Kirmayer, Gone et Moses 2014) a permis d’examiner comment des événements historiques, tels que l’expérience des pensionnats autochtones, ont eu des effets psychosociaux collectifs, cumulatifs et intergénérationnels qui se sont maintenus jusqu’à aujourd’hui. L’étude de ces articulations entre conditions biologiques et sociales dans l’ère « post-génomique » prolonge les travaux sur le concept de biosocialité, qui est défini comme « [...] un réseau en circulation de termes d'identié et de points de restriction autour et à travers desquels un véritable nouveau type d'autoproduction va émerger » (Traduit de Rabinow 1996:186). La catégorie du « biologique » se voit alors problématisée à travers l’historicisation de la « nature », une nature non plus conçue comme une entité immuable, mais comme une entité en état de transformation perpétuelle imbriquée dans des processus humains et/ou non-humains (Ingold et Pálsson 2013). Ce raisonnement a également été appliqué à l’examen des catégories médicales, conçues comme étant abstraites, fixes et standardisées. Néanmoins, ces catégories permettent d'identifier différents états de la santé et de la maladie, qui doivent être compris à la lumière des contextes historiques et individuels (Lock et Nguyen 2010). Ainsi, la prise en compte simultanée du biologique et du social mène à une synthèse qui, selon Peter Guarnaccia, implique une « compréhension du corps comme étant à la fois un système biologique et le produit de processus sociaux et culturels, c’est-à-dire, en acceptant que le corps soit en même temps totalement biologique et totalement culturel » (traduit de Guarnaccia 2001 : 424). Le concept de « biologies locales » a d’abord été proposé par Margaret Lock, dans son analyse des variations de la ménopause au Japon (Lock 1993), pour rendre compte de ces articulations entre le matériel et le social dans des contextes particuliers. Plus récemment, Niewöhner et Lock (2018) ont proposé le concept de biologies situées pour davantage contextualiser les conditions d’interaction entre les biologies locales et la production de savoirs et de discours sur celles-ci. Tout au long de l’histoire de la discipline, les anthropologues s’intéressant à la médecine et aux approches de la santé ont profité des avantages de s’inscrire dans l’interdisciplinarité : « En anthropologie médical, nous trouvons qu'écrire pour des audiences interdisciplinaires sert un objectif important : élaborer une analyse minutieuse de la culture et de la santé (Dressler 2012; Singer, Dressler, George et Panel 2016), s'engager sérieusement avec la diversité globale (Manderson, Catwright et Hardon 2016), et mener les combats nécessaires contre le raccourcies des explications culturelles qui sont souvent déployées dans la littérature sur la santé (Viruell-Fuentes, Miranda et Abdulrahim 2012) » (traduit de Panter-Brick et Eggerman 2018 : 236). L’anthropologie médicale s’est constituée à la fois comme un sous champ de l’anthropologie socioculturelle et comme un champ interdisciplinaire dont les thèmes de recherche sont grandement variés, et excèdent les exemples qui ont été exposés dans cette courte présentation.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Van der Linden, Bruno. « Numéro 25 - novembre 2004 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16023.

Texte intégral
Résumé :
En France, en Allemagne et en Belgique, la durée annuelle moyenne de travail par personne en emploi est passée de près de 3000 heures en 1870 à environ 2300 heures en 1938 en Allemagne et en Belgique (1850 heures en France). Après la seconde guerre mondiale, la tendance à la diminution s’est poursuivie. Depuis une vingtaine d’années, la durée de travail hebdomadaire à temps plein, telle que fixée par les conventions collectives, ne baisse que très lentement en Belgique. D’autres phénomènes, dont le développement du temps partiel, expliquent toutefois que la durée annuelle moyenne de travail continue à baisser. En 2003, elle s’élèverait selon l’OCDE à environ 1450 heures/an. Or, voici que depuis quelques mois, les médias font grand cas d’entreprises où la durée hebdomadaire de travail s’allonge sans compensation salariale. Cette inversion de la tendance historique est clairement une rupture, au contenu économique mais aussi symbolique chargé. Que penser de ce retournement, actuellement limité à un petit nombre d’entreprises ? En comparaison internationale, la durée hebdomadaire moyenne de travail à temps partiel est plus longue en Belgique. Concernant les travailleurs à temps plein, la durée hebdomadaire moyenne habituelle est en Belgique proche de la moyenne dans la zone EURO. Au niveau sectoriel, si l’on excepte le secteur des hôtels et des restaurants, notre durée hebdomadaire habituelle se situe également à un niveau proche de la moyenne dans la zone EURO. Notre pays ne paraît donc pas se démarquer sensiblement des voisins. La dispersion des durées hebdomadaires habituelles augmente en revanche entre les individus à un rythme qui n’a guère d’égal dans l’OCDE. Au plan régional, entre 1992 et 2002, un écart d’une heure par semaine s’est créé entre les travailleurs flamands et wallons à temps plein, ces derniers ayant une durée habituelle de travail relativement stable. Aucune "loi économique" ne nous dit quel serait le temps de travail idéal. En revanche, des divergences sensibles de coût de production ne peuvent persister pour des produits similaires soumis à la concurrence. Les coûts de production ne s’expliquent évidemment pas que par les coûts et la productivité du travail. Dans les limites de cette étude, nous n’avons toutefois pas abordé d’autres dimensions. Nous avons aussi mené notre réflexion dans les limites du cadre actuel marqué notamment par une concurrence accrue sur les marchés, une forte mobilité du capital et une monnaie unique. La loi de juillet 1996 relative "à la promotion de l’emploi et à la sauvegarde préventive de la compétitivité" se préoccupe de l’évolution de nos coûts salariaux horaires nominaux dans le secteur privé en comparaison avec celle de l’Allemagne, des Pays-Bas et de la France. Après quelques années d’alignement quasi parfait de notre croissance salariale sur l’évolution moyenne de nos trois voisins, la Belgique a récemment accumulé un écart relatif de 2 points de pourcentage. Si l’on tient compte des écarts existants avant la loi de 1996 et que l’on remonte plus haut dans le temps jusqu’en 1987, le FEB aboutit à un surcroît de coût salarial horaire de 8 points de pourcentage par rapport à la moyenne pondérée de nos trois voisins. Dans l’industrie manufacturière, selon le Bureau of Labor Statistics, nos coûts salariaux horaires sont 6 % plus bas qu’en Allemagne mais 5 % plus élevés qu’aux Pays-Bas et 32 % plus élevés qu’en France. Des coûts salariaux élevés engendrent une série d’ajustements dans les entreprises : disparition d’entreprises privées manquant de rentabilité, recherche de gains de productivité par élimination de main d’œuvre et surtout de main d’œuvre moins qualifiée, etc. La productivité du travailleur belge est, de fait, fort élevée. Il ne nous paraît cependant pas souhaitable d’avoir des performances exceptionnelles en matière de hausses de productivité du travail si cela se réalise au prix de disparitions supplémentaires d’emplois moyennement ou peu qualifiés. La capacité des personnes concernées à saisir les opportunités d’emploi dans d’autres segments de l’économie apparaissent en effet trop limitées. Dans un contexte où les nations européennes et leurs partenaires sociaux sont responsables de l’évolution des coûts salariaux, il est possible d’intervenir sur trois variables : les salaires horaires bruts, les cotisations patronales et la durée du travail. Le niveau élevé des cotisations patronales mais aussi l’importance des allégements de cotisation mis en place sont notoires en Belgique. Le meilleur usage des allégements structurels (c’est-à-dire durables et attribués par travailleur occupé, nouvellement ou non) se situe au niveau des travailleurs à bas salaires. Nous avons déjà argumenté en ce sens. De même, nous avons déjà rappelé la nécessité de la modération des salaires horaires en Belgique et nous avons évoqué les avantages et les limites de la "norme salariale" belge. Dans le cadre de celle-ci, la résorption de notre écart de coût salarial horaire ne pourra être que lente, fort probablement trop lente. De là, l’intérêt d’une réflexion sur le temps de travail. A court terme, considérant le niveau de production comme fixe, une durée de travail plus longue entraînera une diminution du volume d’effectifs souhaité par l’entreprise. Moins les heures ajoutées seront productives (effet de fatigue du travailleur), plus les effets de court terme seront faibles. Au-delà de ces réactions de court terme, l’entreprise peut se réorganiser de telle sorte que la durée d’utilisation du capital suive – là où c’est possible - l’allongement de la durée du travail. La variation du coût salarial sera l’autre déterminant essentiel de l’ajustement à moyen terme des quantités produites et de l’emploi. Notre analyse micro-économique indique que l’allongement de la durée hebdomadaire de travail mais aussi la poursuite de la réduction de celle-ci peuvent être des réponses microéconomiques alternatives face à des phénomènes tels que l’accroissement de la concurrence de pays à bas salaires. Mais dans un cas comme dans l’autre, ce ne sera vrai que si on accompagne ces modifications de durée du travail d’ajustements de nature et d’ampleur appropriés. En cas de hausse de la durée hebdomadaire, le coût salarial hebdomadaire ne peut croître proportionnellement. En cas de baisse de la durée, il ne peut demeurer à son niveau initial. Il faut aussi souligner l’importance de l’ajustement de la durée d’utilisation du capital. Celle-ci ne peut diminuer proportionnellement à la durée du travail. Elle doit croître lorsque cette durée s’allonge. Il faut dès lors vérifier la faisabilité des réorganisations du processus de production qui en découlent. Au-delà, il faut s’interroger sur leur désirabilité du point de vue des travailleurs. La conciliation des vies professionnelle et privée est au cœur du questionnement.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Van der Linden, Bruno. « Numéro 25 - novembre 2004 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco2004.11.01.

Texte intégral
Résumé :
En France, en Allemagne et en Belgique, la durée annuelle moyenne de travail par personne en emploi est passée de près de 3000 heures en 1870 à environ 2300 heures en 1938 en Allemagne et en Belgique (1850 heures en France). Après la seconde guerre mondiale, la tendance à la diminution s’est poursuivie. Depuis une vingtaine d’années, la durée de travail hebdomadaire à temps plein, telle que fixée par les conventions collectives, ne baisse que très lentement en Belgique. D’autres phénomènes, dont le développement du temps partiel, expliquent toutefois que la durée annuelle moyenne de travail continue à baisser. En 2003, elle s’élèverait selon l’OCDE à environ 1450 heures/an. Or, voici que depuis quelques mois, les médias font grand cas d’entreprises où la durée hebdomadaire de travail s’allonge sans compensation salariale. Cette inversion de la tendance historique est clairement une rupture, au contenu économique mais aussi symbolique chargé. Que penser de ce retournement, actuellement limité à un petit nombre d’entreprises ? En comparaison internationale, la durée hebdomadaire moyenne de travail à temps partiel est plus longue en Belgique. Concernant les travailleurs à temps plein, la durée hebdomadaire moyenne habituelle est en Belgique proche de la moyenne dans la zone EURO. Au niveau sectoriel, si l’on excepte le secteur des hôtels et des restaurants, notre durée hebdomadaire habituelle se situe également à un niveau proche de la moyenne dans la zone EURO. Notre pays ne paraît donc pas se démarquer sensiblement des voisins. La dispersion des durées hebdomadaires habituelles augmente en revanche entre les individus à un rythme qui n’a guère d’égal dans l’OCDE. Au plan régional, entre 1992 et 2002, un écart d’une heure par semaine s’est créé entre les travailleurs flamands et wallons à temps plein, ces derniers ayant une durée habituelle de travail relativement stable. Aucune "loi économique" ne nous dit quel serait le temps de travail idéal. En revanche, des divergences sensibles de coût de production ne peuvent persister pour des produits similaires soumis à la concurrence. Les coûts de production ne s’expliquent évidemment pas que par les coûts et la productivité du travail. Dans les limites de cette étude, nous n’avons toutefois pas abordé d’autres dimensions. Nous avons aussi mené notre réflexion dans les limites du cadre actuel marqué notamment par une concurrence accrue sur les marchés, une forte mobilité du capital et une monnaie unique. La loi de juillet 1996 relative "à la promotion de l’emploi et à la sauvegarde préventive de la compétitivité" se préoccupe de l’évolution de nos coûts salariaux horaires nominaux dans le secteur privé en comparaison avec celle de l’Allemagne, des Pays-Bas et de la France. Après quelques années d’alignement quasi parfait de notre croissance salariale sur l’évolution moyenne de nos trois voisins, la Belgique a récemment accumulé un écart relatif de 2 points de pourcentage. Si l’on tient compte des écarts existants avant la loi de 1996 et que l’on remonte plus haut dans le temps jusqu’en 1987, le FEB aboutit à un surcroît de coût salarial horaire de 8 points de pourcentage par rapport à la moyenne pondérée de nos trois voisins. Dans l’industrie manufacturière, selon le Bureau of Labor Statistics, nos coûts salariaux horaires sont 6 % plus bas qu’en Allemagne mais 5 % plus élevés qu’aux Pays-Bas et 32 % plus élevés qu’en France. Des coûts salariaux élevés engendrent une série d’ajustements dans les entreprises : disparition d’entreprises privées manquant de rentabilité, recherche de gains de productivité par élimination de main d’œuvre et surtout de main d’œuvre moins qualifiée, etc. La productivité du travailleur belge est, de fait, fort élevée. Il ne nous paraît cependant pas souhaitable d’avoir des performances exceptionnelles en matière de hausses de productivité du travail si cela se réalise au prix de disparitions supplémentaires d’emplois moyennement ou peu qualifiés. La capacité des personnes concernées à saisir les opportunités d’emploi dans d’autres segments de l’économie apparaissent en effet trop limitées. Dans un contexte où les nations européennes et leurs partenaires sociaux sont responsables de l’évolution des coûts salariaux, il est possible d’intervenir sur trois variables : les salaires horaires bruts, les cotisations patronales et la durée du travail. Le niveau élevé des cotisations patronales mais aussi l’importance des allégements de cotisation mis en place sont notoires en Belgique. Le meilleur usage des allégements structurels (c’est-à-dire durables et attribués par travailleur occupé, nouvellement ou non) se situe au niveau des travailleurs à bas salaires. Nous avons déjà argumenté en ce sens. De même, nous avons déjà rappelé la nécessité de la modération des salaires horaires en Belgique et nous avons évoqué les avantages et les limites de la "norme salariale" belge. Dans le cadre de celle-ci, la résorption de notre écart de coût salarial horaire ne pourra être que lente, fort probablement trop lente. De là, l’intérêt d’une réflexion sur le temps de travail. A court terme, considérant le niveau de production comme fixe, une durée de travail plus longue entraînera une diminution du volume d’effectifs souhaité par l’entreprise. Moins les heures ajoutées seront productives (effet de fatigue du travailleur), plus les effets de court terme seront faibles. Au-delà de ces réactions de court terme, l’entreprise peut se réorganiser de telle sorte que la durée d’utilisation du capital suive – là où c’est possible - l’allongement de la durée du travail. La variation du coût salarial sera l’autre déterminant essentiel de l’ajustement à moyen terme des quantités produites et de l’emploi. Notre analyse micro-économique indique que l’allongement de la durée hebdomadaire de travail mais aussi la poursuite de la réduction de celle-ci peuvent être des réponses microéconomiques alternatives face à des phénomènes tels que l’accroissement de la concurrence de pays à bas salaires. Mais dans un cas comme dans l’autre, ce ne sera vrai que si on accompagne ces modifications de durée du travail d’ajustements de nature et d’ampleur appropriés. En cas de hausse de la durée hebdomadaire, le coût salarial hebdomadaire ne peut croître proportionnellement. En cas de baisse de la durée, il ne peut demeurer à son niveau initial. Il faut aussi souligner l’importance de l’ajustement de la durée d’utilisation du capital. Celle-ci ne peut diminuer proportionnellement à la durée du travail. Elle doit croître lorsque cette durée s’allonge. Il faut dès lors vérifier la faisabilité des réorganisations du processus de production qui en découlent. Au-delà, il faut s’interroger sur leur désirabilité du point de vue des travailleurs. La conciliation des vies professionnelle et privée est au cœur du questionnement.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Buysse, Jeroen, Kamel Elouhichi, Bruno Fernagut, Frédéric Gaspart, Olivier Harmignie, Bruno Henry de Frahan, Ludwig Lauwers, Philippe Polomé et Guido Van Huylenbroeck. « Numéro 19 - février 2004 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16103.

Texte intégral
Résumé :
Les autorités régionales belges doivent, ces jours-ci, se prononcer sur les différentes options de réforme de la Politique Agricole Commune (PAC) proposées par l'accord européen de juin dernier. Ce numéro spécial de Regards Economiques se penche sur les effets et les enjeux de cette réforme. Plusieurs questions sont abordées. En quoi consiste cette réforme ? Quelles sont ses implications pour l’agriculture belge ? Faut-il maintenir des aides aux agriculteurs ? A qui profite la PAC actuelle ? Comment rendre la PAC plus juste et plus efficace ? En quoi consiste la nouvelle réforme de la PAC ? En juin dernier, l'Union européenne a décidé de réformer une nouvelle fois le mode de soutien en faveur du secteur agricole. Cette réforme consiste à convertir la plupart des aides actuelles en un seul paiement unique qui sera distribué aux agriculteurs en fonction de l'étendue de leur superficie agricole cultivée, indépendamment du type de culture ou d'élevage qu'ils pratiquent et du volume de production qu'ils mettent sur le marché. C'est le "découplage"complet des aides agricoles vis-à-vis de l'acte de production, un principe de subvention agricole longuement recommandé par les économistes agricoles dont s'est enfin inspirée la Commission européenne en dépit des résistances conservatrices de nombreux Etats membres. C'est donc l'abandon d'un système de soutien inefficace qui, jusqu'à la réforme précédente de 1992, était essentiellement basé sur un système de prix agricoles garantis largement supérieurs aux prix mondiaux, de barrières douanières impénétrables et de subventions aux exportations exorbitantes. Non seulement ce système fut incapable de soutenir le revenu agricole et de diminuer la disparité des revenus entre exploitations et régions, mais il fut responsable d'excédents agricoles colossaux, de dépenses considérables, de pollutions agricoles et de tensions commerciales avec les pays les plus compétitifs. La nouvelle réforme permettra de mieux orienter les choix de production vers les réelles opportunités du marché et de réduire les distorsions des subventions agricoles sur les marchés agricoles tant européens qu'internationaux. En plus du découplage, deux autres principes sont parallèlement mis en oeuvre. Le principe de l'éco-conditionnalité liera à terme la perception du paiement unique au respect de 18 exigences réglementaires dans le domaine de l'environnement, de la sécurité des aliments, de la santé animale et phytosanitaire et du bien-être animal. Le principe de la modulation instaurera une légère discrimination en faveur des petites exploitations en les exemptant d'une baisse prévue de 5 % du paiement unique. Les économies budgétaires réalisées par cette mesure permettront de renforcer le financement des mesures dites de développement rural. L'accord de juin 2003 offre toutefois la possibilité aux Etats membres de maintenir une proportion de paiements directs couplée à la production s'ils craignent la perturbation de marchés agricoles ou l'abandon de certaines productions tout en intégrant la proportion restante des paiements directs dans le paiement unique. Diverses options de découplage partiel leur sont proposées. Les autorités régionales du pays doivent incessamment se prononcer sur ces options. Quelles sont ses implications pour l’économie belge ? A l’aide de deux modèles économiques de simulation, nous avons tenté d’évaluer les conséquences possibles sur l’agriculture belge des différentes options de découplage des aides telles qu’autorisées par l’accord de juin dernier. Les simulations montrent des substitutions importantes entre les productions agricoles végétales au profit de cultures moins intensives telles que les prairies temporaires, une baisse de la production de viande bovine mais le maintien de la production de lait. Malgré ces ajustements, notamment dans le domaine de l'élevage, les simulations indiquent le maintien et même une légère hausse des revenus nets agricoles dépendant de l'effet des variations de l'offre sur le prix du marché. Ces ajustements ainsi que les hausses du revenu agricole sont de façon générale les plus prononcés pour l'option de découplage complet de toutes les aides. C'est en effet cette option qui procure la plus grande cohérence entre l’allocation des ressources fixes de la région et les opportunités de marché. Une analyse plus fine au niveau des différents types d'exploitation montre toutefois que l'option de découplage complet à l'exception des aides pour le troupeau de vaches allaitantes et l'abatage de bovins est la plus favorable pour les exploitations spécialisées dans ce type d'activités alors que cette option est presque autant favorable pour les autres types d'exploitation que celle du découplage complet. Dans la mesure où, en outre, le contribuable qui finance les aides directes, apprécie le maintien d'un troupeau allaitant à des fins, par exemple, d'aménités paysagères, ou d'une profession d'éleveurs là où elle est la plus concentrée et menacée, c'est-à-dire dans le sud de la Belgique, il semble que l'option de découplage complet de toutes les aides à l'exception de celles réservées à l'élevage allaitant se révèle comme la plus adéquate à la structure du secteur agricole belge parmi toutes les autres options autorisées par l'accord agricole européen de juin dernier. Les résultats de ces simulations ne prennent toutefois pas en compte plusieurs autres défis à l'agriculture belge. Il s'agit notamment (1) du renchérissement possible des terres agricoles en raison de la seule nécessité de mettre en culture de telles terres pour obtenir des subsides importants, (2) de l'évolution des prix agricoles et de leur volatilité sur le marché européen et (3) de la justification à plus long terme des aides importantes consacrées au secteur agricole. Faut-il maintenir des aides aux agriculteurs ? A qui profite la PAC actuelle ? Pour mettre en perspective les anticipations exposées plus haut et juger si la PAC a bien l’utilité qu’elle devrait avoir, il vaut la peine de se demander ce qui justifie, sur le plan des principes, de subsidier le secteur agricole. Il faut d’abord remarquer que les politiques agricoles des pays du Nord, Europe et USA en tête, ont nuit à la prospérité des agriculteurs du Sud, notamment en leur coupant l’accès aux marchés prospères du Nord. Elles n’ont pas pu soutenir le revenu agricole en Europe et sont responsables de tensions commerciales avec le reste du monde et de dépenses monstrueuses ! Même parmi les producteurs européens de biens agricoles, la PAC ne profite vraiment pas aux petites exploitations, dont la production et la superficie sont faibles : elles n’ont reçu et ne recevront que de faibles subsides. Or, la demande d’intrants agricoles (machines, terre, engrais,…) et leurs prix sont globalement plus élevés qu’ils ne le seraient sans subside. La petite exploitation agricole peut en fait se retrouver avec un revenu identique ou inférieur à celui qu’elle aurait si le subside n’existait pas. L’équité ne fournit donc pas de justification à l’existence de subsides agricoles. Néanmoins, l’activité agricole ne se limite pas seulement à la production des biens agricoles : la sécurité alimentaire, la qualité de l’environnement et l’entretien des zones rurales sont trois exemples d’aménités qui résultent des activités agricoles. Or, sans régulation, les aménités sont en général offertes en quantités inférieures à ce qui est socialement souhaitable. Il faut donc un subside à l’activité agricole pour atteindre un niveau efficace d’aménités. L’éco-conditionnalité n’est qu’un pas timide en ce sens. On peut déplorer que les modes passés et présents de soutien agricole en Europe ne contribuent pas à la production efficace d’aménités rurales. Au contraire, l’analyse ne nous permet d’identifier, par élimination, que deux types de bénéficiaires effectifs de la PAC, dans n’importe laquelle de ses versions : les grandes exploitations agricoles etles fournisseurs d’intrants agricoles, en particulier les propriétaires fonciers. Comment rendre la PAC plus juste et plus efficace ? Les contribuables ne souhaitent probablement pas que leurs impôts alimentent la valeur foncière des terres agricoles ou la prospérité des plus grandes exploitations agricoles. Nombre d’agriculteurs, particulièrement ceux que le système actuel laisse en bordure de la pauvreté, pourraient aussi trouver un plus grand intérêt à une réforme, non pas à une libéralisation pure et simple, mais à une réorientation des interventions publiques vers la rétribution des aménités typiques des activités rurales. Une conclusion assez claire émerge donc de la mise en perspective normative des effets du "découplage" qui constitue la réforme de la PAC. Pour des raisons d'équité et d'efficacité, le re-couplage du paiement unique à des fins spécifiques valorisées par le contribuable ou le consommateur qui le finance, est effectivement la seule alternative permettant de justifier à plus long terme des budgets importants réservés au secteur agricole vis-à-vis, notamment, de critiques de plus en plus acerbes à l'égard de tels budgets qu'a bien mises en évidence le rapport Sapir. Cette réorientation est une nécessité qui s'imposera dans l'avenir au fur et à mesure que la justification du paiement unique comme aide aux ajustements structurels perdra sa pertinence.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Buysse, Jeroen, Kamel Elouhichi, Bruno Fernagut, Frédéric Gaspart, Olivier Harmignie, Bruno Henry de Frahan, Ludwig Lauwers, Philippe Polomé et Guido Van Huylenbroeck. « Numéro 19 - février 2004 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco2004.02.01.

Texte intégral
Résumé :
Les autorités régionales belges doivent, ces jours-ci, se prononcer sur les différentes options de réforme de la Politique Agricole Commune (PAC) proposées par l'accord européen de juin dernier. Ce numéro spécial de Regards Economiques se penche sur les effets et les enjeux de cette réforme. Plusieurs questions sont abordées. En quoi consiste cette réforme ? Quelles sont ses implications pour l’agriculture belge ? Faut-il maintenir des aides aux agriculteurs ? A qui profite la PAC actuelle ? Comment rendre la PAC plus juste et plus efficace ? En quoi consiste la nouvelle réforme de la PAC ? En juin dernier, l'Union européenne a décidé de réformer une nouvelle fois le mode de soutien en faveur du secteur agricole. Cette réforme consiste à convertir la plupart des aides actuelles en un seul paiement unique qui sera distribué aux agriculteurs en fonction de l'étendue de leur superficie agricole cultivée, indépendamment du type de culture ou d'élevage qu'ils pratiquent et du volume de production qu'ils mettent sur le marché. C'est le "découplage"complet des aides agricoles vis-à-vis de l'acte de production, un principe de subvention agricole longuement recommandé par les économistes agricoles dont s'est enfin inspirée la Commission européenne en dépit des résistances conservatrices de nombreux Etats membres. C'est donc l'abandon d'un système de soutien inefficace qui, jusqu'à la réforme précédente de 1992, était essentiellement basé sur un système de prix agricoles garantis largement supérieurs aux prix mondiaux, de barrières douanières impénétrables et de subventions aux exportations exorbitantes. Non seulement ce système fut incapable de soutenir le revenu agricole et de diminuer la disparité des revenus entre exploitations et régions, mais il fut responsable d'excédents agricoles colossaux, de dépenses considérables, de pollutions agricoles et de tensions commerciales avec les pays les plus compétitifs. La nouvelle réforme permettra de mieux orienter les choix de production vers les réelles opportunités du marché et de réduire les distorsions des subventions agricoles sur les marchés agricoles tant européens qu'internationaux. En plus du découplage, deux autres principes sont parallèlement mis en oeuvre. Le principe de l'éco-conditionnalité liera à terme la perception du paiement unique au respect de 18 exigences réglementaires dans le domaine de l'environnement, de la sécurité des aliments, de la santé animale et phytosanitaire et du bien-être animal. Le principe de la modulation instaurera une légère discrimination en faveur des petites exploitations en les exemptant d'une baisse prévue de 5 % du paiement unique. Les économies budgétaires réalisées par cette mesure permettront de renforcer le financement des mesures dites de développement rural. L'accord de juin 2003 offre toutefois la possibilité aux Etats membres de maintenir une proportion de paiements directs couplée à la production s'ils craignent la perturbation de marchés agricoles ou l'abandon de certaines productions tout en intégrant la proportion restante des paiements directs dans le paiement unique. Diverses options de découplage partiel leur sont proposées. Les autorités régionales du pays doivent incessamment se prononcer sur ces options. Quelles sont ses implications pour l’économie belge ? A l’aide de deux modèles économiques de simulation, nous avons tenté d’évaluer les conséquences possibles sur l’agriculture belge des différentes options de découplage des aides telles qu’autorisées par l’accord de juin dernier. Les simulations montrent des substitutions importantes entre les productions agricoles végétales au profit de cultures moins intensives telles que les prairies temporaires, une baisse de la production de viande bovine mais le maintien de la production de lait. Malgré ces ajustements, notamment dans le domaine de l'élevage, les simulations indiquent le maintien et même une légère hausse des revenus nets agricoles dépendant de l'effet des variations de l'offre sur le prix du marché. Ces ajustements ainsi que les hausses du revenu agricole sont de façon générale les plus prononcés pour l'option de découplage complet de toutes les aides. C'est en effet cette option qui procure la plus grande cohérence entre l’allocation des ressources fixes de la région et les opportunités de marché. Une analyse plus fine au niveau des différents types d'exploitation montre toutefois que l'option de découplage complet à l'exception des aides pour le troupeau de vaches allaitantes et l'abatage de bovins est la plus favorable pour les exploitations spécialisées dans ce type d'activités alors que cette option est presque autant favorable pour les autres types d'exploitation que celle du découplage complet. Dans la mesure où, en outre, le contribuable qui finance les aides directes, apprécie le maintien d'un troupeau allaitant à des fins, par exemple, d'aménités paysagères, ou d'une profession d'éleveurs là où elle est la plus concentrée et menacée, c'est-à-dire dans le sud de la Belgique, il semble que l'option de découplage complet de toutes les aides à l'exception de celles réservées à l'élevage allaitant se révèle comme la plus adéquate à la structure du secteur agricole belge parmi toutes les autres options autorisées par l'accord agricole européen de juin dernier. Les résultats de ces simulations ne prennent toutefois pas en compte plusieurs autres défis à l'agriculture belge. Il s'agit notamment (1) du renchérissement possible des terres agricoles en raison de la seule nécessité de mettre en culture de telles terres pour obtenir des subsides importants, (2) de l'évolution des prix agricoles et de leur volatilité sur le marché européen et (3) de la justification à plus long terme des aides importantes consacrées au secteur agricole. Faut-il maintenir des aides aux agriculteurs ? A qui profite la PAC actuelle ? Pour mettre en perspective les anticipations exposées plus haut et juger si la PAC a bien l’utilité qu’elle devrait avoir, il vaut la peine de se demander ce qui justifie, sur le plan des principes, de subsidier le secteur agricole. Il faut d’abord remarquer que les politiques agricoles des pays du Nord, Europe et USA en tête, ont nuit à la prospérité des agriculteurs du Sud, notamment en leur coupant l’accès aux marchés prospères du Nord. Elles n’ont pas pu soutenir le revenu agricole en Europe et sont responsables de tensions commerciales avec le reste du monde et de dépenses monstrueuses ! Même parmi les producteurs européens de biens agricoles, la PAC ne profite vraiment pas aux petites exploitations, dont la production et la superficie sont faibles : elles n’ont reçu et ne recevront que de faibles subsides. Or, la demande d’intrants agricoles (machines, terre, engrais,…) et leurs prix sont globalement plus élevés qu’ils ne le seraient sans subside. La petite exploitation agricole peut en fait se retrouver avec un revenu identique ou inférieur à celui qu’elle aurait si le subside n’existait pas. L’équité ne fournit donc pas de justification à l’existence de subsides agricoles. Néanmoins, l’activité agricole ne se limite pas seulement à la production des biens agricoles : la sécurité alimentaire, la qualité de l’environnement et l’entretien des zones rurales sont trois exemples d’aménités qui résultent des activités agricoles. Or, sans régulation, les aménités sont en général offertes en quantités inférieures à ce qui est socialement souhaitable. Il faut donc un subside à l’activité agricole pour atteindre un niveau efficace d’aménités. L’éco-conditionnalité n’est qu’un pas timide en ce sens. On peut déplorer que les modes passés et présents de soutien agricole en Europe ne contribuent pas à la production efficace d’aménités rurales. Au contraire, l’analyse ne nous permet d’identifier, par élimination, que deux types de bénéficiaires effectifs de la PAC, dans n’importe laquelle de ses versions : les grandes exploitations agricoles etles fournisseurs d’intrants agricoles, en particulier les propriétaires fonciers. Comment rendre la PAC plus juste et plus efficace ? Les contribuables ne souhaitent probablement pas que leurs impôts alimentent la valeur foncière des terres agricoles ou la prospérité des plus grandes exploitations agricoles. Nombre d’agriculteurs, particulièrement ceux que le système actuel laisse en bordure de la pauvreté, pourraient aussi trouver un plus grand intérêt à une réforme, non pas à une libéralisation pure et simple, mais à une réorientation des interventions publiques vers la rétribution des aménités typiques des activités rurales. Une conclusion assez claire émerge donc de la mise en perspective normative des effets du "découplage" qui constitue la réforme de la PAC. Pour des raisons d'équité et d'efficacité, le re-couplage du paiement unique à des fins spécifiques valorisées par le contribuable ou le consommateur qui le finance, est effectivement la seule alternative permettant de justifier à plus long terme des budgets importants réservés au secteur agricole vis-à-vis, notamment, de critiques de plus en plus acerbes à l'égard de tels budgets qu'a bien mises en évidence le rapport Sapir. Cette réorientation est une nécessité qui s'imposera dans l'avenir au fur et à mesure que la justification du paiement unique comme aide aux ajustements structurels perdra sa pertinence.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Singleton, Michael. « Magie et sorcellerie ». Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.099.

Texte intégral
Résumé :
Bien avant que Heidegger ait insisté sur la nécessité de poser la bonne question (Fragestellung), les Scolastiques en établissaient l’état (status questionis) avant d’y répondre. Or, les savants occidentaux qui se sont interrogés à propos des phénomènes de la Magie et de la Sorcellerie ont souvent sauté à pieds joints dans le piège ethnocentrique tendu aussi bien par leur tradition gréco-latine et judéo-chrétienne que leur usage d’une langue indoeuropéenne. D’une part, la première a opposé les Vérités objectives de la Raison pure aux dérapages subjectifs de la Déraison émotive et la morale de la Religion révélée à l’immoralité de la superstition satanique. D’autre part, le second, à cause de la distinction factice entre le nom (nature) et le verbe (action adventice) a dissocié comme allant de soi les substances permanentes et profondes des choses de leurs variations accidentelles. Il se fait que ces présupposés paradigmatiques sont ignorés par la plupart des cultures non occidentales et préjugent la compréhension équitable de celles-ci par des esprits occidentaux. Pour bien le comprendre, jusqu’à preuve manifeste du contraire, il faut assumer que l’Autre le soit radicalement : qu’il a fait son monde en fonction de principes primordiaux et de préoccupations pratiques irréductibles à leurs pendants responsables pour le monde occidental et qu’il en parle de manière tout aussi incommensurable. Pour commencer au commencement : tout ce qui fait sens part de et revient à un acteur personnel, à un « Je », incarné dans son corps propre d’instant en instant et incorporé en continu dans sa situation sociohistorique. A supposer que « Je » soit un anthropologue occidental ou occidentalisé (il n’y en a pas d’autres) alors il aborde les faits ou les construits culturels d’autrui avec le déjà tout fait chez lui dont sa rationalité (scientifique) et sa religiosité (chrétienne) avec le risque d’identifier son interlocuteur indigène comme lui-même en plus petit et en moins performant. Le seul moyen d’éviter cette réduction des réalités d’autrui aux réalisations de chez soi est de le rencontrer en fonction de prémisses purement heuristiques telles qu’en amont, la primordialité de l’Agir et en aval, la localisation des actions de fait dans des lieux particuliers. Si tous les vivants, les humains inclus, cherchent à en sortir, justement, vivants, ils le font dans le milieu ou mode de (re)production où ils se retrouvent et avec la mentalité et selon les mœurs qui s’y trouvent. C’est dire que l’abc de l’approche anthropologique est d’ordre topologique : à chaque lieu (topos) sa logique et son langage. Or, abstraction faite de son dénigrement rationaliste et religieux, la magie définie comme la confiance (aveugle) dans l’efficacité (automatique) du recours (rigoureux voire rigoriste) à des moyens (mécaniques), des gestes (immuables) et des formules (figées), possède en propre un milieu où il a droit d’avoir lieu. Néanmoins, commençons par le non-lieu de la magie. Chez les Pygmées Bambuti du Congo il n’y a ni prêtre ni politicien, ni policier ni professeur, ni plombier ni prédateur. Par conséquence, en l’absence de tout Dehors pesant, idéologique ou institutionnel, il est tout à fait topo-logique que dans ses rapports avec les siens et la Forêt le « Je » le Mbuti ne se fie qu’à son dedans. D’où le fait que les topographes du monde pygmée ont constaté non seulement qu’il était sans magie aucune mais que sa religiosité étant une affaire de pure spiritualité personnelle il y avait peu de sens à parler d’une religion pygmée faute de spéculations dogmatiques et de structures cléricales. Par contre, chez leurs voisins, des agriculteurs bantous, les mêmes topographes (surtout les théologiens parmi eux) ont conclu que la magie avait largement pris le dessus sur le religieux. Mais, de nouveau, rien de plus topologiquement normal dans ce constat. Quand, dans un village bantou ou dans une paroisse ouvrière, tout vous tombe dessus en permanence du dehors et d’en haut, il n’y a guère de place pour le genre de religiosité profonde que peuvent se permettre des gens soit libres de leurs moyens soit en ayant peu. Quand les ancêtres ou l’administration vous ont imposé des tabous et des interdits dont le non-respect même involontaire entraine des sanctions immédiates et automatiques, quand votre comportement quotidien est préprogrammé à la lettre de votre condition sociale, de votre âge et sexe, quand pour faire face vous avez besoin des autorités et des experts, quand en respectant minutieusement le règlement vous évitez les ennuis et quand en remplissant correctement les formulaires des allocations familiales et autres vous sont acquises comme par magie… comment ne pas croire que des objets matériels et des opérations rituels produisent infailliblement par le simple fait d’avoir été scrupuleusement activés (ex opere operato) les objectifs escomptés ? Entre le respect irréfléchi des tabous ancestraux et l’observance stricte des commandements de l’Eglise, entre le recours à des amulettes prescrites par votre « sorcier » traitant et la foi dans les médailles miraculeuses distribuées par votre curé paroissial, entre l’efficacité ipso facto des malédictions et des bénédictions du magicien villageois et les paroles de transsubstantiation d’un prêtre catholique (même en vue d’une messe noire), il y a beau béer une abime théologique, topologiquement parlant c’est du pareil au même. De ce point de vue topologique, les missionnaires, notamment catholiques, n’ont pas tant converti le païen superstitieux à la religion révélée que remplacé la magie indigène par un succédané chrétien. Si, en devenant catholiques les WaKonongo que j’ai côtoyé dans la Tanzanie profonde entre 1969 et 1972 ont cessé de sacrifier un poulet noir à Katabi et commencé à se payer des messes à la Vierge contre la sécheresse c’est que restés foncièrement pagani ou ruraux, cette nouvelle interlocutrice leur était parue plus faiseuse de pluie que le préposé d’antan. Avant d’éventuellement passer à leur consécration ou à leur condamnation, il faut enlever dans la présence ou l’absence du langage et de la logique ritualiste (décrits et parfois décriés comme « la mentalité et mécanique magique ») tout ce qui relève inéluctablement du lieu. Ce ne sont pas les seuls rationalistes ou religieux occidentaux qui, en escamotant leurs conditions topologiques, se sont lancés dans appréciations et dépréciations intempestives de la magie et la sorcellerie. Les Pygmées préférant faire l’amour avec des femmes réglées se moquaient de la peur bleue du sang menstruel éprouvée par des Bantous. Débarqués volontairement au village, ils faisaient semblant de croire aux menées mortelles des sorciers afin de ne pas compromettre les ponctions qu’ils opéraient auprès de leur prétendus « Maîtres ». Les Ik, les pendants ougandais des Bambuti, tout en sachant que des rites magiques (sacrifice du poulet ou de la messe) ne pouvaient pas produire de la pluie en inventaient de toutes pièces pour profiter de la crédulité de leurs voisins pasteurs et agriculteurs. Il existe donc des lieux sans sorcellerie. Mais si c’est le cas, c’est surtout parce que pas plus que Le Mariage ou La Maladie et un tas d’autres choses du même gabarit onto-épistémologique, La Sorcellerie « ça » n’existe pas en tant qu’une substantialité qui serait solidement significative indépendamment de ses manifestations singulièrement situées. N’existent pleinement en définitive que des mariés, des malades et des sorciers. Le fait de s’exprimer en une langue indoeuropéenne induit cette illusion essentialiste que les pratiquants d’une autre langue ne partagent pas. En disant « il pleut » ou « it’s raining » nous imaginons instinctivement que le sujet de la phrase représente une entité essentielle, la pluie, qui existe au préalable avant, comme le verbe l’implique, qu’il se mette tout d’un coup mais après coup à pleuvoir. Or, et de manière autrement plus phénoménologiquement plausible, un peuple indien de l’Amérique du Nord, les Hopi, non seulement pensent uniquement à un processus, « la pluviation », mais quand ils en parlent ciblent une expérience particulière. Forcé et contraint par les évidences ethnographiques, ayant eu à enquêter sur des cas concrets de sorcellerie entre autres en Tanzanie, au Nigeria, au Congo, en Ethiopie et au Sénégal, j’ai chaque fois eu l’impression non pas d’avoir eu affaire à des variations de la Sorcellerie ut sic et en soi mais à des individus et des instances aussi incompressibles qu’incommensurables entre eux. Débarqué chez les WaKonongo non seulement avec des histoires de sorcellerie à l’occidentale en tête mais l’esprit empli d’élucubrations théoriques que j’imaginais devoir faire universellement loi et univoquement foi, mes interlocuteurs m’ont vite fait comprendre que je me trouvais ailleurs dans un monde tout autre. Puisqu’ils parlaient de mchawi et de mlozi, ayant en tête la distinction zande, j’ai demandé si le premier n’était pas mal intentionné à l’insu de son plein gré là où le second empoisonnait littéralement la vie des siens. Ils m’ont répondu n’avoir jamais pensé à cette possibilité, mais qu’ils allaient y réfléchir ! En conséquence, j’ai cessé de les harceler avec mes questions me contentant d’observer ce qu’ils disaient d’eux-mêmes et de participer à ce qu’ils faisaient – y inclus à des procès contre des sorciers. Ignorant notre dualisme manichéen (le Bon Dieu luttant avec le Mal incarné pour sauver les âmes du péché) ainsi que des manuels rédigés par des Inquisiteurs célibataires obsédés par « la chose », leurs sorciers n’avaient jamais pensé qu’ils pouvaient profiter d’un pacte avec le Diable et donner libre cours en sa compagnie à leur perversité sexuelle. Anthropophages, leurs sorciers avaient surtout faim (comme les WaKonongo eux-mêmes lors de la soudure ou des famines) et se débrouillaient sans faire appel à des démons. En outre, loin s’en faut, tous les wachawi n’étaient pas méchamment mauvais. Lors d’une réunion pour créer un village ujamaa personne n’a bronché quand parmi les spécialistes requis quelqu’un proposait un sorcier. « Etre vieux » et « être sorcier » semblaient parfois synonyme – peut-être comme l’aurait dit Gabriel Marcel, à cause du mystère qui entoure l’autorité des survivants. Traité de sorcier moi-même, on m’a rassuré que je comptais parmi les wachawi wa mchana (de plein jour) et non wa usiku (de la nuit). Si j’ai dû quitter précipitamment mon village c’est qu’à l’encontre des miens, contents d’avoir eu enfin affaire à un Blanc au courant du programme africain, les autorités du pays n’appréciaient guère le fait que j’aurais téléguidé des serpents sur un village rival. A première vue paradoxalement, la sorcellerie fonctionnait comme un mécanisme de justice distributive : ayant proposé de lui procurer de la tôle ondulée, un voisin dynamique a décliné mon offre de peur que le premier à en profiter des vieux jaloux n’envoient de nuit des hyènes dévorer les viscères de sa femme et ses enfants : « tant que tout le monde n’est pas en mesure de se procurer de la tôle » dit la croyance « personne n’y a droit ». Enfin et surtout, quand les WaKonongo parlaient de l’uchawi en général ils ne le faisaient jamais à froid afin d’aboutir au genre d’abstraction analytique d’ordre structurelle et substantialiste qui fait la joie des anthropologues théoriciens. C’était toujours à chaud et de manière heuristique : « n’ayant pas encore deviné le nom du mchawi qui m’en veut à mort je suis bien obligé de le situer dans un nébuleux anonyme ». Entre des hypothétiques sinon chimériques lames de fond qui ont pour nom la Magie ou la Sorcellerie et l’écume ethnographique qui émerge d’une multiplicité de monographies irréductibles, il faut bien choisir. Or, si l’anthropologie est ce que les anthropologues ont fait, font et feront, il n’y a pas de raison de croire que, pour l’essentiel, les magiciens et les sorciers (les uns plus approximativement que les autres), ne seraient que des avatars sociohistoriques de la Magie ou la Sorcellerie archétypiques fonctionnant comme des Réels de référence transhistorique et transculturels. Avant de les atteler accessoirement à l’une ou l’autre de ses charrues conceptuelles, l’anthropologue a intérêt de s’attarder sur le sort de ses bœufs vivants. En se contentant de faire état de ce que les magiciens et les sorciers ont diversement fait, font distinctement et feront autrement, on risque moins d’être victime de cette illusion d’optique ontologique que Whitehead décriait comme du « misplaced concreteness » - la confusion entre des substances purement spéculatives et la signification toujours singulière des « singletons » sociohistoriquement situées !
Styles APA, Harvard, Vancouver, ISO, etc.
48

Fougeyrollas, Patrick. « Handicap ». Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.013.

Texte intégral
Résumé :
Handicap : nom commun d’origine anglo-saxonne dont l’étymologie proviendrait de Hand in Cap, une pratique populaire pour fixer la valeur d'échange d’un bien. Dans le domaine des courses de chevaux, le handicap vise à ajouter du poids aux concurrents les plus puissants pour égaliser les chances de gagner la course pour tous les participants. Il apparait dans le dictionnaire de l’Académie française dans les années 1920 dans le sens de mettre en état d’infériorité. Son utilisation pour désigner les infirmes et invalides est tardive, après les années 1950 et se généralise au début des années 1970. Par un glissement de sens, le terme devient un substantif qualifiant l’infériorité intrinsèque des corps différentiés par leurs atteintes anatomiques, fonctionnelles, comportementales et leur inaptitude au travail. Les handicapés constituent une catégorisation sociale administrative aux frontières floues créée pour désigner la population-cible de traitements socio-politiques visant l’égalisation des chances non plus en intervenant sur les plus forts mais bien sur les plus faibles, par des mesures de réadaptation, de compensation, de normalisation visant l’intégration sociale des handicapés physiques et mentaux. Ceci rejoint les infirmes moteurs, les amputés, les sourds, les aveugles, les malades mentaux, les déficients mentaux, les invalides de guerre, les accidentés du travail, de la route, domestiques et par extension tous ceux que le destin a doté d’un corps différent de la normalité instituée socio-culturellement dans un contexte donné, ce que les francophones européens nomment les valides. Dans une perspective anthropologique, l’existence de corps différents est une composante de toute société humaine (Stiker 2005; Fougeyrollas 2010; Gardou 2010). Toutefois l’identification de ce qu’est une différence signifiante pour le groupe culturel est extrêmement variée et analogue aux modèles d’interprétation proposés par François Laplantine (1993) dans son anthropologie de la maladie. Ainsi le handicap peut être conçu comme altération, lésion ou comme relationnel, fonctionnel, en déséquilibre. Le plus souvent le corps différent est un corps mauvais, marqueur symbolique culturel du malheur lié à la transgression d’interdits visant à maintenir l’équilibre vital de la collectivité. La responsabilité de la transgression peut être endogène, héréditaire, intrinsèque aux actes de la personne, de ses parents, de ses ancêtres, ou exogène, due aux attaques de microbes, de virus, de puissances malveillantes, génies, sorts, divinités, destin. Plus rarement, le handicap peut être un marqueur symbolique de l’élection, comme porteur d’un pouvoir bénéfique singulier ou d’un truchement avec des entités ambiantes. Toutefois être handicapé, au-delà du corps porteur de différences signifiantes, n’implique pas que l’on soit malade. Avec la médicalisation des sociétés développées, une fragmentation extrême du handicap est liée au pouvoir biomédical d’attribuer des diagnostics attestant du handicap, comme garde-barrière de l’accès aux traitements médicaux, aux technologies, à la réadaptation, aux programmes sociaux, de compensation ou d’indemnisation, à l’éducation et au travail protégé ou spécial. Les avancées thérapeutiques et de santé publique diminuent la mortalité et entrainent une croissance continue de la morbidité depuis la Deuxième Guerre mondiale. Les populations vivant avec des conséquences chroniques de maladies, de traumatismes ou d’atteintes à l’intégrité du développement humain augmentent sans cesse. Ceci amène l’Organisation mondiale de la santé (OMS) à s’intéresser non plus aux diagnostics du langage international médical, la Classification internationale des maladies, mais au développement d’une nosologie de la chronicité : la Classification internationale des déficiences, des incapacités et des handicaps qui officialise une perspective tridimensionnelle du handicap (WHO 1980). Cette conceptualisation biomédicale positiviste situe le handicap comme une caractéristique intrinsèque, endogène à l’individu, soit une déficience anatomique ou physiologique entrainant des incapacités dans les activités humaines normales et en conséquence des désavantages sociaux par rapport aux individus ne présentant pas de déficiences. Le modèle biomédical ou individuel définit le handicap comme un manque, un dysfonctionnement appelant à intervenir sur la personne pour l’éduquer, la réparer, l’appareiller par des orthèses, des prothèses, la rétablir par des médicaments, lui enseigner des techniques, des savoirs pratiques pour compenser ses limitations et éventuellement lui donner accès à des subsides ou services visant à minimiser les désavantages sociaux, principalement la désaffiliation sociale et économique inhérente au statut de citoyen non performant ( Castel 1991; Foucault 1972). À la fin des années 1970 se produit une transformation radicale de la conception du handicap. Elle est étroitement associée à la prise de parole des personnes concernées elles-mêmes, dénonçant l’oppression et l’exclusion sociale dues aux institutions spéciales caritatives, privées ou publiques, aux administrateurs et professionnels qui gèrent leur vie. C’est l’émergence du modèle social du handicap. Dans sa tendance sociopolitique néomarxiste radicale, il fait rupture avec le modèle individuel en situant la production structurelle du handicap dans l’environnement socio-économique, idéologique et matériel (Oliver 1990). La société est désignée responsable des déficiences de son organisation conçue sur la performance, la norme et la productivité entrainant un traitement social discriminatoire des personnes ayant des déficiences et l’impossibilité d’exercer leurs droits humains. Handicaper signifie opprimer, minoriser, infantiliser, discriminer, dévaloriser, exclure sur la base de la différence corporelle, fonctionnelle ou comportementale au même titre que d’autres différences comme le genre, l’orientation sexuelle, l’appartenance raciale, ethnique ou religieuse. Selon le modèle social, ce sont les acteurs sociaux détenant le pouvoir dans l’environnement social, économique, culturel, technologique qui sont responsables des handicaps vécus par les corps différents. Les années 1990 et 2000 ont été marquées par un mouvement de rééquilibrage dans la construction du sens du handicap. Réintroduisant le corps sur la base de la valorisation de ses différences sur les plans expérientiels, identitaires et de la créativité, revendiquant des modes singuliers d’être humain parmi la diversité des êtres humains (Shakespeare et Watson 2002; French et Swain 2004), les modèles interactionnistes : personne, environnement, agir, invalident les relations de cause à effet unidirectionnelles propres aux modèles individuels et sociaux. Épousant la mouvance de la temporalité, la conception du handicap est une variation historiquement et spatialement située du développement humain comme phénomène de construction culturelle. Une construction bio-socio-culturelle ouverte des possibilités de participation sociale ou d’exercice effectif des droits humains sur la base de la Déclaration des droits de l’Homme, des Conventions internationales de l’Organisation des Nations-Unies (femmes, enfants, torture et maltraitance) et en l’occurrence de la Convention relative aux droits des personnes handicapées (CDPH) (ONU 2006; Quinn et Degener 2002; Saillant 2007). Par personnes handicapées, on entend des personnes qui présentent des incapacités physiques, mentales, intellectuelles ou sensorielles dont l’interaction avec diverses barrières peut faire obstacle à leur pleine et effective participation à la société sur la base de l’égalité avec les autres. (CDPH, Art 1, P.4). Fruit de plusieurs décennies de luttes et de transformations de la conception du handicap, cette définition représente une avancée historique remarquable autant au sein du dernier des mouvements sociaux des droits civiques, le mouvement international de défense des droits des personnes handicapées, que de la part des États qui l’ont ratifiée. Malgré le fait que l’on utilise encore le terme personne handicapée, le handicap ne peut plus être considéré comme une caractéristique de la personne ni comme un statut figé dans le temps ni comme un contexte oppressif. Il est le résultat d’une relation dont il est nécessaire de décrire les trois composantes anthropologiques de l’être incarné : soi, les autres et l’action ou l’habitus pour en comprendre le processus de construction singulier. Le handicap est situationnel et relatif , sujet à changement, puisqu’il s’inscrit dans une dynamique interactive temporelle entre les facteurs organiques, fonctionnels, identitaires d’une part et les facteurs contextuels sociaux, technologiques et physiques d’autre part, déterminant ce que les personnes ont la possibilité de réaliser dans les habitudes de vie de leurs choix ou culturellement attendues dans leurs collectivités. Les situations de handicap ne peuvent être prédites à l’avance sur la base d’une évaluation organique, fonctionnelle, comportementale, identitaire ou de la connaissance de paramètres environnementaux pris séparément sans réintroduire leurs relations complexes avec l’action d’un sujet définissant le sens ou mieux incarnant la conscience vécue de cette situation de vie. Suite au succès de l’expression personne en situation du handicap en francophonie, on remarque une tendance à voir cette nouvelle appellation remplacer celle de personne handicapée. Ceci est généralement interprété comme une pénétration de la compréhension du modèle interactionniste et socio constructiviste. Toutefois il est inquiétant de voir poindre des dénominations comme personnes en situation de handicap physique, mental, visuel, auditif, intellectuel, moteur. Cette dérive démontre un profond enracinement ontologique du modèle individuel. Il est également le signe d’une tendance à recréer un statut de personne en situation de handicap pour remplacer celui de personne handicapée. Ceci nécessite une explication de la notion de situation de handicap en lien avec le concept de participation sociale. Une personne peut vivre à la fois des situations de handicap et des situations de participation sociale selon les activités qu’elle désire réaliser, ses habitudes de vie. Par exemple une personne ayant des limitations intellectuelles peut vivre une situation de handicap en classe régulière et avoir besoin du soutien d’un éducateur spécialisé mais elle ne sera pas en situation de handicap pour prendre l’autobus scolaire pour se rendre à ses cours. L’expression personne vivant des situations de handicap semble moins propice à la dérive essentialiste que personne en situation de handicap. Le phénomène du handicap est un domaine encore largement négligé mais en visibilité croissante en anthropologie. Au-delà des transformations de sens donné au terme de handicap comme catégorie sociale, utile à la définition de cibles d’intervention, de traitements sociaux, de problématiques sociales pour l’élaboration de politiques et de programmes, les définitions et les modèles présentés permettent de décrire le phénomène, de mieux le comprendre mais plus rarement de formuler des explications éclairantes sur le statut du handicap d’un point de vue anthropologique. Henri-Jacques Stiker identifie, en synthèse, cinq théories du handicap co-existantes dans le champ contemporain des sciences sociales (2005). La théorie du stigmate (Goffman 1975). Le fait du marquage sur le corps pour indiquer une défaveur, une disgrâce, un discrédit profond, constitue une manière de voir comment une infirmité donne lieu à l’attribution d’une identité sociale virtuelle, en décalage complet avec l’identité sociale réelle. Le handicap ne peut être pensé en dehors de la sphère psychique, car il renvoie toujours à l’image de soi, chez celui qui en souffre comme celui qui le regarde. Le regard d’autrui construit le regard que l’on porte sur soi mais en résulte également (Stiker 2005 :200). La théorie culturaliste qui met en exergue la spécificité des personnes handicapées, tout en récusant radicalement la notion même de handicap, est enracinée dans le multiculturalisme américain. Les personnes handicapées se constituent en groupes culturels avec leurs traits singuliers, à partir de conditions de vie, d’une histoire (Stiker 2005). Par exemple au sein des Disability Studies ou Études sur le handicap, il est fréquent de penser que seuls les corps différents concernés peuvent véritablement les pratiquer et en comprendre les fondements identitaires et expérientiels. L’exemple le plus probant est celui de la culture sourde qui se définit comme minorité ethno-linguistique autour de la langue des signes et de la figure identitaire du Sourd. On fera référence ici au Deaf Studies (Gaucher 2009). La théorie de l’oppression (Oliver 1990). Elle affirme que le handicap est produit par les barrières sociales en termes de déterminants sociologiques et politiques inhérents au système capitaliste ou productiviste. Les personnes sont handicapées non par leurs déficiences mais par l’oppression de l’idéologie biomédicale, essentialiste, individualiste construite pour empêcher l’intégration et l’égalité. Ce courant des Disability Studies s’inscrit dans une mouvance de luttes émancipatoires des personnes opprimées elles-mêmes (Stiker 2005 : 210; Boucher 2003) La théorie de la liminalité (Murphy 1990). Par cette différence dont ils sont les porteurs, les corps s’écartent de la normalité attendue par la collectivité et sont placés dans une situation liminale, un entre-deux qu’aucun rite de passage ne semble en mesure d’effacer, de métamorphoser pour accéder au monde des corps normaux. Cette théorie attribue un statut anthropologique spécifique au corps handicapé sans faire référence obligatoire à l’oppression, à l’exclusion, à la faute, ou au pouvoir. Marqués de façon indélébile, ils demeurent sur le seuil de la validité, de l’égalité, des droits, de l’humanité. La théorie de l’infirmité comme double, la liminalité récurrente de Stiker (2005). L’infirmité ne déclenche pas seulement la liminalité mais en référant à la psychanalyse, elle est un véritable double. La déficience est là, nous rappelant ce que nous n’aimons pas et ne voulons pas être, mais elle est notre ombre. Nous avons besoin de l’infirmité, comme de ceux qui la portent pour nous consoler d’être vulnérable et mortel tout autant que nous ne devons pas être confondus avec elle et eux pour continuer à nous estimer. Ils sont, devant nous, notre normalité, mais aussi notre espoir d’immortalité (Stiker 2005 : 223)
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie