To see the other types of publications on this topic, follow the link: Limite à flux nul.

Journal articles on the topic 'Limite à flux nul'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 37 journal articles for your research on the topic 'Limite à flux nul.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Anthore, Anne, Sébastien Jézouin, François Parmentier, Ulf Gennser, and Frédéric Pierre. "Limite quantique du flux de chaleur." Reflets de la physique, no. 42 (December 2014): 16–19. http://dx.doi.org/10.1051/refdp/201442016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Breuß, Michael, and Dominik Dietrich. "On the optimization of flux limiter schemes for hyperbolic conservation laws." Numerical Methods for Partial Differential Equations 29, no. 3 (July 20, 2012): 884–96. http://dx.doi.org/10.1002/num.21736.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Kolev, Mikhail K., Miglena N. Koleva, and Lubin G. Vulkov. "Two positivity preserving flux limited, second-order numerical methods for a haptotaxis model." Numerical Methods for Partial Differential Equations 29, no. 4 (October 27, 2012): 1121–48. http://dx.doi.org/10.1002/num.21748.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Aglietta, M., E. D. Alyea, P. Antonioli, G. Badino, G. Bari, M. Basile, V. S. Berezinsky, et al. "Upper limits to low energy $\bar\nu_\mathrm{e}$ flux from GRB 990705." Astronomy & Astrophysics 366, no. 2 (February 2001): 573–77. http://dx.doi.org/10.1051/0004-6361:20000233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Mohammed, Hussein, and Yasin Salman. "Laminar air flow free convective heat transfer inside a vertical circular pipe with different inlet configurations." Thermal Science 11, no. 1 (2007): 43–63. http://dx.doi.org/10.2298/tsci0701043m.

Full text
Abstract:
Free convection heat transfer has been experimentally investigated for laminar air flow in a vertical circular pipe by using the boundary condition of constant wall heat flux in the ranges of local Rayleight number (RaL) from 1.1?109 to 4.7?109. The experimental setup was designed for determining the effect of different configurations placed at the inlet of a vertical heated pipe, on the surface temperature, the local and average heat transfer coefficients. The apparatus was made with an electrically heated aluminum pipe with length of 900 mm and inside diameter 30 mm. The inlet configurations included two circular pipes having the same diameter as the heated pipe but with lengths of 600 and 1200 mm, sharp-edge and bell-mouth. It was found that the surface temperature along the pipe surface for same heat flux would be higher values for inlet condition with length of 1200 mm and would be lower values for bell-mouth inlet condition. The results show that the local Nusselt number Nux and average Nusselt number (NuL) values would be higher for bell-mouth inlet condition and lower values for 1200 mm inlet condition. For all inlet configurations, the results reveal that the Nu increases as the heat flux increases. Empirical correlations have been proposed in a form of log NuL vs. log RaL for each case investigated and a general correlation for all cases has been obtained which reveals the effect of inlet conditions existence on the free convection heat transfer process in a vertical circular pipe. .
APA, Harvard, Vancouver, ISO, and other styles
6

KUMARAN, V. "Velocity distribution function for a dilute granular material in shear flow." Journal of Fluid Mechanics 340 (June 10, 1997): 319–41. http://dx.doi.org/10.1017/s0022112097005119.

Full text
Abstract:
The velocity distribution function for the steady shear flow of disks (in two dimensions) and spheres (in three dimensions) in a channel is determined in the limit where the frequency of particle–wall collisions is large compared to particle–particle collisions. An asymptotic analysis is used in the small parameter ε, which is naL in two dimensions and n2L in three dimensions, where n is the number density of particles (per unit area in two dimensions and per unit volume in three dimensions), L is the separation of the walls of the channel and a is the particle diameter. The particle–wall collisions are inelastic, and are described by simple relations which involve coefficients of restitution et and en in the tangential and normal directions, and both elastic and inelastic binary collisions between particles are considered. In the absence of binary collisions between particles, it is found that the particle velocities converge to two constant values (ux, uy) =(±V, 0) after repeated collisions with the wall, where ux and uy are the velocities tangential and normal to the wall, V=(1−et) Vw/(1+et), and Vw and −Vw are the tangential velocities of the walls of the channel. The effect of binary collisions is included using a self-consistent calculation, and the distribution function is determined using the condition that the net collisional flux of particles at any point in velocity space is zero at steady state. Certain approximations are made regarding the velocities of particles undergoing binary collisions in order to obtain analytical results for the distribution function, and these approximations are justified analytically by showing that the error incurred decreases proportional to ε1/2 in the limit ε→0. A numerical calculation of the mean square of the difference between the exact flux and the approximate flux confirms that the error decreases proportional to ε1/2 in the limit ε→0. The moments of the velocity distribution function are evaluated, and it is found that 〈u2x〉→V2, 〈u2y〉 ∼V2ε and − 〈uxuy〉 ∼ V2εlog(ε−1) in the limit ε→0. It is found that the distribution function and the scaling laws for the velocity moments are similar for both two- and three-dimensional systems.
APA, Harvard, Vancouver, ISO, and other styles
7

Kunz, Martin, Jost V. Lavric, Rainer Gasche, Christoph Gerbig, Richard H. Grant, Frank-Thomas Koch, Marcus Schumacher, Benjamin Wolf, and Matthias Zeeman. "Surface flux estimates derived from UAS-based mole fraction measurements by means of a nocturnal boundary layer budget approach." Atmospheric Measurement Techniques 13, no. 4 (April 6, 2020): 1671–92. http://dx.doi.org/10.5194/amt-13-1671-2020.

Full text
Abstract:
Abstract. The carbon exchange between ecosystems and the atmosphere has a large influence on the Earth system and specifically on the climate. This exchange is therefore being studied intensively, often using the eddy covariance (EC) technique. EC measurements provide reliable results under turbulent atmospheric conditions, but under calm and stable conditions – as they often occur at night – these measurements are known to misrepresent exchange fluxes. Nocturnal boundary layer (NBL) budgets can provide independent flux estimates under stable conditions, but their application so far has been limited by rather high cost and practical difficulties. Unmanned aircraft systems (UASs) equipped with trace gas analysers have the potential to make this method more accessible. We present the methodology and results of a proof-of-concept study carried out during the ScaleX 2016 campaign. Successive vertical profiles of carbon dioxide dry-air mole fraction in the NBL were taken with a compact analyser carried by a UAS. We estimate an average carbon dioxide flux of 12 µmolm-2s-1, which is plausible for nocturnal respiration in this region in summer. Transport modelling suggests that the NBL budgets represent an area on the order of 100 km2.
APA, Harvard, Vancouver, ISO, and other styles
8

Maroneze, Rafael, Otávio Costa Acevedo, and Felipe Denardin Costa. "RELAÇÃO ENTRE VELOCIDADE DO VENTO E ENERGIA CINÉTICA TURBULENTA EM MODELOS SIMPLIFICADOS DA CAMADA LIMITE NOTURNA." Ciência e Natura 38 (July 20, 2016): 75. http://dx.doi.org/10.5902/2179460x20091.

Full text
Abstract:
The determination of the turbulent fluxes in very stable conditions is done, generally, through parameterizations. In this work the turbulent fluxes are estimated, by using a simplified model, through prognostic equations for the turbulent intensity, the sensible heat flux and the temperature variance. The results indicate that the model is able to reproduce both atmospheric coupling and the intermittent character of the turbulence in very stable conditions.
APA, Harvard, Vancouver, ISO, and other styles
9

Santana, Raoni Aquino Silva de, Cléo Quaresma Dias-Júnior, Julio Tóta, Rodrigo Da Silva, Roseilson Souza do Vale, Antônio Marcos Delfino de Andrade, Raphael Tapajós, Beatriz Freire Mota, Kewen Antônio Souza Vieira, and Luis Paulo Aquino Silva de Santana. "Estimando a altura da camada limite atmosférica sobre diferentes superfícies da região amazônica." Ciência e Natura 42 (August 28, 2020): e25. http://dx.doi.org/10.5902/2179460x46928.

Full text
Abstract:
The Atmospheric Boundary Layer height (zi) is an important quantity used in many parameterizations in surface flux calculations. However, to obtain this height, it is necessary to use atmospheric radiosonde, which can be expensive or even logistically unfeasible in some places in the Amazon. The objective of this work is to estimate zi through the spectrum of the zonal wind component above multiple surfaces of the Amazon region, comparing with the results available in the literature. The zi daily cycle information was generally consistent with minimum values at night and maximum values during the day on all surfaces studied. On the other hand, results seem to run away from expectations, such as zi being larger for the lake than for the savana. It follows that the method has potential to be used in the zi calculation, but still needs further study to improve it.
APA, Harvard, Vancouver, ISO, and other styles
10

Assireu, Arcilan Trevenzoli, Felipe Mendonça Pimenta, and Ramon Morais de Freitas. "OBSERVAÇÕES E MODELAGEM DA CAMADA LIMITE INTERNA NO ENTORNO DE EXTENSOS SISTEMAS AQUÁTICOS." Ciência e Natura 38 (July 20, 2016): 305. http://dx.doi.org/10.5902/2179460x20238.

Full text
Abstract:
The determination of the spatial extent of the internal boundary layer (IBL) across a step change in surface roughness and surface heat flux and temperature is an important environmental aspect to the operation of industries, fossil-fuel, nuclear and wind power plants. The IBL of the land-water transition zone, such as in coastal regions, lakes and reservoirs, is strongly influenced by surface properties, as the roughness and stability change considerably within this zone. An observational study was conducted to measure meteorological properties near a large tropical reservoir and investigate the IBL at the water-land transition. A 42 m height meteorological mast was instrumented with sonic wind anemometers, air temperature and relative humidity sensors at 3, 10, 20 and 40 m height. Comparisons of the log profile model with the Monin-Obukhov similarity theory (MOS) and the observed wind profiles, shown that the MOS estimated the wind profile more accurately, especially if winds were from water to land.
APA, Harvard, Vancouver, ISO, and other styles
11

Manzagol, Claude. "Portée géographique des investissements étrangers." Cahiers de géographie du Québec 17, no. 40 (April 12, 2005): 35–49. http://dx.doi.org/10.7202/021104ar.

Full text
Abstract:
Si les géographes ont depuis longtemps reconnu l'importance des flux de capital qui sous-tendent la circulation des biens visibles, ils ont accordé peu d'attention aux mouvements internationaux de l'argent dont l'impact était difficile à mesurer. La période actuelle est marquée par la montée rapide, dans la plupart des pays, des investissements étrangers, essentiellement sous forme d'investissements directs. À la lumière de statistiques et d'ouvrages récents, l'auteur montre comment, outre l'accroissement de l'écart entre pays développés et Tiers Monde, ils modifient les réseaux de flux (biens, personnes, information, innovation) et les structures des pays d'accueil. Ils contribuent en outre à accentuer les disparités régionales, tant il est vrai que leur comportement s'identifie à travers des schémas spatiaux originaux. Certes, l'investissement américain au Canada, qui fournit les exemples les plus démonstratifs, constitue un cas limite. Néanmoins, la montée des entreprises multi-nationales engendre un nouveau système industriel caractérisé par un changement d'échelle de l'appareil de production et une modification radicale des structures et des stratégies d'entreprises.
APA, Harvard, Vancouver, ISO, and other styles
12

Kabiri, Mohamed El, Pierre Paranthoen, Lionel Rosset, and Jean-Claude Lecordier. "Fluctuations de temperature et flux de chaleur en aval d'une source linéaire placée dans une couche limite turbulente." Revue Générale de Thermique 37, no. 3 (March 1998): 181–94. http://dx.doi.org/10.1016/s0035-3159(97)83648-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Le Moigne, Patrick, and Marie Minvielle. "Surfex : une plateforme pour simuler les flux des surfaces océaniques et continentales." La Météorologie, no. 108 (2020): 082. http://dx.doi.org/10.37053/lameteorologie-2020-0020.

Full text
Abstract:
Dans les modèles atmosphériques de prévision numérique du temps et de climat, la surface constitue la condition à la limite inférieure. La grande variété des paysages présents sur l'ensemble du globe et les spécificités de chacun des types de surface rendent complexe sa description dans les modèles. Par ailleurs, l'augmentation constante de la résolution horizontale des modèles nécessite une description fine des surfaces ainsi que des processus mis en jeu lorsqu'atmosphère et surface interagissent. Cet article décrit la plateforme de modélisation Surfex, en particulier comment la grande variété des types de surface est prise en compte, quelles sont les principales paramétrisations physiques et enfin comment est réalisé le couplage à un modèle atmosphérique. Surface is the lower boundary condition of numerical weather prediction and climate atmospheric models. Its representation in models is complicated by the large diversity in landscapes over the Earth, and the specificities of each surface type. In addition, the continuous increase in model horizontal resolution requires an accurate description of surfaces as well as the processes involved when surface and atmosphere are coupled. This article describes the Surfex modelling platform, particularly how the large amount of surface types are accounted for, which are the main physical processes represented and how the coupling to an atmospheric model can be achieved.
APA, Harvard, Vancouver, ISO, and other styles
14

Adorni-Braccesi, A., M. Acutis, S. Merlo, and G. M. Zuppi. "Application des techniques physiques, géochimiques et isotopiques pour l'évaluation de l'infiltration sous climat tempéré." Revue des sciences de l'eau 14, no. 3 (April 12, 2005): 243–63. http://dx.doi.org/10.7202/705419ar.

Full text
Abstract:
Depuis plusieurs années, la Zone Non Saturée d'une parcelle expérimentale au nord de l'Italie (plaine du Pô) a fait l'objet de nombreuses études sur les caractéristiques physiques et géologiques du milieu, ainsi que sur les modalités du mouvement des eaux d'infiltration. Le site a été équipé de 6 tensiomètres à mercure, 6 bougies poreuses pour l'échantillonnage de l'eau et d'un tube d'accès pour la sonde à neutrons. L'application des différentes méthodes d'évaluation a fourni, pour la période d'étude (Septembre 1994-Août 1995), des valeurs de l'infiltration sensiblement différentes. La méthode physique, basée sur le calcul du bilan hydrique annuel, et considérant le sol comme un unique réservoir monocouche, a indiqué que 19% du total des précipitations arrive à s'infiltrer. D'autre part, un modèle de simulation intégrant les caractéristiques hydrodynamiques du sol a permis d'évaluer la recharge à 29% des précipitations annuelles. Le calcul de la répartition de la teneur en eau sur le profil porte sur la description des fluctuations temporelles du plan de flux nul, en relation avec les épisodes pluvieux et l'intensité de l'évaporation. La méthode géochimique du "profil en ions conservés" entre l'eau de pluie et du sol a permis, quant à elle, d'évaluer la lame d'eau infiltrée à environ 12% des précipitations annuelles. La composition isotopique des eaux extraites du sol manifeste un enrichissement global en isotopes lourds (2H et 18O) par rapport aux eaux météoriques, conséquence d'une évaporation intense. L'infiltration semble être de type "piston flow" dispersif. Elle suit, seulement pendant l'hiver, un flux où la composante convective dans la microporosité est prédominante sur la composante diffusive qui a lieu, de préférence, dans la macroporosité.
APA, Harvard, Vancouver, ISO, and other styles
15

Guerra, Viviane Da Silva, Otávio Costa Azevedo, Felipe Denardin Costa, and Pablo Eli Soares de Oliveira. "Análise do escoamento horizontal de movimento não turbulento na camada limite noturna sob influência de obstruções." Ciência e Natura 42 (August 28, 2020): e8. http://dx.doi.org/10.5902/2179460x45316.

Full text
Abstract:
When turbulence is well developed, the diffusivity tends to quickly destroy other flow variability modes, so that the turbulent processes become dominant. However, in cases of weak or intermittent turbulence the turbulence scales are restricted to small values, both spatially and temporally. Non-turbulent processes can become important in such cases. This is particularly possible in the Stable Boundary Layer, some studies have focused on non-turbulent flow modes such as submeso, for example. Non-turbulent motions occur simultaneously on other scales and may to dominate the fluctuations of the horizontal flow and vertical flux The physical forcing of submeso flow is still poorly understood, but it is believed to depend significantly on local conditions such as topography and vegetation. The hypothesis assumed in this paper is that obstacles of different nature and dimensions, such as trees, buildings and topography elements affect different flow scales and analyze how turbulent and submeso processes are affected differently.
APA, Harvard, Vancouver, ISO, and other styles
16

Casaulta Aebischer. "Lungenfunktion bei Kindern in der Praxis." Praxis 91, no. 12 (March 1, 2002): 503–7. http://dx.doi.org/10.1024/0369-8394.91.12.503.

Full text
Abstract:
Une anamnèse et un status clinique soignés permettent dans la plupart des cas d'obtenir les principales caractéristiques des maladies respiratoires d'un patient. Les tests de fonction pulmonaire en pratique quotidienne sont les données de base pour le début du traitement, l'évolution clinique ou la documentation de la réussite thérapeutique. Les valeurs mesurées par spirométrie sont exprimées en volume (litre) ou en volume par unité de temps (flux). Si un spiromètre est utilisé chez les enfants, les valeurs de flux doivent être mesurées de façon linéaire. La spirométrie ne donne aucun renseignement sur les valeurs respiratoires de repos. En cas de suspicion d'hyperinflation pulmonaire ou de syndrome de restriction (comme par exemple en cas de fibrose cystique (mucoviscidose) la spirométrie doit être complétée par une pléthysmographie corporelle. L'importance de la coopération limite l'utilisation de la spirométrie aux enfants âgés de plus de 5 - 6 ans. Plus le patient est jeune, plus l'expérience avec les enfants et l'interprétation des fonctions pulmonaires sont importantes. Tous les enfants n'ont de loin pas une prise de conscience de leur corps et de leur respiration suffisante pour leur permettre d'effectuer correctement une respiration profonde ou forcée. Dès qu'ils commencent à respirer de façon active, leur respiration devient plus superficielle et plus rapide. Il vaut la peine d'exercer la respiration de nombreuses fois avec les enfants avant de procéder aux mesures. Il faut absolument obtenir une représentation graphique de la courbe flux- volume. La configuration de la courbe permet d'obtenir le diagnostic et permet d'évaluer la coopération. Les valeurs mesurées permettent une quantification.
APA, Harvard, Vancouver, ISO, and other styles
17

Hu, Po, Hui Li, Bao-An Chen, Hua Tang, Zheng Ge, Jing Zhang, Hui Hui, and Qing-long Guo. "Lw-218, a New Flavonoid Compound, Exerts Anti-T-Cell Malignancies Effects Via Autophagy-Mediated Apoptosis." Blood 134, Supplement_1 (November 13, 2019): 5756. http://dx.doi.org/10.1182/blood-2019-122409.

Full text
Abstract:
Background:T-cell malignancies are characterized by the excessive proliferation of hematopoietic precursor cells of T-cell lineage lymphocytes in bone marrow. T-cell malignancies consist of T-cell lymphoblastic leukemia (T-ALL) and T-cell non-Hodgkin lymphoma (T-NHL). Effective therapeutic options are limited for T-cell malignancies patients. Apoptosis is one of the most important means to cure cancer. Autophagy, a conserved process that sequesters and targets cellular components for lysosomal degradation, also plays highly context-specific roles in mediating cell death. Our research found that LW-218, a new synthetic flavonoid compound, exerted anti-T-cell malignancies cell lines effects by autophagy-mediated apoptosis induction. Methods: In vitrostudy, T-ALL cell lines (Jurkat, Molt4) and T-NHL cell lines (Hut102, Hut78) were used to investigated LW-218-induced apoptosis effects by survival assays (Flow cytometry, Annexin V/PI). A series of experiment were used to assess the autophagy flux triggered by LW-218, by using mCherry-GFP-LC3 construct, Lysotracker Red staining, and determining the expression ratio of LC3-II/LC3-I. Western blot assay, RT-qPCR, transfection with siRNA, and immunofluorescence were used to investigate the underlying mechanism. In vivostudies, the anti-tumor effects of LW-218 were evaluate in T-ALL xenografts which established by subcutaneous injection of Jurkat cells. Results:Mechanistic studies demonstrated that LW-218-induced cell apoptosis in T-cell malignancies cell lines was correlated with activation of caspase 8, caspase 3 and caspases 9, and the substrate PARP1. In addition, LW-218 induced autophagy flux in T-cell malignancies, as increased ratios of LC3B-II/LC3B-I and reductions of P62 expression. The increased numbers of GFP-mCherry puncta and fluorescent intensity also indicated the increase in autolysosomes. The autophagy-mediated cell death must strictly follow the criteria that the inhibition of autophagy, through either genetic or chemical means, prevents cell death. LW-218-induced cell apoptosis and the activation of caspases3/8/9 could be prevented when the autophagy flux was blocked by autophagy inhibitors. mTOR is a master regulator of cellular metabolism and governs the programmed cell death pathways of apoptosis and autophagy. The results showed that LW-218 inhibited the expression of p-mTOR (Ser2448). And the restored activation of mTOR correlated with the inhibition of autophagy flux, which indicated mTOR might be involved in LW-218-induced autophagy. LW-218 also induced cleavage of Bid, the substrate of caspases 8, which indicated that the apoptosis mediated by autophagy might via caspases 8 and Bid activation. Thein vivostudies also verified that LW-218 inhibited the growth of tumors. Conclusions:Our study provides a new insight into the mechanism of LW-218-induced autophagy-mediated apoptosis, suggesting the potency of LW-218 to be a promising agent against T-cell malignancies. Disclosures No relevant conflicts of interest to declare.
APA, Harvard, Vancouver, ISO, and other styles
18

Schnitzer, Ory, and Ehud Yariv. "Strong-field electrophoresis." Journal of Fluid Mechanics 701 (May 11, 2012): 333–51. http://dx.doi.org/10.1017/jfm.2012.161.

Full text
Abstract:
AbstractWe analyse particle electrophoresis in the thin-double-layer limit for asymptotically large applied electric fields. Specifically, we consider fields scaling as ${\delta }^{\ensuremath{-} 1} $, $\delta ~(\ll \hspace *{-2pt}1)$ being the dimensionless Debye thickness. The dominant advection associated with the intense flow mandates a uniform salt concentration in the electro-neutral bulk. The $O({\delta }^{\ensuremath{-} 1} )$ large tangential fields in the diffuse part of the double layer give rise to a novel ‘surface conduction’ mechanism at moderate zeta potentials, where the Dukhin number is vanishingly small. The ensuing $O(1)$ electric current emerging from the double layer modifies the bulk electric field; the comparable $O(1)$ transverse salt flux, on the other hand, is incompatible with the nil diffusive fluxes at the homogeneous bulk. This contradiction is resolved by identifying the emergence of a diffusive boundary layer of $O({\delta }^{1/ 2} )$ thickness, resembling thermal boundary layers at large-Reynolds-number flows. The modified electric field within the bulk gives rise to an irrotational flow, resembling those in moderate-field electrophoresis. At leading order, the particle electrophoretic velocity is provided by Smoluchowski’s formula, describing linear variation with applied field.
APA, Harvard, Vancouver, ISO, and other styles
19

Ramdani, Amina, André Deratani, and Safia Taleb. "Étude comparative de la rétention des sels monovalents par nanofiltration : application à une eau naturelle." Revue des sciences de l’eau 30, no. 1 (June 8, 2017): 65–69. http://dx.doi.org/10.7202/1040065ar.

Full text
Abstract:
Nombreuses sont les personnes exposées à une concentration excessive de fluor dans l’eau qu'ils boivent. C’est le cas de la population vivant dans le sud algérien. L'excès de fluor provoque des affections invalidantes : la fluorose dentaire, la fluorose osseuse. L’objectif principal de ce travail est d’étudier l’effet de la pression et de la concentration des sels sur leur rétention par nanofiltration. Pour cela, nous avons déterminé les paramètres de performance de flux et de rétention vis-à-vis des solutés ioniques NaF, NaBr, NaCl et NaI par la membrane de nanofiltration NF 270. Cette présente étude examine aussi la défluoruration d’eaux saumâtres réelles du sud algérien. Des essais en nanofiltration ont montré que la rétention des anions se fait dans l’ordre suivant : F‑ > Cl‑ > Br‑ > I‑. La membrane NF 270 retient mieux les ions à une pression de 10 bar. Au-delà de cette dernière, la rétention des ions monovalents se stabilise aux différents pH étudiés puis diminue. À faible concentration (10‑3 M) la rétention limite des solutés étudiés est plus élevée qu’à plus forte concentration (10‑2 M). Il a été démontré que les ions fluorures peuvent être retenus sélectivement d’une eau naturelle saumâtre hyperfluorée à pH naturel à plus de 82 % en présence d'autres ions.
APA, Harvard, Vancouver, ISO, and other styles
20

Pinto, J. O., D. B. Parsons, W. O. J. Brown, S. Cohn, N. Chamberlain, and B. Morley. "Coevolution of Down-Valley Flow and the Nocturnal Boundary Layer in Complex Terrain." Journal of Applied Meteorology and Climatology 45, no. 10 (October 1, 2006): 1429–49. http://dx.doi.org/10.1175/jam2412.1.

Full text
Abstract:
Abstract An enhanced National Center for Atmospheric Research (NCAR) integrated sounding system (ISS) was deployed as part of the Vertical Transport and Mixing (VTMX) field experiment, which took place in October of 2000. The enhanced ISS was set up at the southern terminus of the Great Salt Lake Valley just north of a gap in the Traverse Range (TR), which separates the Great Salt Lake and Utah Lake basins. This location was chosen to sample the dynamic and thermodynamic properties of the flow as it passes over the TR separating the two basins. The enhanced ISS allowed for near-continuous sampling of the nocturnal boundary layer (NBL) and low-level winds associated with drainage flow through the gap in the TR. Diurnally varying winds were observed at the NCAR site on days characterized by weak synoptic forcing and limited cloud cover. A down-valley jet (DVJ) was observed on about 50% of the nights during VTMX, with the maximum winds usually occurring within 150 m of the surface. The DVJ was associated with abrupt warming at low levels as a result of downward mixing and vertical transport of warm air from the inversion layer above. Several processes were observed to contribute to vertical transport and mixing at the NCAR site. Pulses in the strength of the DVJ contributed to vertical transport by creating localized areas of low-level convergence. Gravity waves and Kelvin–Helmholtz waves, which facilitated vertical mixing near the surface and atop the DVJ, were observed with a sodar and an aerosol backscatter lidar that were deployed as part of the enhanced ISS. The nonlocal nature of the processes responsible for generating turbulence in strongly stratified surface layers in complex terrain confounds surface flux parameterizations typically used in mesoscale models that rely on Monin–Obukhov similarity theory. This finding has major implications for modeling NBL structure and drainage flows in regions of complex terrain.
APA, Harvard, Vancouver, ISO, and other styles
21

Yao, Yihua, Yi Chen, Qinfen Lu, Xiaoyan Huang, and Yunyue Ye. "Analysis of thrust ripple harmonics on different electric loadings in PM linear synchronous machines with skewed PMs." COMPEL: The International Journal for Computation and Mathematics in Electrical and Electronic Engineering 35, no. 2 (March 7, 2016): 655–69. http://dx.doi.org/10.1108/compel-12-2015-0444.

Full text
Abstract:
Purpose – Permanent magnet linear synchronous machines (PMLSMs) have large thrust ripple due to the longitudinal end effect caused by the finite length of the armature compared with rotary machines. The purpose of this paper is to analyze the influence of electric loading on thrust ripple performances based on a 12 slots/14 poles (12S/14P) PMLSM. Furthermore, the method of skewed PMs to reduce thrust ripple is investigated based on multi slices 2D finite element (FE) models. Design/methodology/approach – The thrust ripple of PMLSM under open-circuit condition results from the slotting and the longitudinal end effects. Therefore, periodical model has been designed to clarify the effect of the longitudinal end effect. Under on-load condition, the thrust ripple increases and exhibits an effective component of thrust force. To analyze the thrust ripple under on-load condition, frozen permeability (FP) technique is employed. In addition, the method of skewed PMs is analyzed in this paper to obtain more smooth thrust force performance. The effectiveness of skewing accounting for skew angles, step skew numbers and slot/pole number combinations was highlighted. Findings – The longitudinal end effect dominates the thrust ripple of PMLSM in both cases, i.e., open-circuit and on-load conditions. Under on-load condition, the second harmonic component of thrust ripple related to flux linkage harmonics increases significantly. Moreover, the effectiveness of skewed PMs is largely reduced with the increase of magnetic saturation. At last, a proper skew angle and step skew number are obtained for the conventional PMLSM with fractional-slot winding. Originality/value – By 60 electrical degrees and two or three step skewed PMs, the thrust ripple can be decreased to a tolerable limite for conventional PMLSM. The thrust ripple harmonics contributed by longitudinal end effect and flux linkage harmonics are analyzed, respectively, which is beneficial to exploring other techniques such as adding end auxiliary teeth to obtain lower thrust force pulsation.
APA, Harvard, Vancouver, ISO, and other styles
22

Gray, James T., Jean A. Pilon, and Jean Poitevin. "Le pergélisol et la couche active dans la toundra forestière au sud de la baie aux Feuilles, Nouveau-Québec." Géographie physique et Quaternaire 33, no. 3-4 (January 25, 2011): 253–64. http://dx.doi.org/10.7202/1000362ar.

Full text
Abstract:
Nos études sur les températures souterraines au lac Jourdan, près de la côte du sud-ouest de la baie d’Ungava, révèlent l’existence d’un pergélisol continu dans cette zone de toundra forestière située entre 85 et 300 m d’altitude. Il atteint une profondeur maximale d’environ 200 m sur le plateau, à la limite septentrionale de la forêt. Le pergélisol n’est pas relique, mais en équilibre avec le climat actuel. Les fluctuations observées dans les profils thermiques peuvent être dues aux changements séculaires du climat ou aux flux de chaleur latéraux provoqués par les différences d’épaisseur du couvert nival de cette région très accidentée. Les profils thermiques détaillés des couches de sédiments meubles et de la roche en place, proche de la surface, ont permis de suivre l’évolution du dégel dans un bon nombre de sites représentatifs des divers terrains de la région. En 1978, cette évolution est relativement linéaire entre la mi-juin et la mi-août. Une corrélation entre les mesures de la profondeur du dégel transformées logarithmiquement et les degrés-jour au-dessus de 0°C, accumulés pour les dates correspondantes, nous a permis d’évaluer les positions du front du dégel, ainsi que l’épaisseur de la couche active à la toute fin de la saison estivale. Ces mesures se situent entre un minimum de 0,5 m pour les tourbières et un maximum de 6 m pour la roche en place et les champs de blocs, avec plusieurs seuils intermédiaires, selon la nature du terrain.
APA, Harvard, Vancouver, ISO, and other styles
23

Denimal, S., N. Tribovillard, F. Barbecot, S. Aglave, and L. Dever. "Impact des terrils houillers sur la qualité des eaux souterraines (bassin minier Nord-Pas-de-Calais, France) : approche géochimique et isotopique." Revue des sciences de l'eau 15 (April 12, 2005): 67–93. http://dx.doi.org/10.7202/705487ar.

Full text
Abstract:
L'exploitation du charbon dans le Nord-Pas-de-Calais (France) a engendré le dépôt d'importantes quantités de résidus miniers sous forme de terrils, essentiellement constitués de schistes houillers. Le lessivage de ces stériles par les eaux météoriques et l'oxydation des sulfures de fer contenus sont susceptibles de contribuer à l'enrichissement en sulfates et métaux associés de l'aquifère de la craie, principale ressource en eau de la région. Des analyses chimiques et isotopiques (S & C) ont été effectuées sur des prélèvements d'eau en amont et en aval hydraulique des sites d'étude ainsi que sur la fraction minérale des terrils. Afin de déterminer les modalités d'infiltration des eaux météoriques au sein des terrils, des prospections radio-magnétotelluriques, couplées à des mesures de perméabilité et de granularité ont été effectuées. Les analyses ont permis de mettre en évidence que le lessivage des terrils entraîne un flux d'ions sulfate et de carbone vers l'aquifère de la craie. L'approche géophysique a permis de mettre en évidence un phénomène d'infiltration des eaux météoriques. Elle a montré en outre l'existence de barrières de perméabilité en profondeur. Il apparaît donc que les eaux météoriques, lorsqu'elles s'infiltrent dans le terril, ne peuvent pénétrer à plus de quelques mètres de profondeur. L'existence de zones imperméables, en limitant l'infiltration des eaux en profondeur, limite également la quantité de sulfure potentiellement oxydable et donc la quantité de sulfates entraînée vers l'aquifère de la craie.
APA, Harvard, Vancouver, ISO, and other styles
24

Clara, Cedric, Marc Durandeau, Gerard Quenault, and Tuyet-Hang Nguyen. "Laboratory Studies for Light-Oil Air Injection Projects: Potential Application in Handil Field." SPE Reservoir Evaluation & Engineering 3, no. 03 (June 1, 2000): 239–48. http://dx.doi.org/10.2118/64272-pa.

Full text
Abstract:
Summary Air injection into light-oil reservoirs is now a proven field technique. Because of the unlimited availability and the nil access cost of the injectant, the application potential of this improved recovery process is promising when associated with the lack of available hydrocarbon gas sources for injection. One of the keys of a successful air injection project is the evaluation of the process by carrying out representative laboratory studies. Therefore, an original laboratory strategy was proposed to assess the recovery potential by air injection into light-oil reservoirs, and to help the determination and the quantification of optimal operating conditions. In this paper, the air injection technique applied to light-oil reservoirs is explained. Then, the laboratory strategy proposed for the evaluation of an air injection project is described, and the experimental objectives, devices, and procedures are explained. In order to provide reliable experimental data, high-pressure and high-temperature experiments (up to 40 MPa and 500°C) are performed with consolidated reservoir cores and reservoir oils, at representative conditions of the air injection process in light-oil reservoirs. Finally, a laboratory evaluation regarding a potential application for an air injection pilot in the Handil field (Mahakam delta, Indonesia) is presented and discussed. Introduction Air Injection Process into Light-Oil Reservoirs. When air is injected into a reservoir, the oxygen contained in the air reacts with the hydrocarbons by various oxidation reactions. Heat is evolved from these reactions. High initial reservoir temperatures promote larger heat production. Two study cases must then be differentiated in the light-oil reservoir.When the thermal losses through the rock are limited compared with the heat generated by the reactions, the temperature in the reservoir increases. In this case, complete oxidation reactions providing carbon-oxide gases can be self-ignited in the reservoir. As reported in recent studies, 1 the oxygen is then consumed in a confined zone called an oxidation (or combustion)front. The size of this zone depends on the air injection rate, the characteristics of the oil, and the formation. In light-oil reservoirs, typical oxidation front temperatures of 200 to 400°C (about 400 to 800°F) can be reached. The produced combustion gases consist of CO 2 and CO with CO/CO2˜0.15, depending on the temperatures reached and the oil characteristics.When the thermal losses through the rock are high, or when the heat release is not high enough to increase the temperature significantly (in the case of high-water saturations or low-oil saturations), the oxidation reactions occur at a temperature close to the initial reservoir temperature. In this case, oxidation reactions can be partial with a lower carbon-oxide generation than in the previous case. The oxygen consumption occurs then through a larger reservoir zone, the size of which depends upon the oil reactivity.2 Several field experiences**3,4 have shown that high levels of CO2 may be produced. This would suggest that spontaneous ignition, with generation of a high-temperature front and the production of associated carbon-oxide gases, is most likely occurring in light-oil reservoirs. The generation of a high-temperature oxidation zone (200 to 400°C) is preferable because of a higher oxygen uptake potential, a more efficient carbon-oxide generation, and the creation of an oil bank downstream of the thermal front. Both of the latter factors contribute to the improvement of the recovery. In both cases, the important point to assess is oxygen consumption to prevent oxygen arrival at the producers. This is one of the main objectives of air injection experiments. Reservoir Zones to be Distinguished. When a high-temperature thermal front is ignited, four main zones can be distinguished in the reservoir (Fig. 1):The zone swept by the combustion front, where the residual oil saturation is low and the temperature higher than the initial reservoir temperature.The oxidation front where oxygen is consumed. The temperature can reach400°C Part of the original oil is burnt (about 5 to 10% OOIP) and CO2 and CO are produced. The gas formed by the remaining nitrogen from the air and the combustion gases is called "flue gas" (typically, 85% of N2 13% of CO2 and 2%of CO) and sweeps the reservoir downstream.A short zone downstream of the combustion front where thermal effects participate in the formation of an oil bank. This oil bank is partially displaced by the flue gas and by hot water or a steam front according to the reservoir conditions.A wide zone downstream of the combustion front where no thermal effects occur. This zone, which contains original oil, is not affected by the thermal effects and is swept by the flue gas. When the oxidation reactions occur at low temperature (close to the reservoir temperature), three main zones can be distinguished:A zone around the injector which is swept by the injected air. In this area, residual oil saturation is low. The oil is partially oxidized but can no longer consume oxygen.A large oxidation zone where oxygen is consumed by the residual oil left after flue gas sweeping. The oxygen concentration in the gas phase progressively decreases from 21 to 0%.A wide zone downstream of the oxidation zone, swept by the flue gas at reservoir temperature, as in the previous case (high-temperature front).However, in this case, less carbon oxides have been generated by oxidation reactions and the flue gas is mainly composed of nitrogen. In practice, both cases can co-exist in a given reservoir, according to the local reservoir properties.
APA, Harvard, Vancouver, ISO, and other styles
25

De Souza, Tamires Teles, Vitor Bianchini De Jesus Martins, Murilo Dos Santos Vianna, and Fábio Ricardo Marin. "Regime de acoplamento planta-atmosfera em lavouras de milho cultivadas em duas épocas (Atmosphere plant-coupling scheme in corn harvest in two times)." Revista Brasileira de Geografia Física 10, no. 4 (July 24, 2017): 1134. http://dx.doi.org/10.26848/rbgf.v.10.4.p1134-1142.

Full text
Abstract:
O milho é considerado uma das culturas mais cultivadas mundialmente porem, rendimento da cultura depende da relação intrínseca estabelecida entre a planta e o ambiente em que se encontra, sendo o acoplamento responsável pela intensidade do fluxo de massa e energia entre a interação planta-atmosfera. Objetivou-se analisar a variação do acoplamento (Ω) de milho cultivado no verão e outono a fim de compreender a interação existente entre vegetação-atmosfera. Foram conduzidos dois experimentos, o primeiro na época do outono e os segundos no verão, ambos instalados no município de Piracicaba-SP. O fator de acoplamento (Ω) foi calculado pela equação proposta por McNaughton e Jarvis (1983) e os dados de transpiração para o período do outono foram estimados por meio do modelo CERES-MAIZE. Verificou-se acoplamento da vegetação com a atmosfera na safra de outono devido à ação conjunta entre os componentes aerodinâmicos e radiativos no controle da troca de vapor de água com a atmosfera; na safra de verão houve desacoplamento devido à ocorrência de temperaturas elevadas, o que favoreceu as atividades metabólicas da planta. Concluiu-se que na safra de outono, o acoplamento das plantas de milho com a atmosfera ocorreu com o aumento da velocidade do vento, redução da resistência aerodinâmica e da camada limite foliar, com queda na transpiração; temperaturas entre 25 a 30 °C favoreceram o desacoplamento das plantas de milho com a atmosfera, na safra de verão. A B S T R A C TMaize is considered to be one of the most cultivated crops worldwide, crop yield depends on the intrinsic relationship established between the plant and the environment in which it is found, and coupling is responsible for the intensity of mass and energy flux between the plant-atmosphere interaction. The objective of this study was to analyze the coupling variation (Ω) of maize grown in summer and autumn in order to understand the interaction between vegetation and atmosphere. Two experiments were conducted, the first in the fall season and the second in the summer, both installed in the municipality of Piracicaba-SP. The coupling factor (Ω) was calculated by the equation proposed by McNaughton and Jarvis (1983) and the transpiration data for the autumn period were estimated using the CERES-MAIZE model. It was verified the coupling of the vegetation with the atmosphere in the fall harvest due to the joint action between aerodynamic and radiative components in the control of the exchange of water vapor with the atmosphere; In the summer crop there was decoupling due to the occurrence of high temperatures, which favored the metabolic activities of the plant. It was concluded that in the autumn harvest the coupling of corn plants with the atmosphere occurred with the increase of wind speed, reduction of aerodynamic resistance and leaf boundary layer, with decrease in transpiration; Temperatures between 25 and 30 ° C favored the decoupling of corn plants with the atmosphere in the summer season.
APA, Harvard, Vancouver, ISO, and other styles
26

Kuo, Hsu-Ping, Richard Crowley, Ling Xue, Karl J. Schweighofer, Leo WK Cheung, Sidney Hsieh, Karl Eckert, Matthias Versele, and Betty Y. Chang. "Combination of Ibrutinib and BCL-2 or SYK Inhibitors in Ibrutinib Resistant ABC-Subtype of Diffuse Large B-Cell Lymphoma." Blood 124, no. 21 (December 6, 2014): 505. http://dx.doi.org/10.1182/blood.v124.21.505.505.

Full text
Abstract:
Abstract Introduction: Diffuse large B-cell lymphoma (DLBCL) is the most common subtype of non-Hodgkin's lymphoma (NHL), accounting for roughly 30% of newly diagnosed cases in the US. DLBCL can progress quickly, and in advanced cases is inconsistently cured with current therapies. Ibrutinib, a first-in-class Bruton's tyrosine kinase (BTK) inhibitor, is approved as a treatment for patients (pts) with mantle cell lymphoma (MCL) and chronic lymphocytic leukemia (CLL) who have had one prior treatment. The ABC subtype of DLBCL is considered especially high risk and characterized by chronic active B-cell receptor (BCR) signaling, which is blocked by ibrutinib. Recent phase II clinical trial results of ibrutinib as a single agent in DLBCL pts show an overall response rate of 41% in the ABC subtype (Wilson et al. ASH 2012). Responses of various cancers to single kinase targeted therapies are often limited by the cell's ability to bypass the target via alternative pathways or acquired mutations in the target or its pathway. It has been shown that a small number of CLL pts acquire resistance to ibrutinib through mutations in BTK and its substrate phospholipase C gamma 2 (PLCG2) in the B lymphoma cells following prolonged treatments (Woyach et al. NEJM 2014). Such mechanisms may be overcome by combinations of targeted agents. Through screening of wild-type and acquired ibrutinib-resistant ABC-DLBCL cell lines (e.g. expressing BTK C481S), we identify and report herein B-cell lymphoma-2 (BCL-2) and spleen tyrosine kinase (SYK) inhibitors that synergize with ibrutinib in vitro and in vivo. Methods: Gene expression was analyzed by RT-qPCR using TaqMan Gene Expression Master Mix. Human DLBCL cell lines were treated with drugs for 3 days and the effect on cell growth was determined by CellTiter-Glo luminescent cell viability assay. SCID mice were treated when the TMD8 tumors reached 100-150 mm3. Annexin-V-positive and PI-negative population was detected as apoptotic cells in tumor cells at sacrifice. Cell adhesion and migration assays were performed as previously described (Chang et al. Blood 2013). Analysis of clinical samples used for BCL-2 gene expression profiling was performed using Affymetrix microarrays on FFPE specimens from the phase 2 PCYC-1106 trial (NCT01325701) and a rank based statistic (RankProd) was used to determine the significance of gene expression changes. Results: DLBCL cell lines with higher BCL-2 expression were more sensitive to single agent ABT-199 than those with lower expression. Treatment of DLBCL cells with ibrutinib alone increased BCL-2 expression as well as their sensitivity to BCL-2 inhibitors. Combination treatment with BCL-2 inhibitors and ibrutinib completely inhibited tumor growth in murine models of ABC-DLBCL (Figure). Increased apoptotic cell populations were detected in the combination treated tumors compared to either treatment alone. Clinically, pretreatment tissue samples (n=28) from ABC-DLBCL pts who experienced objective responses to ibrutinib (CR+PR) had lower BCL-2 gene expression. A high BCL-2 mutation rate was observed in pts with poor response to ibrutinib (SD+PD). However, none of these mutations occurred in the BH3 or BH1 domains, both of which appear to interact with ABT-199 based on a 3-dimensional co-crystal structure of the inhibitor with BCL-2 (PDB code 4MAN) and further molecular simulation results. These findings suggest the potential benefit from combination therapy. SYK is another downstream mediator of BCR signaling. Pretreatment of DLBCL cells with SYK inhibitors (e.g. R406) increased their sensitivity to ibrutinib. Ibrutinib resistant B-lymphoma cells with either C481S BTK or R665W PLCG2 mutations were re-sensitized to ibrutinib in combination with BCL-2 or SYK inhibitors, inhibiting cell growth, IgM-induced calcium flux, cell adhesion or migration in mutant containing cells. Conclusions: Consistent with previous results from high-throughput combinatorial screenings of drugs interact favorably with ibrutinib (Mathews Griner, et al. PNAS 2013), we found BCL-2 and SYK may function in alternative survival pathways in DLBCL cells upon BTK inhibition. Human B lymphomas harboring ibrutinib-resistant C481S BTK or R665W PLCG2 may be re-sensitized by BCL-2 or SYK inhibitors, both of which provide a rationale for the design of combination therapies. Figure 1 Combination of ibrutinib and ABT-199 on the effect of TMD-8 tumor growth. Figure 1. Combination of ibrutinib and ABT-199 on the effect of TMD-8 tumor growth. Disclosures Kuo: Pharmacyclics: Employment. Crowley:Pharmacyclics: Employment. Xue:Pharmacyclics: Employment. Schweighofer:Pharmacyclics: Employment. Cheung:Pharmacyclics: Employment. Hsieh:Pharmacyclics: Employment. Eckert:Pharmacyclics: Employment. Versele:Janssen Pharmaceutica: Employment. Chang:Pharmacyclics, Inc: Employment, Equity Ownership.
APA, Harvard, Vancouver, ISO, and other styles
27

Canet-Soulas, Emmanuelle. "Physiopathologiecardiovasculaire intégrative : apports et enjeux de l'imagerie moléculaire." Bulletin de l'Académie vétérinaire de France 173 (2020). http://dx.doi.org/10.3406/bavf.2020.70906.

Full text
Abstract:
La prise en charge des accidents vasculaires ischémiques cardiaques (syndromes coronariens aigus ou SCA) et cérébraux (AVC) est un enjeu de santé publique majeur. Pour restaurer le flux sanguin, le traitement mécanique endovasculaire est systématique pour le SCA, et révolutionne actuellement le traitement de l’AVC. Le rétablissement de l’apport sanguin est la première ligne d’action thérapeutique, mais des dégâts secondaires à l’épisode d’ischémie-reperfusion interviennent, qui mettent en jeu le pronostic des patients. Aucun traitement efficace n’existe et leurs mécanismes physiopathologiques comme leur évolution spatio-temporelle sont encore mal circonscrits. Parmi ceux-ci, la réaction inflammatoire est un acteur clé, mais nul à ce jour ne peut en prédire l’issue tant son rôle peut se révéler à l’échelle individuelle bénéfique ou délétère. Dans ce contexte, quelles en seront les approches translationnelles diagnostiques et thérapeutiques ? Aujourd’hui, quels sont les acteurs de ces avancées médicales et comment former ceux de demain ?
APA, Harvard, Vancouver, ISO, and other styles
28

Bandlow, Jason, and Gregg Musiker. "The quasiinvariants of the symmetric group." Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings vol. AJ,..., Proceedings (January 1, 2008). http://dx.doi.org/10.46298/dmtcs.3619.

Full text
Abstract:
International audience For $m$ a non-negative integer and $G$ a Coxeter group, we denote by $\mathbf{QI_m}(G)$ the ring of $m$-quasiinvariants of $G$, as defined by Chalykh, Feigin, and Veselov. These form a nested series of rings, with $\mathbf{QI_0}(G)$ the whole polynomial ring, and the limit $\mathbf{QI}_{\infty}(G)$ the usual ring of invariants. Remarkably, the ring $\mathbf{QI_m}(G)$ is freely generated over the ideal generated by the invariants of $G$ without constant term, and the quotient is isomorphic to the left regular representation of $G$. However, even in the case of the symmetric group, no basis for $\mathbf{QI_m}(G)$ is known. We provide a new description of $\mathbf{QI_m}(S_n)$, and use this to give a basis for the isotypic component of $\mathbf{QI_m}(S_n)$ indexed by the shape $[n-1,1]$. Pour $m$ un entier positif ou nul et $G$ un groupe de Coxeter, nous notons $\mathbf{QI_m}(G)$ l'anneau des quasiinvariants définis par Chalykh, Feigin et Veselov. On obtient ainsi une série d'anneaux emboités, $\mathbf{QI_0}(G)$ étant l'anneau des polynômes, et la limite $\mathbf{QI}_{\infty}(G)$ l'anneau des invariants usuels. Il est remarquable que l'anneau $\mathbf{QI_m}(G)$ est librement généré sur l'idéal engendré par les invariants de $G$ sans terme constant, et le quotient est isomorphe à la représentation régulière à gauche de $G$. Cependant, même dans le cas du groupe symétrique, aucune base de $\mathbf{QI_m}(G)$ n'est connue. Nous donnons une nouvelle description de $\mathbf{QI_m}(G)$ et l'utilisons pour obtenir une base du composant isotypique de $\mathbf{QI_m}(S_n)$ indexée par la partition $(n-1,1)$.
APA, Harvard, Vancouver, ISO, and other styles
29

"Process and Energy Optimisation - A Case Study of UB FGR fan at Captive Power Plant of NRL." Petroleum and Chemical Industry International 2, no. 4 (September 17, 2019). http://dx.doi.org/10.33140/pcii.02.04.02.

Full text
Abstract:
The old saying “Excellence is the gradual result of always striving to do better……. The noblest search is the search for excellence.” – An integrated approach to achieve continuous improvement and reach towards excellence in Utility Boiler Operation. This paper highlights the case study carried out regarding the successful trial run of the Flue Gas Recirculation of the Utility Boiler of Co-generation plant of the Numaligarh Refinery Limited, Golaghat, Assam. This fan could not be put into service since commissioning of the boiler. Once it is successfully taken into service, many positive outcomes are noticed and resulted in the process and energy optimization in the operation of the utility boiler. In Numaligarh Refinery Limited (NRL), Co-generation plant (CGP), Utility Boiler (UB) is used to produce High pressure super-heated steam. One of the accessories named Flue Gas Recirculation (FGR) could not be put into service due to certain problems. FGR is a combustion modification process. As the name implies, a portion of the combustion products exiting the boiler are recirculated and introduced into the primary combustion zone. In UB, there are two nos. of FGR fans. But they could not put into service for a long time since commissioning. After a series of studies and experiments, the problems or factors were identified viz. Selection of correct UB load at which the fan should be started, dampers adjustment, burner flame stability, etc. After identification and trouble shooting of these problems, the FGR fans could be run successfully and put into continuous service. Following advantages were achieved in UB after the service of the FGR fans  Increases steaming rate of the U  Saves Energy (Fuel optimization)  Reduced harmful NOx gas Emissions  Increased in flue gas back end temperature  Lowers Greenhouse gas CO2 emission as the amount of fossil fuel is reduced Thus the above case study helped one of the important UB accessories to successfully put into service leading to various benefits, flexibility and process optimization in the operation of the UB.
APA, Harvard, Vancouver, ISO, and other styles
30

Le Breton, David. "Visage." Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.065.

Full text
Abstract:
Dans la hiérarchie morale de la géographie du corps, le visage (avec les organes sexuels) incarne la valeur la plus élevée. Toute blessure à son propos est vécue dramatiquement à la différence d’atteintes ailleurs dans le corps. On parle de défiguration pour une altération sérieuse du visage, il n’existe aucun équivalent pour les mains, les jambes, la poitrine, etc. La défiguration des traits altère la figuration sociale de l’individu (Le Breton 2014). Dans nos sociétés contemporaines en effet, le visage est le lieu de la reconnaissance mutuelle, le visage est nu et offre au jugement des autres des traits qui identifient. À travers eux nous sommes reconnus, nommés, jugés, assignés à un sexe, à un âge, une couleur de peau, nous sommes aimés, méprisés, ou anonymes, noyés dans l’indifférence de la foule. Entrer dans la connaissance d'autrui implique de lui donner à voir et à comprendre un visage nourri de sens et de valeur, et faire en écho de son propre visage un lieu égal de signification et d'intérêt. La réciprocité des échanges au sein du lien social implique l’identification et la reconnaissance mutuelle des visages, support essentiel de la communication. Dans nos sociétés individualistes, la valeur du visage s’impose là où la reconnaissance de soi ou de l'autre se fait à partir de l'individualité et non sur l'appartenance à un groupe ou à la position au sein d'une lignée. La singularité du visage répond à celle de l'individu, artisan du sens et des valeurs de son existence, autonome et responsable de ses choix. Il n’est plus l’homme ou la femme du « nous autres » comme souvent dans les sociétés traditionnelles, mais du « personnellement moi, je ». Pour que l'individu prenne socialement et culturellement sens, il faut un lieu du corps pour le distinguer avec une force suffisante, un lieu suffisamment variable dans ses déclinaisons pour signifier sans ambiguïté la différence d'un individu à un autre. Il faut le corps comme marque de la limite de soi avec le monde extérieur et les autres, le corps comme frontière de l'identité. Et il faut le visage comme territoire du corps où s'inscrit la distinction individuelle (Le Breton 2016 ; 2014). Nul espace du corps n'est plus approprié pour marquer la singularité de l'individu et la signaler socialement. « Peut-être, dit Simmel, des corps se distinguent-ils à l'œil exercé aussi bien que les visages, mais ils n'expliquent pas la différence comme le fait un visage » (Simmel 1988 : 140). De l’enfant au vieillard, d’un bout à l’autre de l’existence, demeure dans le visage un air de ressemblance, un mystère qui souligne la fidélité à soi. Le visage est signification, traduisant sous une forme vivante et énigmatique l'absolu d'une différence individuelle pourtant infime. Écart infinitésimal, il invite à comprendre le mystère qui se tient là, à la fois si proche et si insaisissable. Il demeure unique parmi l'infini des déclinaisons possibles sur un même canevas simple. L'étroitesse de la scène du visage n'est en rien une entrave à la multitude des combinaisons. Une infinité de formes et d'expressions naissent d'un alphabet d'une simplicité déconcertante : des mimiques construites par l’éclat et la direction du regard, un front, des lèvres, etc. Certes, le visage relie à une communauté sociale et culturelle par le façonnement des traits et de l'expressivité, ses mimiques et ses mouvements renvoient à une symbolique sociale, mais il trace une voie royale pour démarquer l'individu et traduire son unicité. Plus une société accorde de l'importance à l'individualité, plus grandit la valeur du visage. Sans visage pour l’identifier n’importe qui ferait n’importe quoi, tout serait égal, la confiance serait impossible, l’éthique n’aurait plus aucun sens. Un individu masqué devient un invisible, n’ayant plus de compte à rendre à personne puisque nul ne saurait le reconnaitre. Comme le dit ironiquement un personnage de Kôbô Abé, dans La face d’un autre, il « n’y aurait plus ni voleur, ni agent de police, ni agresseur, ni victime. Ni ma femme, ni celle de mon voisin ! ». Poursuivant sa rêverie, il imagine la commercialisation d’une multitude de masques, et il en déduit la subversion qui saisirait le lien social. Doté de ces masques, nul ne saurait plus qui est qui, avec même la possibilité de changer de masques plusieurs fois par jour. La notion d’individu se dissout au profit de celle de personne (persona : masque, en latin). Impossible de concevoir un monde sans visage sans l’appréhender comme un univers de chaos. Pour fonder le lien social il faut la singularité des traits pour que chacun puisse répondre de ses traits et être reconnu de son entourage. Un monde sans visage, dilué dans la multiplicité des masques, serait un monde sans coupable, mais aussi sans individus. La valeur à la fois sociale et individuelle qui distingue le visage du reste du corps se traduit dans les jeux de l'amour par l'attention dont il est l'objet de la part des amants. Il y a dans le visage de la personne aimée un appel, un mystère, et le mouvement d’un désir toujours renouvelé. Les amants peuvent ainsi se perdre dans une longue contemplation. Mais les significations qui les traversent sont inépuisables. Les yeux demeurent toujours au seuil de la révélation et se nourrissent de cette attente. Le visage parait toujours le lieu où la vérité est en imminence de dévoilement. Et sans doute, la fin d'une relation amoureuse pour un couple témoigne-t-elle aussi de la banalité mutuelle qui a saisi les visages, l'impossibilité dès lors de quêter le mystère sur les traits de l'autre. Le sacré s’est peu à peu profané au fil de la vie quotidienne, il a perdu son aura. Mais tant que l'intensité du sentiment demeure, le visage se livre à la manière d'une clé pour entrer dans la jouissance de ce qu'il est. Là où l'amour élève symboliquement le visage, la haine de l'autre s'attache à le rabaisser, à le piétiner. Parce qu’il est le lieu par excellence du sacré dans le rapport de l'homme à soi et à l'autre, il est aussi l'objet de tentatives pour le profaner, le souiller, le détruire quand il s'agit d'éliminer l'individu, de lui refuser sa singularité. La négation de l'homme passe de manière exemplaire par le refus de lui accorder la dignité d'un visage. Des expressions courantes le révèlent : perdre la face, faire mauvaise figure, ne plus avoir figure humaine, se faire casser la figure ou la gueule, etc. L'insulte animalise le visage ou le traîne dans la boue : face de rat, gueule, trogne, tronche, etc. De même le propos du raciste mondain évoquant avec complaisance le « faciès » de l'étranger, et ne pensant pas un seul instant que d’autres pourraient parler de lui dans les mêmes termes. Seul l’autre a un faciès. Ce sont là autant de procédures de destitution de l'homme qui exigent symboliquement qu'on le prive de son visage pour mieux le rabaisser. La volonté de suppression de toute humanité en l'homme appelle la nécessité de briser en lui le signe singulier de son appartenance à l'espèce, en l'occurrence son visage. L’exercice de la cruauté est favorisé par le fait d’animaliser l’autre, de le bestialiser, de le destituer de son humanité, à commencer par le fait de lui dénier un visage afin de mieux le voir comme un « pou », un « insecte », une « vermine », un « rat »... L’autre est d’une espèce radicalement étrangère et ne relève plus de la condition humaine, il n’y a plus aucun obstacle au fait de le torturer ou de le tuer. Le racisme pourrait se définir par cette négation et l'imposition d'une catégorie dépréciative qui définit par défaut tout individu à la manière d'un « type » et indique déjà la conduite à tenir à son égard (« le Juif », « l'Arabe », etc.). La différence infinitésimale qui distingue l’individu singulier et le nomme, est anéantie. Privé de visage pour dire sa différence, il se mue en élément interchangeable d'une catégorie vouée au mépris. On lui prête seulement ce masque déjà funéraire qu'est le portrait-robot, ou la caricature comme ces physiognomonies raciales qui eurent leur période de gloire lors du nazisme, mais continuent insidieusement à répandre leur prêt-à-penser. L’autre n’a plus visage humain. Il a le physique de l’emploi, comme dit l’adage populaire. Son sort en est jeté : ses dehors physiques révèlent son intérieur moral et disent dans le vocabulaire de la chair son tempérament, ses vices cachés, ses perfidies. Toute l’entreprise physiognomonique ou morphopsychologique vise à détruire l’énigme du visage pour en faire une figure, une géométrie, et finalement un aveu (Le Breton 2014). La sagacité prétendue du physiognomoniste lève le masque. Son ambition est de dégager en une formule la vérité psychologique de l'homme ou de la femme assis devant lui. Après l'avilissement du visage, il ne reste qu'à passer aux actes. Le racisme n'est jamais pure opinion, mais anticipation du meurtre qui commence déjà dans le fait de la liquidation symbolique du visage de l’autre.
APA, Harvard, Vancouver, ISO, and other styles
31

Kenko Djomeni, Gabin. "La laïcité : principe de liberté ou politique discriminatoire ?" La laïcité : problématiques et pratiques dans l’espace francophone. Volume 2, no. 9 (June 3, 2021). http://dx.doi.org/10.35562/rif.1265.

Full text
Abstract:
Nous tentons dans ce travail de montrer que la notion de laïcité est polysémique. Un regard rétrospectif sur son histoire conforte dans l’idée qu’elle revêt des sens variés en fonction des époques et des contextes ; qu’elle ne revêt pas un sens unique et uniforme dans toute l’histoire de la pensée ; qu’elle est même une notion dont la pratique a précédé l’existence même de la notion. Ce qui de toute évidence en rajoute à la difficulté de la définir, puisque, au fond, il apparaîtra bientôt dans le corps de ce travail qu’elle a bien des contenus spécifiques selon les lieux, les contextes et les périodes plutôt qu’un sens précis universalisable de fait et de droit. De la sorte, les prétentions des modernes de fonder un humanisme laïc dans le sens de l’universalité comme si toutes les sociétés humaines vivaient en fonction des mêmes rites, des mêmes religions et des mêmes croyances se seront vites éprouvées en leur limite comme jadis, au Moyen-Âge, la volonté martiale du pouvoir pontificale s’était aussi éprouvée en ses propres limites quand elle avait exprimé la prétention de rallier les peuples païens à la religion chrétienne. De même alors qu’une telle volonté de conversion par le glaive a fait du Moyen-Âge, à bien des égards, une période sombre de l’histoire à laquelle on ne se réfère la plupart du temps que négativement, et ce indépendamment de son apport majeur dans l’histoire des sciences et des techniques, de même encore, la modernité court le risque de se voir sombrer dans le même délire que ce Moyen-Âge si elle ne reconvertit pas son regard désastreux sur la nature de ses rapports entre le spirituel et le temporel. Il s’agira pour nous de cerner au-delà de ce flux polysémique la signification réelle de la laïcité pour nous qui sommes situés à la confluence de deux époques, à savoir la modernité et la contemporanéité postmoderne. Par-delà cette intuition purement intellectuelle du sens de la laïcité, il s’agira aussi pour nous de montrer que l’homme n’est jamais tant malheureux que quand il est livré à lui-même ; que la raison humaine a cette fâcheuse tendance à faire croire à l’homme qu’il est lui-même Dieu ; que le lieu du sens que propose le théologico-éthique est bon gré mal gré indissociable du lieu du bon sens du temporel humain ; que l’éthique laïque à elle seule serait malgré toute sa dose de « bonne volonté » incapable de fonder le bonheur de l’homme ainsi que la paix sociale ; que la prise en compte symbiotique des deux ordres - le religieux/spirituel et le politique/temporel en l’occurrence - est un impératif pour le bonheur de l’homme et la survie de l’humanité en proie au désenchantement.
APA, Harvard, Vancouver, ISO, and other styles
32

De la Croix, David, Frédéric Docquier, and Bruno Van der Linden. "Numéro 72 - septembre 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15453.

Full text
Abstract:
L’accord gouvernemental du 19 juillet 2009 a défini les critères permettant la régularisation des demandeurs d’asile en Belgique (engagement dans une procédure juridique déraisonnablement longue, situation humanitaire urgente, prise en compte de la faculté d’intégration sociale et économique). Certaines prévisions font état d’environ 25.000 demandes qui devront être introduites entre le 15 septembre et le 15 décembre de cette année. La lenteur des décisions politiques traduit la difficulté de trancher dans cet épineux dossier des régularisations, une difficulté qui trouve partiellement son origine dans la méconnaissance de ses conséquences économiques et des préjugés qui en découlent. Que sait-on au juste de ces effets ? C’est la question abordée dans ce numéro de Regards économiques. L’article commence par souligner que le débat sur les régularisations est qualitativement proche du débat général sur l’immigration légale. Bien qu’elle se différencie de la politique d’immigration légale et non sélective, une politique de régularisation ou d’amnistie engendre des coûts et des bénéfices de même nature, mais d’ampleur moindre, dans la mesure où les sans papiers participent déjà au marché du travail et bénéficient déjà de certaines prestations sociales. En outre, quand on considère une période de temps plus longue, les débats sur l’immigration légale et la régularisation se rejoignent : toute régularisation entraîne une migration connexe via le regroupement familial et les effets de réseaux. Les effets de l’immigration et de la régularisation de travailleurs illégaux ont été davantage étudiés aux Etats-Unis qu’en Europe. Cette limite et la piètre connaissance des caractéristiques des populations séjournant illégalement sur le territoire belge rendent difficile une évaluation précise des effets de l’immigration et d’une régularisation sur la population résidente et sur l’économie belge. Les études internationales pointent toutefois en direction d’effets quantitativement faibles de l’immigration légale en matière d’emploi, de finances publiques et de salaire. Les études qui ont analysé ensemble ces trois différents effets concluent que l’effet favorable sur les finances publiques domine l’effet négatif sur l’emploi et les salaires de sorte que toutes les générations et toutes les catégories de natifs ont modestement bénéficié de l’afflux migratoire (aux Etats-Unis et en France). Notre analyse démontre que les effets d’une régularisation sont de même nature mais d’ampleur moindre. Dans l’état actuel des connaissances, il est raisonnable de penser que la régularisation en Belgique n’entraînera que des effets mineurs sur le revenu net des travailleurs natifs. Le seul véritable groupe à risque est celui des natifs les moins qualifiés. Ce sont eux qui pourraient subir des conséquences négatives sur le marché du travail, du moins dans un premier temps. Néanmoins, dans le cas où les sans papiers ont un taux d’emploi illégal important, ces conséquences sont vraisemblablement minimes, même à court terme. En outre, les effets éventuellement négatifs doivent aller en s’amenuisant au fur et à mesure que le temps passe et que les nouveaux arrivés se lancent dans des activités productives. Une manière d’accélérer cette transition est de promouvoir à bon escient la flexibilité du marché du travail et la mobilité des travailleurs. Dans ce contexte, nombre d’opinions apparaissent guidées par des arguments essentiellement idéologiques et des clichés peu robustes, voire profondément inexacts. Le cliché selon lequel les sans papiers vont prendre le travail des natifs ne résiste pas aux études existantes. Celui qui voit dans l’immigré une sangsue vidant les caisses de la sécurité sociale est manifestement erroné; l’immigration a une contribution plutôt positive aux finances publiques, et cela d’autant plus que le flux migratoire permet de rajeunir en permanence la population.
APA, Harvard, Vancouver, ISO, and other styles
33

De la Croix, David, Frédéric Docquier, and Bruno Van der Linden. "Numéro 72 - septembre 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2009.09.01.

Full text
Abstract:
L’accord gouvernemental du 19 juillet 2009 a défini les critères permettant la régularisation des demandeurs d’asile en Belgique (engagement dans une procédure juridique déraisonnablement longue, situation humanitaire urgente, prise en compte de la faculté d’intégration sociale et économique). Certaines prévisions font état d’environ 25.000 demandes qui devront être introduites entre le 15 septembre et le 15 décembre de cette année. La lenteur des décisions politiques traduit la difficulté de trancher dans cet épineux dossier des régularisations, une difficulté qui trouve partiellement son origine dans la méconnaissance de ses conséquences économiques et des préjugés qui en découlent. Que sait-on au juste de ces effets ? C’est la question abordée dans ce numéro de Regards économiques. L’article commence par souligner que le débat sur les régularisations est qualitativement proche du débat général sur l’immigration légale. Bien qu’elle se différencie de la politique d’immigration légale et non sélective, une politique de régularisation ou d’amnistie engendre des coûts et des bénéfices de même nature, mais d’ampleur moindre, dans la mesure où les sans papiers participent déjà au marché du travail et bénéficient déjà de certaines prestations sociales. En outre, quand on considère une période de temps plus longue, les débats sur l’immigration légale et la régularisation se rejoignent : toute régularisation entraîne une migration connexe via le regroupement familial et les effets de réseaux. Les effets de l’immigration et de la régularisation de travailleurs illégaux ont été davantage étudiés aux Etats-Unis qu’en Europe. Cette limite et la piètre connaissance des caractéristiques des populations séjournant illégalement sur le territoire belge rendent difficile une évaluation précise des effets de l’immigration et d’une régularisation sur la population résidente et sur l’économie belge. Les études internationales pointent toutefois en direction d’effets quantitativement faibles de l’immigration légale en matière d’emploi, de finances publiques et de salaire. Les études qui ont analysé ensemble ces trois différents effets concluent que l’effet favorable sur les finances publiques domine l’effet négatif sur l’emploi et les salaires de sorte que toutes les générations et toutes les catégories de natifs ont modestement bénéficié de l’afflux migratoire (aux Etats-Unis et en France). Notre analyse démontre que les effets d’une régularisation sont de même nature mais d’ampleur moindre. Dans l’état actuel des connaissances, il est raisonnable de penser que la régularisation en Belgique n’entraînera que des effets mineurs sur le revenu net des travailleurs natifs. Le seul véritable groupe à risque est celui des natifs les moins qualifiés. Ce sont eux qui pourraient subir des conséquences négatives sur le marché du travail, du moins dans un premier temps. Néanmoins, dans le cas où les sans papiers ont un taux d’emploi illégal important, ces conséquences sont vraisemblablement minimes, même à court terme. En outre, les effets éventuellement négatifs doivent aller en s’amenuisant au fur et à mesure que le temps passe et que les nouveaux arrivés se lancent dans des activités productives. Une manière d’accélérer cette transition est de promouvoir à bon escient la flexibilité du marché du travail et la mobilité des travailleurs. Dans ce contexte, nombre d’opinions apparaissent guidées par des arguments essentiellement idéologiques et des clichés peu robustes, voire profondément inexacts. Le cliché selon lequel les sans papiers vont prendre le travail des natifs ne résiste pas aux études existantes. Celui qui voit dans l’immigré une sangsue vidant les caisses de la sécurité sociale est manifestement erroné; l’immigration a une contribution plutôt positive aux finances publiques, et cela d’autant plus que le flux migratoire permet de rajeunir en permanence la population.
APA, Harvard, Vancouver, ISO, and other styles
34

Sliwinski, Alicia. "Globalisation." Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.084.

Full text
Abstract:
Le concept de globalisation désigne l’interconnexion et l’interdépendance accrues de toute une gamme de relations sociales à l’échelle planétaire recouvrant d’importantes dimensions politiques, économiques, culturelles, environnementales et subjectives. Depuis les années 1980, la globalisation est devenue un discours dominant pour décrire la mise en place d’une nouvelle condition planétaire. Si nul ne nie que la globalisation soit un processus, la période historique qu’elle est censée marquer a fait l’objet de maints débats, aussi bien en anthropologie que dans les autres sciences sociales. Pour certains, la globalisation prend son essor au 19ème siècle avec les bouleversements liés au colonialisme, les avancées technologiques en matière de transport et de communication et l’expansion sans précédent des échanges commerciaux. Pour d’autres, la globalisation réalise la consolidation d’un système capitalisme mondial ou d’une « économie-monde » qui s’organise au 16ème siècle avec la division internationale du travail. Que des parties éloignées de la planète soient reliées entre elles ne date certes pas d’hier : les empires hellénique, romain et mongol ou encore la route de la soie montrent bien que les relations « transnationales » existent depuis longtemps. Cette discussion largement débattue a opposé le camp des « sceptiques » à celui des « globalisants » quant à la nouveauté du phénomène. Notons qu’en français deux termes existent pour désigner l’intensification et la multiplication des connexions et des réseaux reliant différentes parties du monde jadis nettement plus isolées les unes des autres : mondialisation et globalisation. Parfois ils sont utilisés en tant que synonymes, mais il y a lieu d’apprécier la nuance que leur distinction permet (Abélès 2008). La notion de mondialisation insisterait davantage sur les continuités historiques entre le passé et notre contemporanéité – sur le devenir-monde –, alors que la globalisation signale les discontinuités et les ruptures qui permettent d’affirmer que quelque chose de déterminant est apparu à la fin du 20ème siècle dans notre expérience du monde. Il y a au moins trois facteurs décisifs à cet égard : l’essor d’une économie de marché globale, l’ascension de l’Internet et des technologies de communication dans nos vies quotidiennes et l’apparition de mouvements et de politiques identitaires, plus ou moins violents, et parfois clairement orientés contre la globalisation. La phase actuelle de la globalisation est généralement associée à la doctrine du néolibéralisme, mais il ne faut pas les confondre. Le néolibéralisme caractérise le décloisonnement et la réorganisation des champs politiques et économiques dans le but de réduire les obstacles au commerce mondial. Les mesures macroéconomiques du Consensus de Washington introduites dans les années 1980 – telles que la libéralisation du commerce, la déréglementation de l’économie, la privatisation des entreprises nationales et la réduction des dépenses publiques et des impôts –, ont été mises en place pour favoriser le libre-échange entre les États. Avec la chute du bloc communiste qui annonçait, selon certains, « la fin de l’histoire » (Fukuyama 1992) et la preuve que les démocraties libérales étaient les plus aptes à assurer la croissance d’une économie avancée, la globalisation néolibérale a pris son envol. Au cœur de l’idéologie néolibérale siège la croyance que moins il y a d’entraves à une économie de marché globale, plus les pays seront prospères. De fait, la globalisation va grossir la sphère d’influence d’entités supranationales sur les États modifiant leur rapport au territoire et le contrôle de leurs économies nationales. Le triumvirat de la Banque Mondiale, du Fonds Monétaire International et de l’Organisation mondiale du commerce y a joué un rôle clé, mais ces organisations ont également fait l’objet d’intenses critiques et de mobilisations populaires pour avoir creusé le fossé entre les riches et les pauvres. En matière d’économie politique, la globalisation néolibérale a libéré le capital de ses lieux de production : le capitalisme du nouveau millénaire n’est plus caractérisé par la valeur du travail, mais plutôt par la consommation, la délocalisation et la circulation sans précédent de flux financiers transnationaux, souvent spéculatifs, générant la concentration d’immenses fortunes, mais aussi de nouvelles formes d’exclusion et de dépossession. Parmi les gagnants, soulignons l’essor fulgurant des compagnies technologiques. De fait, le « numérique » exerce une influence considérable dans les nouvelles grammaires culturelles, symboliques et identitaires. Il est couramment entendu que c’est le rapport au temps et à l’espace que la globalisation a profondément altéré. Selon David Harvey (1989), la globalisation exprime la compression de l’espace et du temps, accélérant les processus économiques et sociaux. Elle a créé de nouvelles configurations sociales et technologiques ayant radicalement réduit le temps des échanges et des déplacements. Depuis, l’espace ne cesse de se réduire et le temps de s’accélérer. Pour Anthony Giddens (1990), il s’agit davantage d’un élargissement de l’expérience vécue de ces catégories, et de leur séparation, si bien que la globalisation implique le désenclavement (disembedding) des relations sociales de leurs contextes locaux. Ici, la globalisation prolonge et affermit le processus d’individualisation de la société entamé au 19ème siècle. Un troisième penseur de la globalisation parmi les plus cités est Manuel Castells (1998) qui a avancé l’idée de la société en réseau. Cette nouvelle société réticulaire, informationnelle et globale, est issue de la révolution technologique ayant profondément transformé les modes d’organisation économique, les modalités du travail (et leur contenu), ainsi que les pratiques sociales reliées au temps et à l’espace. À partir de ces thèses notoires, nous pouvons identifier quelques paramètres pour mieux cerner la globalisation : le mouvement accru du capital, des personnes, des marchandises, des images et des idées ; l’intensification des réseaux qui relient différentes parties du globe ; l’élargissement et la déterritorialisation de pratiques sociales, culturelles, politiques et économiques au-delà des frontières ; enfin l’imbrication du local au global, et vice versa, dans nos expériences vécues du monde. Ces dynamiques restent pertinentes, mais nous aurions tort de croire que la globalisation est un phénomène total et achevé. La société en réseau n’est pas uniformément distribuée et la géographie de la globalisation expose combien cette dernière encourage la concentration des activités économiques, politiques et culturelles dans quelques grands centres et mégapoles. Si d’un côté la globalisation tend à homogénéiser les cultures quand les contextes locaux assimilent des produits culturels importés – on a parlé de l’américanisation, de la McDonaldisation et de l’aplatissement du monde –, elle entraine tout autant des formes de fragmentation et de recomposition des identités ethniques et culturelles. De vifs débats ont cherché à déterminer si la globalisation produisait plus de standardisation ou de diversité, d’intégration ou de désintégration, et si ces processus s’avéraient avantageux ou non. Les questions d’échelle sont importantes et les anthropologues ont adopté des approches plurielles pour éviter les interprétations qui ont « tendance à se produire dans l’espace raréfié de la méta-histoire et des généralités abstraites » (Barber et Lem 2004). Jonathan Friedman (2008) envisage la globalisation sous l’angle de la modernité, entendue comme le champ culturel du capitalisme commercial. La globalisation s’articule alors au développement d’un ethos cosmopolitique dont l’essor continue d’infléchir la « forme sociale du monde » (Agier 2013). Les analyses anthropologiques ont mis l’accent sur les flux et les disjonctions que la globalisation entraine (Appadurai 1996), les nouveaux assemblages politiques, technologies et éthiques (Ong et Colier 2005), l’hybridité et la créolisation (Hannerz 1987), la circulation des marchandises et des valeurs dans les contextes non hégémoniques de la « globalisation-par-le-bas » (Ribeiro 2012; Haugerud et al. 2001), la création de « non-lieux » caractéristiques de la surmodernité (Augé 1992), ou les frictions que les nouvelles articulations entre le local et le global entrainent (Tsing 2005). Par ailleurs, la globalisation a eu des répercussions sur les méthodologies de l’anthropologie : on assiste à une plus grande réflexivité dans la pratique de terrain qui devient lui-même multisites (Marcus 1995). Il s’agit également de révéler les liens entre le micro et le macro et ce qui y circule, s’y négocie ou se conteste. Toutefois, au niveau épistémologique la globalisation n’a pas la même valence que la notion de culture. Peut-on parler d’une culture globale et faire une ethnographie du global ? Marilyn Strathern (1995) notait que le global risquait d’être un concept autoréférentiel puisqu’il n’offre pas de point de vue sur le monde : il ne donne pas à voir les relations sociales qui sont rendues manifestes dans des ancrages locaux. Ces questions ne sont pas tranchées et renvoient à la portée herméneutique accordée au global en tant que contexte dans et par lequel la pratique anthropologique opère, en tant qu’objet bon à penser, sur lequel agir, et qui libère de nouveaux imaginaires. Le 21ème siècle maintenant bien entamé, force est de constater que la globalisation a creusé les inégalités entre les nations, les régions et les classes sociales. En 2017, plus de 80 % de la richesse mondiale a été empoché par 1 % de la population (Oxfam 2018). Ces rapports d’inégalité ne s’expriment pas uniquement en termes économiques, mais aussi selon le genre et le degré d’exposition au risque. Ils alimentent également des mouvements de paniques morales face à diverses sortes d’indésirables, qu’il s’agisse de pandémies, de terroristes, de migrants ou de réfugiés. Les politiques identitaires, exacerbées dans l’exutoire des réseaux sociaux, sont un corollaire qui polarise l’espace politique autant par le « haut » (quand les gouvernements promeuvent des nationalismes xénophobes) que par le « bas » (quand les minorités revendiquent la reconnaissance de leurs droits). Ces tensions profondes forcent à repenser le paradigme de l’État-nation dont la souveraineté affaiblie expose la désuétude d’un modèle d’exercice du pouvoir. L’utopie de la globalisation s’est essoufflée et d’autres concepts sont apparus, tels ceux de capitalocène et d’anthropocène pour accuser les maux engendrés par le capitalisme et l’impact délétère des activités humaines sur la planète. Comment infléchir les pathologies de la globalisation pour y remédier est sans doute l’enjeu principal de notre avenir commun.
APA, Harvard, Vancouver, ISO, and other styles
35

Stoczkowski, Wiktor. "Race." Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.042.

Full text
Abstract:
La notion de race est ancienne, et ses significations n’ont jamais cessé de se transformer. Dès le XVIe siècle, le mot race désignait les membres d’un lignage. Par conséquent, l’espèce humaine devenait une race puisque la Bible lui donnait pour ancêtres communs Adam et Ève. Un peuple se réclamant d’un ancêtre mythique pouvait également être qualifié de race : on disait par exemple que les Juifs étaient de la race d’Abraham. Le terme a parfois été synonyme de dynastie royale, elle aussi dotée d’un ancêtre commun. L’Encyclopédie utilise le terme principalement dans ces trois acceptions, parlant aussi bien de race humaine que de race d’Abraham ou de race des Capétiens (L’Encyclopédie 1777 et 1778). Parallèlement, le XVIIIe siècle voit se répandre l’usage zoologique de la notion de race, employée pour désigner les variétés infra-spécifiques d’animaux, surtout des animaux domestiques, tels les chiens, les chevaux ou les bovins (Buffon 1749a et 1755). En même temps, les naturalistes étendent son application aux variétés de l’espèce humaine. On considère alors que les différences biologiques entre groupes humains géographiquement séparés sont solidaires de leurs différences culturelles, les unes et les autres engendrées par l’influence conjointe du sol, du climat et de la nourriture (Buffon 1749b). En accord avec la théorie humorale alors en vogue, on pense que le sol, le climat et la nourriture influencent les quatre humeurs physiologiques (bile jaune, sang, bile noire, pituite), dont l’interaction détermine le degré d’un tempérament (mélancolique, flegmatique, bileux, sanguin), lequel décide à son tour à la fois de l’anatomie des hommes et de leur caractère, mentalité, mœurs et organisation sociale (Greenwood 1984). Aucun consensus n’existait en revanche quant au nombre de races d’hommes, tantôt porté à plusieurs dizaines, tantôt réduit à trois et dont chacune était assimilée à la descendance d’un des trois fils de Noé. Les races humaines étaient disposées sur les échelons supérieurs de la Grande Échelle des Êtres, qui menait des formes animales les plus simples jusqu’à l’homme le plus perfectionné, identifié invariablement au Blanc. Le Noir, et plus particulièrement le Hottentot, occupait la limite inférieure de l’humanité, où il côtoyait l’Orang-outang placé au sommet du monde animal (Dictionnaire des sciences médicales, 1819, Sebastani 2013). Si la plupart des Européens du XVIIIe siècle croyaient à la supériorité des Blancs, tous n’en déduisaient pas les mêmes conclusions. Certains estimaient que les autres races pouvaient éventuellement acquérir la civilisation et devenir, avec le temps, à la fois égales aux Blancs et blanches de peau, blanchies sous l’effet de la civilisation. D’autres restaient convaincus que la supériorité des Blancs était un immuable fait de nature, ce qui condamnait les autres races, surtout les Noirs, à une éternelle soumission, faisant d’eux ce que Aristote avait appelé les esclaves par nature. Les débats raciologiques du XIXe siècle consacrèrent l’opposition plus ancienne entre le monogénisme et le polygénisme (Blanckaert 1981). Les monogénistes clamaient qu’il n’y a qu’une seule espèce humaine, différenciée à partir d’un type originel ; les polygénistes soutenaient qu’il existe depuis toujours plusieurs espèces humaines invariables, pourvues de propriétés spécifiques, aussi bien biologiques que mentales. La théorie darwinienne (1859) n’a modifié que modestement les grandes lignes de ce débat : les degrés de l’Échelle des Êtres seront désormais considérés comme les étapes consécutives de l’évolution, tandis que les races inférieures se verront identifiées aux races moins évoluées. Les polygénistes darwiniens pouvaient renoncer à l’axiome de l’invariabilité des races dans la très longue durée préhistorique, mais ils s’accordaient avec les monogénistes darwiniens à établir une hiérarchie linéaire des races selon leurs formes anatomiques, auxquelles on croyait pouvoir associer une gradation de facultés morales, intellectuelles et civilisatrices, tenues pour héréditaires et difficilement modifiables dans la courte durée historique. Dès la fin du XVIIIe siècle, des mesures anthropométriques variées ont commencé à être proposées, dans l’espoir de quantifier le degré d’avancement moral et mental des races à partir d’indices anatomiques : ce fut l’un des fondements de l’anthropologie physique du XIXe siècle. La théorie darwinienne de la sélection naturelle a contribué à légitimer la vieille idée de la lutte des races pour la survie. On s’est mis à redouter que les races inférieures, réputées plus fertiles, n’en viennent à bout des races supérieures. Le XIXe siècle fut particulièrement marqué par la hantise du mélange racial, censé conduire à la contamination de la « substance germinative » des races supérieures et à leur dégénérescence consécutive. Dans la première moitié du XXe siècle, l’idéologie nazie offrit l’un des aboutissements extrêmes de cette conception. On y trouve une combinaison de nombreuses composantes des théories raciologiques antérieures : une classification raciale rigide, la hiérarchisation des races en supérieures et inférieures, la conviction que les différences anatomiques correspondent aux différences culturelles, l’idée d’une inégalité morale, intellectuelle et civilisatrice des races, la crainte d’une dégénérescence raciale par le métissage qui altère le « sang » de la race supérieure, la croyance qu’une menace pèse sur la race supérieure du fait de la fertilité plus grande des races inférieures, la doctrine de la lutte entre les races comme force motrice du progrès. L’idéologie nazie fut une sinistre synthèse d’au moins deux siècles de développement de la pensée raciale. Lorsque la Deuxième Guerre prit fin, l’Occident tenta de faire le procès à son héritage intellectuel. L’UNESCO exprima une conviction alors inédite en inscrivant dans sa constitution l’idée selon laquelle les atrocités de la récente guerre avaient été rendues possibles par la croyance à l’inégalité des races. Pour rendre impossibles de nouveaux Auschwitz, on décida alors de faire disparaître la notion de races humaines, source présumée de l’horreur suprême. Dans leur déclaration de 1950, les experts de l’UNESCO affirmèrent l’unité fondamentale de l’espèce humaine et reléguèrent la diversité biologique des hommes à un second plan, en tant qu’épiphénomène de divers mécanismes évolutifs de différentiation. La Déclaration de l’UNESCO portait les marques de la toute récente théorie synthétique de l’évolution, dont les principes ramenaient la « race » à un résultat éphémère de la circulation des gènes entre les populations, seules entités réellement observables (UNESCO 1950, Stoczkowski 2008). La conjonction du contexte politique et de l’émergence de la génétique des populations conduisit, à partir des années 1950, à l’abandon progressif de la notion de race, surtout en sciences sociales. Les humanités multiples des théories raciologiques se muèrent en l’Homme universel de l’UNESCO. Pourtant, la génétique des populations n’a pas tenu les promesses dont on l’avait initialement investie en espérant que la recherche allait démontrer l’inexistence des races humaines, ce qui devait invalider toute possibilité de rabattre les différences de culture sur les différences de nature, selon le subterfuge séculaire qui avait maintes fois servi à justifier les inégalités, les discriminations et les oppressions. N’étaient pas moindres les attentes suscitées ensuite par l’exploration du génome humain : elle devait porter le coup de grâce au concept de race et aux préjugés que ce concept implique. En juin 2000, lors des célébrations qui marquèrent la publication de la première esquisse de la carte du génome humain, J. Craig Venter, directeur de l’entreprise de recherche génétique Celera, répéta que « la notion de race n’a aucun fondement génétique ni scientifique » (Marantz Henig 2004). Aujourd’hui, les résultats de la recherche sur le génome humain semblent moins univoques (Stoczkowski 2006). Il est certes réconfortant de savoir qu’aucun doute ne subsiste sur l’unité génétique de l’espèce humaine. Pourtant, après une première période consacrée à la description des similitudes génétiques, les travaux actuels s’orientent de plus en plus vers l’exploration de la diversité de notre espèce. Plusieurs études publiées récemment tendent à démontrer que des données génétiques permettent bel et bien de faire la distinction entre les individus originaires d’Europe, d’Afrique et d’Extrême-Orient, c’est-à-dire entre les populations traditionnellement réparties par la pensée ordinaire entre les trois grandes « races » : blanche, noire et jaune (Bamshad et al. 2003, Rosenberg et al.,2002, Watkins et al. 2003). Ces travaux dérangent et inquiètent. Ils dérangent car on s’attendait à ce que la génétique rende définitivement illégitime toute classification biologique des humains. C’est le contraire qui semble advenir sous nos yeux. Au lieu de prouver que l’ordre du phénotype, privilégié par la pensée ordinaire, s’écarte de l’ordre du génotype étudié par la science, les travaux récents suggèrent que certaines classifications « raciales » – pour autant qu’elles soient fondées non sur la seule morphologie, mais plutôt sur l’origine géographique – peuvent refléter approximativement une partie de la diversité humaine établie par la génétique moderne (Bamshad et al. 2003; Rosenberg et al. 2002; Watkins et al. 2003). Ces travaux inquiètent aussi, car nul n’ignore que l’étude des différences entre les hommes peut fournir des arguments à ceux qui veulent diviser l’humanité, porter les distinctions à l’absolu, les juger scandaleuses et insupportables. Les généticiens ne manquent pas de souligner que les groupements formés à partir de leurs modèles diffèrent des anciennes catégories raciales, puisque les écarts entre les classes génétiques sont statistiques, relatifs, mouvants, soumis aux vicissitudes de l’histoire faite non seulement de séparations, mais aussi de migrations et de croisements. Il n’en demeure pas moins que le risque existe que les résultats de ces travaux nourrissent à nouveau le phantasme de divergences insurmontables inscrites dans le corps des humains. Les controverses sur la classification infra-spécifique des humains sont loin d’être closes. Quelles que soient les conclusions qui remporteront finalement le consensus de la communauté scientifique, il est probable que la pensée antiraciste soit confrontée dans un avenir proche à une nouvelle légitimité scientifique des classements des humains à partir de critères biologiques, cette fois dans un contexte social où l’aspiration à l’égalité ne passe plus par l’effacement des différences biologiques mais, au contraire, par leur revendication de la part des dominés. Après l’expérience du nazisme, dont l’intérêt exacerbé pour les différences biologiques déboucha sur l’abomination de la Shoah, on était enclin à considérer que toute théorie de la différence biologique devait nécessairement conduire au racisme. On en est moins sûr de nos jours, en observant que les minorités auparavant opprimées cherchent à adosser leur combat contre les inégalités à une théorie de la différence biologique (Oak Ridge National Laboratory). Hier, désireux d’expier le péché de racisme, l’homme blanc fit appel à la science pour rendre insignifiantes les différences biologiques entre les humains ; aujourd’hui, réclamant le droit à l’égalité, l’homme de couleur emploie la science pour donner aux différences biologiques une signification nouvelle. Cette résurgence de l’intérêt de la recherche pour la diversité de l’espèce humaine, en dépit du danger bien réel d’un détournement idéologique de ses résultats, encore très provisoires, peut devenir un antidote contre les spéculations naïves sur la race, qui ne manqueront pas de foisonner dans la culture populaire tant que les chercheurs seront incapables d’expliquer pourquoi les hommes, appartenant tous à la même espèce biologique, n’ont pas pour autant tous la même apparence.
APA, Harvard, Vancouver, ISO, and other styles
36

Ailane, Sofiane. "Hip-hop." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.014.

Full text
Abstract:
Le hip-hop englobe quatre expressions artistiques qui sont constitutives de la culture hip-hop : le dj’ing, le rap, le breakdance et le graffiti. Le rap est une forme de « parler-chanter » exécuté sur des rythmes de bases produits par le Disc Jockey (DJ). Le breakdance est l’expression corporelle du hip-hop, c’est une danse à dimension athlétique, dont l’esthétique se base sur la rupture du flux dans des mouvements amples et fluides. Le graffiti correspond à l’art graphique du hip-hop, ces peintures se donnent à voir généralement sur le mobilier urbain au travers de fresques colorées, mais bien souvent le graffiti reprend sous une forme quasi hiéroglyphique le pseudonyme de l’auteur. Il se distingue du tag par l’usage des techniques de spray, la superposition des couleurs ainsi que par des effets d’ombrage (Bazin 1998). Étymologiquement, « hip-hop », serait la composante de deux termes en anglais hip, qui est issu de l'argot de la rue, le jive talk, qui signifie « être dans le vent, être branché » et to hop qui se traduit littéralement par le verbe danser. Il existe aussi la possibilité que le terme hip-hop soit repris des onomatopées dans la langue anglaise et qui sont présentes dans le langage rap, ainsi on retrouve « hip » qui consiste à encourager et « hop » qui est l'onomatopée qui désigne l'action de sauter. Ces termes étaient utilisés et scandés par les DJ’s habitués à prendre le microphone afin d’encourager les danseurs et haranguer la foule lors des block parties (Toop 1984). D’un point de vue historique et compte tenu de l’hétérogénéité des éléments constitutifs de la culture hip-hop, il est complexe d’indiquer avec précision le moment fondateur de cette expression culturelle même si les années 1970 font consensus dans la communauté des chercheurs. Cependant, d’un point de vue géographique, le ghetto du Bronx apparaît comme le lieu de naissance de la culture hip-hop, d’ailleurs la Smithsonian Institution et le National Museum of American History ont reconnu le « 1520 Sedgwick Avenue » dans le Bronx comme « lieu d’invention » de la culture hip-hop. En effet, les différents éléments de la culture hip-hop se donnaient à voir de façon simultanée dans les block parties du Bronx. Ces fêtes improvisées prenaient place dans les écoles, les centres communautaires, les maisons abandonnées ou bien encore dans les jardins publics. Elles constituaient le moment de loisir privilégié d’une jeunesse délaissée voulant s’épanouir dans un New York en pleine mutation et qui n’offrait alors que peu d’opportunité, de joie et de plaisir (Chang 2005). Pour la jeunesse afro-américaine et caribéenne, habitant le ghetto et victimes collatérales des coupes budgétaires et de la rénovation urbaine, le hip-hop et notamment ces block parties constituaient un moyen d’exprimer une autre façon de vivre le ghetto par la création d’un exutoire salvateur qui leur permist d’appréhender de façon plus ludique les problèmes quotidiens auxquels ils étaient confrontés. Véritable remix urbain des cultures vernaculaires afro-américaines et caribéennes, le hip-hop se nourrit autant de son hybridité que des objets que pouvait lui fournir l’environnement urbain en matières de décors et de lieux d'inspiration, mais également en matières de technologie (spray, sonorisation, hifi) (Gilroy 2003 ; Rose 1994). De plus, l’influence au niveau musical, plastique et rhétorique ne se limite pas à l’Amérique du Nord et la Caraïbe, les civilisations asiatiques, par exemple font également figure de ressources dans lesquels puisent les hip-hoppers. Aujourd’hui en tant qu’objet culturel transnational, on constate la capacité du hip-hop à s’adapter au contexte culturel et social dans chaque partie du globe où il s’exprime (Mitchell 2001). Ces transformations et ces aspects hybrides reflètent l’ « état d’esprit » du hip-hop qui se veut être un espace expérimental non exclusif où les problèmes contemporains et les forces ancestrales fonctionnent ensemble, simultanément, devenant dès lors une figure du métissage (Laplantine et Nous 2001) Néanmoins, malgré l’extraordinaire pluralité des acteurs et des expressions que mobilise la culture hip-hop, il est intéressant d’observer que les hip-hoppers représentent bien souvent des secteurs marginalisés dans leur propre société et qu’ils sont au centre de revendications sociales et égalitaires (Osumare 2007). Bien souvent, le hip-hop constitue la bande sonore d’activistes et il accompagne et/ou porte des pédagogies alternatives en direction des jeunesses de rue (Ailane 2011). Il n’existe pas a priori un cadre d’analyse spécifique de la culture hip-hop en sciences humaines et sociales. Il est un objet d’étude complexe et plurivoque, sans cesse en train de se reformuler, il intègre de nouvelles modalités autant au niveau musical, corporel que dansé. Les causes de cette dynamique seraient à comprendre par sa distribution géographique qui le diversifie d’autant plus. Mais encore, en y regardant de plus près, le hip-hop occupe une place relative dans la vie de ses adeptes, certains le considèrent comme un simple loisir (écouter de la musique par exemple) voire l’identifient à un sport (pour certains pratiquants de breakdance), ou bien l’embrassent tel un mode de vie (les activistes du mouvement hip-hop). Selon les acteurs, le lieu d’expression et le contexte, le hip-hop se donne donc à voir de manière non-monolithique ; il présente inévitablement des variations qui rendent difficile son étude de façon trop généraliste. Il est, compte-tenu de cette hétérogénéité dans la pratique, difficile de se saisir du hip-hop, a fortiori, lorsqu’il s’agit de le mobiliser dans une recherche en sciences sociales. L’approche ethnographique et l’immersion dans l’univers micro-cosmique des hip-hoppers est ainsi souvent privilégiée (Condry 2006 ; Forman 2002 ; Pardue 2008 ; Perullo 2011). Toutefois, l’anthropologie et la sociologie urbaine sont souvent mobilisées pour aborder le hip-hop car en tant que culture urbaine, il permet d’accéder à une lecture de l’univers urbain par le récit que font les hip-hoppers de leur quotidien et l’usage qu’ils font des espaces publics. Le hip-hop peut être considéré comme une ressource fertile pour les chercheurs s’intéressant aux « marges urbaines ». Cette approche n’est pas dénuée de biais car bien souvent, le logiciel utilisé pour analyser les pratiques hip-hop est associé aux problématiques liées aux « pathologies urbaines », violence, trafic, délinquance, exclusion/inclusion, stigmatisation, marginalisation, mettant dès lors de côté, ou du moins minimisant, l’innovation culturelle et sociale dont font preuve les groupes juvéniles. Par ailleurs, les théoriciens des « cultures juvéniles » ont trouvé dans le hip-hop un terrain fertile pour mettre en mouvement leurs pensées. Dans la lignée des cultural studies, les chercheurs ont privilégié les approches qui analysent les rapports entre le hip-hop, considéré sous sa dimension de « subculture résistante » et la culture dite dominante. Cette perspective se concentre notamment autour de problématiques liées à l’authenticité. Bennet (1999) les oppose selon deux points de vue. Le premier consiste à penser l’authenticité dans le hip-hop à travers la préservation de ses origines en tant que culture de rue afro-américaine. Le second point de vue se développe sur une autre conception du hip-hop, considéré comme la construction d’un « lien » qui permettrait le « dialogue » entre les populations afro-diasporiques liées par l’expérience de l’esclavage. Ces deux tendances bien qu’opposées, ont toutefois le large défaut de considérer le hip-hop comme une expression essentiellement afro-centrée et elles évacuent un pan important de hip-hoppers qui ne sont pas noirs et/ou qui ne se revendiquent pas d’une communauté afro-diasporique. L’enjeu des recherches actuelles sur le hip-hop serait donc d’interroger également la dynamique culturelle provoquée par la relocalisation de ces musiques noires dans un contexte global, marqué par le capitalisme occidental et la circulation rapide d’images culturelles dans des lieux dans lesquels elles ont trouvé un nouvel écho
APA, Harvard, Vancouver, ISO, and other styles
37

Kilani, Mondher. "Culture." Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.121.

Full text
Abstract:
La culture, mot ancien, a une longue histoire et pour les anthropologues, qui n’ont pas envie de l’abandonner, elle garde tout son potentiel heuristique. Du verbe latin colere (cultiver, habiter, coloniser), la culture a immédiatement montré une remarquable versatilité sémantique. Comme Cicéron (106-43 av. J.-C.) l’avait dit, il n’y a pas seulement la culture des champs, il y a aussi la cultura animi : c’est-à-dire la philosophie. Cultura animi est une expression que l’on retrouve également au début de la modernité, chez le philosophe anglais Francis Bacon (1561-1626). Elle devient ensuite « culture de la raison » chez René Descartes (1596-1650) et chez Emmanuel Kant (1724-1804). Mais au XVIIIe siècle, nous assistons à un autre passage, lorsque la culture, en plus des champs, de l’âme et de la raison humaine, commence à s’appliquer également aux coutumes, aux mœurs, aux usages sociaux, comme cela est parfaitement clair chez des auteurs tels que François-Marie Arouet, dit Voltaire (1694-1778), et Johann Gottfried Herder (1744-1803). Nous pourrions nous demander pourquoi ces auteurs ne se sont pas contentés de continuer à utiliser les termes désormais testés de coutumes et de mœurs. Pourquoi ont-ils voulu ajouter la notion de culture? Qu’est-ce que cette notion offrait de plus? Autrement dit, quelle est la différence entre culture et coutume? Dans l’usage de Voltaire et de Herder, la culture est presque toujours singulière, alors que les coutumes sont très souvent plurielles. La culture a donc pour effet d’unifier les coutumes dans un concept unique, en surmontant leur pluralité désordonnée et désorientante : les coutumes sont nombreuses, variables, souvent divergentes et contradictoires (les coutumes d’une population ou d’une période historique s’opposent aux coutumes d’autres sociétés et d’autres périodes), alors que la culture désigne une capacité, une dimension, un niveau unificateur. Dans son Essai sur les mœurs (1756), Voltaire a clairement distingué le plan de la « nature », dont dépend l’unité du genre humain, de celui de la « culture », où les coutumes sont produites avec toute leur variété : « ainsi le fonds est partout le même », tandis que « la culture produit des fruits divers », et les fruits sont précisément les coutumes. Comme on peut le constater, il ne s’agit pas uniquement d’opposer l’uniformité d’une part (la nature) et l’hétérogénéité d’autre part (les coutumes). En regroupant les coutumes, Voltaire suggère également une relation selon laquelle le « fonds » est le terrain biologique, celui de la nature humaine, tandis que la culture indique le traitement de ce terrain et, en même temps, les fruits qui en découlent. Tant qu’on ne parle que de coutumes, on se contente de constater la pluralité et l’hétérogénéité des « fruits ». En introduisant le terme culture, ces fruits sont rassemblés dans une catégorie qui les inclut tous et qui contribue à leur donner un sens, bien au-delà de leur apparente étrangeté et bizarrerie : bien qu’étranges et bizarres, ils sont en réalité le produit d’une activité appliquée au terrain commun à toutes les sociétés humaines. Partout, les êtres humains travaillent et transforment l’environnement dans lequel ils vivent, mais ils travaillent, transforment et cultivent aussi la nature dont ils sont faits. Appliquée aux coutumes, la culture est donc à la fois ce travail continu et les produits qui en découlent. En d’autres termes, nous ne pouvons plus nous contenter d’être frappés par l’étrangeté des coutumes et les attribuer à une condition d’ignorance et aux superstitions : si les coutumes sont une culture, elles doivent être rapportées à un travail effectué partout, mais dont les résultats sont sans aucun doute étranges et hétérogènes. Il s’agit en tout cas d’un travail auquel chaque société est dédiée dans n’importe quel coin du monde. Nous ne voulons pas proposer ici une histoire du concept de culture. Mais après avoir mentionné l’innovation du concept de culture datant du XVIIIe siècle – c’est-à-dire le passage du sens philosophique (cultura animi ou culture de la raison) à un sens anthropologique (coutumes en tant que culture) –, on ne peut oublier que quelques décennies après l’Essai sur les mœurs (1756) de Voltaire, Johann Gottfried Herder, dans son Ideen zur Philosophie der Geschichte der Menschheit (1784-1791), fournit une définition de la culture digne d’être valorisée et soutenue par l’anthropologie deux siècles plus tard. Herder ne se limite pas à étendre la culture (Kultur) bien au-delà de l’Europe des Lumières, au-delà des sociétés de l’écriture (même les habitants de la Terre de Feu « ont des langages et des concepts, des techniques et des arts qu’ils ont appris, comme nous les avons appris nous-mêmes et, par conséquent, eux aussi sont vraiment inculturés »), mais il cherche le sens profond du travail incessant de la Kultur (1991). Pourquoi, partout, aux quatre coins du monde, les humains se consacrent-ils constamment à la formation de leur corps et de leur esprit (Bildung)? La réponse de Herder est dans le concept de l’homme en tant qu’être biologiquement défectueux (Mängelwesen), en tant qu’être qui a besoin de la culture pour se compléter : le but de la culture est précisément de fournir, selon différentes conditions historiques, géographiques et sociales, une quelque forme d’humanité. Selon Herder, la culture est « cette seconde genèse de l’homme qui dure toute sa vie » (1991). La culture est la somme des tentatives, des efforts et des moyens par lesquels les êtres humains « de toutes les conditions et de toutes les sociétés », s’efforcent d’imaginer et de construire leur propre humanité, de quelque manière qu’elle soit comprise (1991). La culture est l’activité anthropo-poïétique continue à laquelle les êtres humains ne peuvent échapper. Tel est, par exemple, le propre du rituel qui réalise la deuxième naissance, la véritable, celle de l’acteur/actrice social/e, comme dans les rites d’initiation ou la construction des rapports sociaux de sexe. La culture correspond aux formes d’humanité que les acteurs sociaux ne cessent de produire. Le but que Herder pensait poursuivre était de rassembler les différentes formes d’humanité en une seule connaissance généralisante, une « chaîne de cultures » qui, du coin du monde qu’est l’Europe des Lumières « s’étend jusqu’au bout de la terre » (1991). On peut soutenir que dans les quelques décennies de la seconde moitié du XVIIIe siècle, on avait déjà posé les bases d’un type de connaissance auquel on allait donner plus tard le nom d’anthropologie culturelle. Parmi ces prémisses, il y avait le nouveau sens du terme culture. Cependant, il faut attendre plus d’un siècle pour que ceux qui allaient être appelés anthropologues reprennent ce concept et en fassent le fondement d’une nouvelle science. La « science de la culture » est en fait le titre du chapitre I de Primitive Culture (1871) d’Edward Burnett Tylor, chapitre qui commence par la définition de la culture connue de tous les anthropologues : « Le mot culture ou civilisation, pris dans son sens ethnographique le plus étendu, désigne ce tout complexe comprenant à la fois les sciences, les croyances, les arts, la morale, les lois, les coutumes et les autres facultés et habitudes acquises par l’homme dans l’état social (Tylor1920). » Dans cette définition, les points suivants peuvent être soulignés : premièrement, la culture est un instrument qui s’applique de manière ethnographique à toute société humaine; deuxièmement, elle intègre une pluralité d’aspects, y compris les coutumes, de manière à former un « ensemble complexe »; troisièmement, les contenus de cet ensemble sont acquis non par des moyens naturels, mais par des relations sociales. Dans cette définition, la distinction – déjà présente chez Voltaire – entre le plan de la nature et le plan de la culture est implicite; mais à présent, le regard se porte avant tout sur la structure interne de la culture, sur les éléments qui la composent et sur la nécessité d’ancrer la culture, détachée de la nature, au niveau de la société. Il initie un processus de formation et de définition d’un savoir qui, grâce au nouveau concept de culture, revendique sa propre autonomie. La première fonction de la culture est en fait de faire voir le territoire réservé à la nouvelle science : un vaste espace qui coïncide avec tous les groupes humains, des communautés les plus restreintes et les plus secrètes aux sociétés qui ont dominé le monde au cours des derniers siècles. Mais jusqu’à quel point ce concept est-il fiable, solide et permanent, de sorte qu’il puisse servir de fondement au nouveau savoir anthropologique? On pourrait dire que les anthropologues se distinguent les uns des autres sur la base des stratégies qu’ils adoptent pour rendre le concept de culture plus fiable, pour le renforcer en le couplant avec d’autres concepts, ou, au contraire, pour s’en éloigner en se réfugiant derrière d’autres notions ou d’autres points de vue considérés plus sûrs. La culture a été un concept novateur et prometteur, mais elle s’est aussi révélée perfide et dérangeante. On doit réfléchir aux deux dimensions de la culture auxquelles nous avons déjà fait allusion: le travail continu et les produits qui en découlent. Les anthropologues ont longtemps privilégié les produits, à commencer par les objets matériels, artistiques ou artisanaux : les vitrines des musées, avec leur signification en matière de description et de classification, ont suggéré un moyen de représenter les cultures, et cela même lorsque les anthropologues se sont détachés des musées pour étudier les groupes humains en « plein air », directement sur le terrain. Quelles étaient, dans ce contexte, les coutumes, sinon les « produits » de la culture sur le plan comportemental et mental? Et lorsque la notion de coutume a commencé à décliner, entraînant avec elle le sens d’un savoir dépassé, la notion de modèle – les modèles de culture – a dominé la scène. Saisir des modèles dans n’importe quel domaine de la vie sociale – de la parenté à la politique, de la religion au droit, de l’économie à l’art, etc. – ne correspondait-il pas à une stratégie visant à construire, dans un but descriptif et analytique, quelque chose de solide, de répétitif et de socialement répandu, bref, un système capable de se reproduire dans le temps? Ce faisant, on continuait à privilégier les produits avec leur continuité et leur lisibilité au détriment du travail continu et obscur de la culture, de son flux presque insaisissable et imprévisible. Nous pensons par exemple à la quantité incroyable et chaotique de gestes, mots, idées, émotions qui se succèdent, se chevauchent, se croisent et se mélangent dans chaque moment de la vie individuelle et collective. Le sentiment que les produits toujours statiques et achevés de la culture priment sur sa partie la plus significative et la plus dynamique (une sorte de matière ou d’énergie obscure), devient un facteur de frustration et de perturbation pour l’entreprise anthropologique. À cet égard, les anthropologues ont adopté plusieurs voies de sortie, notamment : la tendance à réifier la culture, ce qui lui confère une solidité presque ontologique (c’est le cas d’Alfred L. Kroeber 1952); l’intention de réduire sa portée et de l’ancrer ainsi dans une réalité plus cohérente et permanente, telle que pourrait être la structure sociale dans ses diverses articulations (Alfred Radcliffe-Brown 1968 et plus largement l’anthropologie sociale); la tentative de capturer dans les manifestations apparemment plus libres et arbitraires de la culture, que peuvent être les mythes, l’action de structures mentales d’un ordre psycho-biologique (Claude Lévi-Strauss 1958 et 1973 et plus largement le structuralisme). Plus récemment, la méfiance envers la culture a pris la forme même de son refus, souvent motivé par une clef politique. Comment continuer à s’appuyer sur la culture, si elle assume désormais le rôle de discrimination autrefois confié à la race? Plus la culture devient un terme d’usage social et politique, identifié ou mélangé à celui d’identité et se substituant à celui de race, plus des anthropologues ont décrété son caractère fallacieux et ont pensé à libérer la pensée anthropologique de cet instrument devenu trop dangereux et encombrant. Lila Abu-Lughod écrit en 1991 un essai intitulé Against Culture et les critiques du concept de culture refont surface dans le texte d’Adam Kuper, Culture, 1998 et 1999. Mais si l’anthropologie doit se priver de ce concept, par quoi le remplacera-t-elle? Est-il suffisant de se contenter de « pratiques » et de « discours » qu’Abu-Lughod a puisés chez Michel Foucault (1966)? C’est une chose de critiquer certains usages de la notion de culture, tels que ceux qui tendent à la confondre avec l’identité, c’en est une autre d’accepter le défi que ce concept présente à la fois par son caractère fluide et manipulable, et par les expansions fertiles dont il est capable. Par « pratique » et « discours », réussirons-nous, par exemple, à suivre l’expansion de la culture vers l’étude du comportement animal et à réaliser que nous ne pouvons plus restreindre la « science de la culture » dans les limites de l’humanité (Lestel 2003)? Presque dans le sens opposé, la culture jette également les bases de la recherche ethnographique au sein des communautés scientifiques, une enquête absolument décisive pour une anthropologie qui veut se présenter comme une étude du monde contemporain (Latour et Woolgar 1979). Et quel autre concept que celui de culture pourrait indiquer de manière appropriée le « tout complexe » (complex whole) de la culture globale (Hamilton 2016)? Qu’est-ce que l’Anthropocène, sinon une vaste et immense culture qui, au lieu d’être circonscrite aux limites de l’humanité, est devenue une nouvelle ère géologique (Zalasiewicz et al. 2017)? Bref, la « science de la culture », formulée en 1871 par Edward Tylor, se développe énormément aujourd’hui : la culture est l’utilisation de la brindille comme outil de capture des termites par le chimpanzé, de même qu’elle correspond aux robots qui assistent les malades, aux satellites artificiels qui tournent autour de la Terre ou aux sondes envoyées dans le plus profond des espaces cosmiques. Ces expansions de la culture sont sans aucun doute des sources de désorientation. Au lieu de se retirer et de renoncer à la culture, les anthropologues culturels devraient accepter ce grand défi épistémologique, en poursuivant les ramifications de cette notion ancienne, mais encore vitale, dynamique et troublante.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography