Siga este enlace para ver otros tipos de publicaciones sobre el tema: Rationalisation des entreprises et des méthodes de production.

Artículos de revistas sobre el tema "Rationalisation des entreprises et des méthodes de production"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 16 mejores artículos de revistas para su investigación sobre el tema "Rationalisation des entreprises et des méthodes de production".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore artículos de revistas sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Moutet, Aimée. "Une rationalisation du travail dans l'industrie française des années trente". Annales. Histoire, Sciences Sociales 42, n.º 5 (octubre de 1987): 1061–78. http://dx.doi.org/10.3406/ahess.1987.283436.

Texto completo
Resumen
Les industriels se sont trouvés affrontés au cours des années de la grande crise, de 1930 à 1935, à un ensemble de conditions nouvelles qui rendait plus délicate la gestion des entreprises. La chute des prix leur imposait de réduire leurs coûts, tandis que celle de leur chiffre d'affaires, fruit de la première et de la baisse des ventes, les contraignait à comprimer l'ensemble de leurs dépenses et de leurs immobilisations. Enfin, pour s'adapter à un marché qui se contractait et dont les fluctuations devenaient plus brutales et imprévisibles, il leur fallait d'une part trouver de nouveaux débouchés, d'autre part assouplir l'organisation de l'entreprise afin de pouvoir changer le rythme et l'orientation de la production.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Johansen, Baber. "Le contrat salam. Droit et formation du capital dans l’Empire abbasside (XIe-XIIe siècle)". Annales. Histoire, Sciences Sociales 61, n.º 4 (agosto de 2006): 861–99. http://dx.doi.org/10.1017/s0395264900030432.

Texto completo
Resumen
RésuméDepuis le ixe siècle, un nombre grandissant d’investisseurs privés et publics de l’Empire abbasside participent à un mouvement de commercialisation de produits manufacturés auprès d’artisans et de paysans. Le fiqh, système de normes juridiques et éthiques qui, à partir du viiie siècle, se répand dans tout l’empire musulman, réagit à cette intensification de l’échange commercial par une interprétation plus sophistiquée du droit des contrats. Cet article traite de la manière par laquelle, au cours des xie et xiie siècles, les juristes transoxaniens de l’école hanéfite du droit musulman utilisent le salam comme un contrat d’investissement. Les investisseurs, grâce à l’avance d’un capital, acquièrent de leurs partenaires l’obligation personnelle de livrer, à une date ultérieure, déterminée par contrat, une quantité de biens fongibles. Cet échange transforme le partenaire en débiteur et permet à l’investisseur d’utiliser le temps entre le paiement du capital et la livraison des biens comme justification pour baisser les prix en dessous du niveau du marché. Il lie, en même temps, la production standardisée des biens et leur commercialisation au concept d’obligation personnelle en tant qu’objet d’investissement. Les formes du salam discutées par les juristes étaient étroitement liées à la diffusion, dans l’empire, de nouvelles techniques dans la manufacture des biens, et leur raisonnement désignait la connaissance des modèles et méthodes de leur production comme condition sine qua non pour toute description acceptable des biens, objets de l’obligation personnelle.La construction hanéfite du salam a constitué un pas important vers la rationalisation des contrats synallagmatiques et vers l’élargissement, dans l’espace et le temps, de leur influence sur la production et l’échange des biens. Comme d’autres processus de rationalisation, l’élaboration du salam s’est faite au prix d’une inégalité accrue entre les acteurs, formellement indépendants, mais liés les uns aux autres dans la production et l’échange des biens par le lien de la créance et de la dette.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

DAABOUL, Joanna, Julien LE DUIGOU, Diana PENCIUC y Benoit EYNARD. "Aide à la décision pour la conception d’une chaine logistique inverse pour l’aluminium". Revue Française de Gestion Industrielle 33, n.º 1 (1 de marzo de 2014): 9–31. http://dx.doi.org/10.53102/2014.33.01.716.

Texto completo
Resumen
La logistique inverse intéresse depuis récemment les entreprises afin d'atteindre un certain niveau de durabilité et d'écologie parfois imposé par des législations. La logistique inverse concerne toutes les activités qui interviennent directement ou indirectement pour déplacer le produit en fin de vie au début de sa chaîne logistique. Dans cet article, nous proposons une méthodologie pour la conception d'une logistique inverse. Nous présentons aussi un cas d'étude dans le cadre du projet européen Suplight. Ce projet vise à développer ou identifier les outils et méthodes nécessaires pour produire des pièces pour l'automobile et l'aéronautique en utilisant 75% d'aluminium recyclé. L'utilisation d'aluminium pour ces pièces permet de réduire leur poids, et l'utilisation d'aluminium recyclé permet d'être plus efficient d'un point de vue environnemental. L'enjeu est de concevoir une logistique inverse permettant de récupérer l'aluminium recyclé ayant une composition chimique adéquate pour la production des pièces de structure aéronautiques ou automobiles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Tremblay, Diane-Gabrielle y Monique K. de Sève. "Formes persistantes et changeantes de la division sexuelle du travail dans un contexte de transformations technologiques et organisationnelles". Articles 9, n.º 1 (12 de abril de 2005): 81–103. http://dx.doi.org/10.7202/057869ar.

Texto completo
Resumen
Au cours des dernières années, on a beaucoup parlé des nouvelles formes d'organisation du travail, de la production et de l'entreprise, des organisations à «haute performance» et de la fin de la division du travail. Dans ce contexte, la mise en place de nouvelles technologies et méthodes organisationnelles apparaît comme l'occasion d'une remise en question de la division du travail entre hommes et femmes et, par conséquent, d'une plus grande équité en emploi. Malgré l'intérêt des recherches sur les nouvelles organisations et technologies, la majorité des spécialistes (masculins en particulier) n'ont pas considéré la variable «sexe» dans leur analyse. Or, il faut se demander si la remise en question de la division du travail touche pareillement les femmes et les hommes. Les nouvelles exigences de qualification se posent-elles de la même façon pour les deux sexes en ce qui a trait à l'usage des technologies informatiques? Dans les dix entreprises québécoises que nous avons étudiées, nous avons observé à la fois des formes persistanteset des formes changeantesde la division sexuelle du travail dans un contexte de changements technologiques et organisationnels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Lefebvre, Elisabeth. "Profil distinctif des dirigeants de PME innovatrices". Revue internationale P.M.E. 4, n.º 3 (16 de febrero de 2012): 7–26. http://dx.doi.org/10.7202/1008068ar.

Texto completo
Resumen
Plusieurs recherches ont démontré l'influence profonde du dirigeant sur l'orientation stratégique de son entreprise et en particulier sur l’adoption d’innovations. Cependant, l’état actuel de nos connaissances ne nous permet pas de cerner avec précision les caractéristiques distinctives du dirigeant ainsi que les modalités par lesquelles s’exerce son influence lors de l’adoption des nouvelles technologies. Cet article présente les résultats d’une étude empirique qui analyse en profondeur certaines caractéristiques du dirigeant, ce dernier étant considéré comme un facteur primordial d’adoption des nouvelles technologies informatiques dans les PME manufacturières. Les résultats permettent de constater qu’il existe de fortes relations entre les composantes des profils des dirigeants et le degré innovateur de l’entreprise. En particulier, il ressort clairement qu’une attitude positive envers le risque et une attitude proactive des dirigeants sont les composantes les plus fortement et positivement corrélées au degré innovateur de leurs entreprises. Certaines caractéristiques du processus décisionnel des dirigeants, dont en particulier un horizon de planification orienté vers le long terme, des méthodes d’analyses plus raffinées ainsi qu’une recherche d’informations internes plus systématique sont aussi positivement corrélées au degré innovateur. En outre, les entreprises plus innovatrices bénéficient souvent de l’expérience fonctionnelle plus approfondie de leurs dirigeants en génie-production. Ces résultats suggèrent qu’au-delà de la simple constatation de l’importance du dirigeant lors de I’adoption des nouvelles technologies, il devient essentiel de connaître les contributions des différentes composantes de ces profils retrouvés dans les entreprises plus innovatrices. Dans une perspective évolutive, le dirigeant d’une PME déterminerait done en grande partie la trajectoire technologique de son entreprise ce qui, sur les plans théorique et pratique, a de profondes répercussions.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Tremblay, Chantal, Élodie Allain, Chantal Labbé, Simone Ducharme-Landry y Maricela Arellano Caro. "Conflits et apprentissages perçus par les étudiant∙es durant une approche par projets (APR) interdisciplinaire en enseignement supérieur". Didactique 5, n.º 2 (5 de mayo de 2024): 124–50. http://dx.doi.org/10.37571/2024.0205.

Texto completo
Resumen
La littérature soutient que l’approche par projets (APR), un modèle d’enseignement où l’apprentissage des contenus disciplinaires s’effectue par la réalisation d’un projet souvent de manière collaborative menant à une production concrète (Krajcik et Shin, 2022), favorise l’apprentissage comparativement à des méthodes d’enseignement plus traditionnelles. Toutefois, l’état actuel des connaissances ne fait pas consensus quant au développement d’habiletés de collaboration induit par cette approche. Aussi, si les causes des conflits intraéquipes lors de travaux collaboratifs sont bien documentées, peu d’études expliquent les actions entreprises par les étudiant∙es pour les résoudre et l’influence de ces conflits sur les apprentissages. Ainsi, cette étude qualitative expose les stratégies de résolution de conflits utilisées par des étudiant∙es pour résoudre des conflits intraéquipes principalement causés par des cas de paresse sociale durant une APR interdisciplinaire. Les résultats montrent que, malgré les conflits, de nombreux apprentissages sont autorapportés, permettant d’explorer des liens entre conflits et apprentissages. La discussion suggère que l’intensité des émotions influence le choix des stratégies de résolution. Il est également proposé de mieux accompagner les équipes pour soutenir une collaboration efficace.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Chamboko, T., A. W. Mukhebi, C. J. O'Callaghan, Trevor F. Peter, R. L. Kruska, G. F. Medley, Suman M. Mahan y B. D. Perry. "La cowdriose et l'économie de la production animale dans les fermes commerciales et traditionnelles au Zimbabwe". Revue d’élevage et de médecine vétérinaire des pays tropicaux 52, n.º 3-4 (1 de marzo de 1999): 313–23. http://dx.doi.org/10.19182/remvt.9680.

Texto completo
Resumen
Afin d'évaluer l'impact économique de la cowdriose (infection par Cowdria ruminantium ) et de créer un modèle pour l'impact des vaccins améliorés contre cette maladie, une étude sur le terrain a été conduite pour fournir des données sur les indicateurs de productivité du bétail au Zimbabwe. Des études transversales ont été réalisées dans les deux principales régions agro-écologiques, lowveld et highveld, où la cowdriose est supposée être endémique stable et épidémique, respectivement. Ces études ont été conçues pour fournir des données sur la productivité et la rentabilité du bétail ( des principaux indicateurs de production dans le secteur traditionnel et commercial (pour des entreprises productrices de viande bovine, de lait, d'ovins, de caprins). Les résultats prouvent que la rentabilité des fermes commerciales de viande bovine, comme l'indiquent les marges brutes globalement positives, était identique (p > 0.05), indépendamment de la présence et de la localisation de la cowdriose. Seules les fermes laitières commerciales qui ont enregistré des cas de cowdriose ont montré une marge brute négative, bien que ce ne soit pas sensiblement différent des exploitations laitières qui n'ont pas enregistré de cowdriose ou des fermes de viande bovine. Le secteur traditionnel dans les highveld et lowveld a affiché des marges brutes positives, bien que la marge ait été significativement (p < 0.001) plus élevée dans le highveld que dans le lowveld. Cette étude indique que les pertes associées à la cowdriose sont minimales lorsque la maladie est endémique stable ou épidémique avec un contrôle efficace des tiques. De plus, la rentabilité de la production animale, dans les secteurs commercial et traditionnel, pourrait être améliorée si des méthodes plus rentables pour le contrôle des tiques et des maladies transmises par les tiques (qui représentent un des principaux coûts de production) étaient disponibles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Therriault, Pierre-Yves, Ursula Streit y Jacques Rhéaume. "Situation paradoxale dans l’organisation du travail : une menace pour la santé mentale des travailleurs". Santé mentale au Québec 29, n.º 1 (18 de agosto de 2004): 173–200. http://dx.doi.org/10.7202/008830ar.

Texto completo
Resumen
Résumé La mondialisation des marchés, la rationalisation économique, la rapidité des moyens de communication, l’introduction des nouvelles technologies ont profondément modifié les entreprises. Ces phénomènes ont remis en question les pratiques de gestion traditionnelles pour faire face à un accroissement de la concurrence et pour atteindre des niveaux de performance et de production optimaux. Ces bouleversements ont aussi des effets directs sur les travailleurs, les exposant à des degrés de tension et à des situations de plus en plus contraignantes au point de vue mental. À partir de l’analyse d’une enquête en psychodynamique menée auprès de machinistes travaillant dans une usine du secteur aéronautique ayant vécu récemment d’importantes transformations organisationnelles et technologiques, la demande excessive de formation manifestée par les travailleurs apparaît rapidement comme une réponse défensive et presque obligée pour contrer la peur et l’anxiété découlant du travail. Cette peur et cette anxiété résultent, entre autres, de l’organisation du travail et des exigences extrêmes de précision et de qualité imposées par les pièces fabriquées, destinées à un moteur de véhicule de transport de passagers. L’analyse de contenu réalisée permet de mettre en lumière une organisation du travail qui place des machinistes devant un phénomène de double contrainte. Ils sont confrontés à une injonction qui leur demande d’être un machiniste excellent et productif dans un environnement fortement sanctionné. À ce paradoxe pragmatique, vient s’ajouter le fait que l’organisation du travail introduit un système de verrouillage qui vient bloquer toutes les voies possibles de résolution du paradoxe. Les machinistes se retrouvent ainsi dans une impasse. Pris dans ce contexte, comment survivre psychiquement ?
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Passet, Olivier, Christine Rifflart y Henri Sterdyniak. "Ralentissement de la croissance potentielle et hausse du chômage". Revue de l'OFCE 60, n.º 1 (1 de enero de 1997): 109–46. http://dx.doi.org/10.3917/reof.p1997.60n1.0109.

Texto completo
Resumen
Résumé Depuis 1973, la croissance des pays industrialisés a fortement ralenti. Dans certains pays (Etats-Unis, Japon), le taux de chômage n'a pas été affecté. Au contraire, la quasi-totalité des pays européens ont connu une hausse tendancielle du chômage. Quelle est la part du ralentissement de la croissance qui s'explique par celui de la croissance potentielle ? Le taux de chômage d'équilibre a-t-il augmenté en Europe ? Cette augmentation est-elle une cause ou une conséquence du ralentissement de la croissance potentielle ? Cet article propose une synthèse théorique et empirique des liens entre croissance potentielle et chômage dans les pays industrialisés, et plus particulièrement en Europe. La croissance potentielle peut être définie comme le niveau maximal de production soutenante sans accélération de l'inflation. Si certains cherchent à la mesurer par des méthodes purement statistiques, seule l'approche structurelle par des fonctions de productions explicites est satisfaisante. Sa mise en œuvre par les organismes internationaux aboutit à deux conclusions fortes pour l'Europe : la faiblesse de la croissance potentielle actuelle (de 2,1 à 2,3 % l'an) et le bas niveau de l'écart de production en 1995 (-0,3 % pour la CE, -1,5 % pour l'OCDE, - 2,2 % pour le FMI). Mais ces évaluations sous-estiment les disponibilités tant en ce qui concerne le facteur travail, que le facteur capital et le progrès technique. Quatre causes peuvent être évoquées pour expliquer le ralentissement de la croissance potentielle : une baisse exogène du progrès technique (qui demeure largement inexpliquée dans les études empiriques, qu'elles soient fondées sur des modèles traditionnels de croissance ou sur les divers schémas de la théorie de la croissance endogène) ; les rigidités du marché du travail (qui expliquent que le ralentissement du progrès technique provoque une certaine hausse du chômage d'équilibre, mais celle-ci est inférieure à la hausse constatée du chômage), l'insuffisance de l'accumulation du capital (mais celle-ci n'a pas représenté une contrainte durable en Europe malgré la baisse de la profitabilité des entreprises) ; enfin, l'impact de la croissance effective sur la croissance potentielle. Selon nous, la croissance effective est en Europe depuis de nombreuses années inférieure à la croissance potentielle. L'actuel déficit de production est bien plus important que ceux couramment admis comme en témoignent la tendance à la déflation, le haut niveau de chômage, la faiblesse des hausses de salaires, la bonne situation financière des entreprises. La production potentielle n'est pas actuellement une contrainte à la croissance et à la création d'emplois en Europe. Cette zone souffre essentiellement du manque de dynamisme de sa demande, due à son incapacité à mettre en oeuvre des politiques économiques appropriées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Halidou Moussa, Arohalassi, Elhadji Gounga Mahamadou y Issa Ado Rayanatou. "Caractérisation socio-économique et identification des usages de Sclerocarya birrea (A. Rich.) Hochst. au Niger". Journal of Applied Biosciences 174 (30 de junio de 2022): 18113–23. http://dx.doi.org/10.35759/jabs.174.7.

Texto completo
Resumen
Objectifs : L’arbre de Sclerocarya birrea est une espèce forestière très répandue en Afrique et dans certaines zones sahéliennes et soudaniennes du Niger. L’objectif de cette étude est de diagnostiquer l’exploitation actuelle de l’arbre, d’identifier les différentes utilisations faites par les populations autochtones et d’évaluer son apport dans l’alimentation et le revenu des ménages des régions de Maradi et Zinder. Méthodologie et Résultats : La collecte des données est effectuée, auprès de 410 personnes réparties au niveau de 07 communes rurales, à travers des enquêtes socio-économiques, ethnobotaniques et l’analyse des activités économiques autour de cette espèce. Les données d’enquêtes, ayant concerné les personnes vivant dans les villages à proximité de ce produit forestier non ligneux, les tradi-praticiens/forestiers et les entreprises œuvrant dans la production, la commercialisation et la transformation de Sclerocarya birrea, ont montré que ce dernier est une espèce spontanée très présente dans les forêts et brousses mais aussi dans les champs. Il produit des fruits consommés par les populations autochtones. La plante fructifie une fois par an, entre mai et juin. L’usage alimentaire le plus répandu est la consommation de la pulpe des fruits frais à 97- 99%. Les amandes sont soit consommées crues, soit utilisées en cuisine comme condiments à 99% ainsi que les feuilles après cuisson par 91%. Le bois est utilisé essentiellement comme source d’énergie (95%) et dans l’artisanat (90%). L’usage médicinal de l’écorce (90%) et des feuilles (60%) occupe une place importante dans le traitement de plusieurs maladies dont majoritairement les problèmes gastriques. Conclusions et application des résultats : Très peu d’activités économiques se sont développées autour de cet arbre avec une autoconsommation importante des organes de l’arbre surtout en 18113 Arohalassi et al., J. Appl. Biosci. Vol: 174, 2022 Caractérisation socio-économique et identification des usages de Sclerocarya birrea (A. Rich.) Hochst. au Niger période de soudure. La vente des fruits, des noix/graines et des feuilles permet de générer des revenus variables notamment pour les femmes selon la zone. L’absence d’organisation de filière et de marché important, liée à cette espèce constitue une contrainte majeure. Les difficultés liées au concassage de la noix/graine et aux méthodes de conservation des fruits de cet arbre constituent des facteurs limitants pour sa valorisation. Mots clés : PFNL, Caractérisation, usage, Sclerocarya birrea, identification, valorisation, économie, Niger Socio-economic characterization and identification of uses of Sclerocarya birrea (A. Rich.) Höchst. in Niger ABSTRACT Objectives: The Sclerocarya birrea tree is a widely distributed forest species in Africa and in some Sahelian and Sudanese areas of Niger. The objective of this work was to collect the available data on the current exploitation of the tree, to identify the different uses by the indigenous populations and to determine its contribution in the food and the household income from Maradi and Zinder localities. Methodology and results: Data collection was done with 410 people in 07 rural municipalities through socio-economic surveys, ethnobotany and the analysis of economic activities on the tree. The survey data, which concerned people living in villages near this non-wood forest product, traditional practitioners / foresters and companies working in the production, marketing and processing of Sclerocarya birrea, showed that the tree is a spontaneous species very present in forests, bushes, and fields. It produces fruits consumed by surrounding populations. The plant fructify once a year, between May and June mostly. The most common use is consumption of the pulp of fresh fruits for 97- 99%. Almonds are either eaten raw or used in kitchen as condiments for 99% as well as the leaves after cooking by 91%. The wood is used primarily as a source of energy by 95% and in craftsby 90%. The medicinal use of the bark (90%) and leaves (60%) is important in the treatment of several diseases of which mainly concern gastric illness. Conclusions and application of findings: Very few economic activities has been developed with this tree in significant self-consumption of the tree's organs, especially during the lean season. The sale of fruits, nuts / seeds and leaves generates variable income, especially for women depending on the area. The lack of organization of the sector and a large market, linked to this plant is a major constraint. The difficulties linked to the crushing of the nut / seed and the methods of preserving the fruits constitute factors limiting its valuation. Key words: NTFPs, Characterization, use, Sclerocarya birrea, identification, valuation, economy, Niger.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

GUY, G. y L. FORTUN-LAMOTHE. "Avant-propos". INRAE Productions Animales 26, n.º 5 (19 de diciembre de 2013): 387–90. http://dx.doi.org/10.20870/productions-animales.2013.26.5.3167.

Texto completo
Resumen
Ce numéro de la revue INRA Productions Animales contient un dossier consacré aux dernières avancées de la recherche sur le foie gras. En effet, la démocratisation de la consommation de ce produit haut de gamme a été permise notamment par les efforts de recherche et développement sur l’élevage des palmipèdes à foie gras et la maîtrise de la qualité du produit. Ce dossier est l’occasion de faire en préalable quelques rappels sur cette belle histoire ! Un peu d’histoire La pratique du gavage est une tradition très ancienne, originaire d’Egypte, dont les traces remontent à 2 500 avant JC. Elle avait pour objectif d’exploiter la capacité de certains oiseaux à constituer des réserves énergétiques importantes en un temps court pour disposer d’un aliment très riche. Si les basreliefs datant de l’ancien empire égyptien attestent de la pratique du gavage, il n’existe pas de preuves que les égyptiens consommaient le foie gras ou s’ils recherchaient la viande et la graisse. Ces preuves sont apparues pour la première fois dans l’empire romain. Les romains gavaient les animaux avec des figues et pour eux le foie constituait le morceau de choix. Le nom de jecur ficatum, signifiant « foie d’un animal gavé aux figues », est ainsi à l’origine du mot foie en français. La production de foie gras s’est développée dans le Sud-ouest et l’Est de la France aux XVIIe et XVIIIe siècles avec le développement de la culture du maïs. Le foie gras est aujourd’hui un met inscrit au patrimoine culturel et gastronomique français (article L. 654-27-1 du code rural défini par la Loi d’Orientation Agricole de 2006). Le contexte de la production de foie gras Avec près de 72% de la production mondiale en 2012, la France détient le quasi monopole de la production de foie gras. Les autres pays ayant des productions significatives sont la Hongrie et la Bulgarie en Europe Centrale, avec environ 10% pour chacun de ces pays, mais aussi l’Espagne avec 3% de la production. L’Amérique du nord et la Chine représentent les deux autres pôles de production les plus significatifs, mais avec moins de 2% du marché. La production française a connu un essor considérable, sans doute le plus important de toutes les productions agricoles, passant de 5 880 tonnes en 1990 à plus de 19 000 tonnes en 2012. A l’origine, le foie gras était principalement obtenu par gavage des oies, longtemps considérées comme l’animal emblématique de cette production. Aujourd’hui, le canard mulard, hybride d’un mâle de Barbarie (Cairina Moschata) et d’une cane commune (Anas Platyrhynchos), est plus prisé (97% des palmipèdes gavés en France). En France, l’oie a vu de ce fait sa part relative pour la production de foie gras diminuer, et c’est la Hongrie qui contrôle 65% de la production mondiale de foie gras d’oie. Toutefois, cette espèce ne représente que 10% de la production mondiale. La France est également le principal pays consommateur de foie gras avec 71% du total, l’Espagne se classant au second rang avec environ 10%. Compte tenu de son image de produit de luxe et d’exception, le foie gras est consommé un peu partout dans le monde lors des repas de haute gastronomie. Les grandes avancées de connaissance et l’évolution des pratiques d’élevage L’amélioration des connaissances sur la biologie et l’élevage des palmipèdes à foie gras a permis de rationnaliser les pratiques d’élevage et d’améliorer la qualité du produit. Plusieurs laboratoires de recherche et structures expérimentales, ayant leurs installations propres et/ou intervenant sur le terrain, ont contribué à l’acquisition de ces connaissances : l’INRA avec l’Unité Expérimentale des Palmipèdes à Foie Gras, l’UMR Tandem, le Laboratoire de Génétique Cellulaire, la Station d’Amélioration Génétique des Animaux et l’UR Avicoles, l’Institut Technique de l’AVIculture, la Ferme de l’Oie, le Centre d’Etudes des Palmipèdes du Sud Ouest, le LEGTA de Périgueux, l’ENSA Toulouse, l’ENITA Bordeaux et l’AGPM/ADAESO qui a mis fin en 2004 à ses activités sur les palmipèdes à foie gras. Aujourd’hui ces structures fédèrent leurs activités dans un but de rationalité et d’efficacité. Les avancées des connaissances et leur transfert dans la pratique, associés à une forte demande du marché, sont à l’origine de l’explosion des volumes de foie gras produits. Ainsi, la maîtrise de la reproduction couplée au développement de l’insémination artificielle de la cane commune et à la sélection génétique (Rouvier 1992, Sellier et al 1995) ont permis la production à grande échelle du canard mulard adapté à la production de foie gras. En effet, ses géniteurs, le mâle de Barbarie et la femelle Pékin, ont fait l’objet de sélections spécifiques basées sur l’aptitude au gavage et la production de foie gras de leurs descendants. La connaissance des besoins nutritionnels des animaux et le développement de stratégies d’alimentation préparant les animaux à la phase de gavage ont également été des critères déterminants pour la rationalisation d’un système d’élevage (Robin et al 2004, Bernadet 2008, Arroyo et al 2012). La filière s’est par ailleurs structurée en une interprofession (le Comité Interprofessionnel du Foie Gras - CIFOG) qui soutient financièrement des travaux de recherches et conduit des actions (organisation de salons du foie gras par exemple) visant à rendre accessibles toutes les avancées de la filière. Ainsi, l’amélioration du matériel d’élevage (gaveuse hydraulique et logement de gavage) a engendré des gains de productivité considérables (Guy et al 1994). Par exemple, en 20 ans, la taille d’une bande de gavage est passée de deux cents à mille individus. Enfin, la construction de salles de gavage, dont l’ambiance est parfaitement contrôlée autorise désormais la pratique du gavage en toute saison. Des études ont aussi permis de déterminer l’influence des conditions d’abattage et de réfrigération sur la qualité des foies gras (Rousselot-Pailley et al 1994). L’ensemble de ces facteurs a contribué à ce que les possibilités de production soient en cohérence avec la demande liée à un engouement grandissant pour le foie gras. Les pratiques d’élevage actuelles Aujourd’hui, le cycle de production d’un palmipède destiné à la production de foie gras comporte deux phases successives : la phase d’élevage, la plus longue dans la vie de l’animal (11 à 12 semaines chez le canard ou 14 semaines chez l’oie) et la phase de gavage, d’une durée très courte (10 à 12 jours chez le canard ou 14 à 18 jours chez l’oie). La phase d’élevage se décompose elle même en trois étapes (Arroyo et al 2012). Pendant la phase de démarrage (de 1 à 4 semaines d’âge) les animaux sont généralement élevés en bâtiment clos chauffé et reçoivent à volonté une alimentation granulée. Pendant la phase de croissance (de 4 à 9 semaines d’âge), les animaux ont accès à un parcours extérieur. Ils sont nourris à volonté avec un aliment composé de céréales à 75% sous forme de granulés. La dernière phase d’élevage est consacrée à la préparation au gavage (d’une durée de 2 à 5 semaines) grâce à la mise en place d’une alimentation par repas (220 à 400 g/j). Son objectif est d’augmenter le volume du jabot et de démarrer le processus de stéatose hépatique. Pendant la phase de gavage les animaux reçoivent deux (pour le canard) à quatre (pour l’oie) repas par jour d’une pâtée composée à 98% de maïs et d’eau. Le maïs est présenté soit sous forme de farine (productions de type standard), soit sous forme d’un mélange de graines entières et de farine, soit encore sous forme de grains modérément cuits (productions traditionnelles ou labellisées). En France, on distingue deux types d’exploitations. Dans les exploitations dites en filière longue et de grande taille (au nombre de 3 000 en France), les éleveurs sont spécialisés dans une des phases de la production : éleveurs de palmipèdes dits « prêt-à-gaver », gaveurs ou éleveurs-gaveurs. Ce type de production standard est sous contrôle d’un groupe ou d’une coopérative qui se charge des opérations ultérieures (abattage, transformation, commercialisation ou diffusion dans des espaces de vente à grande échelle). Il existe également des exploitations en filière courte qui produisent les animaux, transforment les produits et les commercialisent directement à la ferme et qui sont généralement de plus petite taille. Ces exploitations « fermières » ne concernent qu’une petite part de la production (10 à 15%), mais jouent un rôle important pour l’image de production traditionnelle de luxe qu’elles véhiculent auprès des consommateurs. Pourquoi un dossier sur les palmipèdes à foie gras ? Au-delà des synthèses publiées précédemment dans INRA Productions Animales, il nous a semblé intéressant de rassembler et de présenter dans un même dossier les avancées récentes concernant la connaissance de l’animal (articles de Vignal et al sur le séquençage du génome du canard et de Baéza et al sur les mécanismes de la stéatose hépatique), du produit (articles de Théron et al sur le déterminisme de la fonte lipidique du foie gras à la cuisson et de Baéza et al sur la qualité de la viande et des carcasses), ainsi que les pistes de travail pour concevoir des systèmes d’élevage innovants plus durables (article de Arroyo et al). L’actualité et les enjeux pour demain La filière est soumise à de nombreux enjeux sociétaux qui demandent de poursuivre les efforts de recherche. En effet, pour conserver son leadership mondial elle doit rester compétitive et donc maîtriser ses coûts de production tout en répondant à des attentes sociétales et environnementales spécifiques telles que la préservation de la qualité des produits, le respect du bien-être animal ou la gestion économe des ressources. Ainsi, la production de foie gras est parfois décriée eu égard à une possible atteinte au bien-être des palmipèdes pendant l’acte de gavage. De nombreux travaux ont permis de relativiser l’impact du gavage sur des oiseaux qui présentent des prédispositions à ce type de production : la totale réversibilité de l’hypertrophie des cellules hépatiques (Babilé et al 1998) ; l’anatomie et la physiologie des animaux de même que l’absence de mise en évidence d’une élévation du taux de corticostérone (considéré comme marqueur d’un stress aigu) après l’acte de gavage (Guéméné et al 2007) et plus récemment la mise en évidence de l’aptitude à un engraissement spontané du foie (Guy et al 2013). Le conseil de l’Europe a toutefois émis des recommandations concernant le logement des animaux qui préconisent, la disparition des cages individuelles de contention des canards pendant le gavage au profit des cages collectives. Par ailleurs, il recommande la poursuite de nouvelles recherches pour développer des méthodes alternatives au gavage. Parallèlement, à l’instar des autres filières de productions animales, la filière foie gras doit aussi maîtriser ses impacts environnementaux (voir aussi l’article d’Arroyo et al). Les pistes de recherches concernent prioritairement la maîtrise de l’alimentation, la gestion des effluents et des parcours d’élevage. Il reste donc de grands défis à relever pour la filière foie gras afin de continuer à proposer un produitqui conjugue plaisir et durabilité.Bonne lecture à tous !
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

BROCHARD, M., K. DUHEN y D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"". INRAE Productions Animales 27, n.º 4 (21 de octubre de 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Texto completo
Resumen
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Pinto, Geraldo Augusto. "O TOYOTISMO E A MERCANTILIZAÇÃO DO TRABALHO NA INDÚSTRIA AUTOMOTIVA DO BRASIL". Caderno CRH 25, n.º 66 (18 de junio de 2013). http://dx.doi.org/10.9771/ccrh.v25i66.19259.

Texto completo
Resumen
O objetivo deste artigo é analisar o avanço de conceitos e práticas de gestão do trabalho designados como “flexíveis” na indústria automotiva do Brasil, em especial os oriundos do Sistema Toyota de Produção. Por meio de uma investigação bibliográfica e de um estudo de caso empírico numa planta pertencente a um grupo transnacional do setor de autopeças, situada em Campinas, SP (Brasil), demonstra-se como foram efetuadas alterações na organização do trabalho, concomitantes à exigência de novos perfis de qualificação profissional e educacional aos trabalhadores. Em termos conclusivos, a presente análise evidencia como tais perfis – articulados a métodos gerenciais de avaliação em processos de contratação e promoção – têm fragmentado o coletivo de trabalhadores nas empresas, mercantilizando as relações que estabelecem entre si no cotidiano de trabalho, uma vez que se baseiam na introjeção e manipulação de princípios de conduta entre eles, no sentido de servilizá-los ao propósito da acumulação capitalista. PALAVRAS-CHAVE: Sistema Toyota de Produção. Sociologia do Trabalho. Indústria Automotiva – Brasil. TOYOTISM AND THE MERCANTILIZATION OF LABOR IN THE BRAZILIAN AUTOMOTIVE INDUSTRY Geraldo Augusto Pinto The aim of this article is to analyze the advancement of concepts and practices in labor management called “flexible” in the Brazilian automotive industry, particularly those rooted in the Toyota Production System. Through bibliographical research and an empirical case study of a Campinas, SP (Brazil) plant belonging to a transnational group in the auto parts sector, the author shows how changes in the organization of labor were brought about, together with the demand for the workers to have new professional and educational profiles. This analysis conclusively shows how these profiles – articulated with management’s methods of evaluation in the contracting and promoting processes – have fragmented workers’ collectivity in companies, putting monetary value on the relationships that they establish with one another in the workplace since they are based on the introjection and manipulation of their principles of conduct, in the sense of making them subservient to the purpose of accumulation of capital. KEY WORDS: Toyota Production System. Labor Sociology. Automotive Industry – Brazil. LE TOYOTISME ET LA MERCANTILISATION DU TRAVAIL DANS L’INDUSTRIE AUTOMOBILE AU BRÉSIL Geraldo Augusto Pinto L’objectif de cet article est d’analyser l’état d’avancement des concepts et des pratiques de gestion du travail appelées “flexibles” dans l’industrie automobile au Brésil, et en particulier celles provenant du Système Toyota de Production. Grâce à une recherche bibliographique et à une étude de cas empirique dans le cadre d’un groupe transnational de pièces détachées automobiles situé à Campinas (Etat de Sao Paulo/Brésil), nous démontrons comment des changements ont eu lieu dans l’organisation du travail, changements liés à l’exigence de nouveaux profils de qualification professionnelle et d’éducation des travailleurs. En conclusion, l’analyse montre bien comment de tels profils – articulés à des méthodes de gestion pour l’évaluation en cours de contrats et de promotions - ont fragmenté le collectif des travailleurs au sein des entreprises, monnayant les relations qui s’établissent au quotidien dans l’ambiance de travail étant donné l’introjection et la manipulation des principes de conduite entre eux afin de servir à l’accumulation capitaliste. MOTS-CLÉS: Système Toyota de Production. Sociologie du Travail. Industrie Automobile – Brésil. Publicação Online do Caderno CRH no Scielo: http://www.scielo.br/ccrh Publicação Online do Caderno CRH: http://www.cadernocrh.ufba.br
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

De Briey, Valérie. "Numéro 28 - mars 2005". Regards économiques, 12 de octubre de 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15993.

Texto completo
Resumen
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

De Briey, Valérie. "Numéro 28 - mars 2005". Regards économiques, 12 de octubre de 2018. http://dx.doi.org/10.14428/regardseco2005.03.01.

Texto completo
Resumen
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Hervé, Caroline. "Communs". Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.086.

Texto completo
Resumen
Les communs (commons en anglais) peuvent être définis comme un ensemble de ressources physiques, matérielles ou immatérielles que les êtres humains cherchent à exploiter, à gérer ou à protéger pour assurer leur survie biologique, économique, sociale ou encore culturelle. Très à la mode depuis une quarantaine d’années en anthropologie, sociologie, histoire, économie ou encore en philosophie, ce concept a vu son champ d’application s’élargir, ses propositions théoriques s’étoffer et ses analyses se complexifier, tout en perdant progressivement son sens historique. Sortis du champ académique et instrumentalisés par les mouvements de résistance au néolibéralisme, les communs sont désormais au cœur de débats de société. La façon dont cette notion interroge les interactions entre les êtres humains et leur environnement, son intérêt pour éclairer la fabrication du social et sa réutilisation dans le débat public en fait un objet de recherche riche pour l’anthropologie. La définition du concept de communs est une entreprise difficile tant il renvoie à des usages divers. Si certains chercheurs tendent à privilégier, en français, l’usage du pluriel afin de marquer la grande variété des ressources regroupées sous la terminologie de communs, que l’on parle de ressources naturelles, mais également sociales ou intellectuelles, d’autres auteurs insistent sur l’importance d’utiliser le terme au singulier afin de souligner son potentiel théorique et pratique (Hardt et Negri 2012 ; Dardot et Laval 2014). L’origine étymologique du terme commun, construit sur les locutions latines cum et munus, renvoie à une idée centrale, celle de la mise commun ou de la gestion commune de biens, mettant l’accent sur le fait que le commun « implique donc toujours une certaine obligation de réciprocité liée à l’exercice de responsabilités publiques » (Dardot et Laval 2014 : 23). Ces deux aspects, celui de réciprocité et de responsabilité publique, sont au cœur de la définition historique des communs. Les origines du concept renvoient à une pratique de gestion des terres qui était courante dans différentes régions d’Europe avant la fin du Moyen-Âge et qui consistait en la gestion commune de certaines terres par un groupe de personnes ou d’unités familiales pendant une période de temps limitée. Dans certaines circonstances, tout le monde pouvait avoir accès à ces terres, selon des règles d’usage particulières ; dans d’autres cas, leur usage était restreint et contrôlé. Ce fonctionnement communal a progressivement été mis en cause par les autorités publiques et les cercles politiques à partir du milieu du XVIIIe siècle. En l’espace d’un siècle, la plupart des communs en Europe de l’ouest devinrent ainsi des propriétés privées ou publiques (De Moor 2011 : 425). Ceci correspond au phénomène connu des enclosures qui s’est particulièrement développé en Angleterre dans la seconde moitié du XVIIIe siècle, à travers lequel de larges étendues de champs ouverts, connus sous le nom de terrains communaux ou commons, ont progressivement été parcellisés et enclos (Hemmungs Wirtén 2013 : 2), dans un contexte marqué par l’augmentation démographique et l’industrialisation. Ce retour dans l’histoire est important pour comprendre les confusions qui sont apparues lorsque les chercheurs des différentes disciplines ont commencé à s’intéresser plus largement à la question des communs à partir du milieu du XXe siècle. L’une des confusions les plus importantes a été introduite par le biais du travail de Garrett Hardin dans son célèbre article « The Tragedy of the Commons », publié en 1968, dans lequel il explique que les communs sont susceptibles de surexploitation et donc de disparition. Sa thèse principale repose sur l’idée biaisée que les communs historiques étaient accessibles à tous et en tout temps. À la suite de la parution de cet article, les chercheurs ont ainsi commencé à utiliser le terme de communs pour faire référence à toutes formes de ressources utilisées par tous et sans contrôle, ce qui ne correspond pourtant pas à sa définition historique (De Moor 2011 : 425). L’article de Hardin a ouvert de nombreuses recherches portant sur les solutions à mettre en œuvre pour contrer la dégradation des communs. Mais ces travaux sont souvent restés coincés entre deux options : la prise en charge des communs par l’État ou par le marché. C’est dans ce contexte que le travail de la politologue Elinor Ostrom (1990), en proposant une troisième voie, a eu un retentissement important dans le monde académique, et même au-delà. La publication de son livre Governing the Commons constitue une étape essentielle dans les recherches sur la gestion des communs. Non seulement, elle montre que l’exploitation des communs ne mène pas inéluctablement vers leur fin, mais elle explore la diversité des arrangements institutionnels permettant la gestion de ceux-ci, sans pour autant avoir recours à l’État ou à la privatisation. Sa contribution est consacrée en 2009 lorsqu’elle reçoit, en même temps qu’Oliver Williamson, le prix Nobel d’économie pour son analyse de la gouvernance économique et celle des communs. La création de l’International Association for the Study of the Commons en 1989 ou encore la création de l’International Journal of the Commons en 2007, révélateurs d’un engouement scientifique pour la question des communs, permettent la diffusion des théories et des méthodes dans les différentes disciplines et dans la société civile, à tel point que l’étude même des communs comporte aujourd’hui des enjeux politiques, sociaux et même éthiques (Peugeot et Piron 2015). Les travaux d’Elinor Ostrom s’inscrivent dans une démarche résolument interdisciplinaire puisqu’elle utilise des études de cas, des concepts, des modèles et des méthodes issus de différentes sciences sociales, et tout particulièrement de l’anthropologie. Loin de développer une perspective purement institutionnelle, Ostrom s’intéresse en effet avant tout aux stratégies développées par les acteurs sociaux pour gérer des ressources en commun. Elle s’appuie pour cela sur de nombreuses études de cas développées par des anthropologues pour comprendre par exemple les systèmes d’irrigation au Népal, dans les Philippines ou à Los Angeles, la gestion des forêts en Inde, en Asie, en Afrique et en Amérique latine ou encore la pêche côtière en Inde ou au Canada (Acheson 2011 : 320). Même si son usage de l’anthropologie est qualifié de fragmentaire, puisque sortant ces études de cas de leurs contextes politiques ou culturels, ses travaux sont néanmoins reconnus comme une contribution majeure à la discipline anthropologique (Rabinowitz 2010). Outre celle des interactions entre les hommes et leur environnement, les travaux d’Ostrom rejoignent bien d’autres questions intéressant les anthropologues. Ils interrogent directement la gestion des ressources collectives, la nature des liens de coopération et la fabrique des communautés (Rabinowitz 2010 : 104), la production des normes et des règles sociales, ainsi que de la propriété, privée ou publique (Acheson 2011 : 320). Enfin, en montrant le rôle important de la réciprocité dans la plupart des cas de gestion alternative des ressources, les anthropologues ont mis en évidence, à partir de leurs différents terrains, le fait que l’homme n’était pas uniquement animé par une logique économique, mais que le symbolisme était central dans les pratiques d’échange, renvoyant ainsi aux théories sur le don, concept dont les anthropologues ont étudié les multiples formes dans les sociétés humaines. Dans la foulée des propositions théoriques de Hardin et de Ostrom, un véritable engouement s’est manifesté autour de la question de ces communs naturels, en anthropologie et dans les autres disciplines des sciences sociales. Ces travaux ont fourni des modèles inspirant pour d’autres types d’objets de recherche et plus récemment les chercheurs ont commencé à identifier de nouveaux communs (new commons), comme des biens communs sociaux (social commons) qui constituent des ressources sociales ou des services destinés à des groupes sociaux spécifiques, des communs de nature intellectuelle ou encore culturelle incluant des ressources aussi variées que la musique, l’artisanat, les technologies numériques, etc. (Nonini 2006 : 166-167). Certains anthropologues ont même avancé l’idée que les communs peuvent englober des dimensions plus invisibles de la vie sociale relevant du domaine cognitif, corporel ou affectif, comme par exemple chez les Urarina, peuple indigène du Pérou, pour lesquels la notion même de tranquillité doit être l’objet d’un partage ou d’une réciprocité (Walker 2015). L’extension du concept de communs à des domaines aussi divers de la vie sociale explique aujourd’hui la difficulté à en donner une définition uniforme et certaines ambivalences quant à ses usages et ses analyses. De façon plus générale, la naturalisation du discours sur les biens communs a nécessité de s’engager dans une réflexion critique sur cet objet, ce que l’anthropologie a pu prendre en charge à travers sa capacité à mettre en perspective la production du social. Le succès du terme ne s’est en effet pas limité au milieu académique. Dans le contexte des dernières décennies, alors que des corporations, des gouvernements et d’autres types d’institutions politiques, privées ou non-gouvernementales, ont dépossédé certains groupes humains de leurs ressources dans la mouvance de la globalisation néolibérale, des stratégies de résistance et de lutte pour conserver ou retrouver le contrôle sur ces biens se sont développées (Nonini 2006 : 165). Dans le même temps, les propositions théoriques sur les communs ont mis en valeur des alternatives séduisantes face à la mainmise du marché ou de l’État sur ces ressources. Les anthropologues ont ainsi montré que ces luttes ne concernent pas seulement le contrôle des ressources matérielles mais également le contrôle des significations culturelles associées aux communs et aux processus qui les préservent ou les détruisent (Nonini 2006 : 165). Les stratégies et les perspectives antagonistes des différents groupes se disputant les communs sont ainsi devenues des objets de recherche riches pour l’anthropologie. Dans le contexte sud-américain où la surexploitation des ressources naturelles s’impose comme un nouveau paradigme économique, le constat que chacune des deux parties réutilise le concept de biens communs et de communs pour légitimer, d’un côté l’exploitation des ressources naturelles, et de l’autre la lutte contre cette exploitation, rappelle la nécessité de repenser les fondements ontologiques de chacune de ces deux façons de concevoir la relation entre les humains et le monde naturel. Dans ce cadre, les peuples autochtones nous invitent plutôt à penser ces confrontations ontologiques à travers le concept d’« incommuns » ; celui-ci révèlerait plutôt l’existence et la persistance d’une certaine incompatibilité entre différentes façons d’être au monde. En effet, alors que les entreprises extractrices font reposer leurs justifications sur la distinction entre nature et culture, et plus précisément sur le contrôle de la nature par les êtres humains, les peuples autochtones de leur côté se perçoivent en continuité avec le monde naturel, engagé dans une relation réciproque avec lui et dans l’obligation de le protéger (Blaser et De La Cadena 2017 : 186-187).
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía