Статті в журналах з теми "Systèmes de fabrication reconfigurables"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Systèmes de fabrication reconfigurables.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-31 статей у журналах для дослідження на тему "Systèmes de fabrication reconfigurables".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте статті в журналах для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Vigne, Benoît, and Pierre-Jean Lapray. "Les Systèmes Embarqués Reconfigurables enseignés à des automaticiens." J3eA 21 (2022): 2050. http://dx.doi.org/10.1051/j3ea/20222050.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de la formation d’ingénieurs automaticiens à l’ENSISA de Mulhouse, nous avons conçu un groupement d’unités d’enseignement portant sur la conception de systèmes numériques sur FPGA (Field Programmable Gate Array). L’offre comprend les bases de l’électronique numérique, la synthèse de systèmes combinatoires et séquentiels, et la description matérielle en langage VHDL. Il y a lieu de rapporter une expérience pédagogique, en ce qu’elle concerne des étudiants non électroniciens de formation. Nous détaillerons l’organisation des modules, les problématiques de pédagogie, et les possibles améliorations à apporter.
2

Dadouche, F., and W. Uhring. "Enseignement par la pratique de la conception conjointe Hard/Soft de systèmes numériques embarqués sur cible FPGA." J3eA 21 (2022): 1018. http://dx.doi.org/10.1051/j3ea/20221018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour but de partager une expérience d’enseignement dédiée à la conception de systèmes numériques embarqués sur cibles reconfigurables de type FPGA en première année de master au sein de l’université de Strasbourg. Cette dernière introduit une méthode d’apprentissage des concepts de la conception conjointe matérielle/logicielle (Hard/Soft) par la pratique. Dans cette méthode, la proportion des enseignements théoriques en cours magistraux est réduite au strict minimum pour laisser place aux travaux pratiques durant lesquels les étudiants sont confrontés à une situation réelle qu’ils doivent réaliser de manière individuelle dans le cadre d’un mini-projet. Ce dernier définit un seuil minimum de réalisation pour valider le projet, pour aller plus loin, des pistes d’amélioration sont suggérées par l’enseignant et au-delà les étudiants peuvent proposer leurs propres améliorations. Les retours, que nous avons eus, montrent que les étudiants sont très satisfaits de ce dispositif et souvent souhaitent la généralisation de la méthode à d’autres enseignements adaptés à un apprentissage par la pratique.
3

Beaumont, B., A. Simonin, and E. Giguet. "Conception et fabrication des systèmes de chauffage." Revue Générale Nucléaire, no. 1 (January 2007): 62–63. http://dx.doi.org/10.1051/rgn/20071062.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Zarcone, Roberta, Ahmed Hussein, and Mohammad Mansouri. "Morphogenèse et fabrication d’une forme structurellement informée : expériences pédagogiques sur les systèmes funiculaires." SHS Web of Conferences 47 (2018): 01018. http://dx.doi.org/10.1051/shsconf/20184701018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce papier s’interroge sur la forme comme résultat d’un système qui interprète les enjeux contextuels, programmatiques et structuraux afin de concevoir et fabriquer des systèmes funiculaires à l’aide de méthodes à la fois physiques et numériques pour profiter de leurs potentialités structurales et géométriques. Les systèmes funiculaires sont des méthodes historiques de construction, mais les récentes méthodes numériques donnent de nouvelles possibilités architecturales et structurales à ce type de structures. Les expériences pédagogiques menées visent à trouver des formes (form finding) de haute qualité morphologique et de haute performance structurale. Ce papier présente la méthode pédagogique et, pour des cas concrets, l’algorithme de génération de la surface courbe pavée, en proposant différentes morphologies en réponses aux problématiques d’ordres géométriques et techniques, et la fabrication numérique à échelle un.
5

Dolgui, Alexandre, Olga Guschinskaya, Nikolai Guschinsky, and Genrikh Levin. "Conception de systèmes de fabrication : prototype d'un logiciel d'aide à la décision." Journal of Decision Systems 14, no. 4 (January 2005): 489–516. http://dx.doi.org/10.3166/jds.14.489-516.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

-GILLIERS, Frédéric. "Processus de fabrication de systèmes répartis centré sur un modèle : l'expérience du projet MORSE." Revue de l'Electricité et de l'Electronique -, no. 03 (2006): 102. http://dx.doi.org/10.3845/ree.2006.036.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Aouchiche, Nedjma. "Défauts liés aux systèmes photovoltaïques autonomes et techniques de diagnostic - Etat de l’art." Journal of Renewable Energies 21, no. 2 (June 30, 2018): 247–65. http://dx.doi.org/10.54966/jreen.v21i2.686.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’efficacité de la production de l’énergie solaire photovoltaïque (PV) dépend essentiellement des conditions auxquelles est soumis le générateur photovoltaïque. Ces conditions peuvent être environnementales, opérationnelles liées au processus de fabrication ou de l’exploitation. Ces facteurs sont l’origine d’un important nombre de défauts qui engendre la dégradation de générateur PV. Dans la récente littérature, plusieurs méthodes ont été développées pour faire face à ce genre de problème. Dans cet article, on a cité des articles qui parlent de types de défauts rencontrés, leurs causes ainsi que leurs impacts. On a passé en revue un nombre d’articles qui traitent les méthodes de supervision et de diagnostic de systèmes photovoltaïques.
8

Belhamel, Maiouf. "Optimisation de la Performance d’un Collecteur Solaire Cylindro – parabolique à Caloduc : Réalisation et Dimensionnement du Caloduc." Journal of Renewable Energies 2, no. 1 (June 30, 1999): 39–49. http://dx.doi.org/10.54966/jreen.v2i1.923.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article présente un caloduc utilisé dans les systèmes d’exploitation de l’énergie solaire. Le modèle analytique, capable de prédire les limitations maximales du flux de chaleur véhiculé par changement de phase au moyen d'une substance très quelconque mais pure (fluide organique, alcool, eau, métal etc.) piégée dans ce caloduc qui est une enceinte hermétique à géométrie cylindrique de faible diamètre par rapport à sa longueur, sera décrit. Les très nombreuses contraintes de conception et de fabrication (plusieurs opérations indépendantes) et les précautions exigées pour sa mise au point (dégazage, introduction de la structure capillaire, remplissage, soudage etc.)sont présenttées.
9

Claeys, Damien. "Le fantasme du démiurge : L'architecte soumis à la tentation du pouvoir." Acta Europeana Systemica 6 (July 12, 2020): 11–24. http://dx.doi.org/10.14428/aes.v6i1.56773.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Confronté aux limites perceptives de la conscience, l'être humain développe pour agir une configuration augmentée, évolutive et opérationnelle du réel. Le décalage permanent entre les réactions parfois incompréhensibles du réel (incertitude) et la réalité patiemment construite par l'être humain (pseudo-certitude) est à la source d'une angoisse existentielle latente.Pour permettre à chacun d'agir dans la vie de tous les jours, cette angoisse existentielle est transmise à d'autres en leurs donnant la responsabilité de configurer le réel augmenté à notre place.Parmi d'autres, deux processus permettent à certains de configurer le réel augmenté à la place d'autres: la mise en place de systèmes politiques pour configurer leréel augmenté du peuple en jouant sur les interactions entre les membres du système socioculturel et la projetation/fabrication d'artefacts architecturaux pour configurer l'environnement écosystémique dans lequel habite le peuple.Des rapports étroits existent entre les systèmes politiques et l'architecture puisque ces deux processus équilibrent, chacun à leur manière, les rapports dialogiques entre l'être (auto)organisé, le système socioculturel et l'environnement écosystémique.Des jeux de pouvoir existent entre le gouvernant attiré par la figure du guide et l'architecte obsédé par le fantasme du démiurge.
10

Shiko, G. "Modélisation des données techniques des systèmes de production type ligne de fabrication des familles de produit." Revue Française de Gestion Industrielle 13, no. 6 (December 1, 1994): 39–51. http://dx.doi.org/10.53102/1994.13.06.1034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Hébrard, L., F. Antoni, F. Schwartz, F. Stock, D. Constantin, S. Litaudon, and B. Gonzalez. "Introduction à la modélisation compacte de transistor MOS pour concepteurs de circuits intégrés : mise en pratique de la théorie." J3eA 21 (2022): 1014. http://dx.doi.org/10.1051/j3ea/20221014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les étudiants en conception de circuits intégrés analogiques doivent maîtriser le fonctionnement du transistor MOS. Ceci passe par une compréhension approfondie des modèles compacts des transistors utilisés pour dimensionner et simuler les circuits, et demande un fort investissement en physique du semi-conducteur. Afin de motiver les étudiants du Master Systèmes Microélectroniques de l’Université de Strasbourg, leur cours de modélisation des composants est relié à leur stage de fabrication de transistors NMOS au Centre Interuniversitaire de Micro-Electronique et Nanotechnologies de Grenoble en leur proposant de modéliser et simuler par éléments finis les transistors qu’ils ont fabriqués. Le cours théorique établit le modèle compact et les travaux pratiques permettent de simuler les caractéristiques I-V des transistors à partir desquelles les étudiants extraient les paramètres électriques du modèle. En parallèle, les étudiants caractérisent les transistors qu’ils ont fabriqués et en déduisent par mesure les paramètres électriques qui sont comparés aux paramètres extraits des simulations. Dans cet article, nous décrivons le déroulé des enseignements que nous avons mis en place, depuis la fabrication jusqu’à l’extraction des paramètres afin de montrer la cohérence d’ensemble qui est un vrai atout pour motiver les étudiants à s’investir en physique du semi-conducteur et modélisation des composants électroniques intégrés.
12

Henniquau, Dimitri, Pierre Falez, Philippe Devienne, Christel Vanbesien Mailliot, Alexis Vlandas, Alain Cappy, and Virginie Hoel. "Système de vision neuro-inspirée : Application à la vision artificielle." J3eA 21 (2022): 2035. http://dx.doi.org/10.1051/j3ea/20222035.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’architecture des systèmes numériques traditionnels est loin d’être optimale puisqu’un microprocesseur est tout autant une plaque chauffante qu’un calculateur (Intel Cooking [1]). Il devient donc urgent de proposer des architectures de traitement de l’information radicalement différentes, « neuro-inspirées », qui permettent d’apporter des fonctions cogni-tives aux solutions existantes. C’est ainsi que des neurones et synapses artificiels travaillant à faible tension d’alimentation ont été fabriqués, ce qui leur confère une très basse consommation d’énergie et une fabrication aisée. Ce stand montre à des jeunes lycéens et étudiants que l’utilisation de tels neurones et synapses dans un système de vision artificielle (capture et traitement d’images) conduira certainement à une forte amélioration des performances et, parallèlement, à une réduc-tion drastique de la consommation énergétique. Il s’agit d’une expérience pédagogique innovante, riche de nombreux supports variés, afin de transmettre aux jeunes générations les enjeux des activités de recherche qui se construisent dans les laboratoires de l’Université de Lille.
13

Affogbolo, Rostand, Vincent Dutot, and Samuel Fosso Wamba. "The SMEs’ Journey to Industry 4.0: A Call for More IS Studies." Systèmes d'information & management Volume 28, no. 2 (February 14, 2024): 3–21. http://dx.doi.org/10.3917/sim.232.0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Même si l’I4.0 devient un des plu importants sujets d’actualité, tant pour la recherche en sciences de gestion que pour l’industrie, il le concept est moins exploré en systèmes d’information, où la transformation numérique est pourtant largement évoquée. De plus, les études actuelles sur l’I4.0 s’intéressent moins aux besoins des PMEs pour privilégier les grandes organisations. Dans cet essai introductif, nous soulignons ces importantes lacunes et appelons à davantage de recherches capables de les étudier ensemble. Nous commençons ainsi par une clarification conceptuelle du concept I4.0. Nous soulignons notamment qu’il ne faut plus le limiter aux paramètres de fabrication. De plus, nous expliquons qu’il ne faut pas le confondre avec le concept de transformation numérique. Enfin, nous décrivons cinq pistes de recherche qui nous semblent importantes à considérer lors de l’étude des besoins des PME en matière d’I4.0 dans le domaine des SI : l’innovation du modèle d’affaire propulsée par I4.0, la mesure du succès de I4.0, les vulnérabilités associées à I4.0, les enjeux de bien-être et enfin la durabilité propulsée par I4.0.
14

Gatsa, O., P. Combette, E. Rozenkrantz, D. Fourmentel, C. Destouches, and J. Y. Ferrandis. "High temperature ultrasonic sensor for fission gas characterization in MTR harsh environment." EPJ Web of Conferences 170 (2018): 04008. http://dx.doi.org/10.1051/epjconf/201817004008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In the contemporary world, the measurements in hostile environment is one of the predominant necessity for automotive, aerospace, metallurgy and nuclear plant. The measurement of different parameters in experimental reactors is an important point in nuclear power strategy. In the near past, IES (Institut d’Électronique et des Systèmes) on collaboration with CEA (Commissariat à l’Energie Atomique et aux Energies Alternatives) have developed the first ultrasonic sensor for the application of gas quantity determination that has been tested in a Materials Testing Reactor (MTR). Modern requirements state to labor with the materials that possess stability on its parameters around 350°C in operation temperature. Previous work on PZT components elaboration by screen printing method established the new basis in thick film fabrication and characterization in our laboratory. Our trials on Bismuth Titanate ceramics showed the difficulties related to high electrical conductivity of fabricated samples that postponed further research on this material. Among piezoceramics, the requirements on finding an alternative solution on ceramics that might be easily polarized and fabricated by screen printing approach were resolved by the fabrication of thick film from Sodium Bismuth Titanate (NBT) piezoelectric powder. This material exhibits high Curie temperature, relatively good piezoelectric and coupling coefficients, and it stands to be a good solution for the anticipated application. In this paper, we present NBT thick film fabrication by screen printing, characterization of piezoelectric, dielectric properties and material parameters studies in dependence of temperature. Relatively high resistivity in the range of 1.1013 Ohm.cm for fabricated thick film is explained by Aurivillius structure in which a-and b-layers form perovskite structure between oxides of c-layer. Main results of this study are presented and discussed in terms of feasibility for an application to a new sensor device operating at high temperature level (400°). Piezoelectric parameters enhancement and loss reduction at elevated temperatures are envisaged to be optimized. Further sensor development and test in MTR are expected to be realized in the near future.
15

Kassambara, Hamidou, and Paul Kleene. "La traction animale à l’Office du Niger au Mali : du colonat au désengagement de l’Etat." Revue d’élevage et de médecine vétérinaire des pays tropicaux 57, no. 3-4 (March 1, 2004): 167. http://dx.doi.org/10.19182/remvt.9887.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’Office du Niger a commencé son exploitation au début des années 1930 par la traction bovine. La grande mécanisation, introduite à partir de 1949, s’est soldée par un échec dix ans plus tard. Depuis, la traction animale est redevenue la principale source d’énergie pour le travail du sol et le transport. Jusqu’au début des années 1980, les systèmes de production étaient basés sur des techniques extensives, conduisant à des rendements moyens en paddy qui ne dépassaient que rarement 2 t/ha. A partir de 1982, une nouvelle dynamique dans les activités de l’Office du Niger s’est instaurée. La traction animale s’est fortement développée, grâce à de nouvelles facilités de crédit, du matériel mieux adapté fabriqué sur place et des services vétérinaires adéquats. Les rendements moyens en paddy sont passés à 4-6 t/ha, en fonction du type d’aménagement. La restructuration de l’Office du Niger, intervenue en 1994, a vu la suppression de la division d’élevage, les services vétérinaires étant privatisés. La fabrication et la maintenance du matériel sont désormais assurées par un réseau de forgerons. Les fonctions d’approvisionnement en matériel agricole et en boeufs de labour sont à la charge des paysans. Suite au fort endettement des organisations paysannes, les crédits matériels et boeufs ont été supprimés, ce qui rend l’accès à l’équipement difficile. Des retards dans l’exécution du calendrier agricole sont constatés dus à la mauvaise condition alimentaire et sanitaire des boeufs en début de campagne. Pour y remédier, le projet Urdoc (Unité de recherche développement observatoire de changement) a mis au point et testé un ensemble de mesures permettant d’améliorer l’état des animaux de trait. Leur diffusion se fait dans le cadre de l’approche « conseil à l’exploitation familiale ». La pérennisation de l’impact positif de la traction animale dépendra de l’engagement des différents acteurs au renforcement des services d’appui : conseil, crédit, entretien/fabrication de matériel et soins vétérinaires.
16

THEBAULT, R. G., and H. DE ROCHAMBEAU. "Le lapin angora : production et amelioration génétique." INRAE Productions Animales 2, no. 2 (May 10, 1989): 145–54. http://dx.doi.org/10.20870/productions-animales.1989.2.2.4409.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article présente l’état actuel des connaissances sur les niveaux de productivité quantitatifs et qualitatifs des lapins angora, et plus précisément dans les deux grandes souches sélectionnées : allemande et française. Dans leur système de production respectif, la souche allemande a un potentiel de production quantitative supérieure d’environ 20 % à la souche française, mais cette dernière produit un angora spécial nécessaire à la fabrication de fil fleuffé de haut de gamme. Les paramètres zootechniques sont précisés : quantité individuelle de poil produit, qualité laineuse ou jarreuse de la toison : proportion de poils à colonnes médullaires multiples (jarres) (critère allemand), homogénéité, structure, dureté (critères français). Les systèmes de production diffèrent selon les souches au niveau de l’habitat, mais surtout par le procédé de récolte de la toison : tonte pour les allemands, épilation pour les français. Les facteurs de variations de la production de poil sont le sexe, le numéro de récolte, l’intervalle entre récoltes, la saison, la reproduction. Les paramètres démographiques : taux de renouvellement, taux de fécondité ... doivent être améliorés, en France, par la modification de pratiques d’élevage et l’utilisation de l’insémination artificielle. Un nouveau programme d’amélioration génétique de la souche française est en place, dans le but d’améliorer la productivité, au point de vue quantitatif, tout en conservant sa spécificité qualitative (angora « jarreux »).
17

Turner, Nancy J. "" Dans une hotte ". L'importance de la vannerie dans l'économie des peuples chasseurs-pêcheurs-cueilleurs du Nord-Ouest de l'Amérique du Nord." Anthropologie et Sociétés 20, no. 3 (September 10, 2003): 55–84. http://dx.doi.org/10.7202/015434ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé « Dans une hotte » L'importance de la vannerie dans l'économie des peuples chasseurs-pêcheurs-cueilleurs du Nord-Ouest de l'Amérique du Nord. Pour saisir l'importance de la vannerie dans la culture et l'économie traditionnelles des peuples du Nord-Ouest de l'Amérique du Nord, l'auteure passe par l'histoire, la diversité des paniers et de leurs usages, l'investissement en temps, énergie et savoirs nécessaires à leur production. Principaux contenants pour la récolte, le transport et l'entreposage des aliments, les paniers font partie intégrante des systèmes saisonniers de production alimentaire de la région. Le travail de la vannerie revient traditionnellement aux femmes. Ce travail renvoie à un système complexe de savoirs qui non seulement comprend les techniques et l'art de la fabrication, mais s'étend aux aspects écologiques et culturels de la cueillette et de la transformation des matières premières. Au cours des ans, la production et la fonction des paniers ont changé, mais le travail de vannerie subsiste. Les vannières d'aujourd'hui remarquent toutefois l'impact de l'exploitation industrielle des forêts et des activités humaines sur les végétaux qu'elles utilisent. L'auteure propose des pistes de recherche sur les aspects écologiques et économiques de la vannerie. Mots clés : Turner, écologie, Amérindiens, chasseurs-cueilleurs, pêcheurs, artisanat, vannerie
18

Lepesant, Gilles. "Transition énergétique et politique industrielle : un tournant européen ?" L'Europe en Formation 397, no. 2 (December 11, 2023): 37–54. http://dx.doi.org/10.3917/eufor.397.0037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La transformation des systèmes énergétiques en cours se lit dans les territoires européens à la faveur notamment des parcs éoliens et solaires déployés. L’industrie manufacturière montant en puissance, les sites de fabrication des équipements deviennent également des marqueurs dans l’espace de la transition énergétique. Comme en écho aux notions développées dans la littérature sur la géographie industrielle, des écosystèmes territoriaux se créent et des pôles émergent, susceptibles à terme d’amorcer une recomposition de la géographie économique européenne . Dans plusieurs technologies afférentes à la transition énergétique, la Chine a néanmoins acquis une suprématie qui lui assure de bénéficier des retombées des politiques mises en œuvre aux États-Unis comme en Europe pour atteindre la neutralité climatique. En réaction, l ’Inflation Reduction Act adopté en 2022 et le Plan industriel du Pacte vert adopté en 2023 énoncent deux visions différentes de la politique industrielle souhaitable dans un tel contexte. Quels sont les principes et les enjeux des choix effectués aux États-Unis et en Europe ? Quels impacts peuvent en être escomptés pour la géographie industrielle de l’UE ? Après un bilan des retombées industrielles de la transition énergétique pour l’UE, cette contribution confronte les stratégies industrielles et américaines mises en œuvre en 2022 et en 2023 et discute les retombées qui peuvent en être attendues .
19

Danthu, Pascal, Eric Penot, Karen Mahafaka Ranoarisoa, Jean-Chrysostome Rakotondravelo, Isabelle Michel, Marine Tiollier, Thierry Michels, et al. "Le giroflier de Madagascar : une introduction réussie, un avenir à construire." BOIS & FORETS DES TROPIQUES 320, no. 320 (March 17, 2014): 83. http://dx.doi.org/10.19182/bft2014.320.a20547.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduit à Madagascar au début du 19e siècle, le giroflier est originaire des îles Moluques en Indonésie. Malgré la sensibilité de l’essence aux risques météorologiques, tels les cyclones, et aux attaques d’un parasite local, andretra, et malgré la production variable de clous de girofle d’une année sur l’autre, son adaptation aux conditions écologiques de la côte Est de Madagascar, notamment dans la région d’Ana- lanjirofo, est remarquable. Très vite adoptée par les paysans (certains venus s’installer mais la plupart autochtones), ceux-ci l’ont intégrée dans leurs systèmes de culture en complément aux cultures vivrières (riz, surtout) et de rapport (café et vanille). Aujourd’hui, le marché du clou de girofle est une source de revenus réguliers pour les ménages et leur assure la sécurité ali- mentaire. Le giroflier donne deux produits de grande valeur économique, le clou de girofle, le bouton floral séché, et l’huile essentielle de girofle produite par distillation des feuilles, dont Madagascar est le premier exportateur mondial. Avec la vanille, les produits du giro- flier représentent les premiers produits agri- coles d’exportation, parfois les deuxièmes, de Madagascar. Les clous de girofle s’exportent surtout en Indonésie, où ils entrent dans la fabrication d’une cigarette locale appelée kre- tek. Un petit volume s’exporte vers les pays du nord sous forme d’épice. L’huile essentielle de girofle est distillée dans une multitude d'alam- bics rudimentaires dans toute la région de pro- duction. La qualité de l’huile essentielle dépend de sa teneur en eugénol, molécule mise en œuvre dans de nombreux secteurs éco- nomiques, dont l’industrie des cosmétiques, la pharmaceutique humaine et vétérinaire et l’in- dustrie alimentaire. Le giroflier de Madagascar semble représenter un exemple d’intégration réussie d’une nouvelle culture dans un système de cultures existant. Cependant, les plantations de girofliers vieillissent et les conditions de leur renouvellement ne sont pas pleinement pré- sentes. Alors que le marché du clou de girofle dépend fortement de la demande indoné- sienne, les perspectives sont prometteuses sur le marché mondial des épices et des produits contenant de l’eugénol. De ce fait, les pratiques actuelles et les possibilités d’adaptation et de développement du secteur Malgache de la girofle doivent être étudiées de près pour assu- rer l’équilibre futur entre les marchés et les besoins des paysans en termes de gestion de la ressource et de sa valorisation.
20

Leppänen, Anneli. "Improving the Mastery of Work and the Development of the Work Process in Paper Production." Relations industrielles 56, no. 3 (October 22, 2002): 579–609. http://dx.doi.org/10.7202/000083ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Les machines de fabrication du papier sont les plus grandes installations de production en continu au monde et la fabrication de la pâte, en tant que processus de travail, est particulièrement complexe. Le processus de fabrication du papier étant rapide, les conséquences des modifications apportées dans le premier temps de fabrication (partie humide de la machine), notamment au niveau de la concentration de la masse ou du réglage de la tête de la machine, n’apparaissent souvent que dans les paramètres de qualité du papier parvenus dans la « partie sèche » de la machine. Par conséquent, la fabrication du papier ne repose pas sur un ouvrier isolé, mais bien sur un groupe d’ouvriers. Tous ceux qui travaillent sur une machine et qui surveillent le processus au moyen des dispositifs informatiques du système de fonctionnement automatisé doivent émettre des hypothèses quant à l’état du processus et des actions à entreprendre. Ils doivent également communiquer aux autres membres du groupe leurs observations, leurs actions ou leurs décisions. Les retards sont fréquents et à l’occasion, il peut s’écouler plusieurs heures avant que les effets d’une modification dans les paramètres se manifestent. Les équipes doivent donc pouvoir compter sur des moyens efficaces pour se transmettre l’information et, conséquemment, avoir une même compréhension des concepts de la fabrication du papier. Les pratiques visant à créer et à améliorer les compétences professionnelles dans les moulins à papier ont beaucoup changé et plusieurs problèmes associés à des pratiques de formation inadéquates ont été constatés. Des programmes ont été élaborés dans le but de supporter l’amélioration de la maîtrise du processus de travail des ouvriers et de permettre le développement du processus de travail lui-même. Jusqu’à maintenant, la méthodologie a été appliquée sur environ 15 des 100 machines de fabrication du papier en Finlande. Les programmes de développement sont basés sur l’analyse des processus de production et du travail. L’analyse de ces processus nécessite la prise en compte des éléments de l’activité humaine au travail, des outils et de la division du travail. De plus, les modes d’action de l’équipe de travail dans différentes situations, la coopération des sujets à l’intérieur du processus de travail et des tâches y étant associées comme la maintenance ou le contrôle de la qualité sont également analysés. Pour y arriver, les chercheurs définissent des catégories ou identifient des questions clés en construisant des modèles. Ces catégories sont basées sur des analyses préliminaires du processus de travail de même que sur des entrevues et des observations avec le travailleur en activité. Lors de l’élaboration du programme, les participants doivent procéder à une analyse approfondie des processus de production et du travail. Les équipes doivent verbaliser et élaborer les différents modèles pouvant rendre compte de chacune des parties constituant le procédé de travail. Au cours de ce processus, les équipes apprennent à utiliser les connaissances disponibles dans le groupe. Les compétences et l’expertise du directeur de la production, de l’ingénieur des procédés de travail, des experts des procédés chimiques, des experts des systèmes de fonctionnement automatisé des opérations et des agents de marketing peuvent également être sollicitées. Quatre sessions de deux jours sont nécessaires pour élaborer le programme. Chaque session doit être tenue deux fois afin de permettre la participation des représentants de tous les quarts de travail de l’organisation. Les résultats des programmes de développement ont été évalués à plusieurs niveaux. La principale cible de ces programmes est d’améliorer la maîtrise conceptuelle du travail. Le premier niveau d’évaluation concerne l’apprentissage par la mesure de la maîtrise conceptuelle du travail et des perturbations possibles de même que le potentiel d’apprentissage que représentent les propositions de développement. Dans chaque programme de développement, plusieurs propositions de développement sont soulevées. Elles sont analysées en fonction des buts visés et du contenu du développement proposé. Les connexions entre la maîtrise objective et subjective du travail, à savoir l’évaluation que les ouvriers font de leur travail et le bien-être exprimé, et leur développement durant le programme ont aussi été étudiés. Ces connexions sont utilisées pour évaluer les conséquences du programme de développement sur les métacognitions traitant avec les facteurs des réactions subjectives, comme la satisfaction ou le stress au travail. Dans cet article, les résultats de deux études complémentaires concernant les programmes de développement sont abordés. Ils révèlent que la maîtrise conceptuelle du processus de fabrication du papier peut être considérablement améliorée à l’aide d’un programme de développement basé sur une analyse systématique et un modelage du processus de travail. Les résultats indiquent également que l’analyse du processus actuel de travail est un moyen adéquat pour favoriser son développement. En effet, dans chacune des études considérées, plus de cent propositions ont été formulées pour améliorer le processus de travail. Les propositions de développement portent autant sur le développement technique que sur la coopération entre les différents groupes de professionnels. Elles touchent donc le processus de travail en entier. De plus, elles représentent les besoins actuels de développement dans le processus de travail, en plus d’être des sources d’information importantes pour débuter des actions de développement. Les propositions de développement ont également été analysées du point de vue du potentiel d’apprentissage qu’elles représentent. La majorité des propositions visent essentiellement le développement du processus de production technique, c’est-à-dire une simple adaptation au contexte. De telles propositions représentent uniquement le niveau inférieur d’ap-prentissage. Cependant, les propositions visant à améliorer les modes d’action de l’équipe ou à augmenter la maîtrise cognitive du processus indiquent que les participants considèrent leur propre activité comme un objet de développement. Le besoin de comprendre le processus de travail et ses lois a clairement augmenté, démontrant ainsi une certaine augmentation de la motivation à travailler dans le nouveau contexte. Cette étude a également voulu vérifier si le bien-être au travail nécessite des caractéristiques de travail positives ainsi qu’une bonne maîtrise conceptuelle du processus de travail. Les rapports présumés ont émergé seulement à la suite du programme de développement. En effet, après le programme, un haut niveau de maîtrise des perturbations pouvant survenir en cours de production a été associé à la satisfaction. Dans l’analyse de régression, 72 % de la variance de la satisfaction au travail était expliquée par la maîtrise de ces perturbations de la production ainsi que par une évaluation positive du défi au travail et une attitude active face au développement du travail. Le programme de développement a semblé réorganiser les bases d’évaluation des sujets, spécialement en regard avec leurs qualifications actuelles et leurs évaluations subjectives. Les participants ont appris à évaluer les relations entre leurs propres compétences et les besoins découlant du processus de travail, indiquant ainsi que leur métacognitions du processus de travail se sont améliorées. L’émergence des connexions entre la maîtrise du processus de travail et la satisfaction suite au programme suggère que les qualifications professionnelles peuvent être une source de bien-être dans une organisation qui accorde de l’importance aux compétences et qui le démontre notamment par l’adoption continue du développement du processus de travail et de la maîtrise de ce processus en tant que caractéristique organisationnelle. Les résultats concernant les programmes de développement ou la formation au niveau organisationnel sont rares. La seconde étude considérée dans cet article se concentre sur les expériences de plusieurs fabricants de papier expérimentés devant maintenant travailler sur une nouvelle ligne de production compte tenu d’un déclin important de la productivité de la vieille ligne de production. Suite au programme, les ouvriers étant toujours affectés à la vieille ligne de production possédaient une maîtrise conceptuelle similaire à ceux qui ont été affectés à la nouvelle ligne de production et qui ont participé à une formation. De plus, la quantité et la qualité de la production sur la vieille ligne se sont grandement améliorée. De nos jours, la maîtrise du travail ou encore les connaissances reliées au travail sont considérées comme des préalables nécessaires au succès organisationnel. Les principes didactiques appliqués dans les programmes de développement sont devenus de plus en plus fréquents dans les pratiques de formation dans les écoles et dans les universités, mais elles sont encore rares dans les ateliers. L’application de ces principes devrait cependant supporter les organisations dans leur apprentissage par leurs propres activités.
21

BROCHARD, M., K. DUHEN, and D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"." INRAE Productions Animales 27, no. 4 (October 21, 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
22

Dominique, Richard. "L'ethnohistoire de la Moyenne-Côte-Nord." Articles 17, no. 2 (April 12, 2005): 189–220. http://dx.doi.org/10.7202/055714ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En 1972, le projet de recherche « Ethnographie de la Côte-Nord du Saint-Laurent» place à l'intérieur de sa problématique générale un volet intitulé: l'ethnohistoire. Soucieuse de ne pas limiter les résultats de ses recherches à des moules d'analyse déjà établis et intéressée à illustrer constamment la conceptualisation des gens de la Moyenne-Côte-Nord, l'équipe de recherche perçoit comme complémentaire l'analyse de la science populaire utilisée par les témoins qui vivent les mêmes faits qu'elle étudie sous un angle expérimental. L'ethnohistoire de la Moyenne-Côte-Nord représente une facette de cette complémentarité. Afin de bien situer cette intention, une mise en place des principales tendances en cours en ethnohistoire s'avère utile. Auparavant, deux remarques importantes se posent au point de départ puisqu'elles clarifient les prémisses de l'ethnohistoire. 1. L'utilisation de l'histoire par l'anthropologie suscite beaucoup de discussions et cela depuis les origines de l'anthropologie. L'ethnohistoire ne se greffe pas à cette problématique. L'ethnohistoire ne représente pas le champ privilégié où l'utilisation et la perception de l'histoire que les anthropologues ont mis de l'avant à travers les différents courants anthropologiques se manifestent. 2. Ce premier point tient surtout au fait que l'ethnohistoire se conçoit comme un ensemble de méthodes, de techniques. Elle ne s'étiquette pas comme une discipline. L'ethnohistoire s'intègre aux différents courants théoriques en anthropologie et s'utilise selon les questions théoriques jugées importantes par les différentes écoles. Il n'y a pas de théories ethnohistoriques indépendantes des autres théories anthropologiques. Toute discussion au sujet de la relation histoire-anthropologie se situe au niveau théorique et non méthodologique; l'ethnohistoire ne peut fournir d'éléments pertinents. Trois tendances se concrétisent et fournissent des résultats différents, selon l'appartenance théorique aux écoles anthropologiques. L'histoire spécifique, l'ethnographie historique (ethnohistory) et l'ethnohistoire (folk history) constituent présentement ces trois options. L'histoire spécifique. Cette tendance se préoccupe surtout de situer des traits culturels spécifiques à l'intérieur d'un contexte. Tout en utilisant et recherchant des dates, des lieux et des événements précis, les chercheurs essaient ici de mettre en relief un modèle de diffusion et de transformation d'un trait culturel particulier. L'étude des variantes des mythes et dçs légendes par Franz Boas et Edward Sapir chez les Amérindiens de la Côte-Nord-Ouest du Pacifique constitue un exemple de cette tendance. L'utilisation des données archéologiques, linguistiques, physiques et des études de diffusion culturelle reflète bien la préoccupation du courant diffusionniste en anthropologie. L'ethnographie historique. Souvent retrouvée sous l'appellation ethnohistoire (ethnohistory), cette tendance s'identifie aux anthropologues américains (Fenton, Ewers, De Laguna, Lurie, etc.) qui reconstruisent historiquement des cultures amérindiennes à l'aide des archives, des traditions orales et des données recueillies sur le terrain. La recherche se traduit par l'application de la perspective historique aux sociétés qui ne sont pas incluses dans l'histoire occidentale. De par leur formation, ces chercheurs veulent comprendre, expliquer des phénomènes culturels. L'historiographie d'une ethnie ne répond pas à cette demande. Le choix des données historiques doit s'effectuer en fonction des questions théoriques en anthropologie. Ainsi la mise en relation des travaux de terrain avec les sources historiques dans un cadre théorique peut produire des éléments importants pour la construction d'un modèle explicatif du changement. Cette orientation a pris forme, vers 1950, au contact des études plus générales d'acculturation et de relations interethniques, des systèmes politiques et économiques. L'ethnographie historique repose sur des fondements plus théoriques et généralisants afin de permettre une comparaison entre différents groupes étudiés. Sous cet angle, elle se présente comme une méthode intégrée à d'autres pour répondre aux questions théoriques soulevées en anthropologie. Cette approche exige une nomenclature conceptuelle qui favorise un niveau de généralisation formelle. Une de ses premières fonctions se concrétise par l'élaboration d'un inventaire du matériel existant et par l'orientation subséquente de l'emploi et de la fabrication des autres méthodes. Lorsque la synthèse des différentes données est effectuée, des patterns d'incorporation des groupes ethniques à leur environnement, de changements économiques et politiques, d'acculturation, etc., en ressortent. En somme, l'ethnographie historique se présente comme l'application de la méthode historique et l'utilisation des concepts anthropologiques pour découvrir des pattems d'organisation humaine. L'ethnohistoire (folk history). Le domaine des réflexions et des constructions historiques en cours dans une communauté devient le pôle d'attraction de cette optique. La véracité des faits, la cohérence des événements, les modèles de changement, etc., ne sont pas ici pertinents. C'est plutôt le système logique permettant de réfléchir et de conceptualiser les événements et les comportements qui attire l'attention du chercheur. L'articulation de la recherche s'effectue autour de ce que les gens pensent de leur passé. Vers les années '60, le mot « ethno » se couvre d'une nouvelle signification, à savoir: découvrir comment s'établit le processus de la connaissance chez un peuple. Auparavant, le préfixe « ethno » ne possédait qu'une connotation identificatrice sans pour autant spécifier les bases de l'identité du peuple en question. Théoriquement, chez les culturalistes, la culture ne se conçoit plus comme l'ensemble des comportements humains, l'idéologie, l'histoire, les institutions, les produits matériels, etc., mais bien plus comme le tout de la connaissance humaine.2 Les analyses portent sur la «grammaire de la culture» et par conséquent ne précisent pas les comportements actuels et futurs des individus. Méthodologiquement, les techniques et les propositions théoriques se construisent sous la forme d'une recherche « emic », c'est-à-dire une approche valide que pour une communauté. L'ethnographie historique travaille à la reconstruction historique dans le sens et le découpage qui convient aux critères occidentaux. Elle utilise les archives et les résultats des autres disciplines connexes afin d'écrire une histoire universelle basée sur des découpages préalablement établis. Par contre, l'ethnohistoire démontre la version, la signification et l'explication historique fournies par une communauté. Précisément, elle met en relief les principes régissant la sélection et l'ordre des événements retenus comme significatifs pour une culture. Cette limitation à une seule culture amène pour l'instant le rejet d'une histoire universelle. Dans les sociétés non euro-américaines, les mythes, les légendes, les contes constituent le champ d'investigation privilégié pour l'ethnohistoire.
23

PRUVOT, François C. "Machine-outil - Systèmes de fabrication." Travail des matériaux - Assemblage, April 1997. http://dx.doi.org/10.51257/a-v1-b7123.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Kergosien, Nina, Ludovic Gavérina, Guillemette Ribay, Florence Saffar, Pierre Beauchêne, Olivier Mesnil, and Olivier A. Bareille. "Etude expérimentale d'un système de contrôle santé intégré dans un composite aéronautique pour la détection de défauts par ondes guidées." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28532.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation des méthodes de contrôle nondestructif (CND) est essentielle pour assurer l’intégrité des structures aéronautiques, et les systèmes de contrôle santé intégré des structures (SHM) offrent la possibilité de surveiller en temps réel l’état des structures ou de contrôler des pièces difficiles d’accès. Les matériaux composites, de plus en plus utilisés pour la fabrication des aéronefs, permettent d’intégrer des systèmes SHM directement à coeur du matériau. L’étude se concentre sur l’intégration d’un transducteur piézoélectrique (PZT) à coeur du composite stratifié. L’intégrité du PZT intégré est vérifiée par radiographie X, et sa capacité d’émission et de réception des ondes ultrasonores guidées est vérifiée avec un banc de vibrométrie laser et des essais pitch-catch. Les résultats montrent que l'intégration du PZT à coeur du composite est réussie, et que le système SHM intégré est capable de générer et détecter des ondes ultrasonores guidées. Les paramètres optimaux pour réaliser un essai de détection de défauts sont ensuite déterminés. L’amplitude des ondes de flexion est favorisée par un positionnement du PZT intégré près de la surface du composite. De plus, la fréquence d'excitation optimale du PZT est déterminée pour permettre une détection efficace des défauts. Les résultats ouvrent la voie à l'utilisation de cette méthode pour assurer la surveillance et la maintenance des structures aéronautiques de manière fiable et plus efficace. 1.
25

Dridi, Nassim. "La fabrication d’un « morceau de ville » au temps du néo-libéralisme : processus de production et systèmes d’action à Nabeul." Les Cahiers d’EMAM, May 9, 2022. http://dx.doi.org/10.4000/emam.3955.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Khemis, Sabri Ben. "Mesure térahertz de faibles épaisseurs et détection de défauts aux interfaces pour les revêtements industriels : Avancées et applications." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28483.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Guidée par une recherche continue de performance de production, de qualité de fabrication et de réduction des coûts, l’industrie utilise de manière croissante de nouveaux revêtements techniques, hybrides, multifonctionnels, assurant des fonctions critiques (anticorrosion, protection contre les impacts de foudre, blindage, furtivité…). Ces revêtements sont souvent conçus pour optimiser des propriétés thermiques, électromagnétiques, électriques, mais aussi acoustiques ou mécaniques. Leur complexité peut être plus ou moins importante avec la possibilité d’ajouter des fonctions supplémentaires selon leur cadre d’utilisation, comme par exemple l’utilisation en conditions extrêmes. L’aptitude des technologies THz pour la mesure d’épaisseur de revêtements a déjà été démontrée dans de nombreuses publications et en environnement industriel. Les gammes de mesure, la précision ainsi que la cadence d’acquisition et de traitement sont compatibles avec une grande partie des applications industrielles. Le capteur développé par Terakalis est rapide, sans contact et adapté au travail sur des pièces avec des surfaces complexes et de grandes dimensions. Il permet de déterminer l'épaisseur de chaque couche d’un revêtement multicouche et offre des avantages significatifs par rapport aux techniques existantes. Il est par exemple possible de : • Mesurer des épaisseurs multicouches très fines (à partir de 10μm), sur tous types de substrats (métalliques, composites, céramiques…), de manière rapide pour des cartographies, • Détecter des départs de corrosion sur substrat métallique sous le revêtement, • Détecter des défauts de cohésions entre le revêtement et le substrat (délaminations), • Mesurer les épaisseurs de revêtements même humides (gain de temps, détection plus rapide d’éventuels défauts). Cette technologie représente une rupture majeure pour le contrôle de la qualité et des processus dans l'application de peinture et offre des avantages économiques et environnementaux. Lors de cette communication, TERAKALIS, société spécialisée en fabrication d’équipements THz, présentera le principe des ondes TeraHertz, les principales méthodes de mesure, un état de la maturité des systèmes THz actuels avec leurs performances et limites pour la mesure de faibles épaisseurs et la détection de défauts dans les revêtements fins (<1mm) et aux interfaces. Elle s’appuiera sur des cas applicatifs en guise d’illustration.
27

Wolfe, Mark. "Metadata, Knowledge Management, and Communications." Canadian Journal of Communication 25, no. 4 (April 1, 2000). http://dx.doi.org/10.22230/cjc.2000v25n4a1179.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Abstract: The increased volume and complexity of information available via the Internet and other networked information and communications systems (ICTs) have heightened the need for more efficient and effective ways of searching on-line resources. Technologies involving automated and human-operated software continue to evolve in meeting these needs but process and standardization remain key problems in determining who will do the work and how data and software programming should be structured to maximize the effort. The problem is exacerbated by database and search tool customization, as a widening range of organizations attempts to adapt the "metadata" technologies and approaches to unique information environments and resources. This paper overviews metadata in its current application and development as an Internet technology, and points to its relevance to communications - a field that has yet to embrace the movement thematically. Résumé: La complexité et le volume croissants de l'information disponible sur Internet et autres systèmes d'information et de communication en réseau ont augmenté le besoin de moyens plus efficaces pour faire une recherche en ligne. Les technologies employant des logiciels automatisés et non-automatisés continuent à évoluer pour subvenir à ces besoins, mais la difficulté des procédures et le manque de standardisation présentent des défis dans le choix de travailleurs et dans la programmation de données et de logiciels de manière à maximiser leur rendement. La fabrication sur commande de bases de données et d'outils de recherche exacerbe ce problème. En effet, un éventail croissant d'organisations essaie d'adapter les technologies et approches de la métadonnée à des ressources et environnements informatiques différents. Cet article passe en revue le développement et l'application actuels de la métadonnée en tant que technologie d'Internet, et souligne sa pertinence pour les communications - un domaine qui jusqu'à présent n'a pas élaboré la thématique de ce mouvement.
28

Antonini, Thierry. "Contrôle automatisé de matériaux hétérogènes par imagerie TeraHertz." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28524.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les matériaux hétérogènes sont utilisés dans l’industrie notamment pour alléger les structures ou renforcer certaines propriétés mécaniques ou chimiques propres à chacun des matériaux combinés tout en visant l’optimisation des cycles de production. Ils peuvent être déclinés sous la forme d’assemblages collés ou soudés ou sous forme de composites. Ils répondent à des enjeux de plus en plus élevés dans des secteurs exigeants comme l’aérospatial, la défense, les transports ou l’énergie. En raison de la complexité de leurs procédés de fabrication et d’un retour d’expérience limité sur ces matériaux en exploitation, ces derniers nécessitent des moyens de contrôle avancés permettant de détecter leurs défauts internes ou d’évaluer les propriétés internes qui pourraient notamment affecter leurs performances que ce soit au stade de la production ou en cours d’exploitation. Les matériaux assemblés peuvent être affectés par différents types de défaut, cohésif ou adhésif, tels que des porosités dans la colle, des défauts de polymérisation, des mauvaises transformations de la matière chauffée ou encore des décollements. Pour les matériaux composites, dans le cadre de leur production, il s’agit notamment de défauts d’imprégnation, de défauts d’alignement ou d’orientation des fibres alors qu’en cours d’exploitation, plutôt de délaminations ou de perte d’épaisseur. De ce fait, la possibilité d’apporter des garanties supplémentaires sur les performances de ces matériaux en s’appuyant sur un contrôle de leur volume intérieur, suscite un intérêt grandissant pour les techniques de contrôle non destructif et rapide pour qualifier 100% des produits en production et de suivre le vieillissement de ces matériaux en exploitation. Dans ce cadre, la technologie d’imagerie THz, méthode de contrôle non destructif rapide, sans contact et portative, est une solution prometteuse. Basée sur de nouvelles ondes électromagnétiques, appelées THz, elle associe une capacité de pénétration importante dans la plupart des matériaux diélectriques (i.e. non conducteurs), comme les polymères, élastomères et céramiques, avec une forte sensibilité de détection des hétérogénéités de la matière et de leur anisotropie en proposant une capacité de résolution d’imagerie compatible avec la taille des défauts courants recherchés par le monde industriel. Une technique d’imagerie THz innovante en mode réflexion ou transmission permet notamment de réaliser des cartographies 2D de leurs hétérogénéités en temps réel, compatible avec du contrôle à haute cadence sur ligne de production ou pour des pièces de grandes dimensions. Lors de cette communication, TERAKALIS, société spécialisée dans la fabrication d’équipements THz, présentera le domaine des ondes THz, les principales techniques de mesure, un état de la maturité des systèmes THz actuels avec leurs niveaux de performance et limites pour le contrôle de la qualité des assemblages collés ou soudés et aussi des matériaux composites. Elle s’appuiera sur des cas applicatifs automatisés en guise d’illustration dans le cadre de production ou d’exploitation.
29

Vinck, Dominique. "Science(s)." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les sciences désignent à la fois une série d'activités productrices de connaissances, plus ou moins différenciées d'autres activités sociales, et le résultat de ces activités (descriptions et énoncés de découvertes ou de lois décrivant ou prédisant des phénomènes, théories, méthodes de travail, savoir-faire incorporés, normes de comportement des scientifiques). Pour l'anthropologue, elles sont à la fois un objet de recherche et un cadrage (institutionnel, méthodologique et cognitif) de son travail, ce qui l'engage aussi dans une inévitable réflexivité. Du point de vue des sciences sociales, la science a été appréhendée (tradition mertonienne) comme une institution sociale distincte et exemplaire, dont la finalité est la production de connaissances rationnelles certifiées par les pairs. L'institution se caractérise par une structure normative qui régit le comportement des scientifiques telles que : universalisme, communalisme, désintéressement et scepticisme organisé. Les scientifiques qui agissent conformément à ces normes sont rationnels et humbles, capables de soumettre leurs productions à l’évaluation critique de leurs pairs, d’évaluer sans à priori le travail d’autrui et de s’auto-contrôler. Le respect de ces normes dépend de systèmes de communication (publication dans les revues scientifiques en particulier) et de gratification (nomination, distinction, obtention de fonds) dont l'analyse permet d'expliquer certains phénomènes de stratification au sein de la "communauté" scientifique. Cette approche a toutefois suscité de nombreux débats notamment quant à ce que représentent vraiment ces normes. Des contre-normes (p.ex. « garder le secret ») seraient aussi explicatives des comportements des scientifiques que les normes identifiées par Merton. Par ailleurs, dans leurs discussions internes, les scientifiques mobilisent autant les normes que les contre-normes pour défendre leur position ou affaiblir celle d’un collègue. Et surtout, ces normes seraient de nature idéologique et politique, utilisées par les scientifiques pour légitimer l’autonomie des sciences vis-à-vis du reste de la société, en particulier dans un contexte de montée en puissance de régimes autoritaires menaçant les scientifiques dans différentes régions du monde, comme ce fut le cas au cours du XXe siècle. Dans ce contexte, Merton (1973) a traité l'institution scientifique comme un modèle de démocratie des esprits, à l’abri des influences politiques. Toutefois, mobilisées au profit du développement technico-économique et de l’action publique (parfois militaire), les sciences constituent des sources de pouvoir, notamment en faisant autorité. Les questions de l'orientation et de la mobilisation des sciences fait dès lors l'objet de débats politiques récurrents. Elles soulèvent des questions de légitimité dans la société (sciences au service du progrès, de l'industrie, du prestige des Nations, de l'exploitation de la nature vs de projets de libération ou de résolution des problèmes auxquels le monde est confronté) tandis que leur spécificité a fait l’objet de nombreux débats chez les philosophes. Dans les relations Nords-Suds, elle est parfois traitée comme un enjeu des relations entre pays hégémoniques et non-hégémoniques ou en terme de centre-périphérie. Plus généralement, sa légitimité est questionnée vis-à-vis d'autres savoirs, locaux et indigènes notamment. De même, la fragmentation interne des sciences (prolifération de sous-spécialisations) a conduit les Nations Unies (convention de Rio de 1992) à demander qu'un effort d'intégration soit accompli car les problèmes auxquels sont confrontées les sociétés ont besoin d'une approche globale et non émiettée. Les dynamiques internes des sciences ont également été analysées de diverses autres façons : comme système d’échange de dons (Hagstrom 1965), comme système d’échange capitaliste et de lutte compétitive pour l’accumulation d’un capital symbolique (Bourdieu 1976), comme système politique où chacun tend à développer son domaine en gagnant de la crédibilité, convertible en ressources permettant de poursuivre (Latour, Woolgar 1988). Les relations entre scientifiques, voir aussi avec des non-scientifiques (industriels, médias, gouvernements, mouvements citoyens, communautés paysannes, etc.), constituent des réseaux sociaux dont les caractéristiques (taille, homogénéité / hétérogénéité, structure) expliquent les sciences en tant que phénomène social plus ou moins articulé à d'autres activités des sociétés. Depuis les années 1970, des chercheurs en sciences sociales (anthropologie, sociologie, histoire) ont investi l’étude des sciences en s’inspirant notamment des travaux de l’historien Kuhn (1957) (paradigme) et de l'anthropologie avec pour prétention de rendre compte des contenus (Sociology of Scientific Knowledge, SSK) et des pratiques scientifiques. Les sciences apparurent alors sous un nouveau jour. Les sciences sociales ne se cantonnent dès lors plus à l’examen des conditions sociales de possibilité de la science mais tentent d'expliquer aussi les productions scientifiques (données, théories, concepts) à partir de facteurs sociaux ou à partir des pratiques sociotechniques concrètes. Elles mettent en évidence la flexibilité interprétative des énoncés scientifiques (ni la nature, ni la méthode, ni la logique n’impose de vérité unique aux chercheurs) qui conduit à prendre en compte aussi d'autres facteurs explicatifs, notamment les rapports de forces, les mouvements de société, les traditions de pensée, les savoirs tacites, la nature du rapport au monde et à la nature, et les savoir-faire hérités. Du côté de la sociologie et de l'histoire, des auteurs vont rendre compte de l’action scientifique comme d'une rivalité entre scientifiques pour produire des énoncés de connaissances et les imposer aux autres. Ces scientifiques étant liés à des groupes sociaux, les intérêts de ces derniers orienteraient en partie le choix des objets de recherche, des approches et, par conséquent, les productions scientifiques. Les controverses entre chercheurs conduiraient ceux-ci à renforcer la robustesse de leurs affirmations et constitueraient ainsi un moteur des dynamiques scientifiques. Ces approches conduisent aussi à symétriser les analyses portant sur la constitution des savoirs scientifiques et celles portant sur les autres formes de savoirs, de systèmes de pensées ou de croyances. Des chercheurs britanniques (Bloor 1976 ; Collins 1985) prônent alors des principes de causalité, d'impartialité, de symétrie et de réflexivité dans l'étude des sciences. “Connaissances vraies” et “croyances fausses” devraient être expliquées par les mêmes registres de causalité (relations causales entre des variables sociologiques et contenus de connaissance, production négociée de connaissances consensuelles et clôture des controverses, analyse du discours). A la fin des années 1970, des chercheurs commencent à s’intéresser aux pratiques scientifiques concrètes. Ils observent les processus d’ajustement locaux et contingents et décodent les savoirs tacites incorporés dans les individus, instruments et formes d’organisation. Leurs études rendent compte de la production des faits, des données, des énoncés et des accords entre chercheurs, de l’articulation entre éléments hétérogènes, de la construction collective et négociée des publications. Adoptant des postures héritées de l'anthropologie, ils décrivent les processus de fabrication et de stabilisation des énoncés scientifiques en séjournant longuement au sein de laboratoires où se produisent des savoirs scientifiques. Ainsi, Latour, de retour d'une enquête en Afrique, débarque dans un laboratoire de biochimie réputé ; il cherche à y étudier “la pensée scientifique” en train de se faire et rend compte de l'importance des pratiques d'inscription. Il publie Laboratory Life. The Social Construction of Scientific Facts en 1979 (Latour, Woolgar, 1988). Knorr-Cetina (1981), en Allemagne, Lynch (1985), aux États-Unis, mobilisent l’ethnométhodologie et montrent les productions scientifiques comme des accomplissements pratiques situés. D’autres chercheurs héritiers de l’école pragmatique américaine et de l’interactionnisme symbolique de Chicago rendent aussi compte des productions scientifiques en rendant compte des perspectives des acteurs en présence. L’anthropologue Traweek (1988) étudie le monde des physiciens des particules, de même que d'autres le feront d'autres laboratoires (p.ex. Houdart 2013) ou de lieux de fabrication de connaissances technologiques (Downey 1998 ; Vinck 1999). Soucieux de rendre compte de l'intrication des sciences dans la société, notamment via les processus d'innovation, des chercheurs (Callon 1986 ; Latour 1989) conçoivent une approche (théorie de l’acteur-réseau, analyse des processus de traduction et de construction de réseaux sociotechniques) devant permettre de rendre compte des sciences et techniques en évitant les dichotomies héritées (nature/culture, sujet/objet, notamment). Ils ouvrent ainsi la réflexion sur une nouvelle anthropologie des connaissances.
30

Hervé, Caroline. "Communs." Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.086.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les communs (commons en anglais) peuvent être définis comme un ensemble de ressources physiques, matérielles ou immatérielles que les êtres humains cherchent à exploiter, à gérer ou à protéger pour assurer leur survie biologique, économique, sociale ou encore culturelle. Très à la mode depuis une quarantaine d’années en anthropologie, sociologie, histoire, économie ou encore en philosophie, ce concept a vu son champ d’application s’élargir, ses propositions théoriques s’étoffer et ses analyses se complexifier, tout en perdant progressivement son sens historique. Sortis du champ académique et instrumentalisés par les mouvements de résistance au néolibéralisme, les communs sont désormais au cœur de débats de société. La façon dont cette notion interroge les interactions entre les êtres humains et leur environnement, son intérêt pour éclairer la fabrication du social et sa réutilisation dans le débat public en fait un objet de recherche riche pour l’anthropologie. La définition du concept de communs est une entreprise difficile tant il renvoie à des usages divers. Si certains chercheurs tendent à privilégier, en français, l’usage du pluriel afin de marquer la grande variété des ressources regroupées sous la terminologie de communs, que l’on parle de ressources naturelles, mais également sociales ou intellectuelles, d’autres auteurs insistent sur l’importance d’utiliser le terme au singulier afin de souligner son potentiel théorique et pratique (Hardt et Negri 2012 ; Dardot et Laval 2014). L’origine étymologique du terme commun, construit sur les locutions latines cum et munus, renvoie à une idée centrale, celle de la mise commun ou de la gestion commune de biens, mettant l’accent sur le fait que le commun « implique donc toujours une certaine obligation de réciprocité liée à l’exercice de responsabilités publiques » (Dardot et Laval 2014 : 23). Ces deux aspects, celui de réciprocité et de responsabilité publique, sont au cœur de la définition historique des communs. Les origines du concept renvoient à une pratique de gestion des terres qui était courante dans différentes régions d’Europe avant la fin du Moyen-Âge et qui consistait en la gestion commune de certaines terres par un groupe de personnes ou d’unités familiales pendant une période de temps limitée. Dans certaines circonstances, tout le monde pouvait avoir accès à ces terres, selon des règles d’usage particulières ; dans d’autres cas, leur usage était restreint et contrôlé. Ce fonctionnement communal a progressivement été mis en cause par les autorités publiques et les cercles politiques à partir du milieu du XVIIIe siècle. En l’espace d’un siècle, la plupart des communs en Europe de l’ouest devinrent ainsi des propriétés privées ou publiques (De Moor 2011 : 425). Ceci correspond au phénomène connu des enclosures qui s’est particulièrement développé en Angleterre dans la seconde moitié du XVIIIe siècle, à travers lequel de larges étendues de champs ouverts, connus sous le nom de terrains communaux ou commons, ont progressivement été parcellisés et enclos (Hemmungs Wirtén 2013 : 2), dans un contexte marqué par l’augmentation démographique et l’industrialisation. Ce retour dans l’histoire est important pour comprendre les confusions qui sont apparues lorsque les chercheurs des différentes disciplines ont commencé à s’intéresser plus largement à la question des communs à partir du milieu du XXe siècle. L’une des confusions les plus importantes a été introduite par le biais du travail de Garrett Hardin dans son célèbre article « The Tragedy of the Commons », publié en 1968, dans lequel il explique que les communs sont susceptibles de surexploitation et donc de disparition. Sa thèse principale repose sur l’idée biaisée que les communs historiques étaient accessibles à tous et en tout temps. À la suite de la parution de cet article, les chercheurs ont ainsi commencé à utiliser le terme de communs pour faire référence à toutes formes de ressources utilisées par tous et sans contrôle, ce qui ne correspond pourtant pas à sa définition historique (De Moor 2011 : 425). L’article de Hardin a ouvert de nombreuses recherches portant sur les solutions à mettre en œuvre pour contrer la dégradation des communs. Mais ces travaux sont souvent restés coincés entre deux options : la prise en charge des communs par l’État ou par le marché. C’est dans ce contexte que le travail de la politologue Elinor Ostrom (1990), en proposant une troisième voie, a eu un retentissement important dans le monde académique, et même au-delà. La publication de son livre Governing the Commons constitue une étape essentielle dans les recherches sur la gestion des communs. Non seulement, elle montre que l’exploitation des communs ne mène pas inéluctablement vers leur fin, mais elle explore la diversité des arrangements institutionnels permettant la gestion de ceux-ci, sans pour autant avoir recours à l’État ou à la privatisation. Sa contribution est consacrée en 2009 lorsqu’elle reçoit, en même temps qu’Oliver Williamson, le prix Nobel d’économie pour son analyse de la gouvernance économique et celle des communs. La création de l’International Association for the Study of the Commons en 1989 ou encore la création de l’International Journal of the Commons en 2007, révélateurs d’un engouement scientifique pour la question des communs, permettent la diffusion des théories et des méthodes dans les différentes disciplines et dans la société civile, à tel point que l’étude même des communs comporte aujourd’hui des enjeux politiques, sociaux et même éthiques (Peugeot et Piron 2015). Les travaux d’Elinor Ostrom s’inscrivent dans une démarche résolument interdisciplinaire puisqu’elle utilise des études de cas, des concepts, des modèles et des méthodes issus de différentes sciences sociales, et tout particulièrement de l’anthropologie. Loin de développer une perspective purement institutionnelle, Ostrom s’intéresse en effet avant tout aux stratégies développées par les acteurs sociaux pour gérer des ressources en commun. Elle s’appuie pour cela sur de nombreuses études de cas développées par des anthropologues pour comprendre par exemple les systèmes d’irrigation au Népal, dans les Philippines ou à Los Angeles, la gestion des forêts en Inde, en Asie, en Afrique et en Amérique latine ou encore la pêche côtière en Inde ou au Canada (Acheson 2011 : 320). Même si son usage de l’anthropologie est qualifié de fragmentaire, puisque sortant ces études de cas de leurs contextes politiques ou culturels, ses travaux sont néanmoins reconnus comme une contribution majeure à la discipline anthropologique (Rabinowitz 2010). Outre celle des interactions entre les hommes et leur environnement, les travaux d’Ostrom rejoignent bien d’autres questions intéressant les anthropologues. Ils interrogent directement la gestion des ressources collectives, la nature des liens de coopération et la fabrique des communautés (Rabinowitz 2010 : 104), la production des normes et des règles sociales, ainsi que de la propriété, privée ou publique (Acheson 2011 : 320). Enfin, en montrant le rôle important de la réciprocité dans la plupart des cas de gestion alternative des ressources, les anthropologues ont mis en évidence, à partir de leurs différents terrains, le fait que l’homme n’était pas uniquement animé par une logique économique, mais que le symbolisme était central dans les pratiques d’échange, renvoyant ainsi aux théories sur le don, concept dont les anthropologues ont étudié les multiples formes dans les sociétés humaines. Dans la foulée des propositions théoriques de Hardin et de Ostrom, un véritable engouement s’est manifesté autour de la question de ces communs naturels, en anthropologie et dans les autres disciplines des sciences sociales. Ces travaux ont fourni des modèles inspirant pour d’autres types d’objets de recherche et plus récemment les chercheurs ont commencé à identifier de nouveaux communs (new commons), comme des biens communs sociaux (social commons) qui constituent des ressources sociales ou des services destinés à des groupes sociaux spécifiques, des communs de nature intellectuelle ou encore culturelle incluant des ressources aussi variées que la musique, l’artisanat, les technologies numériques, etc. (Nonini 2006 : 166-167). Certains anthropologues ont même avancé l’idée que les communs peuvent englober des dimensions plus invisibles de la vie sociale relevant du domaine cognitif, corporel ou affectif, comme par exemple chez les Urarina, peuple indigène du Pérou, pour lesquels la notion même de tranquillité doit être l’objet d’un partage ou d’une réciprocité (Walker 2015). L’extension du concept de communs à des domaines aussi divers de la vie sociale explique aujourd’hui la difficulté à en donner une définition uniforme et certaines ambivalences quant à ses usages et ses analyses. De façon plus générale, la naturalisation du discours sur les biens communs a nécessité de s’engager dans une réflexion critique sur cet objet, ce que l’anthropologie a pu prendre en charge à travers sa capacité à mettre en perspective la production du social. Le succès du terme ne s’est en effet pas limité au milieu académique. Dans le contexte des dernières décennies, alors que des corporations, des gouvernements et d’autres types d’institutions politiques, privées ou non-gouvernementales, ont dépossédé certains groupes humains de leurs ressources dans la mouvance de la globalisation néolibérale, des stratégies de résistance et de lutte pour conserver ou retrouver le contrôle sur ces biens se sont développées (Nonini 2006 : 165). Dans le même temps, les propositions théoriques sur les communs ont mis en valeur des alternatives séduisantes face à la mainmise du marché ou de l’État sur ces ressources. Les anthropologues ont ainsi montré que ces luttes ne concernent pas seulement le contrôle des ressources matérielles mais également le contrôle des significations culturelles associées aux communs et aux processus qui les préservent ou les détruisent (Nonini 2006 : 165). Les stratégies et les perspectives antagonistes des différents groupes se disputant les communs sont ainsi devenues des objets de recherche riches pour l’anthropologie. Dans le contexte sud-américain où la surexploitation des ressources naturelles s’impose comme un nouveau paradigme économique, le constat que chacune des deux parties réutilise le concept de biens communs et de communs pour légitimer, d’un côté l’exploitation des ressources naturelles, et de l’autre la lutte contre cette exploitation, rappelle la nécessité de repenser les fondements ontologiques de chacune de ces deux façons de concevoir la relation entre les humains et le monde naturel. Dans ce cadre, les peuples autochtones nous invitent plutôt à penser ces confrontations ontologiques à travers le concept d’« incommuns » ; celui-ci révèlerait plutôt l’existence et la persistance d’une certaine incompatibilité entre différentes façons d’être au monde. En effet, alors que les entreprises extractrices font reposer leurs justifications sur la distinction entre nature et culture, et plus précisément sur le contrôle de la nature par les êtres humains, les peuples autochtones de leur côté se perçoivent en continuité avec le monde naturel, engagé dans une relation réciproque avec lui et dans l’obligation de le protéger (Blaser et De La Cadena 2017 : 186-187).
31

Auger, Reginald, and Allison Bain. "Anthropologie et archéologie." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.030.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les parcours sinueux qu’ont suivis l’anthropologie et l’archéologie en Amérique du Nord depuis une cinquantaine d’années démontrent des intérêts convergents pour la connaissance et l’explication du comportement humain et cela avec des méthodes de recherche de plus en plus divergentes. L’anthropologie qui a émergé des milieux intellectuels aux États-Unis au XIXe siècle avait pour origine l’intérêt pour la compréhension des populations autochtones de l’Amérique; de cet intérêt pour l’humain, se sont développés des outils pour comprendre le comportement qui se cachait derrière le geste posé. Dès le début, l’anthropologue s’intéressait aux comportements et l’archéologue documentait les traces du geste posé. De cette proximité entre l’anthropologie et l’archéologie qui s’est concrétisée par la création du Bureau of American Ethnology à la fin du XIXe siècle, il était naturel de placer la formation en archéologie au sein de départements d’anthropologie dans les universités aux États-Unis et au Canada. Malgré l’apparence initiale d’un champ unifié et d’un terrain partagé entre l’anthropologie et l’archéologie, la pratique s’est transformée pour devenir tout autre au fil des ans. Au milieu du XXe siècle, l’archéologie commence à remettre en question sa relation avec les interprétations fonctionnalistes des anthropologues (Trigger 2006 : 363-372). La première figure à souligner le problème de l’inéquation entre les résultats de la recherche archéologique et la théorie en anthropologie fut Walter Taylor (1948) dans son livre A Study of Archaeology. Taylor, le relativiste, exposa son penchant pour le particularisme historique dans une approche qu’il identifie comme étant conjonctive; pour ce chercheur iconoclaste, l’historiographie comptait pour beaucoup. L’approche conjonctive consistait à établir des corrélations entre différents types de données dans des contextes historiques et culturels spécifiques afin de faire le pont entre des particularités historiques (les collections archéologiques) et des données anthropologiques. La méthodologie qu’il proposait impliquait la vérification d’hypothèses par l’analyse de la composition et de la structure des collections archéologiques. L’objectif central de cette approche visait à mettre de l’avant des études contextuelles détaillées qui permettraient d’adapter des hypothèses générales sur la culture à des données spécifiques. Dans sa formulation de l’approche conjonctive en archéologie et la vérification d’hypothèses, Taylor reconnaissait qu’une réflexion critique était nécessaire puisque l'archéologue travaillait dans le présent. En dépit de la richesse des collections archéologiques et constatant le danger qui planait sur l’archéologie si nous avions continué à publier des listes d’attributs de nos objets au lieu d’interpréter la culture matérielle comme étant la trace du comportement humain, dans un geste de médiation entre l’anthropologie et l’archéologie, Binford (1962) publiait son article portant le titre Archaeology as Anthropology. Comme il le signale dans son introduction son article qui faisait suite à un ouvrage venant d’être publié par Willey et Phillips (1958) où l’on mentionne clairement que l’archéologie américaine « c’est de l’anthropologie ou rien du tout ». Ce geste d’éclat dans une période charnière de l’enseignement de l’archéologie dans les universités nord-américaines allait donner naissance à un nouveau paradigme que l’on appela la New Archaeology aussi connue sous le nom d’archéologie processuelle. Un tel changement de paradigme venait en contradiction avec les pratiques européennes en matière d’archéologie préhistorique, notamment celles de l’École de Bordeaux et de François Bordes, son membre le plus influent, qui avait réussi à imposer sa vision sur le sens de la variabilité des outils en pierre du paléolithique moyen (Bordes 1961; 1984). Dans sa thèse de doctorat intitulée The Bordes-Binford Debate: Transatlantic Interpretive Traditions in Paleolithic Archaeology, Melissa C. Wargo (2009) présente une analyse en profondeur des modes de pensée qui diffèrent entre l’Europe et l’Amérique du Nord. Essentiellement, le raisonnement traditionnel voulait que l’apparition d’une nouvelle culture archéologique (de nouveaux types) puisse signifier la manifestation d’un nouveau groupe de personnes, un groupe ethnique détectable avec les outils de l’archéologie. C’est ce que nous apprenions à la lecture des travaux de François Bordes sur les changements technologiques observés au paléolithique moyen. Lorsque Binford est parvenu à étudier les mêmes collections, il proposa des interprétations toutes autres. Ainsi, alors que pour Bordes, des outils différents représentent des groupes différents; si l’ensemble de l’assemblage ne peut être attribué à un groupe avoisinant, peut-être alors que certains éléments peuvent l’être. Et si de tels parallèles peuvent être établis, l’approche de Bordes a pour corollaire que c’est là le lieu d’origine de la population à l’étude et que nous serions en présence d’une diffusion de traits culturels à partir de la migration d’un groupe ethnique. Pour Binford, la différence dans la composition des assemblages devrait plutôt être interprétée comme étant le résultat d’adaptations; pour ce chercheur, les assemblages archéologiques sont des coffres d’outils adaptés pour une fonction particulière. Nonobstant la grande quantité de statistiques accumulées, Binford, de son propre aveu, admit qu’il fut incapable d’expliquer ce qu’elles signifiaient. En d’autres mots, il avait beaucoup d’information sur le présent mais ne pouvait l’expliquer par manque d’analogie avec le passé. En dépit de ces différences d’opinion, l’utilité de la typologie de Bordes réside dans le fait qu’elle fournissait un langage descriptif; cette typologie a cependant été par la suite rejetée par certains chercheurs qui considéraient que la définition des types de François Bordes était inadéquate parce que trop subjective. Pire encore, Bordes a été accusé d’incorporer dans ses interprétations des hypothèses non vérifiées sur les capacités cognitives des hominidés durant le paléolithique moyen. De nos jours, nos analyses de la technologie visent à remplacer cette approche typologique de Bordes par une méthode s’appuyant sur la combinaison d’attributs dont la description porte davantage sur le comportement. De toute évidence, le débat entre le promoteur de la New Archaeology et la figure de proue de l’archéologie française et son approche taxonomique en pierre a permis de mettre en évidence un malaise profond sur la façon dont le passé devrait être interprété. Ce débat est aussi emblématique de traditions scientifiques différentes entre l’Europe et l’Amérique du Nord. C’est dans ce contexte intellectuel que sont nés des départements d’anthropologie associant l’anthropologie culturelle, l’anthropologie biologique, la linguistique et l’archéologie. Ces quatre champs sont apparus à des moments bien précis de l’histoire des universités nord-américaines mais de nos jours, la réalité de l’anthropologie est devenue beaucoup plus complexe (Bruner 2010). Un étudiant en archéologie peut avoir des besoins de formation en géographie, en histoire, en géologie, en botanique, en biologie, en ethnohistoire, en systèmes d’information géographique, en informatique, etc. alors qu’un étudiant en anthropologie pour atteindre un niveau de compétence élevé pourrait avoir besoin de formation en histoire, en science politique, en sociologie, en art, en littérature, en théorie critique, etc. Malgré que les besoins aient grandement changé depuis la création des départements d’anthropologie, les structures académiques sont demeurées statiques. La protection des départements d’anthropologie dans leur configuration actuelle des quatre champs relève le plus souvent des politiques universitaires. Ainsi, même si les professeurs étaient d’accord qu’il serait intellectuellement plus profitable de scinder ces gros départements, la question de diviser les départements d’anthropologie en unités plus petites qui feraient la promotion de l’interdisciplinarité dans les sciences humaines et sociales n’est pas envisagée dans la plupart des universités nord-américaines (Smith 2011). Au milieu de cette tourmente, se sont développés un certain nombre de départements et de programmes d’archéologie en Amérique du Nord. De là est née une discipline émancipée du joug des structures trop rigides et se donnant un ensemble de méthodes de recherche qui lui étaient propres. La trajectoire conceptuelle empruntée par ceux-ci a permis de remonter au-delà du geste et de la parole en retenant une classe cohérente de concepts explicatifs développés, certes en anthropologie, mais raffinés et adaptés au contact de l’archéologie et d’autres disciplines en sciences humaine et sociales et sciences de la nature. Cette indépendance intellectuelle de l’anthropologie s’est notamment affirmée par des collaborations entre l’archéologie et la philosophie des sciences (Kelly et Hanen 1988; Salmon 1982; Wylie 2002; Wylie et Chapman 2015). La croissance de l’intérêt pour les explications processuelles des données archéologiques chez plusieurs archéologues nord-américains fut motivée par le fait que les néo-évolutionistes en anthropologie mettaient trop l'accent sur les régularités dans les cultures. Les concepts utilisés en archéologie processuelle exerçaient une influence significative sur notre discipline et l’adoption de cette approche théorique était d’autant plus attrayante car les variables proposées se présentaient comme des causes majeures de changements culturels et relativement accessibles à partir des vestiges archéologiques. Cette approche s'intensifia et donna de nouvelles directions aux tendances déjà présentes en archéologie préhistorique. Dans ce changement de paradigme qui donna naissance au courant de la Nouvelle Archéologie en Amérique du Nord et à un moindre degré au Royaume-Uni, l’accent était placé sur la vérification d’hypothèses sur les processus culturels comme outils d’explication du passé. De la position qu’elle occupait comme l’un des quatre sous-champs de l’anthropologie ou encore, de celle de servante de l’histoire, l’archéologie est devenue l’un des plus vastes champs du monde académique (Sabloff 2008 : 28). En plus d’avoir trouvé son ancrage théorique dans les sciences sociales et humaines, l’archéologie, attirée par les techniques et méthodes fraie régulièrement avec les sciences physiques et les sciences de la nature. En se donnant ses propres méthodes de collecte et d’analyse pour l’examen de cultures distinctes et en poursuivant avec des comparaisons interculturelles, la discipline cherchait à mieux comprendre les cultures qui se sont développées à travers le temps et l’espace. Puisque l’objet d’étude de l’archéologie porte sur les traces de groupes humains dans leur environnement naturel et leur univers social, les questions qu’elle se pose sont fondamentales à l’histoire de l’humanité et pour répondre à de telles questions elle s’est dotée de méthodologies d’enquête qui lui sont propres. L’utilisation d’équipements sophistiqués pour déterminer la composition chimique des résidus lipidiques incrustés sur un outil en pierre taillée ou encore, les recherches sur la composition physico-chimique de la pâte d’une céramique sont des techniques visant à répondre à des questions d’ordre anthropologique. Le quand et le comment du passé sont relativement faciles à identifier alors que pour découvrir le pourquoi l’archéologue fait souvent appel à l’analogie ethnographique, une méthodologie issue de l’insatisfaction des archéologues à l’endroit des travaux en anthropologie culturelle (David et Kramer 2001). Une autre méthodologie est celle de l’archéologie expérimentale qui s’intéresse à la fabrication et à l’usage des outils (Tringham 1978), méthode similaires à celle de l’ethnoarchéologie. L’expérimentation à partir d’outils fabriqués par le chercheur et les banques de données provenant d’expérimentations contrôlées servent alors d’éléments de comparaison pour interpréter la forme des assemblages archéologiques (Chabot et al. 2014) est au centre de la méthode préconissée. Le développement de l’ethnoarchéologie durant les années 1970 aurait inspiré Binford (1981) lorsqu’il mit de l’avant l’utilisation de théories de niveau intermédiaire pour établir un lien entre ses données archéologiques et les théories de niveau supérieur sur le comportement. Sa décision semble avoir reposé sur les développements de l’approche ethnoarchéologique et ses propres terrains ethnoarchéologiques chez les Nunamiut de l’Alaska (Binford 1978). D’autres orientations théoriques ont vu le jour au cours des années 1960–1970 et ont fait la distinction entre différentes approches matérialistes par rapport à des schémas évolutionnistes antérieurs. Par exemple, Leslie White (1975) adopta une forme de déterminisme technologique très étroit qui reflétait une croyance en la technologie comme source de progrès social. Julian Steward (1955) envisagea un déterminisme écologique moins restrictif alors que Marvin Harris (1968) y voyait un déterminisme économique encore plus large. Pour ces quelques positivistes le rôle que l’archéologie se devait de jouer était d’expliquer la culture matérielle du passé. Quant à l’archéologue Lewis Binford (1987), il soutenait que l’étude des relations entre le comportement humain et la culture matérielle ne devrait pas être le rôle central de l’archéologie puisque selon lui, les données ne contiendraient aucune information directe sur les relations entre le comportement humain et la culture matérielle. Dorénavant, les données archéologiques se devaient d’être comprises par elles-mêmes, sans avoir recours à des analogies ethnographiques. Cette dernière approche voulait clairement établir de la distance entre l’archéologie, l’anthropologie culturelle, l’ethnologie et peut-être les sciences sociales en général ; son mérite était peut-être, justement, d’éviter les réductionnismes et les analogies rapides entre explications anthropologiques et assemblages archéologiques. Dans la même veine, d’autres remises en question sont apparues durant les années 1980 avec les travaux d’Ian Hodder (1982; 1985) sur la validité des certitudes positivistes qui avaient été le fonds théorique et empirique des adeptes de la New Archaeology. Depuis cette réflexion sur l’essence même de l’archéologie, Hodder a reconnu qu’une position critique est fondamentale face à l’objet d’étude; naquit alors le courant théorique post-processuel en archéologie. Dans son cheminement pour découvrir la signification des vestiges qu’elle étudie, l’archéologie post-processuelle s’appuie sur des études détaillées permettant d’adapter des hypothèses générales sur la culture à des données spécifiques en exploitant la diversité des sources; cette direction du courant post-processuel en archéologie porte le nom d’archéologie contextuelle. Comme tout changement de paradigme apporte avec lui son lot de détracteurs, l’archéologie post-processuelle a été immédiatement accusée d’une trop grande subjectivité interprétative voire, de déconstructionisme. Les autres orientations placées sous le label archéologie post-processuelle incluent : le structuralisme, le néo-marxisme, l’archéologie cognitive, la phénoménologie, et d’autres encore Ainsi l’individu, l’agent ou l’acteur et son intentionnalité devrait être au centre des interprétations dans la théorie post-processuelle. Nous pouvons conclure que l’examen de la relation entre l’anthropologie et l’archéologie en Amérique du Nord a permis de constater que, depuis ses débuts, l’archéologie dans cette région du monde a vécu une liaison relativement tumultueuse avec l’anthropologie. Cette condition, souvent problématique, a vu naître, au Canada d’abord, des groupuscules d’archéologues avec des intérêts divergents qui se sont distanciés des paradigmes qui dominaient les départements d’anthropologie pour former des départements d’archéologie ou des programmes d’archéologie autonomes des programmes d’anthropologie. Sur les chemins empruntés ces nouveaux départements sont entrés en relation avec les départements de sciences naturelles, notamment, la géographie, avec laquelle les archéologues ont partagé un ensemble de concepts et de méthodes. Il en a résulté un enseignement de l’archéologie nettement interdisciplinaire et faisant appel à des méthodes quantitatives pour comprendre la culture matérielle dans son environnement naturel et expliquer son milieu culturel à partir de concepts empruntés aussi bien aux sciences humaines qu’aux sciences naturelles.

До бібліографії