To see the other types of publications on this topic, follow the link: Outil statique.

Journal articles on the topic 'Outil statique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 18 journal articles for your research on the topic 'Outil statique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Parent, Geneviève, Jean-Pierre Guay, and Raymond A. Knight. "Évaluation de la validité prédictive de neuf instruments chez les agresseurs sexuels adultes." Criminologie 42, no. 2 (November 19, 2009): 223–47. http://dx.doi.org/10.7202/038606ar.

Full text
Abstract:
Résumé Un large éventail d’instruments s’offre aux cliniciens pour évaluer le risque que posent les délinquants sexuels. La présente étude vise à comparer la validité prédictive de huit instruments (VRAG, SORAG, RRASOR, Statique-99, Statique-2002, RM2000, MnSOST–R et SVR-20) et un outil de référence (PCL-R) selon quatre types de récidive (nuisance sexuelle, récidive sexuelle, récidive violente non sexuelle et récidive non violente et non sexuelle) et pour trois groupes d’agresseurs sexuels. Les résultats indiquent que ces outils ont une validité prédictive marginale à modeste en ce qui concerne la récidive sexuelle. Cependant, une étude plus détaillée en fonction du type d’agresseurs indique une plus grande efficacité de ces instruments pour la récidive sexuelle chez les agresseurs d’enfants et pour la récidive non sexuelle chez les agresseurs de femmes. Les outils actuariels ne permettent de prédire aucune forme de récidive chez les agresseurs mixtes.
APA, Harvard, Vancouver, ISO, and other styles
2

Kirman, Alan. "La pensée évolutionniste dans la théorie économique néoclassique." Philosophiques 25, no. 2 (August 8, 2007): 219–37. http://dx.doi.org/10.7202/027488ar.

Full text
Abstract:
RÉSUMÉ Cette communication traite de l'utilisation des concepts évolutionnaires en économie. Une approche a été d'utiliser Vidée de révolution comme une vague analogie. Il y a deux exemples de ce type d'approche. Certains; comme Friedman, ont utilisé la notion de sélection naturelle afin de justifier le modèle standard de la théorie économique, celui d'Arrow-Debreu. D'autres ont utilisé l'idée d'évolution comme base à une critique de la nature fermée et statique de ce modèle. Une autre approche a été de prendre l'idée de l'évolution au sérieux, comme cela a été fait en théorie des jeux évolutionnaires. Je suggère que même dans ce cas, le modèle standard est incompatible avec un point de vue évolutionniste et qu'il ne suffit pas d'utiliser l'évolution comme outil pour sélectionner parmi les équilibres statiques. Des modèles économiques compatibles avec une approche évolutionnaire doivent nécessairement être très différents des modèles standards qu 'on utilise aujourd'hui.
APA, Harvard, Vancouver, ISO, and other styles
3

Yao, Marcel Konan, Djedro Clément Akmel, Kouamé Lazare Akpetou, Albert Trokourey, Kouassi Benjamin Yao, and Nogbou Emmanuel Assidjo. "Modélisation de l'évolution spatiotemporelle du phosphore minéral dans une baie lagunaire hypereutrophe tropicale : la baie lagunaire de Tiagba (Côte d'Ivoire)." Revue des sciences de l’eau 30, no. 3 (March 28, 2018): 247–58. http://dx.doi.org/10.7202/1044250ar.

Full text
Abstract:
Ce travail décrit une nouvelle approche de la prédiction de l'évolution spatio-temporelle du phosphore minéral dans les eaux de surface, particulièrement dans la baie lagunaire de Tiagba. L'originalité de cette étude réside dans l'utilisation des réseaux de neurones artificiels, précisément du perceptron multicouche, comme outil de modélisation. Deux approches de l'évolution spatio-temporelle de ce nutriment dans cette baie ont été étudiées : sa modélisation statique et sa modélisation dynamique. Ainsi, il a été utilisé deux bases de 3 966 et 4 627 données respectivement pour sa modélisation statique et sa modélisation dynamique. L'algorithme de Levenberg-Marquardt a été utilisé pour la détermination des poids de connexions lors du développement du perceptron multicouche. Il ressort, des résultats obtenus, que les modèles 5-14-1 et 6-14-2 permettent de prédire à 70,30 % et à environ 70 % respectivement les évolutions statique et dynamique du phosphore minéral dans cette baie lagunaire. Ces modèles, jugés satisfaisant peuvent servir de socle pour d'éventuelles études visant à la réhabilitation et la gestion de cet écosystème aquatique dans le cadre de son développement durable.
APA, Harvard, Vancouver, ISO, and other styles
4

Boudour, Mohamed, and Abdelhafid Hellal. "Développement d'un outil rapide d'évaluation de la sécurité statique des réseaux électriques." Revue internationale de génie électrique 7, no. 5-6 (December 30, 2004): 543–61. http://dx.doi.org/10.3166/rige.7.543-561.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

DÜPPE, Till. "L’histoire du concept d’équilibre en sciences économiques." L'Actualité économique 92, no. 3 (May 30, 2017): 581–94. http://dx.doi.org/10.7202/1040002ar.

Full text
Abstract:
Le concept d’équilibre permet d’identifier le domaine de théorie économique dans la recherche actuelle en économie. Cette place prépondérante a plusieurs origines historiques. Avant même que la notion d’équilibre fasse son apparition, les arguments d’équilibre se retrouvaient dans les écrits du XVIIe siècle sur le commerce. C’est à la fin du XVIIIe siècle qu’il entre dans le vocabulaire des économistes politiques. C’était un concept analogique et surtout normatif se rapportant à l’ordre naturel de l’économie. À la fin du XIXe siècle, il s’enrichit d’une signification analytique, principalement grâce à la différenciation entre équilibre statique et dynamique. Entre les années 1940 et 1960, le concept évolue en notion métathéorique, devenant la pierre angulaire de l’analyse axiomatique de l’équilibre général; cette dernière deviendra le fondement de la modélisation mathématique actuelle. On retrouve également le concept dans la théorie des jeux, où il est le principal outil d’analyse sans être restreint à l’étude des marchés concurrentiels; il permet la formalisation d’environnements institutionnels et d’interactions stratégiques au niveau d’un individu ou d’un groupe. Dans presque tout modèle macroéconomique, la théorie de l’équilibre général reste le point de référence principal.
APA, Harvard, Vancouver, ISO, and other styles
6

Brouillette-Alarie, Sébastien, Jean Proulx, and Massil Benbouriche. "Mieux saisir les outils actuariels : une analyse factorielle de la Statique-99R." Criminologie 46, no. 1 (April 30, 2013): 199–219. http://dx.doi.org/10.7202/1015299ar.

Full text
Abstract:
Une critique couramment formulée à l’encontre des outils actuariels statiques concerne leur incapacité à éclairer l’intervention, au regard de leurs fondements athéoriques. Dans la cadre d’un effort visant à nuancer cette critique, la présente étude a tenté d’identifier les construits théoriques présents dans la Statique-99R, l’échelle actuarielle de prédiction de la récidive des délinquants sexuels la plus utilisée. Une analyse factorielle exploratoire des items de l’instrument en a extrait trois facteurs : la délinquance sexuelle, la délinquance générale et le jeune âge. Une interprétation de ces facteurs en ce qui a trait aux dimensions psychologiques a été proposée : la délinquance sexuelle en tant qu’indicatrice de déviance sexuelle ou de préoccupations sexuelles et la délinquance générale en tant qu’indicatrice de traits antisociaux et/ou de psychopathie. Les limites et les implications pour de futures recherches sont discutées.
APA, Harvard, Vancouver, ISO, and other styles
7

MAKOSSO, Béthuel. "Efficacité et efficience statique et dynamique dans la régulation des télécommunications." L'Actualité économique 92, no. 4 (July 12, 2017): 733–52. http://dx.doi.org/10.7202/1040504ar.

Full text
Abstract:
Cet article se propose de faire un réexamen des facteurs d’inefficacité de la régulation des télécommunications en mettant en avant le rôle de l’opportunisme qui lui est associé et les coûts de transaction qu’elle génère pour les firmes. En effet, bien que la présence d’organes de régulation dans cet environnement soit justifiée par le souci pour les pouvoirs publics de corriger les défaillances de tels marchés, l’évolution rapide de la technologie des télécommunications rend inadaptés les éléments caractéristiques de la régulation dans ce secteur (les objectifs, les outils et le processus décisionnel). Sujette à l’opportunisme et génératrice des coûts de transaction, la régulation des télécommunications, si elle permet d’assurer l’efficience statique au sens où la concurrence qu’elle favorise peut aider à réduire le pouvoir de marché des firmes, et donc à l’accroissement du surplus des consommateurs, elle est cependant loin d’intégrer les aspects inhérents à la dynamique propre du secteur des télécommunications, ceux qui conduiraient à l’efficience dynamique. D’où la nécessité de concevoir un système de régulation optimal intégrant les modèles dynamiques qui puissent concilier efficience statique et efficience dynamique.
APA, Harvard, Vancouver, ISO, and other styles
8

Lussier, Patrick. "Trajectoires criminelles et récidive des délinquants sexuels adultes : l’hypothèse « statique » revue et corrigée." Criminologie 43, no. 2 (April 4, 2011): 269–302. http://dx.doi.org/10.7202/1001778ar.

Full text
Abstract:
De façon générale, l’évaluation du risque repose sur des outils actuariels qui incluent des facteurs statiques ou historiques tels les antécédents criminels. La présente étude réexamine la relation entre les antécédents criminels et la récidive violente/sexuelle en tenant compte de l’aspect dynamique de la carrière criminelle. L’étude pose la question suivante : est-ce que les trajectoires criminelles informent sur les risques de récidive ? L’étude actuelle est basée sur une quasi-population de délinquants sexuels adultes incarcérés dans la province de Québec entre 1994 et 2000. Des analyses de classes latentes ont été réalisées afin d’identifier les trajectoires criminelles violentes/sexuelles. Les analyses de survie indiquent que les trajectoires criminelles informent sur les risques de récidive violente/sexuelle tout en montrant des limites importantes de la prédiction actuarielle.
APA, Harvard, Vancouver, ISO, and other styles
9

Blanchon, David, and Jean-Paul Bravard. "La stabilité des formes fluviales de l’Orange, entre variabilité naturelle et impacts des grands barrages (secteur Boegoeberg-Augrabies, Afrique du Sud)." Géographie physique et Quaternaire 61, no. 1 (March 26, 2009): 21–37. http://dx.doi.org/10.7202/029568ar.

Full text
Abstract:
RésuméLe fleuve Orange (Afrique du Sud) est l’un des systèmes fluviaux les plus aménagés au monde : les barrages hydroélectriques ont modifié le volume d’écoulement du fleuve et son débit solide a diminué depuis les années 1930. Plus encore, dans son cours moyen inférieur (secteur d’Upington), le fleuve a été contraint entre des digues de 5 à 10 m de hauteur, des chenaux secondaires ont été remplis pour permettre le développement agricole et plus de 10 déversoirs de bas niveau ont été construits à travers le chenal. Dans des conditions similaires, des changements géomorphologiques visibles et rapides (incision du chenal, alluvionnement, etc.) ont été enregistrés dans divers systèmes fluviaux en région semi-aride. Pourtant, l’étude de cartes anciennes (des années 1920) et de photographies aériennes (à partir de 1937) montre une stabilité remarquable des formes fluviales, et ce, même à petite échelle : des bancs sableux et des seuils rocheux sont facilement reconnaissables dans le chenal principal. L’objectif de cet article est d’explorer les différentes hypothèses expliquant cette stabilité, en utilisant le concept de discontinuité et la théorie de la catastrophe, et de confronter les résultats avec les travaux récents sur le fleuve Orange. Notre recherche est basée sur le calcul des puissances spécifiques des crues vicennales, la reconnaissance de terrain (entre 2000 et 2003) et le prélèvement de sédiments, en utilisant la méthode de la courbe de Passega. Nous avons également effectué des comparaisons entre les photographies aériennes et les cartes anciennes et les photographies aériennes les plus récentes à l’aide des outils SIG (MapInfo). À micro-échelle, la progression et la destruction des roseaux (Phragmites australisetArundo donax) a été utilisée comme indicateur des changements géomorphologiques du chenal. Les résultats montrent que les concepts de stabilité et d’équilibre, et les changements géomorphologiques fluviaux sont plus complexes qu’une simple comparaison statique.
APA, Harvard, Vancouver, ISO, and other styles
10

Haman, Didier Jean B., Fyetoh W. Fantong, G. Ombolo Auguste Ewodo Mboudou, and Gabriel Messi. "Approche décisionnelle géospatiale et multicritère dans l’identification des zones potentielles de recharge des eaux souterraines : cas du bassin versant du Mayo Bocki au Nord Cameroun." Journal of the Cameroon Academy of Sciences 18, no. 1 (August 16, 2022): 339–56. http://dx.doi.org/10.4314/jcas.v18i1.5.

Full text
Abstract:
La présente étude a été effectuée pour déterminer les zones potentielles de recharge des eaux souterraines. Pour ce faire, la démarche méthodologique était basée sur l’analyse multicritère associée aux techniques géospatiales. Les données utilisées étaient entre autres les images satellitaires, les fonds cartographiques, les données pluviométriques et les niveaux statiques. Ces données ont permis d’exprimer sous forme de carte thématique les facteurs régissant la recharge (pente, drainage, lithologie, fracturation, sol, pluviométrie et occupation du sol). L’analyse de sensibilité par suppression d’un paramètre a permis d’établir l’ordre d’influence suivant : Lit > Sol > AACH > Df > Pl > Pe > Dd > OS. Le croisement de tous ces paramètres après pondération a conduit à l’élaboration de la carte qui montre que les zones à ort potentiel occupent 3 % de la zone d’étude pendant que les zones de faible à faible potentialité sont de l’ordre de 58 % dans le bassin. Les zones à potentialité moyenne quant à elles représentent 39%. Ce support cartographique constitue indéniablement un outil d’aide à la décision pour les gestionnaires de l’eau. This study was carried out to determine potential groundwater recharge areas. To do this, the methodological approach was based on multi-criteria analysis associated with geospatial techniques. The data used were, among others, satellite images, base maps, rainfall data and static levels. These data made it possible to express in the form of a thematic map the factors governing the recharge (slope, drainage, lithology, fracturing, soil, rainfall and land use). The sensitivity analysis by deletion of a parameter made it possible to establish the following order of influence: Lit > Sol > AACH > Df > Pl > Pe > Dd > OS. The crossing of all these parameters after weighting led to the development of the map of potential recharge zones which revealed that the zones with high potential occupy 3% of the study zone while the zones with low to low potentiality are around 58% in the basin. Areas with average potential represent 39%. This cartographic support is undeniably a decision-making tool for water managers.
APA, Harvard, Vancouver, ISO, and other styles
11

AGABRIEL, J. "Avant-propos." INRAE Productions Animales 20, no. 2 (June 7, 2007): 107–8. http://dx.doi.org/10.20870/productions-animales.2007.20.2.3442.

Full text
Abstract:
L’alimentation des ruminants : un problème d’actualitéDans la conduite et la réussite d’un système de production de Ruminants, l’alimentation du troupeau reste un domaine très important qui continue de poser de nombreuses questions à la fois pratiques et théoriques. Pour l’éleveur, les postes récolte des fourrages et des céréales, achats d’aliments et entretien des surfaces fourragères représentent plus de 50 % des charges opérationnelles de son exploitation. Nourrir quotidiennement son troupeau lui impose de faire des choix de types de rations et en amont des choix stratégiques de long terme, sur la conduite de son système fourrager en considérant ses contraintes de milieu naturel, de bâtiments ou de stockage. La gestion de l’alimentation est directement liée à tous les autres choix stratégiques de l’activité d’élevage, le niveau de croissance des jeunes animaux, la reproduction, l’allotement la quantité et la qualité de la production. Pour le chercheur en nutrition animale, les enjeux sont devenus multiples et son positionnement a évolué : la recherche de la production maximale soutenue par l’alimentation a fait place à la volonté d’atteindre un optimum à la fois biologique, technique et économique selon les milieux dans lequel l’élevage est conduit. Il doit faire en sorte que la ration calculée par ses modèles satisfasse les besoins de l’animal selon les objectifs de production de l’éleveur, mais qu’elle participe également au bon état sanitaire et de bien-être du troupeau, qu’elle garantisse la qualité des produits et minimise l’impact défavorable des rejets sur l’environnement. La recherche en nutrition et alimentation des ruminants porte à la fois sur les fourrages, la physiologie digestive et métabolique de l’animal et son comportement alimentaire. En tenant compte de la complexité des mécanismes biologiques, les modèles nutritionnels doivent pouvoir simuler avec le maximum de précisions les flux de matières à travers le tube digestif et les organes sur des pas de temps variables, à la fois de court et de long terme. Cela reste un sujet perpétuellement en évolution qui exige aussi de synthétiser les connaissances sous forme d’outils d’aide à la décision et qui soit capable de présenter la qualité de ces outils et leurs limites d’usage. Une recherche qui se développe avec l’INRALes recherches pour aider à déterminer les choix d’alimentation des animaux en condition de production se sont concrétisées au cours du 20ème siècle. Les systèmes d’alimentation en énergie, azote et minéraux ont été développés en France après 1945. A l’INRA, le département Elevage des Ruminants sous l’impulsion de R. Jarrige avait initié une révision majeure des principes et des unités pratiques de terrain en 1978 en proposant un système énergétique construit sur la base de deux unités fourragères, lait et viande (UFL, UFV), un système des Protéines Digestibles dans l’Intestin (PDI) et des Tables complètes à la fois des besoins des animaux et de la valeur alimentaire des aliments. C’est notamment dans le domaine de la valeur nutritionnelle des fourrages que ces travaux étaient particulièrement riches. Ces «systèmes INRA» avaient alors été complétés par la première ébauche d’un modèle complètement nouveau de prévision de l’ingestion (système des Unités d’Encombrements UE) qui sera fortement remanié et amélioré dix ans plus tard lors de la révision de 1988. Ce nouvel ensemble, prévision de l’ingestion, estimation des besoins nutritionnels, a également permis d’accroître l’offre d’outils pratiques de terrain. En complèment des Tables imprimées, un outil informatique d’accompagnement et de rationnement «INRAtion» a été proposé dès 1992. Celui-ci s’est ensuite enrichi de l’outil de calcul de la prévision de la valeur des aliments «Prevalim;» et tous deux sont devenus des réceptacles appliqués des nouveautés scientifiques concernant les systèmes INRA. Mais, près de vingt ans après le dernier «Livre Rouge de l’Alimentation des bovins, ovins et caprins», une mise à niveau des ouvrages écrits s’imposait également et il est apparu nécessaire de proposer une actualisation des connaissances des principes du rationnement des ruminants. Les travaux des équipes de recherches ont permis de progresser aussi bien sur la caractérisation de la valeur des fourrages et des matières premières, que sur l’estimation des besoins des animaux et des apports nutritionnels recommandés dans des situations très diverses. Au delà des recommandations statiques, focalisées sur l’objectif de satisfaire les besoins, les lois de réponses dynamiques des pratiques alimentaires sont mieux connues et quantifiées. Elles permettent de mieux simuler les conséquences de la diversité des situations. L’objectif de l’ouvrage «Alimentation des bovins, ovins et caprins - Tables INRA 2007», sorti en février aux éditions Quæ, est ainsi de remettre sous la forme connue et largement adoptée par tous les acteurs des filières de l’élevage ruminant ces nouveaux résultats. Des documents complémentairesCependant le niveau scientifique choisi de l’ouvrage récemment paru et sa taille volontairement réduite pour en faire un ouvrage facilement accessible ont contraint les auteurs à aller à l’essentiel, les frustrant sans aucun doute d’une description et d’une discussion de fond de leurs résultats.En reprenant l’exemple de 1987 où le «livre rouge» publié par INRA Editions était complété par un numéro détaillé du Bulletin CRZVde Theix, nous avons donc décidé de publier un dossier dans la Revue INRA Productions Animales qui complète l’ouvrage de février. Ce dossier regroupe majoritairement des présentations et les explications des choix qui ont prévalu au développement des nouveaux modèles sous-tendus dans les recommandations. Il comporte 5 articles qui éclairent des points clés des innovations introduites en 2007, et qui correspondent soit à des nouveaux modèles mécanistes des fonctions de l’animal, soit à des méthodes de prévision de la valeur des fourrages, soit à des remises en cause plus profondes de l’ensemble apports, besoins comme c’est le cas pour la nutrition minérale.Toutefois, ce dossier n’est pas exhaustif des «nouveautés» du livre 2007. Certaines avaient été déjà publiées, soit dans des revues scientifiques, soit dans des sessions des «Rencontres Recherches Ruminants». Sans aucun doute d’autres viendront encore les compléter par la suite.Ainsi sont étudiés successivement des apports scientifiques sur la valeur des aliments et sur les besoins des animaux :1 - La dégradabilité des protéines dans le rumen (DT) et la digestibilité réelle des protéines alimentaires dans l’intestin grêle (dr). La valeur azotée des fourrages repose sur la bonne estimation de ces deux paramètres, qui sont la clé du calcul du système des protéines digestibles dans l’intestin PDI (article de M.-O. Nozières et al).2 - Les nouvelles valeurs minérales et vitaminiques des aliments. La possibilité de raisonner en éléments phosphore et calcium absorbables apporte de nouvelles précisions et modifie considérablement les quantités recommandées. L’article précise et actualise les Apports Journaliers Recommandés (AJR) d’éléments minéraux majeurs. Les autres minéraux, oligo-éléments et vitamines sont également revus de façon systématique et approfondie (article de F. Meschy et al).3 - De nouvelles équations statistiques de prévision de la digestibilité de la Matière Organique (dMO) des fourrages par la méthode pepsine-cellulase établies sur une banque de données couvrant une gamme plus importante de fourrages et de modes de conservation. La valeur énergétique des fourrages dépend en effet étroitement de la digestibilité de leur matière organique. Son estimation sur le terrain peut se faire à partir de méthodes de laboratoire comme la digestibilité pepsine-cellulase, utilisée en France depuis plus de vingt ans. Cette méthode est proposée pour sa bonne précision (article de J. Aufrère et al).4 - La composition du gain de poids chez des femelles adultes en période de finition qui permet de calculer ensuite directement le besoin en énergie et en protéines de l’animal. Ce modèle est suffisamment souple pour proposer un besoin face à un objectif de croissance donné, mais il propose aussi un niveau de croissance pour une ration d’un niveau énergétique donné. Ce nouveau modèle a été spécifiquement développé pour tenir compte de la très grande variabilité des situations pratiques rencontrées : la race, l’âge, le format, l’état d’engraissement initial et la vitesse du gain attendu (article de F. Garcia et J. Agabriel).5 - La capacité d’ingestion d’aliments par les vaches laitières au cours de leur lactation complète. Ce tout nouveau modèle s’adapte à tous types de vaches primipares, multipares et propose le nouveau concept de «lait potentiel» pour mieux décrire cette capacité d’ingestion. Ce concept est nécessaire pour répondre aux diverses stratégies des éleveurs dans la conduite de leurs animaux et qui ne souhaitent pas nécessairement les mener à leur maximum de production. Le modèle tient en effet compte de l’état initial de la vache au vêlage et des modifications d’état corporel qui accompagnent obligatoirement la conduite de la lactation (article de P. Faverdin et al).La Rédaction de la Revue a estimé judicieux de publier dans ce même numéro d’INRA Productions Animales, un travail très récent sur la teneur en matière grasse du lait de vache et sa prévision, qui pourra dans les années à venir se traduire concrètement dans les outils d’accompagnement de nos recommandations (article de Rulquin et al).A l’occasion de la publication de ce dossier, nous voulons plus particulièrement remercier tous les participants des Unités et Installations Expérimentales de l’INRA sans qui ces résultats ne seraient pas, ainsi que tout le personnel des Unités de Recherches qui ont participé dans les laboratoires ou derrière leurs écrans : l’Unité de Recherches sur les Herbivores (URH) de Clermont-Ferrand-Theix, l’Unité Mixte de Recherches sur la Production Laitière (UMR PL) de Rennes, l’Unité Mixte de Recherches Physiologie et Nutrition Animale (UMR PNA) de Paris, l’Unité Mixte de Recherches sur les Ruminants en Région Chaude (UMR ERRC) de Montpellier.
APA, Harvard, Vancouver, ISO, and other styles
12

Norrenberg, Michelle, and Olivier Lheureux. "La tomographie par impédance électrique : un outil précieux pour le clinicien." Médecine Intensive Réanimation, August 12, 2020. http://dx.doi.org/10.37051/mir-00023.

Full text
Abstract:
La tomographie par impédance électrique (TIE) est une technique d’imagerie non invasive, facilement utilisable au chevet du patient qui permet d’obtenir une évaluation dynamique de la ventilation pulmonaire ainsi qu’une analyse fonctionnelle de régions pulmonaires distinctes. Les variations d’impédance sont mesurées en appliquant un courant alternatif de faible intensité (5mA, 50-70 Hz) au travers d’électrodes placées sur une ceinture positionnée au niveau de la cage thoracique du patient. Les images reconstruites à l’écran sont soit statiques soit dynamiques et représentent la distribution de conductivité à un instant donné ou la variation de la distribution de conductivité entre deux instants. Elles permettent au clinicien d’apprécier en temps réel le degré d’homogénéité de la ventilation et de détecter d’éventuelles asynchronies ventilatoires. Pratiquement, la TIE permet de quantifier les variations régionales d’impédance pulmonaire en fin d’expiration qui seraient en étroit rapport avec les variations de volume de fin d’expiration.Elle offre également la possibilité de mesurer la variation d’impédance à chaque cycle respiratoire, la compliance régionale du système respiratoire, d’évaluer les zones de collapsus, d’atélectasies ou de surdistension, de calculer le centre de ventilation ou encore l’indice de retard régional de ventilation. Elle permet donc de surveiller la ventilation en temps réel et en continu et d’apprécier les répercussions de différents réglages de la ventilation mécanique (titration de la PEEP…) ou de manœuvres à visée thérapeutique sur la ventilation régionale.
APA, Harvard, Vancouver, ISO, and other styles
13

Bouzahzah, Hassan, Mostafa Benzaazoua, Bruno Bussière, and Benoit Plante. "Revue de littérature détaillée sur les tests statiques et les essais cinétiques comme outils de prédiction du drainage minier acide." Déchets, sciences et techniques, no. 66 (2014). http://dx.doi.org/10.4267/dechets-sciences-techniques.340.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Nguimfack-Ndongmo, J., A. Muluh Fombu, L. Sonfack, R. Kuaté-Fochie, G. Kenné, and F. Lamnabhi-Lagarrigue. "Challenges of mastering the energy sector and sustainable solutions for development in Africa." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 30 - 2019 - MADEV... (June 8, 2019). http://dx.doi.org/10.46298/arima.4269.

Full text
Abstract:
International audience The African continent is currently experiencing a period of sustained economic and population growth that requires massive investment in the energy sector to effectively meet the energy needs in the context of sustainable development. At the same time, COP21 agreements now call all the states to use clean energy. Yet a great energy potential is available, but the electrification rate of the continent currently accounts for only 3% of the world's energy production. Also, the demand for both quality and quantity energy requires the mastery of applied mathematical tools to efficiently solve problems arising in the energy system. In this article, the major problems affecting the energy sector in Africa are identified, some solutions to the challenges are recalled and some new ones are proposed, with emphasis given to applied mathematics tools as well as energy policy. As case studied, a new control strategy of Static Synchronous Series Compensator (SSSC) devices-which are modern power quality Flexible Alternating Current Transmission Systems (FACTS)-is proposed for Power Flow Control. Le continent africain connait actuellement une période de croissance économique et dé-mographique soutenue qui requiert un investissement massif dans le secteur de l'énergie en vue d'un développement durable. Dans le même temps, les accords de la COP21 interpellent désor-mais les états à recourir aux énergies propres. Malgré son potentiel énergétique énorme, le taux d'électrification en Afrique reste très faible (3%) notamment au sud du sahara. D'autre part, la de-mande d'énergie en qualité et en quantité nécessite un recours aux outils mathématiques modernes pour résoudre les problèmes des réseaux électriques. Dans cet article, les principaux problèmes af-fectant le secteur de l'énergie en Afrique sont identifiés, certaines solutions aux défis de la maîtrise de ce secteur sont rappelées et de nouvelles solutions sont proposées, en mettant l'accent sur les outils de mathématiques appliquées ainsi que sur la politique énergétique. A titre d'illustration des nouvelles solutions mathématiques, une nouvelle stratégie de contrôle du compensateur statique, synchrone et série (SSSC) qui fait partie des systèmes modernes et flexible de transmission du courant alternatif (FACTS) est proposée pour le contrôle du flux de puissance.
APA, Harvard, Vancouver, ISO, and other styles
15

Dalmora, André, Alexandre Imperiale, Sébastien Imperiale, and Philippe Moireau. "Solveur numérique générique pour la modélisation de l'influence des contraintes mécaniques sur la propagation des ondes guidées pour les applications SHM." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28536.

Full text
Abstract:
L'évaluation de l'intégrité des structures est un aspect important des exigences de sécurité dans les applications industrielles de pointe, comme par exemple l’aéronautique et le nucléaire. Le Structural Health Monitoring (SHM) propose d'utiliser des capteurs et des unités de traitement du signal in situ pour surveiller l’état d’une structure. Les ondes ultrasonores guidées constituent l'un des moyens de mettre en oeuvre les systèmes SHM. Les performances d’une solution SHM sont affectées par les conditions opérationnelles et en particulier les contraintes mécaniques. Un exemple typique est celui des charges opérationnelles induisant de grandes déformations et par conséquent des contraintes internes qui entraînent des changements dans la propagation des ondes. Il est donc important que la modélisation de la propagation des ondes prenne en compte ces phénomènes pour l’interprétation des signaux, la démonstration de performance et la conception des systèmes. L'objectif de notre travail est de proposer un modèle, et les méthodes numériques correspondantes, pour la propagation d’ondes élastiques dans un milieu précontraint. Comme les structures considérées sont généralement minces, nous utilisons une formulation de coque pour la mécanique non linéaire pour résoudre le problème quasi-statique, représentant les effets du chargement de la structure. Le déplacement calculé est ensuite transmis à un solveur éléments finis spectraux (SFEM) pour résoudre le problème élastodynamique linéarisé dans le domaine temporel. Au-delà de la modélisation directe nous visons à utiliser ces outils dans les boucles d'inversion pour la reconstruction de la contrainte mécanique à partir de mesures ultrasonores. Le modèle s’applique de la même façon à des configurations SHM ou à des configurations d’END et il a pour vocation d’enrichir la plateforme CIVA.
APA, Harvard, Vancouver, ISO, and other styles
16

Mazouz, Sarah. "Intersectionnalité." Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.111.

Full text
Abstract:
Notion aujourd’hui incontournable tant se sont multipliés les travaux scientifiques qui s’y réfèrent et les politiques publiques ou les recommandations internationales qui s’en réclament, l’intersectionnalité est d’abord l’héritière des débats portés dans un contexte militant par les féministes nord-américaines – plus particulièrement les féministes africaines-américaines et le courant black feminist. Dans sa prise de position de 1977, le Combahee River Collective critique en effet le « biais blanc de classe moyenne » du féminisme. Il introduit alors la question de la représentation politique de celles pour lesquelles la domination subie articule plusieurs rapports de pouvoir. Il pointe par conséquent le fait que les femmes blanches qui sont alors leaders dans les groupes féministes occupent en fait une position de domination. De même, la critique black feminist va mettre en lumière comment les hommes noirs sont également en position de dominants dans les mouvements antiracistes. En d’autres termes, être femme et noire induit une domination subie autre que celle éprouvée par les femmes blanches ou par les hommes noirs. C’est dans cette perspective de complexification de l’analyse des rapports de pouvoir que Kimberlé W. Crenshaw (1989) forge, en juriste, la notion d’intersectionnalité. L’enjeu est alors de rompre avec une lecture strictement arithmétique de la domination qui la conçoit comme l’addition systématique des facteurs d’oppression. Crenshaw suit en cela également ce que les New Slavery Studies ont pu montrer pour les sociétés plantocratiques : l’articulation de la race, du genre et de la classe ou du statut produisent une reconfiguration de la domination qui ne s’appréhende pas seulement comme une addition de handicaps pour les femmes ou comme un renforcement du patriarcat en faveur des hommes (Davis 1981, Carby 1982, Fox-Genovese 1988). La démarche de Crenshaw va donc consister à interroger la non-représentation de celles qui sont soumises à des formes plurielles et croisées de domination dans les catégories de l’action publique. Par exemple, en utilisant la catégorie générique de « femme », les politiques de lutte contre les violences domestiques occultent la situation spécifique des femmes racialisées. Elle montre ainsi comment ces catégories participent à la reproduction des rapports de pouvoir en favorisant les membres des groupes dominants mais aussi, et peut-être surtout, en contribuant à l’occultation des expériences d’oppression situées à l’intersection de plusieurs principes de hiérarchisation. D’ailleurs, ce que Crenshaw met en lumière à partir d’une analyse des catégories de l’action publique relève de phénomènes similaires à ce que la tradition francophone matérialiste a thématisé sous les concepts de consubstantialité ou d’imbrication – c’est-à-dire que le genre, la race, la classe ou encore l’âge et la catégorie de sexualité se déploient de manière liée en se renforçant ou en s’euphémisant (Kergoat 1978, 2001 et 2012 ; Galerand et Kergoat 2014). Deux textes sont ici fondateurs pour saisir la notion d’intersectionnalité. Le premier paraît en 1989 et s’intitule « Demarginalizing the Intersection of Race and Sex. A Black Feminist Critique of Antidiscrimination Doctrine, Feminist Theory and Antiracist Politics ». Inscrit explicitement dans l’héritage des théoriciennes du Black feminism comme Gloria T. Hull, Barbara Smith ou Bell Hooks, il en revendique la démarche radicalement contre-hégémonique en l’appliquant au raisonnement juridique. Son argument est le suivant : « les femmes noires sont parfois exclues de la théorie féministe et du discours antiraciste parce que l’une comme l’autre sont élaborés sur un ensemble d’expériences séparées qui ne reflète pas de manière précise les interactions qui existent entre la race et le genre » (1989 : 140 ; nous traduisons). Les discours et les pratiques militantes ou politiques qui ont pour but l’émancipation sont donc aussi en bonne partie aveugles aux rapports de pouvoir qu’ils (re)produisent en ne prenant pas en compte celles qui font une expérience de la domination à l’intersection de ces deux catégories. Le second, « Mapping the Margins : Intersectionality, Identity Politics, and Violence Against Women of Color » paraît deux ans plus tard, en 1991. Crenshaw y développe son analyse des mouvements sociaux et de la manière dont ils affirment des identités univoques et dominantes. Mais elle fonde ici sa critique en pointant l’essentialisme des catégories de l’action publique sur lesquelles s’appuient les politiques de l’identité promues par ces mouvements. En prenant le cas des violences conjugales que subissent les Africaines-Américaine, elle montre qu’elles se trouvent au croisement du racisme et du sexisme et que, dans la majorité des cas, elles ne sont pas prises en compte par les politiques de l’identité – c’est-à-dire les discours et les programmes qui visent à lutter soit contre le racisme soit contre le sexisme. Ce n’est donc pas tant l’incapacité de ces « Identity politics » à dépasser la différence qui pose problème, comme on aime habituellement à le souligner, mais c’est au contraire précisément parce qu’elles éludent les différences qui traversent le groupe des femmes qu’elles sont problématiques et critiquables. L’auteure pointe ainsi la principale conséquence de cette réification des identités car elle rend impossible la prise en compte de l’intérêt des personnes qui font partie de catégories nullement pensées comme sécantes. Ce texte a joué un rôle crucial dans la réappropriation universitaire de la notion d’intersectionnalité. En reprenant les formes de conceptualisation de l’intersectionnalité propres au Black feminism et plus largement aux mouvements sociaux, il a rendu possible leur traduction théorique et épistémologique suivant trois lignes de réflexion. D’abord, il affirme que l’étude des situations intersectionnelles relève d’une épistémologie du point de vue qui reconnaît le rôle des expériences individuelles – en l’occurrence celles des femmes noires mais plus largement celles d’autres groupes minorisés – comme instrument de production du savoir. On retrouve cette idée dans plusieurs travaux revendiquant une démarche intersectionnelle, comme ceux par exemple de Patricia Hill Collins (2000). Dans The Social construction of Black Feminist Thought, Hill Collins cite la parole de femmes conscientes de ce que leur condition permet de faire et de voir. Elle insiste sur le fait que cette situation est définie par la classe, le genre et la race et qu’elle complexifie par exemple le rapport patronne/aide-ménagère en l’articulant à la division des femmes entre blanches et noires. L’exigence d’un savoir situé en appelle également à une responsabilité de la chercheuse ou du chercheur dont Crenshaw donne une traduction pratique dans les initiatives d’« intersectionnalité en actes » (Intersectionnality in Action) mises en œuvre par les campagnes de l’African American Policy Forum comme #BlackGirlsMatter, #HerDreamDeferred, #SayHerName, #WhyWeCantWait ou #BreakingTheSilence. Ensuite, dès « Mapping the Margins », Crenshaw (1991) insiste sur l’importance de contextualiser l’intersectionnalité et d’en user comme un outil d’analyse dynamique – et non comme « une grande théorie ». Contrairement à certaines critiques qui lui ont été faites sur le caractère abstrait et statique du concept d’intersectionnalité, elle rappelle la nécessité de rapporter l’analyse intersectionnelle au contexte socio-politique et au cadre juridique et légal. Cet effort de contextualisation appelle d’ailleurs à faire preuve de réflexivité sur les usages qui sont faits de la notion d’intersectionnalité tout en prévenant l’effacement possible de l’une de ses dimensions par l’effet de son importation dans un autre contexte national que celui des États-Unis ou plus largement de l’Amérique du Nord (Crenshaw 2016). Ainsi, l’acclimatation de l’intersectionnalité au contexte européen et plus précisément la traduction de cette notion dans des travaux français et francophones ne doivent pas donner lieu à un oubli de la dimension raciale au motif que ce point serait spécifique au contexte états-unien. Il s’agit plutôt de réfléchir à la manière dont race, genre, classe et autres principes de hiérarchisation s’articulent dans des contextes qui ont connu des formes de structuration raciale des rapports sociaux autres que l’esclavage et la ségrégation (Rocca i Escoda, Fassa et Lépinard 2016). Enfin, sans se départir d’une approche juridique, Crenshaw revendique dès son texte de 1991 la plasticité disciplinaire de l’approche intersectionnelle qui s’inscrit d’ailleurs dans la lignée des Women Studies. Parmi les nombreux travaux qui enrichissent l’analyse intersectionnelle sur le plan méthodologique et conceptuel, on peut citer ceux de Candace West et Sarah Fenstermaeker (1995). Ceux-ci s’appuient en effet sur une démarche ethnométhodologique pour saisir à un niveau microsociologique et de manière dynamique l’actualisation des assignations de race, de genre et de classe. Dans cette veine, Julie Bettie (2000) montre pour sa part comment, dans le contexte états-unien, la renégociation de l’identité de classe passe pour des jeunes filles mexicaines par un jeu qui renforce les codes genrés et racialisés. En articulant arguments théoriques et enquêtes empiriques, l’anthropologue colombienne Mara Viveros Vigoya (2017) s’appuie sur le Black Feminism et les épistémologies décoloniales pour interroger la construction des masculinités au croisement de formes plurielles de domination (sociale, raciale et sexuelle). D’autres travaux proposent une complexification de l’approche intersectionnelle opérant un déplacement dans la manière même d’appréhender la notion d’intersectionnalité, qui devient un objet de recherche davantage qu’une méthode (Mazouz 2015). D’autres encore proposent une démarche plus théorique, comme l’atteste par exemple l’ouvrage de Floya Anthias et Nira Yuval-Davis (1992), ou encore celui de Chela Sandoval (2000). Enfin, certaines recherches adoptent une approche réflexive sur les usages de l’approche intersectionnelle, contribuant ainsi à enrichir son épistémologie. C’est le cas par exemple de Sébastien Chauvin et Alexandre Jaunait (2015). Les deux auteurs se demandent tout d’abord si l’intersectionnalité est vouée à faire partie du problème qu’elle décrit. Ils interrogent ensuite le sens épistémologique et politique d’un programme normatif intersectionnel constitué en impératif universel de prise en compte constante de toutes les formes de domination. En ce sens, l’intersectionnalité ne constitue pas tant une théorie unifiée qu’un champ de recherche transnational (Cho, Crenshaw et McCall 2013 ; Roca i Escoda, Fassa et Lépinard 2016 : 11). En témoignent d’ailleurs les débats et les désaccords qui persistent au sein des études féministes sur la manière de rendre opératoire le potentiel heuristique de cette notion. Si son succès lui fait courir le risque de ne servir qu’une fonction d’affichage, le principal défi lancé aux chercheur.e.s est « d’élaborer des méthodes à la fois rebelles et susceptibles d’être reconnues au sein des différentes disciplines » (Crenshaw 2016 : 47) seules à même de conserver la dimension « insurgée » du concept (Cho, Crenshaw et McCall 2013).
APA, Harvard, Vancouver, ISO, and other styles
17

Auger, Reginald, and Allison Bain. "Anthropologie et archéologie." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.030.

Full text
Abstract:
Les parcours sinueux qu’ont suivis l’anthropologie et l’archéologie en Amérique du Nord depuis une cinquantaine d’années démontrent des intérêts convergents pour la connaissance et l’explication du comportement humain et cela avec des méthodes de recherche de plus en plus divergentes. L’anthropologie qui a émergé des milieux intellectuels aux États-Unis au XIXe siècle avait pour origine l’intérêt pour la compréhension des populations autochtones de l’Amérique; de cet intérêt pour l’humain, se sont développés des outils pour comprendre le comportement qui se cachait derrière le geste posé. Dès le début, l’anthropologue s’intéressait aux comportements et l’archéologue documentait les traces du geste posé. De cette proximité entre l’anthropologie et l’archéologie qui s’est concrétisée par la création du Bureau of American Ethnology à la fin du XIXe siècle, il était naturel de placer la formation en archéologie au sein de départements d’anthropologie dans les universités aux États-Unis et au Canada. Malgré l’apparence initiale d’un champ unifié et d’un terrain partagé entre l’anthropologie et l’archéologie, la pratique s’est transformée pour devenir tout autre au fil des ans. Au milieu du XXe siècle, l’archéologie commence à remettre en question sa relation avec les interprétations fonctionnalistes des anthropologues (Trigger 2006 : 363-372). La première figure à souligner le problème de l’inéquation entre les résultats de la recherche archéologique et la théorie en anthropologie fut Walter Taylor (1948) dans son livre A Study of Archaeology. Taylor, le relativiste, exposa son penchant pour le particularisme historique dans une approche qu’il identifie comme étant conjonctive; pour ce chercheur iconoclaste, l’historiographie comptait pour beaucoup. L’approche conjonctive consistait à établir des corrélations entre différents types de données dans des contextes historiques et culturels spécifiques afin de faire le pont entre des particularités historiques (les collections archéologiques) et des données anthropologiques. La méthodologie qu’il proposait impliquait la vérification d’hypothèses par l’analyse de la composition et de la structure des collections archéologiques. L’objectif central de cette approche visait à mettre de l’avant des études contextuelles détaillées qui permettraient d’adapter des hypothèses générales sur la culture à des données spécifiques. Dans sa formulation de l’approche conjonctive en archéologie et la vérification d’hypothèses, Taylor reconnaissait qu’une réflexion critique était nécessaire puisque l'archéologue travaillait dans le présent. En dépit de la richesse des collections archéologiques et constatant le danger qui planait sur l’archéologie si nous avions continué à publier des listes d’attributs de nos objets au lieu d’interpréter la culture matérielle comme étant la trace du comportement humain, dans un geste de médiation entre l’anthropologie et l’archéologie, Binford (1962) publiait son article portant le titre Archaeology as Anthropology. Comme il le signale dans son introduction son article qui faisait suite à un ouvrage venant d’être publié par Willey et Phillips (1958) où l’on mentionne clairement que l’archéologie américaine « c’est de l’anthropologie ou rien du tout ». Ce geste d’éclat dans une période charnière de l’enseignement de l’archéologie dans les universités nord-américaines allait donner naissance à un nouveau paradigme que l’on appela la New Archaeology aussi connue sous le nom d’archéologie processuelle. Un tel changement de paradigme venait en contradiction avec les pratiques européennes en matière d’archéologie préhistorique, notamment celles de l’École de Bordeaux et de François Bordes, son membre le plus influent, qui avait réussi à imposer sa vision sur le sens de la variabilité des outils en pierre du paléolithique moyen (Bordes 1961; 1984). Dans sa thèse de doctorat intitulée The Bordes-Binford Debate: Transatlantic Interpretive Traditions in Paleolithic Archaeology, Melissa C. Wargo (2009) présente une analyse en profondeur des modes de pensée qui diffèrent entre l’Europe et l’Amérique du Nord. Essentiellement, le raisonnement traditionnel voulait que l’apparition d’une nouvelle culture archéologique (de nouveaux types) puisse signifier la manifestation d’un nouveau groupe de personnes, un groupe ethnique détectable avec les outils de l’archéologie. C’est ce que nous apprenions à la lecture des travaux de François Bordes sur les changements technologiques observés au paléolithique moyen. Lorsque Binford est parvenu à étudier les mêmes collections, il proposa des interprétations toutes autres. Ainsi, alors que pour Bordes, des outils différents représentent des groupes différents; si l’ensemble de l’assemblage ne peut être attribué à un groupe avoisinant, peut-être alors que certains éléments peuvent l’être. Et si de tels parallèles peuvent être établis, l’approche de Bordes a pour corollaire que c’est là le lieu d’origine de la population à l’étude et que nous serions en présence d’une diffusion de traits culturels à partir de la migration d’un groupe ethnique. Pour Binford, la différence dans la composition des assemblages devrait plutôt être interprétée comme étant le résultat d’adaptations; pour ce chercheur, les assemblages archéologiques sont des coffres d’outils adaptés pour une fonction particulière. Nonobstant la grande quantité de statistiques accumulées, Binford, de son propre aveu, admit qu’il fut incapable d’expliquer ce qu’elles signifiaient. En d’autres mots, il avait beaucoup d’information sur le présent mais ne pouvait l’expliquer par manque d’analogie avec le passé. En dépit de ces différences d’opinion, l’utilité de la typologie de Bordes réside dans le fait qu’elle fournissait un langage descriptif; cette typologie a cependant été par la suite rejetée par certains chercheurs qui considéraient que la définition des types de François Bordes était inadéquate parce que trop subjective. Pire encore, Bordes a été accusé d’incorporer dans ses interprétations des hypothèses non vérifiées sur les capacités cognitives des hominidés durant le paléolithique moyen. De nos jours, nos analyses de la technologie visent à remplacer cette approche typologique de Bordes par une méthode s’appuyant sur la combinaison d’attributs dont la description porte davantage sur le comportement. De toute évidence, le débat entre le promoteur de la New Archaeology et la figure de proue de l’archéologie française et son approche taxonomique en pierre a permis de mettre en évidence un malaise profond sur la façon dont le passé devrait être interprété. Ce débat est aussi emblématique de traditions scientifiques différentes entre l’Europe et l’Amérique du Nord. C’est dans ce contexte intellectuel que sont nés des départements d’anthropologie associant l’anthropologie culturelle, l’anthropologie biologique, la linguistique et l’archéologie. Ces quatre champs sont apparus à des moments bien précis de l’histoire des universités nord-américaines mais de nos jours, la réalité de l’anthropologie est devenue beaucoup plus complexe (Bruner 2010). Un étudiant en archéologie peut avoir des besoins de formation en géographie, en histoire, en géologie, en botanique, en biologie, en ethnohistoire, en systèmes d’information géographique, en informatique, etc. alors qu’un étudiant en anthropologie pour atteindre un niveau de compétence élevé pourrait avoir besoin de formation en histoire, en science politique, en sociologie, en art, en littérature, en théorie critique, etc. Malgré que les besoins aient grandement changé depuis la création des départements d’anthropologie, les structures académiques sont demeurées statiques. La protection des départements d’anthropologie dans leur configuration actuelle des quatre champs relève le plus souvent des politiques universitaires. Ainsi, même si les professeurs étaient d’accord qu’il serait intellectuellement plus profitable de scinder ces gros départements, la question de diviser les départements d’anthropologie en unités plus petites qui feraient la promotion de l’interdisciplinarité dans les sciences humaines et sociales n’est pas envisagée dans la plupart des universités nord-américaines (Smith 2011). Au milieu de cette tourmente, se sont développés un certain nombre de départements et de programmes d’archéologie en Amérique du Nord. De là est née une discipline émancipée du joug des structures trop rigides et se donnant un ensemble de méthodes de recherche qui lui étaient propres. La trajectoire conceptuelle empruntée par ceux-ci a permis de remonter au-delà du geste et de la parole en retenant une classe cohérente de concepts explicatifs développés, certes en anthropologie, mais raffinés et adaptés au contact de l’archéologie et d’autres disciplines en sciences humaine et sociales et sciences de la nature. Cette indépendance intellectuelle de l’anthropologie s’est notamment affirmée par des collaborations entre l’archéologie et la philosophie des sciences (Kelly et Hanen 1988; Salmon 1982; Wylie 2002; Wylie et Chapman 2015). La croissance de l’intérêt pour les explications processuelles des données archéologiques chez plusieurs archéologues nord-américains fut motivée par le fait que les néo-évolutionistes en anthropologie mettaient trop l'accent sur les régularités dans les cultures. Les concepts utilisés en archéologie processuelle exerçaient une influence significative sur notre discipline et l’adoption de cette approche théorique était d’autant plus attrayante car les variables proposées se présentaient comme des causes majeures de changements culturels et relativement accessibles à partir des vestiges archéologiques. Cette approche s'intensifia et donna de nouvelles directions aux tendances déjà présentes en archéologie préhistorique. Dans ce changement de paradigme qui donna naissance au courant de la Nouvelle Archéologie en Amérique du Nord et à un moindre degré au Royaume-Uni, l’accent était placé sur la vérification d’hypothèses sur les processus culturels comme outils d’explication du passé. De la position qu’elle occupait comme l’un des quatre sous-champs de l’anthropologie ou encore, de celle de servante de l’histoire, l’archéologie est devenue l’un des plus vastes champs du monde académique (Sabloff 2008 : 28). En plus d’avoir trouvé son ancrage théorique dans les sciences sociales et humaines, l’archéologie, attirée par les techniques et méthodes fraie régulièrement avec les sciences physiques et les sciences de la nature. En se donnant ses propres méthodes de collecte et d’analyse pour l’examen de cultures distinctes et en poursuivant avec des comparaisons interculturelles, la discipline cherchait à mieux comprendre les cultures qui se sont développées à travers le temps et l’espace. Puisque l’objet d’étude de l’archéologie porte sur les traces de groupes humains dans leur environnement naturel et leur univers social, les questions qu’elle se pose sont fondamentales à l’histoire de l’humanité et pour répondre à de telles questions elle s’est dotée de méthodologies d’enquête qui lui sont propres. L’utilisation d’équipements sophistiqués pour déterminer la composition chimique des résidus lipidiques incrustés sur un outil en pierre taillée ou encore, les recherches sur la composition physico-chimique de la pâte d’une céramique sont des techniques visant à répondre à des questions d’ordre anthropologique. Le quand et le comment du passé sont relativement faciles à identifier alors que pour découvrir le pourquoi l’archéologue fait souvent appel à l’analogie ethnographique, une méthodologie issue de l’insatisfaction des archéologues à l’endroit des travaux en anthropologie culturelle (David et Kramer 2001). Une autre méthodologie est celle de l’archéologie expérimentale qui s’intéresse à la fabrication et à l’usage des outils (Tringham 1978), méthode similaires à celle de l’ethnoarchéologie. L’expérimentation à partir d’outils fabriqués par le chercheur et les banques de données provenant d’expérimentations contrôlées servent alors d’éléments de comparaison pour interpréter la forme des assemblages archéologiques (Chabot et al. 2014) est au centre de la méthode préconissée. Le développement de l’ethnoarchéologie durant les années 1970 aurait inspiré Binford (1981) lorsqu’il mit de l’avant l’utilisation de théories de niveau intermédiaire pour établir un lien entre ses données archéologiques et les théories de niveau supérieur sur le comportement. Sa décision semble avoir reposé sur les développements de l’approche ethnoarchéologique et ses propres terrains ethnoarchéologiques chez les Nunamiut de l’Alaska (Binford 1978). D’autres orientations théoriques ont vu le jour au cours des années 1960–1970 et ont fait la distinction entre différentes approches matérialistes par rapport à des schémas évolutionnistes antérieurs. Par exemple, Leslie White (1975) adopta une forme de déterminisme technologique très étroit qui reflétait une croyance en la technologie comme source de progrès social. Julian Steward (1955) envisagea un déterminisme écologique moins restrictif alors que Marvin Harris (1968) y voyait un déterminisme économique encore plus large. Pour ces quelques positivistes le rôle que l’archéologie se devait de jouer était d’expliquer la culture matérielle du passé. Quant à l’archéologue Lewis Binford (1987), il soutenait que l’étude des relations entre le comportement humain et la culture matérielle ne devrait pas être le rôle central de l’archéologie puisque selon lui, les données ne contiendraient aucune information directe sur les relations entre le comportement humain et la culture matérielle. Dorénavant, les données archéologiques se devaient d’être comprises par elles-mêmes, sans avoir recours à des analogies ethnographiques. Cette dernière approche voulait clairement établir de la distance entre l’archéologie, l’anthropologie culturelle, l’ethnologie et peut-être les sciences sociales en général ; son mérite était peut-être, justement, d’éviter les réductionnismes et les analogies rapides entre explications anthropologiques et assemblages archéologiques. Dans la même veine, d’autres remises en question sont apparues durant les années 1980 avec les travaux d’Ian Hodder (1982; 1985) sur la validité des certitudes positivistes qui avaient été le fonds théorique et empirique des adeptes de la New Archaeology. Depuis cette réflexion sur l’essence même de l’archéologie, Hodder a reconnu qu’une position critique est fondamentale face à l’objet d’étude; naquit alors le courant théorique post-processuel en archéologie. Dans son cheminement pour découvrir la signification des vestiges qu’elle étudie, l’archéologie post-processuelle s’appuie sur des études détaillées permettant d’adapter des hypothèses générales sur la culture à des données spécifiques en exploitant la diversité des sources; cette direction du courant post-processuel en archéologie porte le nom d’archéologie contextuelle. Comme tout changement de paradigme apporte avec lui son lot de détracteurs, l’archéologie post-processuelle a été immédiatement accusée d’une trop grande subjectivité interprétative voire, de déconstructionisme. Les autres orientations placées sous le label archéologie post-processuelle incluent : le structuralisme, le néo-marxisme, l’archéologie cognitive, la phénoménologie, et d’autres encore Ainsi l’individu, l’agent ou l’acteur et son intentionnalité devrait être au centre des interprétations dans la théorie post-processuelle. Nous pouvons conclure que l’examen de la relation entre l’anthropologie et l’archéologie en Amérique du Nord a permis de constater que, depuis ses débuts, l’archéologie dans cette région du monde a vécu une liaison relativement tumultueuse avec l’anthropologie. Cette condition, souvent problématique, a vu naître, au Canada d’abord, des groupuscules d’archéologues avec des intérêts divergents qui se sont distanciés des paradigmes qui dominaient les départements d’anthropologie pour former des départements d’archéologie ou des programmes d’archéologie autonomes des programmes d’anthropologie. Sur les chemins empruntés ces nouveaux départements sont entrés en relation avec les départements de sciences naturelles, notamment, la géographie, avec laquelle les archéologues ont partagé un ensemble de concepts et de méthodes. Il en a résulté un enseignement de l’archéologie nettement interdisciplinaire et faisant appel à des méthodes quantitatives pour comprendre la culture matérielle dans son environnement naturel et expliquer son milieu culturel à partir de concepts empruntés aussi bien aux sciences humaines qu’aux sciences naturelles.
APA, Harvard, Vancouver, ISO, and other styles
18

Kilani, Mondher. "Culture." Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.121.

Full text
Abstract:
La culture, mot ancien, a une longue histoire et pour les anthropologues, qui n’ont pas envie de l’abandonner, elle garde tout son potentiel heuristique. Du verbe latin colere (cultiver, habiter, coloniser), la culture a immédiatement montré une remarquable versatilité sémantique. Comme Cicéron (106-43 av. J.-C.) l’avait dit, il n’y a pas seulement la culture des champs, il y a aussi la cultura animi : c’est-à-dire la philosophie. Cultura animi est une expression que l’on retrouve également au début de la modernité, chez le philosophe anglais Francis Bacon (1561-1626). Elle devient ensuite « culture de la raison » chez René Descartes (1596-1650) et chez Emmanuel Kant (1724-1804). Mais au XVIIIe siècle, nous assistons à un autre passage, lorsque la culture, en plus des champs, de l’âme et de la raison humaine, commence à s’appliquer également aux coutumes, aux mœurs, aux usages sociaux, comme cela est parfaitement clair chez des auteurs tels que François-Marie Arouet, dit Voltaire (1694-1778), et Johann Gottfried Herder (1744-1803). Nous pourrions nous demander pourquoi ces auteurs ne se sont pas contentés de continuer à utiliser les termes désormais testés de coutumes et de mœurs. Pourquoi ont-ils voulu ajouter la notion de culture? Qu’est-ce que cette notion offrait de plus? Autrement dit, quelle est la différence entre culture et coutume? Dans l’usage de Voltaire et de Herder, la culture est presque toujours singulière, alors que les coutumes sont très souvent plurielles. La culture a donc pour effet d’unifier les coutumes dans un concept unique, en surmontant leur pluralité désordonnée et désorientante : les coutumes sont nombreuses, variables, souvent divergentes et contradictoires (les coutumes d’une population ou d’une période historique s’opposent aux coutumes d’autres sociétés et d’autres périodes), alors que la culture désigne une capacité, une dimension, un niveau unificateur. Dans son Essai sur les mœurs (1756), Voltaire a clairement distingué le plan de la « nature », dont dépend l’unité du genre humain, de celui de la « culture », où les coutumes sont produites avec toute leur variété : « ainsi le fonds est partout le même », tandis que « la culture produit des fruits divers », et les fruits sont précisément les coutumes. Comme on peut le constater, il ne s’agit pas uniquement d’opposer l’uniformité d’une part (la nature) et l’hétérogénéité d’autre part (les coutumes). En regroupant les coutumes, Voltaire suggère également une relation selon laquelle le « fonds » est le terrain biologique, celui de la nature humaine, tandis que la culture indique le traitement de ce terrain et, en même temps, les fruits qui en découlent. Tant qu’on ne parle que de coutumes, on se contente de constater la pluralité et l’hétérogénéité des « fruits ». En introduisant le terme culture, ces fruits sont rassemblés dans une catégorie qui les inclut tous et qui contribue à leur donner un sens, bien au-delà de leur apparente étrangeté et bizarrerie : bien qu’étranges et bizarres, ils sont en réalité le produit d’une activité appliquée au terrain commun à toutes les sociétés humaines. Partout, les êtres humains travaillent et transforment l’environnement dans lequel ils vivent, mais ils travaillent, transforment et cultivent aussi la nature dont ils sont faits. Appliquée aux coutumes, la culture est donc à la fois ce travail continu et les produits qui en découlent. En d’autres termes, nous ne pouvons plus nous contenter d’être frappés par l’étrangeté des coutumes et les attribuer à une condition d’ignorance et aux superstitions : si les coutumes sont une culture, elles doivent être rapportées à un travail effectué partout, mais dont les résultats sont sans aucun doute étranges et hétérogènes. Il s’agit en tout cas d’un travail auquel chaque société est dédiée dans n’importe quel coin du monde. Nous ne voulons pas proposer ici une histoire du concept de culture. Mais après avoir mentionné l’innovation du concept de culture datant du XVIIIe siècle – c’est-à-dire le passage du sens philosophique (cultura animi ou culture de la raison) à un sens anthropologique (coutumes en tant que culture) –, on ne peut oublier que quelques décennies après l’Essai sur les mœurs (1756) de Voltaire, Johann Gottfried Herder, dans son Ideen zur Philosophie der Geschichte der Menschheit (1784-1791), fournit une définition de la culture digne d’être valorisée et soutenue par l’anthropologie deux siècles plus tard. Herder ne se limite pas à étendre la culture (Kultur) bien au-delà de l’Europe des Lumières, au-delà des sociétés de l’écriture (même les habitants de la Terre de Feu « ont des langages et des concepts, des techniques et des arts qu’ils ont appris, comme nous les avons appris nous-mêmes et, par conséquent, eux aussi sont vraiment inculturés »), mais il cherche le sens profond du travail incessant de la Kultur (1991). Pourquoi, partout, aux quatre coins du monde, les humains se consacrent-ils constamment à la formation de leur corps et de leur esprit (Bildung)? La réponse de Herder est dans le concept de l’homme en tant qu’être biologiquement défectueux (Mängelwesen), en tant qu’être qui a besoin de la culture pour se compléter : le but de la culture est précisément de fournir, selon différentes conditions historiques, géographiques et sociales, une quelque forme d’humanité. Selon Herder, la culture est « cette seconde genèse de l’homme qui dure toute sa vie » (1991). La culture est la somme des tentatives, des efforts et des moyens par lesquels les êtres humains « de toutes les conditions et de toutes les sociétés », s’efforcent d’imaginer et de construire leur propre humanité, de quelque manière qu’elle soit comprise (1991). La culture est l’activité anthropo-poïétique continue à laquelle les êtres humains ne peuvent échapper. Tel est, par exemple, le propre du rituel qui réalise la deuxième naissance, la véritable, celle de l’acteur/actrice social/e, comme dans les rites d’initiation ou la construction des rapports sociaux de sexe. La culture correspond aux formes d’humanité que les acteurs sociaux ne cessent de produire. Le but que Herder pensait poursuivre était de rassembler les différentes formes d’humanité en une seule connaissance généralisante, une « chaîne de cultures » qui, du coin du monde qu’est l’Europe des Lumières « s’étend jusqu’au bout de la terre » (1991). On peut soutenir que dans les quelques décennies de la seconde moitié du XVIIIe siècle, on avait déjà posé les bases d’un type de connaissance auquel on allait donner plus tard le nom d’anthropologie culturelle. Parmi ces prémisses, il y avait le nouveau sens du terme culture. Cependant, il faut attendre plus d’un siècle pour que ceux qui allaient être appelés anthropologues reprennent ce concept et en fassent le fondement d’une nouvelle science. La « science de la culture » est en fait le titre du chapitre I de Primitive Culture (1871) d’Edward Burnett Tylor, chapitre qui commence par la définition de la culture connue de tous les anthropologues : « Le mot culture ou civilisation, pris dans son sens ethnographique le plus étendu, désigne ce tout complexe comprenant à la fois les sciences, les croyances, les arts, la morale, les lois, les coutumes et les autres facultés et habitudes acquises par l’homme dans l’état social (Tylor1920). » Dans cette définition, les points suivants peuvent être soulignés : premièrement, la culture est un instrument qui s’applique de manière ethnographique à toute société humaine; deuxièmement, elle intègre une pluralité d’aspects, y compris les coutumes, de manière à former un « ensemble complexe »; troisièmement, les contenus de cet ensemble sont acquis non par des moyens naturels, mais par des relations sociales. Dans cette définition, la distinction – déjà présente chez Voltaire – entre le plan de la nature et le plan de la culture est implicite; mais à présent, le regard se porte avant tout sur la structure interne de la culture, sur les éléments qui la composent et sur la nécessité d’ancrer la culture, détachée de la nature, au niveau de la société. Il initie un processus de formation et de définition d’un savoir qui, grâce au nouveau concept de culture, revendique sa propre autonomie. La première fonction de la culture est en fait de faire voir le territoire réservé à la nouvelle science : un vaste espace qui coïncide avec tous les groupes humains, des communautés les plus restreintes et les plus secrètes aux sociétés qui ont dominé le monde au cours des derniers siècles. Mais jusqu’à quel point ce concept est-il fiable, solide et permanent, de sorte qu’il puisse servir de fondement au nouveau savoir anthropologique? On pourrait dire que les anthropologues se distinguent les uns des autres sur la base des stratégies qu’ils adoptent pour rendre le concept de culture plus fiable, pour le renforcer en le couplant avec d’autres concepts, ou, au contraire, pour s’en éloigner en se réfugiant derrière d’autres notions ou d’autres points de vue considérés plus sûrs. La culture a été un concept novateur et prometteur, mais elle s’est aussi révélée perfide et dérangeante. On doit réfléchir aux deux dimensions de la culture auxquelles nous avons déjà fait allusion: le travail continu et les produits qui en découlent. Les anthropologues ont longtemps privilégié les produits, à commencer par les objets matériels, artistiques ou artisanaux : les vitrines des musées, avec leur signification en matière de description et de classification, ont suggéré un moyen de représenter les cultures, et cela même lorsque les anthropologues se sont détachés des musées pour étudier les groupes humains en « plein air », directement sur le terrain. Quelles étaient, dans ce contexte, les coutumes, sinon les « produits » de la culture sur le plan comportemental et mental? Et lorsque la notion de coutume a commencé à décliner, entraînant avec elle le sens d’un savoir dépassé, la notion de modèle – les modèles de culture – a dominé la scène. Saisir des modèles dans n’importe quel domaine de la vie sociale – de la parenté à la politique, de la religion au droit, de l’économie à l’art, etc. – ne correspondait-il pas à une stratégie visant à construire, dans un but descriptif et analytique, quelque chose de solide, de répétitif et de socialement répandu, bref, un système capable de se reproduire dans le temps? Ce faisant, on continuait à privilégier les produits avec leur continuité et leur lisibilité au détriment du travail continu et obscur de la culture, de son flux presque insaisissable et imprévisible. Nous pensons par exemple à la quantité incroyable et chaotique de gestes, mots, idées, émotions qui se succèdent, se chevauchent, se croisent et se mélangent dans chaque moment de la vie individuelle et collective. Le sentiment que les produits toujours statiques et achevés de la culture priment sur sa partie la plus significative et la plus dynamique (une sorte de matière ou d’énergie obscure), devient un facteur de frustration et de perturbation pour l’entreprise anthropologique. À cet égard, les anthropologues ont adopté plusieurs voies de sortie, notamment : la tendance à réifier la culture, ce qui lui confère une solidité presque ontologique (c’est le cas d’Alfred L. Kroeber 1952); l’intention de réduire sa portée et de l’ancrer ainsi dans une réalité plus cohérente et permanente, telle que pourrait être la structure sociale dans ses diverses articulations (Alfred Radcliffe-Brown 1968 et plus largement l’anthropologie sociale); la tentative de capturer dans les manifestations apparemment plus libres et arbitraires de la culture, que peuvent être les mythes, l’action de structures mentales d’un ordre psycho-biologique (Claude Lévi-Strauss 1958 et 1973 et plus largement le structuralisme). Plus récemment, la méfiance envers la culture a pris la forme même de son refus, souvent motivé par une clef politique. Comment continuer à s’appuyer sur la culture, si elle assume désormais le rôle de discrimination autrefois confié à la race? Plus la culture devient un terme d’usage social et politique, identifié ou mélangé à celui d’identité et se substituant à celui de race, plus des anthropologues ont décrété son caractère fallacieux et ont pensé à libérer la pensée anthropologique de cet instrument devenu trop dangereux et encombrant. Lila Abu-Lughod écrit en 1991 un essai intitulé Against Culture et les critiques du concept de culture refont surface dans le texte d’Adam Kuper, Culture, 1998 et 1999. Mais si l’anthropologie doit se priver de ce concept, par quoi le remplacera-t-elle? Est-il suffisant de se contenter de « pratiques » et de « discours » qu’Abu-Lughod a puisés chez Michel Foucault (1966)? C’est une chose de critiquer certains usages de la notion de culture, tels que ceux qui tendent à la confondre avec l’identité, c’en est une autre d’accepter le défi que ce concept présente à la fois par son caractère fluide et manipulable, et par les expansions fertiles dont il est capable. Par « pratique » et « discours », réussirons-nous, par exemple, à suivre l’expansion de la culture vers l’étude du comportement animal et à réaliser que nous ne pouvons plus restreindre la « science de la culture » dans les limites de l’humanité (Lestel 2003)? Presque dans le sens opposé, la culture jette également les bases de la recherche ethnographique au sein des communautés scientifiques, une enquête absolument décisive pour une anthropologie qui veut se présenter comme une étude du monde contemporain (Latour et Woolgar 1979). Et quel autre concept que celui de culture pourrait indiquer de manière appropriée le « tout complexe » (complex whole) de la culture globale (Hamilton 2016)? Qu’est-ce que l’Anthropocène, sinon une vaste et immense culture qui, au lieu d’être circonscrite aux limites de l’humanité, est devenue une nouvelle ère géologique (Zalasiewicz et al. 2017)? Bref, la « science de la culture », formulée en 1871 par Edward Tylor, se développe énormément aujourd’hui : la culture est l’utilisation de la brindille comme outil de capture des termites par le chimpanzé, de même qu’elle correspond aux robots qui assistent les malades, aux satellites artificiels qui tournent autour de la Terre ou aux sondes envoyées dans le plus profond des espaces cosmiques. Ces expansions de la culture sont sans aucun doute des sources de désorientation. Au lieu de se retirer et de renoncer à la culture, les anthropologues culturels devraient accepter ce grand défi épistémologique, en poursuivant les ramifications de cette notion ancienne, mais encore vitale, dynamique et troublante.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography