Siga este enlace para ver otros tipos de publicaciones sobre el tema: Apprentissage de données et de connaissance humaine.

Artículos de revistas sobre el tema "Apprentissage de données et de connaissance humaine"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 35 mejores artículos de revistas para su investigación sobre el tema "Apprentissage de données et de connaissance humaine".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore artículos de revistas sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Valsecchi, Alessandro. "« Nemo intrat in celum nisi per philosophiam ». Jean Scot Érigène sur la nature et la connaissance humaine". Les Études philosophiques N° 149, n.º 2 (24 de mayo de 2024): 3–25. http://dx.doi.org/10.3917/leph.242.0003.

Texto completo
Resumen
Cet article approfondit les limites, l’origine et les possibilités de la connaissance humaine à l’intérieur du système philosophique de Jean Scot Érigène. Nous soutenons la thèse suivante : la nature humaine est douée d’une puissance épistémique illimitée, étant capable de comprendre l’existence de Dieu par la seule étude physique, sans s’appuyer forcément sur la révélation écrite. Chez Érigène, la Bible et la cosmologie offrent à l’homme les mêmes données théophaniques. La nature humaine se présente alors comme la racine de la connaissance et de l’être, puisque c’est dans la compréhension par l’homme que les choses trouvent leur véritable substance. Ce cadre se trouve brisé par le péché originel, qui empêche un accès direct à la vérité et oblige l’homme à employer les instruments interprétatifs du monde sensible : la science physique et la science exégétique. Ces deux disciplines obligent les hommes à travailler respectivement l’univers et la sainte Écriture pour en déceler les connaissances cachées. Mais cet effort intellectuel est récompensé. Faisant preuve d’un fort optimisme épistémique, Jean Scot Érigène établit que l’accès aux données sensibles rend la connaissance humaine supérieure à toute autre, permettant ainsi le salut de la nature humaine. Ce n’est que par la philosophie, pratique accessible à tout individu, que l’homme accède à son bonheur final.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

RENAUD, Jean. "Un an au Québec. La compétence linguistique et l’accès à un premier emploi". Sociologie et sociétés 24, n.º 2 (30 de septiembre de 2002): 131–42. http://dx.doi.org/10.7202/001623ar.

Texto completo
Resumen
Résumé La connaissance de la ou des langues du pays hôte est une des toutes premières variables qui viennent spontanément à l'esprit lorsqu'on recherche les facteurs facilitant l'établissement des immigrants. Par ailleurs, la littérature sociologique montre plutôt le contraire : la connaissance de la langue n'améliore pas le positionnement des immigrants sur le marché du travail. Pour contester cette conclusion peut-être trop hâtive, l'article présente une analyse directe de cette hypothèse sur une cohorte de nouveaux immigrants (qui sont le plus susceptibles de mettre en évidence le rôle de la connaissance de la langue), dans un contexte bilingue (Montréal, Canada) (contexte rendant plus visibles les orientations linguistiques) avec des données et une méthode d'analyse dynamiques (à long terme, presque tous les immigrants vont avoir une connaissance fonctionnelle de la langue; il faut donc tenir compte du temps où se fait l'apprentissage). L'analyse ne permet pas de rejeter les acquis de la littérature : ni la connaissance des langues ni leur apprentissage pendant l'établissement n'ont d'impact sur la vitesse d'accès au premier emploi. Elle met cependant en évidence le rôle de la prise de contact avec les réseaux sociaux structurés autour de la division linguistique de la société québécoise. L'analyse est réalisée à l'aide de régressions de survie semi-paramétriques. Les données proviennent d'une enquête sur l'établissement des nouveaux immigrants qui ont été admis à l'été et l'automne 1989 et qui résidaient dans la grande région de Montréal au moment de la première vague d'entrevues un an plus tard.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

BESNIER, Jean-Baptiste, Frédéric CHERQUI, Gilles CHUZEVILLE y Aurélie LAPLANCHE. "Amélioration de la connaissance patrimoniale des réseaux d’assainissement de la métropole de Lyon". TSM 12 2023, TSM 12 2023 (20 de diciembre de 2023): 169–77. http://dx.doi.org/10.36904/tsm/202312169.

Texto completo
Resumen
La métropole de Lyon s’est fixé pour objectif de reconstituer l’ensemble des dates de pose et des matériaux des conduites d’assainissement de son patrimoine. Cette communication présente les résultats de plusieurs années de travail soutenues par l’agence de l’eau Rhône Méditerranée Corse. Pour la reconstitution, deux axes de recherches sont privilégiés, ils sont inspirés des résultats du projet de recherche Hireau. Le premier axe porte sur l’implémentation de méthodes statistiques (apprentissage machine) pour reconstituer les informations manquantes à partir de données connues sur le patrimoine. L’approche a été adaptée au jeu de données lyonnais et fournit des estimations des dates de pose et des matériaux des réseaux d’assainissement. Un travail d’optimisation a ensuite permis d’améliorer la prédiction grâce à une augmentation de la précision et du rappel (proportion d’éléments correctement retournés parmi ceux qui existent) pour le matériau, et une réduction de la plage d’estimation pour la date de pose. Le deuxième axe porte sur l’utilisation de connaissances provenant de sources multiples. L’exploitation des données supplémentaires, comme les rapports d’inspections télévisées, permet d’obtenir directement le matériau de la conduite. La création de scripts de propagation d’information sous contrainte par parcours de graphes a également permis de renseigner des années de poses manquantes. Nous proposons dans cette communication de rendre compte des démarches mises en œuvre, et des résultats obtenus. L’objectif étant d’inciter d’autres collectivités à obtenir ces informations essentielles pour la gestion de leur patrimoine.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Savadogo, Madi, Philippe Koné, Laibané Dieudonné Dahourou, Rosine Manishimwe, Adama Sow, Lalé Nébié, Nicolas Antoine-Moussiaux, Bernard Doulkom y Rianatou Bada-Alambedji. "Epidémiologie de la rage et connaissance, attitudes et pratiques des communautés au Burkina Faso". Revue d’élevage et de médecine vétérinaire des pays tropicaux 73, n.º 2 (29 de junio de 2020): 133–40. http://dx.doi.org/10.19182/remvt.31863.

Texto completo
Resumen
La rage est une zoonose endémique dans les pays en développement et compte parmi les pathologies virales les plus virulentes et mortelles. Elle constitue une menace pour la sante publique et animale au Burkina Faso. La présente étude transversale a été conduite pour décrire l’épidémiologie de la rage et les connaissances, attitudes et pratiques (CAP) des populations à Ouagadougou. Elle a consisté en une collecte de données auprès des ménages et des structures techniques impliquées dans la prévention, le contrôle et la surveillance de la rage humaine et animale. L’enquête CAP a été réalisée auprès de 616 ménages. Elle a montré que la majorité des participants avaient entendu parler de la rage humaine (80,7 %) et animale (94,6 %), savaient qu’elle se transmettait essentiellement à la suite de morsure par un chien infecte (94,2 %) et étaient capables de citer correctement au moins deux voies de transmission de la maladie (65,7 %). En revanche, seuls 9,7 % des propriétaires de chiens affirmaient être capables de financer la vaccination antirabique canine annuelle. Les principaux canaux d’information et de communication sur la rage utilises par les participants étaient l’entourage (41,8 %), l’école (33,4 %) et les médias (24,8 %). Quant à l’étude épidémiologique rétrospective, qui s’est appuyée sur les documents disponibles au sein des structures nationales, elle a mis en évidence qu’en moyenne 4172 cas de morsures étaient enregistrées chaque année, que seules 31,7 % des personnes mordues avaient bénéficié d’une prophylaxie postexposition complète et que 68 % des animaux testes étaient positifs au virus rabique. Ces études confirment la présence du risque rabique dans le pays et montrent la nécessite de renforcer l’éducation et l’engagement communautaire ainsi qu’une étroite collaboration entre les secteurs de la santé animale et de la santé humaine pour une gestion intégrée des cas de morsures.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

HARINAIVO, A., H. HAUDUC y I. TAKACS. "Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle". Techniques Sciences Méthodes 3 (20 de marzo de 2023): 33–42. http://dx.doi.org/10.36904/202303033.

Texto completo
Resumen
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Caccamo, Emmanuelle y Fabien Richert. "Les procédés algorithmiques au prisme des approches sémiotiques". Cygne noir, n.º 7 (1 de junio de 2022): 1–16. http://dx.doi.org/10.7202/1089327ar.

Texto completo
Resumen
Assistants virtuels, objets connectés, intelligence artificielle, données massives, apprentissage machine ou apprentissage profond ; nul jour sans que les journaux ne rapportent une nouvelle spectaculaire sur les technologies algorithmiques dites « intelligentes ». Aucune activité humaine ou presque ne semble échapper à la mainmise algorithmique et à la volonté de contrôle sans limite qu’elle traduit. Ce constat sur l’emprise des technologies algorithmiques sur nos vies n’est pas nouveau, mais nous avons souhaité le transmuer en enquête en consacrant un numéro du Cygne noir à l’exploration des liens entre sémiotique et procédés algorithmiques. Relevant tantôt de la sémiotique théorique, tantôt de la sémiotique appliquée, les textes ici rassemblés travaillent à leur façon ces rapports. Ce dossier témoigne de la manière dont la sémiotique continue d’étonner par sa capacité de renouvellement conceptuel, par sa force de saisie d’objets toujours nouveaux et par sa disposition épistémologique à se « suturer » à de nombreux cadres théoriques. Il réaffirme en dernier lieu à quel point la sémiotique peut tenir un rôle éminemment critique et démystifiant, à contre-pied de la technolâtrie dominant l’espace social, dans un contexte marqué par une numérisation toujours plus croissante des activités humaines et sociales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Diedhiou, Yancouba Cheikh. "Pédagogie et formation dans les spécialités : talon d’Achille des Enseignants de l’ENDSS et de l’ENTSS face aux exigences de l’APC et du système LMD". Liens, revue internationale des sciences et technologies de l'éducation 1, n.º 5 (5 de diciembre de 2023): 151–68. http://dx.doi.org/10.61585/pud-liens-v1n501.

Texto completo
Resumen
Mots-clés : Besoin, formation, LMD, APC, santé Résumé La formation des enseignants en santé et en intervention sociale au Sénégal se pose avec acuité, en raison probable de l’insuffisance de formation en technologies éducatives et le manque d’écoles normales recevant ces derniers. L’évolution technologique des pratiques professionnelles impose aux prestataires une mise à niveau de leur connaissance. Avec l’introduction de système LMD et de l’enseignement basé sur l’APC, une évaluation des besoins de formation de ces enseignants avait été menée. La collecte des données, un questionnaire, un guide d’entretien et des grilles d’évaluation ont été administrés à tous les formateurs de l’ENDSS et de l’ENTSS en situation d’enseignement /apprentissage et à 30% de ces apprenants. Il ressort de l’étude des besoins en formation communs (en recherche et en sciences de l’éducation et de la formation) et des besoins spécifiques (sciences médico-chirurgicales, paramédicales et intervention sociale) en vue de faire face aux exigences du système LMD et de l’APC.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Hosni, Hykel y Angelo Vulpiani. "Random Thoughts about Complexity, Data and Models". Intellectica. Revue de l'Association pour la Recherche Cognitive 72, n.º 1 (2020): 111–22. http://dx.doi.org/10.3406/intel.2020.1948.

Texto completo
Resumen
Réflexions aléatoires sur la complexité, les données et les modèles. La science des données et l’apprentissage profond ont beaucoup progressé pendant cette dernière décennie. Nous défendons l’idée que, tout en continuant à valoriser cet intéressant champ d’étude, il faudrait résister à la tentation de croire que la prédiction scientifique peut être réduite à l’analyse brute des données. Car la modélisation impose de maitriser l’art de sélectionner les variables pertinentes, comme nous l’illustrons ci-dessous. Plus particulièrement, nous explorons la relation subtile qui existe entre données et modèles, en analysant notamment le rôle joué par la complexité algorithmique. Celle-ci contribua à rendre mathématiquement rigoureuse l’idée selon laquelle comprendre un phénomène empirique équivaut à énoncer des règles pour générer les données qui soient plus simples que les données elles-mêmes. Un point clef pour évaluer le lien entre complexité algorithmique et apprentissage algorithmique est la clarification des concepts de compressibilité, déterminisme et prédictibilité, concepts qui sont liés mais distincts. À ce propos nous montrons que la loi d’évolution d’un système chaotique est compressible, mais qu’une condition initiale typique pour ce système ne l’est pas, ce qui rend les séries temporelles générées par des systèmes chaotiques incompressibles en général. La connaissance des règles qui gouvernent un phénomène empirique n’est donc pas suffisante pour prédire ses issues. Ce qui implique que la compréhension d’un phénomène nécessite plus que l’apprentissage de ses règles à travers des données. La compréhension n’est entière que lorsque l’on est capables de faire une “bonne modélisation”. Il est clair que l’idée de base de la complexité algorithmique s’appuie sur l’analyse du calcul faite par Turing. Ceci motive nos remarques sur cet exemple très parlant de modélisation abstraite basée sur l’analogie, qui est néanmoins fortement informée par les faits empiriques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

HUET, L., Y. BARNIER y H. DONNADIEU-RIGOLE. "Chemsex : risques ressentis et stratégies d'adaptation". EXERCER 35, n.º 201 (1 de marzo de 2024): 119–25. http://dx.doi.org/10.56746/exercer.2024.201.119.

Texto completo
Resumen
Introduction. Il existe depuis une dizaine d’années une augmentation des signaux sanitaires en France liés au chemsex chez les hommes ayant des rapports avec des hommes (HSH). Objectif. Identifier les risques ressentis par les HSH pratiquant le chemsex et leurs stratégies d’adaptation. Méthode. Étude qualitative basée sur 11 entretiens individuels semi-dirigés et un focus group de 4 chemsexeurs. Échantillonnage raisonné des participants recrutés sur la base du volontariat et par réseau. Enregistrement audio des entretiens puis retranscription mot à mot. Analyse phénoménologique des données puis production de catégories par comparaison constante entre les données et les construits de l’analyse. Résultats. Le risque majeur ressenti était le risque addictif. Le risque infectieux était la dangerosité des produits, sur lesquels se concentraient la prévention et la réduction des risques et des dommages (RdRD), le risque socioprofessionnel, l’impact sur la qualité de la vie sexuelle et la santé mentale, la notion de consentement. Il existait une multiplicité de techniques de contrôle et de réduction des risques par les usagers, mises en place de façon autonome. Ces techniques résultaient d’un apprentissage lié aux expériences personnelles, d’informations transmises par les pairs, le milieu associatif et médical. Discussion. Il est crucial de promouvoir l’accès à des programmes de prévention et de RdRD pour garantir la connaissance des risques associés au chemsex et ainsi une meilleure adaptation des comportements. Pour atteindre cet objectif, il est important de diversifier les stratégies de prévention et de RdRD afin de sensibiliser les chemsexeurs à ces multiples problématiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Hoz Morales, Héctor Alberto. "Mayer-Schönberger, V. y Cukier, K. (2013). Big Data. La revolución de los datos masivos". Clivajes. Revista de Ciencias Sociales, n.º 9 (24 de abril de 2018): 189–94. http://dx.doi.org/10.25009/clivajes-rcs.v0i9.2536.

Texto completo
Resumen
El argumento central de la obra de Viktor Mayer-Schönberger y Kenneth Cukier es de la mayor trascendencia para el conocimiento humano en general, y para las ciencias sociales en particular: a saber, que la aparición y el uso de los datos masivos está por provocar (y lo hace ya, de hecho, en áreas específicas del saber humano) “una revolución que transformará como vivimos, trabajamos, y pensamos”.Mayer-Schönberger, V. y Cukier, K. (2013). Big Data. The massive data revolutionSummaryThe central argument of the work of Viktor Mayer-Schönberger and Kenneth Cukier is of the greatest importance for human knowledge in general, and for the social sciences in particular: namely, that the emergence and use of massive data is about to provoke (and in fact it does already, in specific areas of human knowledge) "a revolution that will transform how we live, work, and think".Mayer-Schönberger, V. y Cukier, K. (2013). Big Data. La revolution des données massivesRésuméLe thème central de l’œuvre de Viktor Mayer-Schönberger et Kenneth Cukier est d’une grande transcendance pour la connaissance humaine, en général, et pour les sciences sociales, en particulier: soit le fait que l’apparition et l’usage des données massives sont sur le point de provoquer (et ils le font déjà dans des aires spécifiques du savoir humain) “une révolution qui transformera comment nous vivons, travaillons et pensons”.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Moses, Andrew, Willy Weng, Ani Orchanian-Cheff y Rodrigo B. Cavalcanti. "Teaching Point-of-Care Ultrasound in Medicine". Canadian Journal of General Internal Medicine 15, n.º 2 (29 de abril de 2020): 13–29. http://dx.doi.org/10.22374/cjgim.v15i2.368.

Texto completo
Resumen
Point-of-care ultrasound (POCUS) is an important tool for diagnosis and management across medical specialties. This scoping review consolidates POCUS education literature, examining how curricula are developed, implemented, and assessed. We identify literature gaps, explore directions for further research, and provide recommendations for curriculum development, implementation, and improvement. MethodsWe conducted a scoping review per the framework outlined by Arksey & O’Malley. A systematic search of the MEDLINE, EMBASE, Cochrane, ERIC, Web of Science, and Scopus databases was conducted to identify published, English language literature, on POCUS education in undergraduate or graduate medical training.ResultsOf 6,164 articles identified, 421 were analyzed in depth. Curricular content included diverse diagnostic and therapeutic applications, varying significantly by specialty. Teaching modalities included in-person didactics (74%), human models (58%), simulation (33%), and web-based didactics (18%). Several studies showed better outcomes for structured vs. apprenticeship curricula, hands-on teaching vs. didactic lectures, and human models vs. simulators. Web-based didactics were as effective as in-person didactics and conveyed benefits in reusability, cost, and instructor time. Dedicated electives and boot-camps were identified as effective. Few curricula assessed knowledge retention (5%), clinical decision making (3%), learner behavior (12%), or patient outcomes (6%). ConclusionScholarly POCUS education literature is expanding. Curricular content varies and should be tailored to specialty needs. Structured curricula utilizing hands-on learning, electives, and boot-camps can enhance educational outcomes. Higher-level outcomes such as knowledge retention, clinical decision making, learner behavior, and patient outcomes, are lacking and should be a focus of further researchResumeL’échographie au point de service (POCUS) est un outil important pour le diagnostic et la gestion dans toutes les spécialités médicales. Cette étude de portée consolide la littérature éducative POCUS, en examinant comment les programmes d’enseignement sont élaborés, mis en œuvre et évalués. Nous identifions les lacunes de la littérature, explorons les directions à prendre pour des recherches plus approfondies et fournissons des recommandations pour le développement, la mise en œuvre et l’amélioration des programmes d’enseignement. MéthodesNous avons procédé à un examen de portée conformément au cadre défini par Arksey & O’Malley. Une recherche systématique dans les bases de données MEDLINE, EMBASE, Cochrane, ERIC, Web of Science et Scopus a été effectuée afin d’identifier les publications en langue anglaise sur l’enseignement POCUS dans le cadre de la formation médicale de premier ou de deuxième cycle. RésultatsSur les 6 164 articles identifiés, 421 ont fait l’objet d’une analyse approfondie. Le contenu des programmes d’études comprenait diverses applications diagnostiques et thérapeutiques, variant considérablement selon les spécialités. Les modalités d’enseignement comprenaient la didactique en personne (74 %), les modèles humains (58 %), la simulation (33 %) et la didactique basée sur le web (18 %). Plusieurs études ont montré de meilleurs résultats pour les programmes structurés par rapport aux programmes d’apprentissage, l’enseignement pratique par rapport aux cours magistraux didactiques, et les modèles humains par rapport aux simulateurs. La didactique basée sur le web était aussi efficace que la didactique en personne et présentait des avantages en termes de réutilisation, de coût et de temps de l’instructeur. Les cours optionnels et les camps d’entraînement ont été jugés efficaces. Peu de programmes ont évalué la rétention des connaissances (5 %), la prise de décision clinique (3 %), le comportement des apprenants (12 %) ou les résultats pour les patients (6 %). ConclusionLa littérature éducative POCUS est en pleine expansion. Le contenu des programmes d’études varie et doit être adapté aux besoins spécifiques. Des programmes structurés utilisant un apprentissage pratique, des cours optionnels et des camps d’entraînement peuvent améliorer les résultats scolaires. Des résultats de plus haut niveau, tels que la rétention des connaissances, la prise de décision clinique, le comportement de l’apprenant et les résultats pour le patient, font défaut et devraient faire l’objet de recherches plus approfondies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Boily, Valérie, Marie-Claude Jacques y Sylvain Grignon. "Développement du sentiment d’efficacité comme psychothérapeute chez les résidents en psychiatrie". Pédagogie Médicale 21, n.º 1 (2020): 5–12. http://dx.doi.org/10.1051/pmed/2020027.

Texto completo
Resumen
Problématique : Le sentiment d’efficacité du psychothérapeute (SE-PSY) de Larson et Daniels est un concept dérivé du sentiment d’efficacité personnelle de Bandura, largement appliqué pour l’apprentissage de la psychothérapie chez les psychologues. À notre connaissance, aucune étude ne s’est adressée au SE-PSY chez les résidents de psychiatrie, qui ont la particularité d’être d’abord médecins plutôt que psychothérapeutes. Objectif : L’objectif principal de notre étude était de décrire les composantes du SE-PSY chez les résidents de psychiatrie, lors des premières expériences de psychothérapie. Méthodes : Cette étude a utilisé un devis qualitatif descriptif. Les participants étaient interrogés sur leur expérience de l’apprentissage de la psychothérapie et sur le SE-PSY. L’analyse des données a été effectuée en utilisant l’approche de la théorisation ancrée. Résultats : Les neuf participants étaient âgés entre 25 et 31 ans et avaient une expérience de deux à sept suivis de psychothérapie. L’analyse qualitative a permis de mettre en lumière quatre composantes liées au SE-PSY, soit : le contexte de la résidence, l’insécurité initiale, l’environnement de supervision et le vécu d’expériences structurantes. Conclusion : Les résultats montrent que l’apprentissage de la psychothérapie et le SE-PSY s’articulent de façon particulière chez les résidents en psychiatrie. Ces résultats apportent des indications précieuses concernant les éléments à mettre en avant afin non seulement de favoriser le développement du sentiment d’efficacité du psychothérapeute chez les résidents en apprentissage, mais aussi de valoriser auprès de ceux-ci cette responsabilité professionnelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Feunteun, E., C. Rigaud, P. Elie y J. C. Lefeuvre. "Le marais doux endigué de Bourgneuf-Machecoul (Pays de Loire) Premier éléments de connaissance du peuplement piscicole. Relation ichtyofaune-habitat et problèmes majeurs de gestion (Maroc)". Revue des sciences de l'eau 5, n.º 4 (12 de abril de 2005): 509–28. http://dx.doi.org/10.7202/705144ar.

Texto completo
Resumen
Le peuplement ichtyologique d'un marais littoral endigué, géré en eau douce, a été étudié sur une zone de 2 700 ha, située au nord du marais Breton-Vendéen (Loire-Atlantique, France). Le réseau hydraulique, qui représente près de 16 % de cette surface, se compose, d'environ 91 m de linéaire de fossés par ha (en tout 234 km) et de bassins présents uniquement dans la partie d'origine salicole du marais. Les hauteurs d'eau, l'envasement et le recouvrement par la végétation aquatique dépendent de la gestion humaine et sont très variables (moyennes respectives : 42 cm; 43 cm; 70 %). Cela se traduit par un morcellement spatial de l'habitat pour les poissons. La stratégie d'échantillonnage adoptée, qui tient compte de cette hétérogénéité, a permis de décrire un peuplement comportant 21 espèces. Dominé par les poissons-chats et par les anguilles, ce dernier est caractéristique de la zone à brèmes des cours d'eau. Les abondances sont relativement élevées (en moyenne 315 kg/ha et 11 460 poissons/ha), mais elles sont très hétérogènes. L'évolution qualitative et quantitative de la répartition spatio-temporelle est décrite à l'aide d'une analyse factorielle des correspondances portant sur 74 échantillons prélevés par pêche électrique entre 1987 et 1989. Bien que l'approche de ce milieu soit complexe et les références bibliographiques relativement rares, l'analyse des premières données permet d'ores et déjà d'identifier quelques problèmes de gestion ayant des répercussions directes sur le peuplement piscicole de cette zone.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Tarasuk, Jill, Meghan Sullivan, Donna Bush, Christian Hui, Melissa Morris, Tami Starlight, François Cholette et al. "Résultats en ce qui concerne les participants autochtones sondés dans le cadre de l'enquête Track auprès des utilisateurs de drogues injectables au Canada, phase 4, 2017 à 2019". Relevé des maladies transmissibles au Canada 47, n.º 1 (29 de enero de 2021): 43–55. http://dx.doi.org/10.14745/ccdr.v47i01a07f.

Texto completo
Resumen
Contexte : L’enquête Track auprès des utilisateurs de drogues injectables a permis de recueillir des données dans quatorze sites sentinelles au Canada (2017 à 2019). Ces résultats décrivent la prévalence du virus de l’immunodéficience humaine (VIH), de l’hépatite C et des comportements à risque associés à ceux-ci chez les participants autochtones. Méthodes : Des informations sur les caractéristiques sociodémographiques, les déterminants sociaux de la santé, le recours aux services de prévention et au dépistage, la consommation de drogues, les comportements à risque, ainsi que le dépistage, les soins et le traitement du VIH et de l’hépatite C ont été recueillies par l’entremise de questionnaires administrés par un intervieweur. Les échantillons biologiques ont été analysés pour y détecter la présence d’anticorps anti-VIH et anti-hépatite C et l’acide ribonucléique (ARN) de l’hépatite C. Les statistiques descriptives ont été calculées et examinées par un groupe consultatif dirigé par des autochtones, selon l’approche à double perspective (Two-Eyed Seeing). Résultats : Parmi les 2 383 participants, 997 étaient des autochtones (82,9 % étaient des membres des Premières Nations, 14,9 % étaient des Métis et 2,2 % étaient des Inuits). Plus de la moitié (54,5 %) étaient des hommes cisgenres et l’âge moyen était de 38,9 ans. Une grande proportion (84,0 %) des participants ont déclaré que leur santé mentale était de « passable excellente ». Une forte proportion d’entre eux ont été victimes de stigmatisation et de discrimination (90,2 %) ainsi que de violences physiques, sexuelles et/ou psychologiques durant l’enfance (87,5 %) ou de la part d’un partenaire sexuel (78,6 %). Un pourcentage élevé d’entre eux ont déclaré utiliser un programme de distribution de seringues (90,5 %) et avoir été dépisté pour le VIH (87,9 %) et l’hépatite C (87,8 %). La prévalence du VIH était de 15,4 % (78,2 % d’entre eux avaient connaissance de leur statut infectieux) et 36,4 % d’entre eux étaient séropositifs pour l’ARN de l’hépatite C (49,4 % d’entre eux avaient connaissance de leur statut infectieux). Conclusion : L’enquête a révélé des taux élevés de VIH et d’hépatite C. Elle a également révélé des défis liés à l’accès et au maintien des soins et des traitements liés au VIH et à l’hépatite C. Ces renseignements éclairent les stratégies de réduction des méfaits, y compris la nécessité d’accroître la sensibilisation à la prophylaxie d’une manière culturellement pertinente.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Rashed, Marwan. "ABŪ HĀŠIM AL-ǦUBBĀʾĪ, ALGÈBRE ET INFÉRENCE". Arabic Sciences and Philosophy 30, n.º 2 (14 de agosto de 2020): 191–228. http://dx.doi.org/10.1017/s0957423920000028.

Texto completo
Resumen
RésuméCet article vise à restituer la doctrine du « signe du manifeste au caché » d'Abū Hāšim al-Ğubbāʾī (888-933). Il montre qu'Abū Hāšim a tendu à interpréter ce signe comme une inférence, dont il a reconnu deux types principaux : le type-1 (la « communauté de preuve », al-ištirāk fī al-dalāla) procède par déduction analytique de concepts en neutralisant les conditions de réalisation de ces derniers, c'est-à-dire leur soubassement ontologique. C'est, typiquement, la procédure la plus directement consonante avec l'ontologie modale d'Abū Hāšim. Le type-2 (la « communauté de cause », al-ištirāk fī al-ʿilla) exhibe un même rapport de causalité au plan du connu et au plan de l'inconnu et considère que la causalité au plan du connu est elle-même la cause de la causalité au plan de l'inconnu. Cette partition parfaitement inédite dans la philosophie et le kalām est en revanche préfigurée dans la doctrine de la preuve exposée par al-Ḫwārizmī dans son Algèbre. Al-Ḫwārizmī distingue en effet entre la preuve « par la cause » (bi-al-ʿilla), qui consiste à transférer une certaine déduction géométrique au plan de l'algèbre et la preuve « par l'expression » (bi-al-lafẓ) qui opère directement sur les expressions algébriques, qu'elle réduit analytiquement. En se fondant sur un texte d'Abū Hāšim consacré à la connaissance humaine qui paraît se référer à l’œuvre d'al-Ḫwārizmī, l'article suggère pour finir que le parallèle conceptuel étroit entre la doctrine de la preuve d'al-Ḫwārizmī et la doctrine du signe d'Abū Hāšim pourrait ne pas être une simple coïncidence. Deux appendices ont été ajoutés. Le premier traite de la lecture par al-Fārābī de la théorie de l'inférence d'Abū Hāšim. Le second, en s'appuyant sur toutes les données disponibles, établit pour la première fois les dates correctes et précises de la vie d'Abū Hāšim.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Dominique, Richard. "L'ethnohistoire de la Moyenne-Côte-Nord". Articles 17, n.º 2 (12 de abril de 2005): 189–220. http://dx.doi.org/10.7202/055714ar.

Texto completo
Resumen
En 1972, le projet de recherche « Ethnographie de la Côte-Nord du Saint-Laurent» place à l'intérieur de sa problématique générale un volet intitulé: l'ethnohistoire. Soucieuse de ne pas limiter les résultats de ses recherches à des moules d'analyse déjà établis et intéressée à illustrer constamment la conceptualisation des gens de la Moyenne-Côte-Nord, l'équipe de recherche perçoit comme complémentaire l'analyse de la science populaire utilisée par les témoins qui vivent les mêmes faits qu'elle étudie sous un angle expérimental. L'ethnohistoire de la Moyenne-Côte-Nord représente une facette de cette complémentarité. Afin de bien situer cette intention, une mise en place des principales tendances en cours en ethnohistoire s'avère utile. Auparavant, deux remarques importantes se posent au point de départ puisqu'elles clarifient les prémisses de l'ethnohistoire. 1. L'utilisation de l'histoire par l'anthropologie suscite beaucoup de discussions et cela depuis les origines de l'anthropologie. L'ethnohistoire ne se greffe pas à cette problématique. L'ethnohistoire ne représente pas le champ privilégié où l'utilisation et la perception de l'histoire que les anthropologues ont mis de l'avant à travers les différents courants anthropologiques se manifestent. 2. Ce premier point tient surtout au fait que l'ethnohistoire se conçoit comme un ensemble de méthodes, de techniques. Elle ne s'étiquette pas comme une discipline. L'ethnohistoire s'intègre aux différents courants théoriques en anthropologie et s'utilise selon les questions théoriques jugées importantes par les différentes écoles. Il n'y a pas de théories ethnohistoriques indépendantes des autres théories anthropologiques. Toute discussion au sujet de la relation histoire-anthropologie se situe au niveau théorique et non méthodologique; l'ethnohistoire ne peut fournir d'éléments pertinents. Trois tendances se concrétisent et fournissent des résultats différents, selon l'appartenance théorique aux écoles anthropologiques. L'histoire spécifique, l'ethnographie historique (ethnohistory) et l'ethnohistoire (folk history) constituent présentement ces trois options. L'histoire spécifique. Cette tendance se préoccupe surtout de situer des traits culturels spécifiques à l'intérieur d'un contexte. Tout en utilisant et recherchant des dates, des lieux et des événements précis, les chercheurs essaient ici de mettre en relief un modèle de diffusion et de transformation d'un trait culturel particulier. L'étude des variantes des mythes et dçs légendes par Franz Boas et Edward Sapir chez les Amérindiens de la Côte-Nord-Ouest du Pacifique constitue un exemple de cette tendance. L'utilisation des données archéologiques, linguistiques, physiques et des études de diffusion culturelle reflète bien la préoccupation du courant diffusionniste en anthropologie. L'ethnographie historique. Souvent retrouvée sous l'appellation ethnohistoire (ethnohistory), cette tendance s'identifie aux anthropologues américains (Fenton, Ewers, De Laguna, Lurie, etc.) qui reconstruisent historiquement des cultures amérindiennes à l'aide des archives, des traditions orales et des données recueillies sur le terrain. La recherche se traduit par l'application de la perspective historique aux sociétés qui ne sont pas incluses dans l'histoire occidentale. De par leur formation, ces chercheurs veulent comprendre, expliquer des phénomènes culturels. L'historiographie d'une ethnie ne répond pas à cette demande. Le choix des données historiques doit s'effectuer en fonction des questions théoriques en anthropologie. Ainsi la mise en relation des travaux de terrain avec les sources historiques dans un cadre théorique peut produire des éléments importants pour la construction d'un modèle explicatif du changement. Cette orientation a pris forme, vers 1950, au contact des études plus générales d'acculturation et de relations interethniques, des systèmes politiques et économiques. L'ethnographie historique repose sur des fondements plus théoriques et généralisants afin de permettre une comparaison entre différents groupes étudiés. Sous cet angle, elle se présente comme une méthode intégrée à d'autres pour répondre aux questions théoriques soulevées en anthropologie. Cette approche exige une nomenclature conceptuelle qui favorise un niveau de généralisation formelle. Une de ses premières fonctions se concrétise par l'élaboration d'un inventaire du matériel existant et par l'orientation subséquente de l'emploi et de la fabrication des autres méthodes. Lorsque la synthèse des différentes données est effectuée, des patterns d'incorporation des groupes ethniques à leur environnement, de changements économiques et politiques, d'acculturation, etc., en ressortent. En somme, l'ethnographie historique se présente comme l'application de la méthode historique et l'utilisation des concepts anthropologiques pour découvrir des pattems d'organisation humaine. L'ethnohistoire (folk history). Le domaine des réflexions et des constructions historiques en cours dans une communauté devient le pôle d'attraction de cette optique. La véracité des faits, la cohérence des événements, les modèles de changement, etc., ne sont pas ici pertinents. C'est plutôt le système logique permettant de réfléchir et de conceptualiser les événements et les comportements qui attire l'attention du chercheur. L'articulation de la recherche s'effectue autour de ce que les gens pensent de leur passé. Vers les années '60, le mot « ethno » se couvre d'une nouvelle signification, à savoir: découvrir comment s'établit le processus de la connaissance chez un peuple. Auparavant, le préfixe « ethno » ne possédait qu'une connotation identificatrice sans pour autant spécifier les bases de l'identité du peuple en question. Théoriquement, chez les culturalistes, la culture ne se conçoit plus comme l'ensemble des comportements humains, l'idéologie, l'histoire, les institutions, les produits matériels, etc., mais bien plus comme le tout de la connaissance humaine.2 Les analyses portent sur la «grammaire de la culture» et par conséquent ne précisent pas les comportements actuels et futurs des individus. Méthodologiquement, les techniques et les propositions théoriques se construisent sous la forme d'une recherche « emic », c'est-à-dire une approche valide que pour une communauté. L'ethnographie historique travaille à la reconstruction historique dans le sens et le découpage qui convient aux critères occidentaux. Elle utilise les archives et les résultats des autres disciplines connexes afin d'écrire une histoire universelle basée sur des découpages préalablement établis. Par contre, l'ethnohistoire démontre la version, la signification et l'explication historique fournies par une communauté. Précisément, elle met en relief les principes régissant la sélection et l'ordre des événements retenus comme significatifs pour une culture. Cette limitation à une seule culture amène pour l'instant le rejet d'une histoire universelle. Dans les sociétés non euro-américaines, les mythes, les légendes, les contes constituent le champ d'investigation privilégié pour l'ethnohistoire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Popovic, Nashira, Qiuying Yang y Chris Archibald. "Tendances d’utilisation de la prophylaxie pré-exposition pour le VIH dans huit provinces canadiennes, 2014 à 2018". Relevé des maladies transmissibles au Canada 47, n.º 56 (9 de junio de 2021): 275–83. http://dx.doi.org/10.14745/ccdr.v47i56a02f.

Texto completo
Resumen
Contexte : Le Canada a approuvé les objectifs mondiaux du Programme commun des Nations Unies sur le VIH et le Sida visant à mettre fin à l’épidémie du syndrome d’immunodéficience acquise (sida), notamment en réduisant à zéro les nouvelles infections par le virus de l’immunodéficience humaine (VIH) d’ici à 2030. Compte tenu de l’efficacité de la prophylaxie pré-exposition (PPrE) pour prévenir les nouvelles infections, il est important de mesurer et de rendre compte de l’utilisation de la PPrE afin de contribuer à la planification des programmes et des politiques de prévention du VIH. Méthodes : Les estimations annuelles des personnes utilisant de la PPrE au Canada ont été générées pour la période de 2014 à 2018 à partir de l’ensemble de données géographiques de surveillance des ordonnances d’IQVIA. On a utilisé un algorithme pour distinguer les utilisateurs de fumarate de ténofovir disoproxil/emtricitabine (TDF/FTC) pour la PPrE de ceux qui l’utilisent dans le cadre d’un traitement ou de la prophylaxie post-exposition. Nous fournissons le nombre estimé de personnes qui utilisent la PPrE dans huit provinces canadiennes par sexe, groupe d’âge, spécialité du médecin prescripteur et type de paiement. Résultats : Le nombre estimé d’utilisateurs de PPrE a augmenté de façon spectaculaire au cours de la période d’étude de cinq ans : il est multiplié par 21, passant de 460 en 2014 à 9 657 en 2018. La prévalence estimée de la PPrE était de 416 utilisateurs par million de personnes dans les huit provinces en 2018. Presque tous les utilisateurs de PPrE étaient des hommes. L’utilisation a augmenté chez les deux sexes, mais l’augmentation a été plus importante chez les hommes (par 23 fois) que chez les femmes (par 5 fois). L’utilisation a augmenté dans toutes les provinces, bien qu’il y ait des différences entre les provinces relativement à la prévalence de l’utilisation, à la répartition par âge et aux types de médecins prescripteurs. Conclusion : L’utilisation de la PPrE au Canada a augmenté entre 2014 et 2018, ce qui témoigne d’une meilleure connaissance et d’une plus grande adhésion à son utilisation pour prévenir la transmission du VIH. Elle est toutefois inégale en fonction de l’âge, du sexe et de la géographie. Puisque les nouvelles infections au VIH continuent de se produire au Canada, il sera important d’affiner l’utilisation de la PPrE, car les populations à risque plus élevé d’infection au VIH doivent se voir offrir la PPrE dans le cadre de soins de santé sexuelle complets.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Torres, Thais María. "El aprendizaje transformacional desde la concepción del autoconcepto en la Educación del Infante". GACETA DE PEDAGOGÍA, n.º 38 (1 de diciembre de 2019): 73–96. http://dx.doi.org/10.56219/rgp.vi38.762.

Texto completo
Resumen
El artículo, tiene como propósito analizar la importancia del autoconcepto del infante, para el logro del aprendizaje transformacional, con una perspectiva de reflexión de contenidos teóricos, enfocado en el modelo de estudio del arte, con alguno de los siguientes autores: Morín, Fuguet, Abate, entre otros. A partir de las indicadas reflexiones, se establecieron como conclusiones: existen relaciones importantes entre las teorías de la pedagogía sistémica, psicología cognitiva e interaccionismo simbólico en la adquisición del auto concepto. El mismo, se desarrolla a través de la construcción del conocimiento de sí mismo, permitiendo captar el punto de vista de quienes producen y viven la realidad social y cultural, asumiendo el acceso al conocimiento en lo específicamente humano y su forma de actuar con los demás en donde, el accionar del docente, representa un rol relevante para el desarrollo adecuado de dicho proceso, en la educación del infante. ABSTRACT The article aims to analyze the importance of the infant's self-concept, for the achievement of transformational learning, with a perspective of reflection of theoretical contents, focused on the model of art study, with one of the following authors: Morín, Fuguet, Abate, among others. From the indicated reflections, they were established as conclusions: there are important relationships between the theories of systemic pedagogy, cognitive psychology and symbolic interactionism in the acquisition of the self-concept. It develops through the construction of self-knowledge, allowing to capture the point of view of those who produce and live social and cultural reality, assuming access to knowledge in the specifically human and their way of acting with others. Where, the actions of the teacher, represents a relevant role for the proper development of said process, in the education of the infant. Key words: Transformational learning, Self-concept, Education, infants. RÉSUMÉ L'article vise à analyser l'importance du concept de soi du nourrisson, pour la réalisation d'un apprentissage transformationnel, avec une perspective de réflexion de contenus théoriques, centrée sur le modèle d'étude de l'art, avec l'un des auteurs suivants: Morín, Fuguet, Abate, entre autres. À partir des réflexions indiquées, elles ont été établies comme des conclusions: il existe des relations importantes entre les théories de la pédagogie systémique, la psychologie cognitive et l'interactionnisme symbolique dans l'acquisition du concept de soi. Il se développe à travers la construction de la connaissance de soi, permettant de capter le point de vue de ceux qui produisent et vivent la réalité sociale et culturelle, en supposant l'accès au savoir de manière spécifiquement humaine et leur façon d'agir avec les autres. où, les actions de l'enseignant, représentent un rôle pertinent pour le bon développement dudit processus, dans l'éducation du nourrisson. Mots-clés: transformationnel, concept de soi, éducation, nourrissons.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Ephraim, David. "Introduction to the Special Section on Rorschach Trauma Assessment". Rorschachiana 25, n.º 1 (enero de 2002): 3–10. http://dx.doi.org/10.1027/1192-5604.25.1.3.

Texto completo
Resumen
Bien que les êtres humains aient subi et soufferts des traumatismes à toutes les époques et en tous lieux, l’étude scientifique à grande échelle des personnes traumatisées n’a été entamée que dans les deux dernières décennies. Notre connaissance et compréhension des besoins des personnes traumatisées se sont certainement accrues à la faveur du changement de perspective introduit par la littérature actuelle sur le thème du traumatisme (voir par exemple Herman, 1992 ; van der Kolk, McFarlane & Weisaeth, 1997 ). Les données du Rorschach peuvent être interprétées dans des perspectives différentes. Les recherches actuelles sur le traumatisme aident à nous faire mieux comprendre les réponses au Rorschach des personnes traumatisées. En retour, les données du Rorschach dans les cas de traumatisme peuvent enrichir notre compréhension théorique et clinique de la nature des états post traumatiques. Les spécialistes du Rorschach du monde entier se sont mis à évaluer des personnes traumatisées depuis de nombreuses années. Il est par conséquent pertinent de nous demander si nos présupposés habituels concernant l’évaluation de la personnalité à l’aide du Rorschach sont adéquats à l’évaluation des séquelles des expériences traumatiques. Les diverses contributions assemblées dans cette section thématique de Rorschachiana abordent ces questions en profondeur. Briere (1997 ) parmi d’autres a formulé la question de manière nuancée. D’un côté, il serait erroné d’écarter un trouble schizophrénique, affectif ou de la personnalité au motif que la personne présente une histoire traumatique. D’un autre côté, les approches traditionnelles et actuelles de l’évaluation pourraient interpréter à tort des symptômes post traumatiques intrusifs comme des manifestations psychotiques, et des réactions adaptatives au traumatisme comme de banals troubles de la personnalité. L’évaluation du traumatisme est fréquemment vécue comme une intrusion par la personne évaluée. Il y a donc un risque de la traumatiser à nouveau, ce qui exige que l’examinateur soit prudent et sensible à la souffrance de l’autre. C’est dans ce cadre que la méthode du Rorschach présente certains avantages pour l’évaluation du traumatisme en comparaison avec les entretiens structurés et les autoquestionnaires. Notamment, (a) le Rorschach permet de contourner les défenses par l’évitement et les réticences de la personne traumatisée ( Levin & Reis, 1997 ; van der Kolk & Ducey, 1989 ); (b) les méthodes projectives génèrent des données de type vécu à travers lesquelles “prennent vie” ( Lating, Zeichner & Keane, 1995 ) les symptômes et les altérations post traumatiques de la personnalité; (c) enfin, l’action des mécanismes d’ajustement et de défenses peuvent être détectés dans les réponses au Rorschach, reflétant des différences individuelles essentielles pour la planification du traitement. Les chapitres qui composent cette section thématique de Rorschachiana reflètent la contribution originale du Rorschach à l’évaluation du traumatisme. Ils montrent l’intérêt croissant des spécialistes du Rorschach de divers pays pour cette question. L’article de Judith Armstrong (Etats-Unis) traite des réactions dissociatives au Rorschach que l’on observe chez un grand nombre de patients diversement traumatisés. Sa contribution établit un lien significatif entre des données cliniques et empiriques et la théorie actuelle du traumatisme et de la dissociation. Armstrong passe en revue et illustre par des vignettes cliniques les signes de dissociation qui apparaissent dans l’examen comme dans les comportements et les réactions contre transférentielles. Ce chapitre présente également des façons d’explorer les réactions dissociatives après le test, dans le but de potentialiser les processus diagnostique et thérapeutique. Après une introduction documentée faisant le point sur la littérature actuelle concernant la transmission transgénérationnelle du traumatisme chez les enfants de survivants de l’holocauste, Ety Berant (Israël) présente une étude de cas de deux soeurs qui montre les modalités directes et indirectes de transmission du traumatisme. Tout en tenant compte de la biographie, Berant discute et compare les deux protocoles en se fondant sur les stratégies d’interprétation du Système Intégré. David Ephraim (Venezuela / Canada) discute et illustre par des cas de survivants de tortures et/ou de violences politiques quelques clés diagnostiques de victimisation extrême. Les thèmes abordés sont les suivants: perturbations cognitives associées à la symptomatologie intrusive, distinction entre les stratégies défensives d’évitement et d’anesthésie émotionnelle, changements post traumatiques de la personnalité, ainsi que l’autorégulation et la dissociation dans des cas présentant de manière concurrente des traumatismes précoces. María Cristina Gravenhorst (Argentine) présente quatre cas qui illustrent sa grande expérience dans l’utilisation du Rorschach dans l’expertise judiciaire d’enfants victimes de violences sexuelles. L’auteur propose divers indicateurs d’atteinte psychique au Rorschach, en se basant sur le système d’interprétation développé par l’Ecole Argentine, tels que: contenus symbolisant l’abus, phénomènes particuliers (par exemple, Action subie, MOR, Persévération), dominance des réponses de forme indicatives de sur-adaptation, et incapacité de répondre. Le chapitre de Patrick Sloan, Linda Arsenault et Mark Hilsenroth (Etats-Unis) présente un panorama exhaustif des résultats décrits dans la littérature portant sur les Rorschach des anciens combattants et de la population civile des Etats-Unis. Les auteurs couvrent les question de diagnostic, les effets longitudinaux de l’exposition à la guerre, et l’évolution de la symptomatologie post traumatique dans ces cas, y compris la relation entre symptômes psychologiques et physiques. Les auteurs discutent aussi des implications cliniques pour les évaluations longitudinales et le traitement du personnel militaire, et donnent des pistes pour la recherche à venir. La variété des thèmes et des populations étudiées dans ce recueil de travaux reflète la grande vitalité de notre méthode pour aborder la condition humaine. Nous espérons que la communauté internationale des spécialistes du Rorschach trouvera ces travaux utiles pour la pratique clinique et la recherche avec les personnes victimes de traumatismes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Ngouo, Herbert Rostand. "Evaluating the pertinence of foreign languages (German, Spanish, Arabic, Chinese, Italian) in Cameroon’s education curriculum: needs for reform of the curriculum and language in education policy". Journal of the Cameroon Academy of Sciences 18, n.º 1 (16 de agosto de 2022): 361–88. http://dx.doi.org/10.4314/jcas.v18i1.6.

Texto completo
Resumen
The ongoing debate regarding the decolonisation of Africa should focus primarily on the domain of education, as ideologies about languages are reflected, implemented and reproduced in the language in education policy (LIEP) of a country. Most African countries have inherited the Western model of LIEP giving primacy to ex-colonial languages as official languages and as languages of education, media, and administration. Some countries, like Cameroon (host to more than 270 African languages), have gone beyond preferring French and English as a medium of instruction, and have added more foreign languages (German, Spanish, Chinese, Italian, and Arabic) in secondary schools and universities, to the detriment of national languages. Most studies on language policy address the issue of language as a medium of instruction and neglect to critically evaluate the pertinence and relevance of the generalised teaching/learning of foreign languages in schools and universities in Cameroon. This study looks at the connection between the teaching of foreign languages and the transnational aspirations of Cameroonians. The data were collected from discussions on two Facebook threads questioning the topic, discussions with lecturers of foreign languages at universities, and a meta-synthesis analysis of existing statistics about international migration for educational purposes. The findings reveal that there inbound international migration flux is associated with language but is not the most crucial factor. As a result, the study suggests either suppressing the generalised teaching of foreign languages in the francophone subsystem of education and setting up a public-private partnership or at least suppressing the Spanish and Italian languages whose knowledge has not provided any direct benefit for the majority of the learner. The cost of running those languages is not equivalent to the return. Le débat en cours sur la décolonisation de l’Afrique devrait mettre l’éducation au centre. En effet, les idéologies sur les langues sont reflétées, mises en oeuvre et reproduites dans la politique linguistique de l’éducation (LIEP) d’un pays. La plupart des pays africains ont hérité des politiques linguistiques donnant la primauté aux langues ex-coloniales comme langues officielles et comme langues de l’éducation, des médias et de l’administration. Certains pays, comme le Cameroun (regorgeant plus de 270 langues), sont allés au-delà. Préférant le français et l’anglais comme langue d’enseignement, le Cameroun a ajouté des langues étrangères (allemand, espagnol, chinois, italien et arabe) dans les établissements secondaires et les universités, au détriment des langues nationales. La plupart des études sur les politiques linguistiques abordent la question de la langue comme moyen d’enseignement et négligent d’évaluer de manière critique la pertinence de l’enseignement/apprentissage généralisé des langues étrangères dans les écoles et les universités au Cameroun. Cette étude s’intéresse au lien entre l’enseignement des langues étrangères et les aspirations transnationales des Camerounais. Les données ont été recueillies à partir de discussions sur deux fils de commentaires Facebook portant sur le sujet, des échanges avec des enseignants de langues étrangères dans des universités et d’une analyse méta-synthétique des statistiques existantes sur la migration internationale à des fins éducatives. Les résultats révèlent que le flux migratoire international entrant est associé à la langue mais la langue n’est pas le facteur le plus déterminant. En conséquence, l’étude suggère une réforme des curricula conduisant à la suppression de l’enseignement généralisé des langues étrangères dans le sous-système éducatif francophone. En revanche si cette option extrême n’est pas envisagée, il faut supprimer les langues espagnole et italienne dont la connaissance n’a apporté aucun bénéfice direct à la majorité des apprenants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Rafael Enrique Sandoval Ramos. "Las TIC un resurgir para la enseñanza de la Filosofía". GACETA DE PEDAGOGÍA, n.º 48 (23 de enero de 2024): 172–95. http://dx.doi.org/10.56219/rgp.vi48.2447.

Texto completo
Resumen
Este estudio se centra en analizar los patrones emergentes en narrativas cualitativas sobre el impacto de las Tecnologías de la Información y Comunicación (TIC) en la enseñanza de la Filosofía. Empleando una revisión sistemática cualitativa de producciones científicas entre 2011 y 2022, se identificaron 18 documentos en bases como Dialnet, DSpace y Google Académico. Bajo el método PRISMA, se encontraron categorías emergentes, como paradigmas TIC-Filosofía, dimensiones del conocimiento digital y transformación educativa con TIC. Cada categoría integra conceptos clave, proporcionando un marco digital para abordar eficazmente temas filosó-ficos en el entorno educativo actual. Este enfoque facilita la conexión entre las TIC y la enseñanza de la filosofía, adaptando los procesos educativos a las innova-ciones tecnológicas de manera sinérgica. ABSTRACT This study focuses on analyzing emerging patterns in qualitative narratives about the impact of Information and Communication Technologies (ICT) on the teaching of Philosophy. Using a qualitative systematic review of scientific productions between 2011 and 2022, 18 documents were identified in databases such as Dialnet, DSpace, and Google Scholar. Under the PRISMA method, emerging categories were found, such as ICT-Philosophy paradigms, dimensions of digital knowledge and educational transformation with ICT. Each category integrates key concepts, providing a digital framework to address philosophical issues in today's educational environment effectively. This approach facilitates the connection between ICT and the teaching of philosophy, adapting educational processes to technological innovations in a synergistic way. Key words: Information and communication technology – ICT, Philosophy, Teaching, Learning RESUMO Este estudo centra-se na análise de padrões emergentes em narrativas qualitativas sobre o impacto das tecnologias de informação e comunicação (TICs) no ensino de filosofia. Por meio de uma revisão sistemática qualitativa de produtos científicos entre 2011 e 2022, foram identificados 18 artigos em bases de dados como Dialnet, DSpace e Google Scholar. No âmbito do método PRISMA, foram encontradas categorias emergentes, tais como paradigmas das TIC-Filosofia, dimensões do conhecimento digital e a transformação da educação com as TIC. Cada categoria incorpora comceitos-chave, fornecendo uma estrutura digital para abordar eficazmente questões filosóficas no ambiente educacional de hoje. Esta abordagem facilita a ligação entre as TIC e o ensino da filosofia, adaptando os processos educativos às inovações tecnológicas de forma sinérgica. Palavras-chaves: Tecnologias de Informação e Comunicação – TIC, Filosofia, Ensino, Aprendizagem RÉSUMÉ Cette étude se concentre sur l’analyse des modèles émergents dans les récits qualitatifs sur l’impact des technologies de l’information et de la communication (TIC) sur l’enseignement de la philosophie. À l’aide d’une revue systématique qualitative des productions scientifiques entre 2011 et 2022, 18 documents ont été identifiés dans des bases de données telles que Dialnet, DSpace et Google Scholar. Dans le cadre de la méthode PRISMA, des catégories émergentes ont été trouvées, telles que les paradigmes TIC-Philosophie, les dimensions de la connaissance numérique et la transformation de l’éducation avec les TIC. Chaque catégorie intègre des concepts clés, fournissant un cadre numérique pour aborder efficacement les questions philosophiques dans l'envi-ronnement éducatif d'aujourd'hui. Cette approche facilite le lien entre les TIC et l’enseignement de la philosophie, en adaptant les processus éducatifs aux innovations technologiques de manière synergique. Mots clés: Technologies de l'information et de la communication – TIC, Philosophie, Enseignement, Apprentissage
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Weiner, Irving B. "Speaking Rorschach: Our Method Stands Tall". Rorschachiana 22, n.º 1 (enero de 1997): 1–12. http://dx.doi.org/10.1027/1192-5604.22.1.1.

Texto completo
Resumen
J’ai eu le grand privilège d’assumer, depuis 1990, la fonction de Rédacteur-en-Chef de Rorschachiana: Yearbook of the International Rorschach Society. Après une période initiale de planification, cinq numéros ont été publiés, et mon mandat se termine avec ce volume de 1997. Je souhaite ici exprimer ma gratitude aux collègues qui m’ont apporté leur aide et aux auteurs qui ont contribué avec tant de grâce. Chacun de ces volumes comporte une introduction intitulée “Parler Rorschach”, où j’ai exprimé quelques idées. J’ai tout d’abord avancé que la connaissance du Rorschach nous conférait un langage commun qui nous permet de communiquer entre nous et de partager notre compréhension de l’évaluation de la personnalité. J’ai engagé les membres de la communauté Rorschach à s’écouter mutuellement comme à se parler, dans le respect des approches bien pensées qui diffèrent de la leur. J’ai suggéré qu’il convenait de considérer les controverses théoriques comme des occasions d’élargir notre horizon plutôt que d’abaisser les points de vue avec lesquels nous ne sommes pas en accord, ou encore de nous retrancher des camps adverses. J’ai plaidé pour une plus grande sensibilité aux différences culturelles et j’ai attiré l’attention sur le fait que, bien que le Rorschach soit universellement applicable comme méthode d’évaluation de la personnalité, la façon dont les gens réagissent aux taches d’encre est en partie influencée par leur héritage personnel. Mes commentaires se sont jusqu’à présent centrés sur les “affaires internes” de la communauté Rorschach, à savoir sur la façon dont les praticiens du Rorschach devaient se parler. Ma dernière variation sur le thème “Parler Rorschach” portera sur nos “affaires extérieures”, c’est-à-dire comment nous devons parler aux autres. Plus précisément, les “affaires extérieures” du Rorschach concernent la question de savoir comment la méthode des taches d’encre est regardée par les praticiens non-Rorschach, les chercheurs, les éducateurs, les hommes politiques et le public en général dont les opinions influencent l’utilisation, l’étude et l’enseignement du Rorschach. La méthode Rorschach a connu une longue histoire de critiques acerbes, et les enthousiastes du Rorschach ont la douloureuse habitude d’entendre des remarques désobligeantes à propos de leur instrument et des attaques gratuites contre leur confiance en lui. Aujourd’hui, alors que l’utilisation du test repose sur des recherches plus solidement établies, qu’elle concerne des champs d’applications plus variés, et connaît une propagation mondiale jamais égalée, on se trouve semble-t-il devant un regain de sentiments anti-Rorschach, tout du moins dans les milieux académiques. Aux Etats-Unis, par exemple, un livre de Dawes (1994) où le Rorschach était qualifié “d’instrument de pacotille” qui “n’est pas valide pour tester quoi que ce soit” a connu un certain succès, tout comme un article de Wood, Nezworski et Stejskal (1996) qui affirment que les concepts fondamentaux sur lesquels repose le Système Intégré sont “erronés”. Aux Etats-Unis, tout comme dans certains autres pays, les psychologues Rorschach ont récemment été confrontés à des difficultés croissantes à obtenir un financement pour leurs recherches et un créneau d’enseignement du Rorschach dans les cursus universitaires. Face aux arguments hostiles et à l’apparente multiplication des obstacles, les membres de la communauté Rorschach pourraient certes se décourager dans leur travail, voire même se demander si, après tout, leur méthode serait moins bonne qu’ils ne le pensaient. A ceux-là je réponds par le titre de mon introduction d’aujourd’hui, que l’on peut étayer par une abondante littérature et transmettre à tout esprit quelque peu ouvert: Notre méthode garde la tête haute. Avant de donner quelques arguments en faveur de cette assertion, je me dois d’expliciter la suggestion que j’avais faite de parler de la “méthode” Rorschach plutôt que du “test” du Rorschach ( Weiner, 1994 , 1995 a ). John Exner, ami intime et président actuel de la Société Internationale du Rorschach, en a pris ombrage. Exner (1997) craint que le respect, si chèrement gagné, pour le Rorschach en tant qu’un instrument psychométrique solide ne soit remis en question par des propositions qui tendraient à faire croire qu’il ne serait pas justifié de considérer le Rorschach comme un test. Je partage tout à fait ses craintes, et je continue à soutenir publiquement l’idée que la respectabilité du Rorschach ne peut être établie que par des recherches aux critères psychométriques rigoureux ( Weiner, 1981 , 1995 ). Il ne fait pour moi aucun doute que, en tant qu’un instrument de mesure standardisé aux propriétés psychométriques connues, le Rorschach répond à tous les critères d’un test. C’est pourquoi, ma préférence pour la désignation du Rorschach comme méthode des taches d’encre n’a rien à voir avec une quelconque critique de ses qualités en tant qu’un test. Bien au contraire, je pense que le Rorschach non seulement est un test, mais qu’il est plus qu’un test, et qu’il serait réducteur de ne le considérer rien que comme un test. Plus qu’un test, le Rorschach est une méthode de recueil de données multidimensionnelle, qui traverse les différentes approches théoriques du fonctionnement de la personnalité et qui prend en compte non seulement ce que les gens disent dans leurs réponses, mais aussi pourquoi et comment ils les disent. Ce sont bien ces caractéristiques qui confèrent sa richesse à la méthode des taches d’encre, et en rendent les résultats applicables à des champs si divers. Pour conclure, je retournerai à mon titre et à la question de savoir en quoi le Rorschach garde la tête haute et pourquoi le partisan de la méthode des taches d’encre n’a nul besoin d’abdiquer face à la bataille professionnelle qu’il lui incombe de mener pour sa défense. Comme je l’ai développé dans trois articles récents, ( Weiner, 1996a , 1996b , 1997 ), l’actuel statut scientifique, clinique et professionnel du Rorschach démontre la vigueur et l’utilité de cette méthode d’évaluation de la personnalité et montre à l’évidence que ses détracteurs sont tout bonnement mal informés. En ce qui concerne son statut scientifique, un instrument de mesure est valable sur le plan psychométrique si (a) des examinateurs dûment formés peuvent se mettre d’accord sur la cotation des variables; (b) l’appréciation de sa fiabilité indique qu’il procure des informations précises; (c) ses corollaires démontrés identifient des buts conformes à ce pour quoi il est valide; et (d) il existe des données normatives concernant les statistiques descriptives dans diverses populations qui permettent de comparer les résultats d’un individu à ceux du groupe de référence approprié. D’abondantes études publiées indiquent que la Méthode Rorschach des Taches d’Encre, surtout lorsqu’elle est administrée et cotée selon le Système Intégré, satisfait pleinement à chacune de ces quatre conditions psychométriques. Le statut clinique d’un instrument d’évaluation est déterminé par le but qu’il sert dans son application pratique. D’abondantes études démontrent que des examinateurs compétents peuvent utiliser les données du Rorschach pour produire des descriptions valides de la structure et de la dynamique de la personnalité; contribuer de façon importante au diagnostic différentiel des troubles psychologiques; aider les psychothérapeutes à définir les objectifs d’un traitement et mettre en évidence d’éventuels obstacles à la progression du traitement, à choisir les modalités thérapeutiques les plus pertinentes, et à surveiller les changements et les améliorations obtenus au cours du temps; et identifier les aspects du comportement qui sont principalement déterminés par des caractéristiques permanentes de la personnalité. Nous savons donc que les informations obtenues à partir du Rorschach peuvent effectivement servir à des fins pratiques importantes et variées. Le statut professionnel d’une méthode clinique se reflète dans sa fréquence d’utilisation et dans l’estime qu’on lui morte. En dépit des craintes alarmistes qui font état d’un déclin dans l’utilisation du Rorschach, des enquêtes réitérées sur les usages en matière de testing aux Etats-Unis, menées depuis 35 ans, ont montré une fréquence élevée et sans éclipse de l’utilisation du Rorschach dans les contextes cliniques, et la très grande majorité des cliniciens continuent à croire que les étudiants en psychologie clinique devraient être compétents dans l’évaluation à l’aide du Rorschach. Dans d’autres endroits du monde aussi, le Rorschach reste un instrument de large utilisation et continue d’attirer les étudiants qui veulent l’apprendre. L’épanouissement actuel de la Société Internationale du Rorschach, l’importance, en nombre et en qualité, de la participation aux congrès internationaux du Rorschach, et le lancement de Rorschachiana, portent aussi témoignage de la vigueur et de la dissémination de la méthode Rorschach. C’est ainsi que le Rorschach garde la tête haute. Notre méthode est bien établie en tant qu’un instrument psychométrique solide qui mesure des dimensions de la personnalité, aide au diagnostic différentiel et contribue aux indications thérapeutiques et à l’évaluation des différents traitement. On voit surgir des quatre coins du monde, à un rythme soutenu, des avancées conceptuelles, empiriques et pratiques, et il ne fait pas de doute que le Rorschach, vieux déjà de 75 ans, entre dans une période de croissance et de maturité en tant qu’un outil qui permet valablement de décrire et comprendre la condition humaine. Dans ce volume de Rorschachiana on trouvera des contributions en provenance du Brésil, du Canada, du Royaume-Uni, d’Italie, d’Espagne, de Suisse, du Venezuela et des Etats-Unis, ce qui porte au nombre de 19 les pays représentés dans les volumes 1993 à 1997.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

NYS, Y. "Préface". INRAE Productions Animales 23, n.º 2 (10 de abril de 2011): 107–10. http://dx.doi.org/10.20870/productions-animales.2010.23.2.3292.

Texto completo
Resumen
A la question «Qui de l’oeuf ou de la poule est né le premier ?» Silésius répondait «l’oeuf est dans la poule et la poule dans l’oeuf» soulignant sa dualité, le passage du deux en un. Dans l’imagerie populaire, l’oeuf reflète le tout et son contraire, fragilité, protection, épargne, abondance (être «plein comme un oeuf»), richesse («avoir pondu ses oeufs»), éternité (le Phénix est né de l’oeuf) mais aussi mort et destruction («casser ses oeufs» se dit d’une fausse couche). Dans la mythologie de nombreuses civilisations, l’oeuf est le symbole de la naissance du monde (Apollon, le dieu grec de la lumière est né de l’oeuf). L’oeuf décoré apparu 3000 ans avant J.-C. en Ukraine fête, au printemps, le retour de la fécondité de la nature ; l’oeuf de Pâques la résurrection du Christ. L’oeuf est un tout à condition d’en sortir ! Fragile cependant car selon La Fontaine briser l’oeuf de la poule aux oeufs d’or (par curiosité) rompt l’effet magique (Auer et Streff 1999). Pour l’Homme, l’oeuf séduit pour sa valeur nutritionnelle, sa diversité d’utilisation en cuisine et son prix modique. Il en existe une grande diversité, de l’oeuf de Colibri (0,5 g) à l’oeuf de l’Aepyornis (8 litres soit l’équivalent de 150 oeufs), un oiseau de Madagascar (500 kg) disparu au 18ème siècle. Mais l’Homme ne consomme que l’oeuf de caille, de poule ou de cane. L’ère moderne a considérablement intensifié la production de ces deux dernières espèces car les poules saisonnées, qui étaient élevées avec soin par la fermière, ont plus que doublé leur production en 60 ans (de 120 oeufs par an dans les années 50 à plus de 300 aujourd’hui). Cette révolution technique résulte des efforts conjugués de la sélection génétique, d’une alimentation raisonnée répondant aux besoins nutritionnels, d’une évolution du système de production (apparition des cages) et d’une meilleure connaissance de la pathologie aviaire. Qu’en est-il du contrôle de la qualité nutritionnelle, organoleptique, technologique et hygiénique de l’oeuf ? L’oeuf est la plus large cellule reproductrice en biologie animale. Il assure dans un milieu externe le développement et la protection d’un embryon dans une enceinte fermée matérialisée par la coquille. Aussi, une de ses particularités est la diversité de ses constituants, de leur parfait équilibre nutritionnel et leur forte digestibilité, qui assure la croissance d’un être vivant. Ces caractéristiques sont à l’origine de la qualité nutritionnelle exceptionnelle de l’oeuf pour l’Homme. Une autre particularité est la présence d’une protection physique, la coquille mais, aussi d’un système complexe de défenses chimiques. Aussi, ce produit est-il remarquable de par son aptitude à engendrer la vie et pour l’oeuf de table à se conserver. Outre les éléments nutritifs, on y trouve de multiples molécules participant au développement et à la protection de l’embryon (molécules antibactériennes, antivirales, antioxydantes). Certaines d’entre elles, comme par exemple le lysozyme de blanc d’oeuf, sont partiellement valorisées par différents secteurs industriels (agroalimentaire, cosmétique, santé animale/humaine). La révélation récente d’un grand nombre de nouveaux constituants de l’oeuf, suite au séquençage génomique de la poule et au développement de la biologie intégrative, a conforté l’existence d‘activités antimicrobiennes, anti-adhésives, immuno-modulatrices, hypertensives, anticancéreuses, antiinflammatoires ou cryoprotectrices, prometteuses en médecine humaine et devrait à terme enrichir le potentiel d’utilisation de ce produit en agroalimentaire et en santé. L’objet de ce numéro spécial d’INRA Productions Animales est de rassembler les principales informations qui ont contribué au développement économique récent de ce produit, de rappeler les efforts en génétique, élevage et nutrition qui ont assuré des progrès quantitatifs et qualitatifs remarquables de la production et de la qualité des oeufs au cours des trente dernières années. Les poules élevées à l’origine par la femme pour un usage domestique se comptent aujourd’hui par milliers dans les élevages. Quelle sera la durabilité de ce système d’élevage dans un contexte socio-économique européen remettant en cause en 2012 le système éprouvé de production conventionnel d’oeufs en cage pour des cages aménagées ou des systèmes alternatifs avec ou sans parcours ? Notre objectif est d’analyser les facteurs qui contribueront à son maintien, notamment le contrôle de la qualité de l’oeuf. Il est aussi de décrire l’évolution spectaculaire des connaissances sur ce produit liée au développement des techniques à haut débit et des outils d’analyse des séquences moléculaires. Il permettra enfin d’actualiser les atouts de ce produit. Ce numéro est complémentaire d’un ouvrage plus exhaustif sur la production et la qualité de l’oeuf (Nau et al 2010). Le premier article de P. Magdelaine souligne la croissance considérable en 20 ans de la production d’oeufs dans les pays d’Asie et d’Amérique du Sud (× 4 pour la Chine, × 2 en Inde et au Mexique). En revanche, les pays très développés notamment européens à forte consommation (> 150 oeufs/hab) ont stabilisé leur production malgré une évolution importante de la part des ovoproduits mais aussi de leurs systèmes de production. La consommation des protéines animales entre pays est tout aussi hétérogène puisque le ratio protéines de l’oeuf / protéines du lait varie de 0,4 au USA, à 0,9 en France et 2,7 en Chine ! Le doublement de la production mondiale d’oeufs en 20 ans n’a été possible que grâce à des progrès techniques considérables. La sélection génétique a renforcé les gains de productivité (+ 40 oeufs pour une année de production et réduction de l’indice de consommation de 15% en 20 ans !). L’article de C. Beaumont et al décrit cette évolution, la prise en compte croissante de nouveaux critères de qualité technologique, nutritionnelle ou sanitaire. Ces auteurs soulignent les apports des nouvelles technologies, marqueurs moléculaires et cartes génétiques sur les méthodes de sélection. Ils dressent un bilan actualisé des apports et du potentiel de cette évolution récente en sélection. Le séquençage génomique et le développement de la génomique fonctionnelle est aussi à l’origine d’une vraie révolution des connaissances sur les constituants de l’oeuf comme le démontre l’article de J. Gautron et al. Le nombre de protéines identifiées dans l’oeuf a été multiplié par plus de dix fois et devrait dans un avenir proche permettre la caractérisation fonctionnelle de nombreuses molécules. Il donne aussi de nouveaux moyens pour prospecter les mécanismes d’élaboration de ce produit. Un exemple de l’apport de ces nouvelles technologies est illustré par l’article de Y. Nys et al sur les propriétés et la formation de la coquille. Des progrès considérables sur la compréhension de l’élaboration de cette structure minérale sophistiquée ont été réalisés suite à l’identification des constituants organiques de la coquille puis de l’analyse de leur fonction potentielle élucidée grâce à la disponibilité des séquences des gènes et protéines associés. La mise en place de collaborations internationales associant de nombreuses disciplines, (microscopie électronique, biochimie, cristallographie, mécanique des matériaux) a démontré le rôle de ces protéines dans le processus de minéralisation et du contrôle de la texture de la coquille et de ses propriétés mécaniques. Cette progression des connaissances a permis de mieux comprendre l’origine de la dégradation de la solidité de la coquille observée chez les poules en fin d’année de production. La physiologie de la poule est responsable d’évolution importante de la qualité de l’oeuf. Aussi, l’article de A. Travel et al rappelle l’importance d’effets négatifs de l’âge de la poule contre lequel nous disposons de peu de moyens. Cet article résume également les principales données, souvent anciennes, concernant l’influence importante des programmes lumineux ou de la mue pour améliorer la qualité de l’oeuf. Enfin, il souligne l’importance de l’exposition des poules à de hautes températures ambiantes sur leur physiologie et la qualité de l’oeuf. Le troisième facteur indispensable à l’expression du potentiel génétique des poules, et déterminant de la qualité technologique et nutritionnelle de l’oeuf, est la nutrition de la poule. Elle représente plus de 60% du coût de production. L’article de I. Bouvarel et al fait le point sur l’influence de la concentration énergétique de l’aliment, de l’apport en protéines et acides aminés, acides gras et minéraux sur le poids de l’oeuf, la proportion de blanc et de jaune ou sa composition notamment pour obtenir des oeufs enrichis en nutriments d’intérêt en nutrition humaine. Cependant, la préoccupation principale des éleveurs depuis une dizaine d’année est la mise en place en 2012 de nouveaux systèmes de production d’oeufs pour assurer une meilleure prise en compte du bien-être animal. L’article de S. Mallet et al traite de l’impact des systèmes alternatifs sur la qualité hygiénique de l’oeuf. Ces auteurs concluent positivement sur l’introduction de ces nouveaux systèmes pour la qualité hygiénique de l’oeuf une fois que les difficultés associées aux méconnaissances d’un nouveau système de production seront résolues. La qualité sanitaire de l’oeuf est la préoccupation majeure des consommateurs et un accident sanitaire a des conséquences considérables sur la consommation d’oeufs. L’article de F. Baron et S. Jan résume d’une manière exhaustive l’ensemble des éléments déterminants de la qualité microbiologique de l’oeuf et des ovoproduits : mode de contamination, développement des bactéries dans les compartiments de l’oeuf, défenses chimiques du blanc et moyens pour contrôler la contamination des oeufs et des ovoproduits. Le consommateur ne souhaite pas, à juste titre, ingérer d’éventuels contaminants chimiques présents dans ses aliments. L’article de C. Jondreville et al analyse ce risque associé à la consommation des oeufs. Il est exceptionnel de détecter la présence de polluants organiques au seuil toléré par la législation. Les auteurs insistent notamment sur l’importance de contrôler la consommation par les animaux élevés en plein air de sols qui peuvent être une source de contaminants. Une caractéristique de l’évolution de la production d’oeufs est le développement des ovoproduits qui répondent parfaitement à l’usage et à la sécurité sanitaire exigée en restauration collective. L’article de M. Anton et al décrit le processus d’obtention et l’intérêt des fractions d’oeufs du fait de leurs propriétés technologiques (pouvoirs moussant, foisonnant, gélifiant ou émulsifiant). Les différents processus de séparation, de décontamination et de stabilisation sont analysés pour leur effet sur la qualité du produit final. Enfin le dernier article de ce numéro spécial de F. Nau et al se devait d’aborder la principale qualité de l’oeuf qui conditionne son usage : la qualité nutritionnelle de ce produit pour l’Homme. Cet article actualise l’information dans ce domaine et fait le point sur les atouts nutritionnels en tentant de corriger de fausses idées. L’oeuf présente un intérêt nutritionnel du fait de la diversité et l’équilibre de ces constituants pour l’Homme mais mériterait plus d’études pour mieux évaluer son potentiel réel. En conclusion, l’oeuf est la source de protéines animales ayant la meilleure valeur nutritionnelle, la moins chère, facile d’emploi et possédant de nombreuses propriétés techno-fonctionnelles valorisées en cuisine. Dans les pays développés, l’oeuf a souffert jusqu’à aujourd’hui d’une image entachée par plusieurs éléments négatifs aux yeux des consommateurs : sa richesse en cholestérol, le risque sanitaire associé à sa consommation sous forme crue ou son système de production en cage. L’évolution des connaissances sur le risque cardio-vasculaire, les progrès réalisés sur le contrôle sanitaire des Salmonelloses en Europe et la modification radicale des systèmes de production d’oeufs devraient modifier positivement son image. La consommation de protéines de l’oeuf a augmenté de plus de 25% en 20 ans (2,53 g/personne/j vs 4,3 g pour le lait en 2005) et poursuivra sa croissance rapide notamment dans les pays en développementoù sa consommation par habitant reste faible. Cette évolution considérable de la production de ce produit devrait être mieux intégrée dans les formations des écoles spécialisées en productions animales. L’oeuf restera dans l’avenir une des sources de protéines animales dominantes et l’acquisition de connaissances sur la fonction des nombreux constituants récemment mis à jour devait renforcer son intérêt pour la santé de l’Homme. Je ne voudrais pas terminer cette préface sans remercier au nom des auteurs, Jean-Marc Perez, le responsable de la revue INRA Productions Animales, d’avoir pris l'initiative de la publication de ce numéro spécial dédié à l'oeuf et d’avoir amélioré par plusieurs lectures attentives la qualité finale des textes. Je voudrais aussi adresser mes remerciements à sa collaboratrice Danièle Caste pour le soin apporté dans la finition de ce document. Enfin, je n'oublie pas le travail d'évaluation critique des projets d'article par les différents lecteursarbitres que je tiens à remercier ici collectivement. Auer M., Streff J., 1999. Histoires d’oeufs. Idées et Calendes, Neuchatel, Suisse, 261p.Nau F., Guérin-Dubiard C., Baron F., Thapon J.L., 2010. Science et technologie de l’oeuf et des ovoproduits, Editions Tec et Doc Lavoisier, Paris, France, vol 1, 361p., vol 2, 552p.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

FAVERDIN, P. y C. LEROUX. "Avant-propos". INRAE Productions Animales 26, n.º 2 (16 de abril de 2013): 71–76. http://dx.doi.org/10.20870/productions-animales.2013.26.2.3137.

Texto completo
Resumen
Le lait n’est pas tout à fait un aliment comme les autres puisqu’il est aussi produit par l’Homme. Cet aliment est indispensable à l’alimentation de l’enfant, car sa richesse nutritionnelle combinée à sa forme liquide en font une ration « tout en un » du jeune pendant ses premières semaines de vie. L’homme a très tôt domestiqué d’autres mammifères pour produire cet aliment nécessaire pour le jeune et l’a aussi intégré dans l’alimentation de l’adulte sous forme native ou après transformation. De fait, le lait est un des rares produits animaux avec l’oeuf qui est produit régulièrement et qu’il est possible d’obtenir sans tuer l’animal. Sa production fait pleinement partie de la fonction de reproduction et son prélèvement doit être géré pour ne pas handicaper le développement du jeune animal qui est également un élément d’avenir dans l’élevage. Les vaches laitières ont longtemps bénéficié de noms très personnalisés, voire de prénoms, jusqu’à ce que la traçabilité ne vienne proposer des identifiants plus proches du matricule de la sécurité sociale que des petits noms affectueux utilisés jusqu’alors. La traite est un moment particulier où l’éleveur se substitue au jeune pour prélever le lait plusieurs fois par jour. Tout ceci fait traditionnellement de l’élevage laitier un élevage qui associe étroitement l’homme et l’animal. Au commencement de la domestication et pendant longtemps, le principal défaut du lait a résidé dans sa faible aptitude à la conservation, nécessitant une consommation plutôt locale, le temps entre production et consommation devant rester le plus court possible. De fait, le développement de sa consommation dans les villes est récent et ne s’est pas fait sans quelques soucis (Fanica 2008). Bien entendu, les évolutions de l’industrie laitière et des transports ont permis de franchir ce double cap de la conservation et des distances, faisant en quelques décennies d’un produit local du peuple d’un terroir, riche d’identité, d’histoire et de culture (Faye et al 2010), un produit générique du commerce mondial qui s’échange entre continents suivant les règles de l’organisation mondiale du commerce et dont la demande augmente régulièrement. Ce passage du local au mondial ne s’effectue pas sans des changements radicaux des modes de production et de l’organisation des filières, avec des conséquences parfois importantes sur les territoires. La production de lait en France, pays traditionnel d’élevage bovin laitier, illustre parfaitement cette évolution et se trouve aujourd’hui à une période charnière. Riche d’une grande diversité de terroirs et de produits, la production française présente un profil original dont on ne sait pas aujourd’hui si c’est une force ou une faiblesse dans cette évolution. Depuis 1984, le système des quotas laitiers liés à la terre et non commercialisables en France a ralenti, comparativement aux pays voisins, l’évolution vers une spécialisation et une intensification des systèmes de production laitiers, mais il disparaîtra en 2015. Le contexte économique des prix des matières premières et du prix du lait devient beaucoup plus instable que par le passé. Le métier d’éleveur laitier, avec sa complexité, sa charge de travail importante, ses astreintes et la diminution de sa rémunération, devient moins attractif. La nécessaire prise en compte de l’impact de l’élevage sur l’environnement et plus globalement de la durabilité, constitue un nouveau défi qui est souvent vécu comme une contrainte supplémentaire. Cependant, les connaissances scientifiques et technologiques ont beaucoup progressé et offrent de nouveaux outils à l’élevage laitier pour construire une trajectoire originale dans cette évolution. Ce numéro spécial d’INRA Productions Animales se propose donc en quelques articles de faire un état des lieux des connaissances concernant la production laitière, ainsi que des nouveaux défis et des nouveaux outils qui s’offrent à la filière pour construire son avenir. Ce panorama n’est volontairement pas exhaustif et traitera prioritairement des vaches laitières avec cependant, lorsqu’il est apparu nécessaire, quelques exemples tirés de travaux réalisés chez les caprins. De même, il ne s’agit pas ici d’aborder la transformation du lait et les évolutions des nombreux produits transformés. Mais nous avons cherché à présenter un point sur un certain nombre de sujets en mettant en avant les avancées récentes et les défis scientifiques, techniques, économiques et organisationnels qui concernent la production laitière, en quatre grandes parties. La première plantera tout d’abord le décor du secteur laitier français. La deuxième présentera les nouvelles avancées des travaux sur la femelle laitière, la lactation et le lait. La troisième analysera les différents leviers que constituent la sélection génétique, la gestion de la santé, l’alimentation et la traite, pour mieux maîtriser la production de lait en élevage. Enfin, la dernière partie abordera des questions plus spécifiques concernant les systèmes d’élevage et leur futur. Le premier article de V. Chatellier et al fournit une analyse à la fois du bilan et des perspectives du secteur laitier français. Après une analyse du marché des produits laitiers au travers de la demande et de l’offre et des grandes stratégies des acteurs de la filière, cet article présente les spécificités françaises des exploitations laitières liées en particulier à la diversité des systèmes de production et des territoires. Cette double diversité se traduit également dans les écarts de productivité et des résultats économiques des exploitations dont la main-d’oeuvre reste majoritairement familiale, avec la question de son renouvellement qui se pose différemment selon les territoires. Enfin, à l’aune des changements importants de contexte qui se préparent avec la fin des quotas et les nouvelles relations qui se mettent en place entre producteurs et transformateurs, les auteurs étudient les différents scénarios qui en découlent et qui conduiront à l’écriture du futur du secteur laitier français dans les territoires et le marché mondial. La série d’articles sur l’animal et le lait débute par une approche systémique de l’animal laitier. La vache laitière est d’abord perçue au travers de sa fonction de production, et les modèles de prévision de la lactation se sont longtemps focalisés sur cette seule fonction. La notion d’animaux plus robustes et d’élevages plus durables (cf. Dossier « Robustesse... », Sauvant et Perez 2010) amène à revisiter cet angle d’approche pour l’élargir à ensemble des fonctions physiologiques en prenant mieux en compte les interactions entre les génotypes animaux et leurs environnements. La modélisation aborde cette complexité de deux façons contrastées, l’une plutôt ascendante en partant des mécanismes élémentaires et en les agrégeant, l’autre plutôt descendante, en partant de grandes propriétés émergeantes des principales fonctions et de leurs interactions, voire de leur compétition dans l’accès aux ressources nutritionnelles. La revue de Friggens et al aborde ainsi la question de la dynamique de partition des nutriments entre fonction physiologiques chez les vaches laitières en fonction du génotype en présentant plusieurs approches de modélisation. Cette revue s’attache à montrer l’intérêt de partir des propriétés émergeantes pour arriver à modéliser les réponses complexes (production, reproduction, composition du lait, état corporel…) d’une vache soumise à différentes conduites d’élevage au cours de sa carrière. Les outils de demain qui permettront d’optimiser la conduited’élevage face aux aléas économiques et climatiques dépendront de l’avancée de ces modèles et des connaissances scientifiques qui les sous-tendent. La fonction de lactation est la conséquence de nombreux mécanismes à l’échelle de l’animal, tout particulièrement au niveau de la glande mammaire. Le développement et le fonctionnement de cet organe caractérisé par sa cyclicité ont fait l’objet de nombreux travaux à l’Inra et dans de nombreuses équipes de recherches internationales. Il ne s’agissait pas ici de relater l’ensemble de ces travaux mais de consacrer un article aux dernières connaissances acquises sur les mécanismes de biosynthèse et de sécrétion des constituants du lait. L’article de Leroux et al présente les travaux sur la régulation de l’expression génique dans la glande mammaire avec un intérêt particulier pour les données acquises avec les nouveaux outils d’études globales de génomique expressionnelle. Ceux-ci apportent de nouvelles connaissances sur les effets des facteurs génétiques sur la biosynthèse et la sécrétion du lait, sur leur régulation nutritionnelle et sur l’interaction de ces facteurs. Ce dernier point constitue un champ d’investigation supplémentaire pour décrypter les secrets du fonctionnement mammaire avec notamment l’intervention de nouveaux acteurs que sont les petits ARN non codants (ou microARN) qui vient encore accroître la complexité du fonctionnement mammaire dans son rôle prépondérant lors de la lactation. Après avoir fait cet état des lieux des connaissances sur la biosynthèse et la sécrétion des constituants du lait au niveau de la glande mammaire, l’article de Léonil et al présente la complexité des fractions protéique et lipidique du lait et de leur assemblage en structures supramoléculaires. Ces structures finales sont sous la dépendance de la nature et de la variabilité des constituants, ellesmêmes dues aux polymorphismes des gènes responsables de leur synthèse. Ainsi, les auteurs font un état des lieux des connaissances sur la structure et le polymorphisme des gènes spécifiant les protéines coagulables du lait que sont les caséines pour arriver à l’organisation de ces dernières en micelles. Le rôle nutritionnel de ces protéines majeures du lait et leur fonction biologique sont revisitées à la lumière des connaissances croissantes sur les peptides bioactifs qu’elles contiennent. La fraction lipidique n’est pas en reste avec la présentation de sa complexité et de son organisation sous forme de globule gras ainsi que de son impact nutritionnel sur le consommateur. Enfin, la découverte récente, dans le lait, de petites particules (ou exosomes) véhiculant des protéines et des ARN ouvre de nouvelle voies d’investigation de l’impact du lait sur la santé du consommateur. La série d’articles consacrée aux leviers d’action dont disposent les éleveurs pour moduler la production laitière ainsi que la composition du lait débute par l’article de Brochard et al, qui retrace l’impact de la sélection génétique pour arriver aux apports de la sélection génomique des races bovines laitières. Un bref historique de la sélection génétique présente les progrès réalisés sur les caractères de production laitière mais aussi sur des caractères de robustesse (fertilité, mammites…) et permet ainsi de dresser le décor génétique des élevages français. L’avènement des outils de génomique grâce au séquençage du génome bovin a conduit à renouveler les perspectives de sélection des bovins laitiers (cf. Numéro spécial, «amélioration génétique" Mulsant et al 2011). La présentation brève de ces outils permet de mieux appréhender les retombées attendues. Les opportunités offertes par la sélection génomique sur les caractères laitiers sensu stricto se complètent et permettent également de proposer une sélection sur de nouveaux caractères. En effet, la prise en compte progressive d’autres caractères oriente la sélection vers une complexité accrue notamment grâce à l’établissement de nouvelles mesures phénotypiques. L’évolution vers une meilleure robustesse, une efficacité alimentaire optimisée mais aussi une empreinte environnementale réduite, sera d’autant plus envisageable que la sélection pourra s’appuyer sur des capacités de phénotypage de plus en plus fin et à grande échelle. Un autre facteur prépondérant dans l’élevage laitier concerne la gestion de la santé animale qui affecte, notamment, la durabilité des élevages sous l’angle socio-économique. Cette gestion complexe doit prendre en compte de nombreux paramètres tel que le nombre des traitements nécessaires, le temps passé, les pertes économiques directes à court et long terme, etc. Les infections ne touchent pas toutes directement la glande mammaire, mais en affectant l’animal, elles impactent la lactation, l’efficacité de production du troupeau et donc l’élevage. L’article de Seegers et al passe en revue sept maladies majeures classées en trois groupes affectant les bovins laitiers. Il présente les connaissances récentes acquises sur ces maladies et les perspectives qu’elles ouvrent pour mieux les maîtriser. Ces maladies ont bien souvent un impact économique fort sur les élevages et/ou sont transmissibles à l’Homme constituant ainsi des questionnements de recherche forts et pour lesquels les moyens d’actions sont aussi multiples que variés. De plus, les attentes sociétales visent à diminuer, autant que faire se peut, les intrants médicamenteux. L’alimentation est un levier de maîtrise de la production et de la composition du lait qui présente l’avantage d’avoir des effets rapides et réversibles. Bien que ce levier puisse également moduler la composition protéique du lait, l’impact prépondérant de l’alimentation sur la composition en acides gras du lait, dans le but de fournir aux consommateurs une qualité nutritionnelle du lait la plus favorable possible, a été mis en exergue par de nombreuses études. La détermination de la composition en acides gras des laits est de plus en plus précise, notamment du fait des nouvelles techniques qui permettent une meilleure caractérisation de ces profils. Outre l’impact de l’alimentation, les effets des apports nutritionnels chez le ruminant sur les teneurs en composés vitaminiques du lait sont également à prendre en compte dans la perspective de l’utilisation du lait comme source complémentaire naturelle de vitamines chez les sujets présentant une efficacité d’absorption réduite (tel que les jeunes ou à l’inverse les personnes âgées). L’article de Ferlay et al recense les principaux facteurs alimentaires (nature de la ration de base, supplémentation oléagineuse, différents types de suppléments lipidiques et leurs interactions) influençant la composition en acides gras et en vitamines du lait de vache. Enfin, la traite constitue un outil supplémentaire de pilotage des troupeaux en termes de production laitière mais aussi de qualité sanitaire, technologique et nutritionnelle du lait. De plus, une meilleure connaissance des effets des différentes pratiques de traite est cruciale dans le contexte actuel de gestion du travail dans les exploitations laitières (cf. Numéro spécial, « Travail en élevage », Hostiou et al 2012). Les moyens mis en oeuvre se situent à différents niveaux allant de la fréquence de traite aux systèmes de stockage des laits en passant par les réglages possibles ou les types de machines à traire. L’article de Guinard-Flament et al fait le point des connaissances actuelles sur les effets et les conséquences de modifications de la conduite des animaux à la traite. Il présente les effets de la fréquence de traite sur le niveau de production laitière et sur la composition du lait. Le contexte de la traite, avec les effets mécaniques de la machine à traire et celui du système de stockage, est également présenté dans ses multiples facettes pour souligner leur rôle prépondérant sur la qualité microbienne des laits. La conduite des vaches à la traite est également un moyen de gestion de la carrière d’une vache laitière à travers le pilotage de certaines phases du cycle de production (effets sur la reproduction et sur la durée de la lactation et leurs conséquences sur la santé de l’animal...). La dimension des systèmes d’élevage est dominée ces dernières années par la question environnementale, notamment depuis la parution du rapport de la FAO « Livestock’s long shadow » (Steinfeld et al 2006). L’élevage laitier, très consommateur de ressources de qualité, est concerné au premier rang par ce défi environnemental. Mais ces enjeux, peu perceptibles à l’échelle de l’élevage pourtant à l’origine de ces risques, sont difficiles à intégrer dans les objectifs des systèmes de production. L’article de Dollé et al sur les impacts environnementaux des systèmes bovins laitiers français apporte de nombreux éléments quantifiés sur les émissions des éléments à risque pour l’environnement par les élevages laitiers. Ces risques concernent bien entendu la qualité de l’eau, notamment via les excrétions d’azote et de phosphore, ce qui est connu depuis longtemps avec leurs impacts sur l’eutrophisation des cours d’eau et des côtes. Les risques liés à la qualité de l’air ont été pris en compte beaucoup plus récemment et concernent principalement les émissions d’ammoniac pouvant affecter la santé humaine et des gaz à effet de serre responsables du réchauffement climatique (cf. Dossier, « Gaz à effet de serre en élevage bovin : le méthane », Doreau et al 2011). Ensuite, l’article aborde la question de la biodiversité, auxiliaire de l’agriculture et des paysages, où l’élevage joue un rôle central au sein des territoires agricoles. L’article aborde pour finir la question de la quantification de ces impacts afin d’améliorer objectivement les performances environnementales des élevages et montre que performances environnementales et économiques en élevage laitier ne sont pas antinomiques. En guise de conclusion de ce numéro, J.L. Peyraud et K. Duhem se sont prêtés à un exercice d’analyse prospective des élevages laitiers et du lait de demain en reprenant certains des constats de l’article introductif, notamment sur la diversité des systèmes et des territoires, la restructuration rapide de la filière et la reconstruction du métier d’éleveur. La filière devra demain affronter la tension entre l’amélioration de la compétitivité et celle de la durabilité de l’élevage en tirant profit des innovations. La meilleure prise en compte des qualités nutritionnelles des produits et de l’évolution des demandes tout en améliorant l’intégration de l’élevage au sein des territoires constitue un double défi pour résoudre cette tension. L’analyse des auteurs prône cependant un maintien de la diversité et la complémentarité des systèmes dans une diversité de territoires pour mieux répondre aux enjeux de la société et des éleveurs. Ce numéro spécial montre combien la filière laitière est aujourd’hui plus que jamais à la croisée des chemins avec des défis économiques et sociétaux difficiles à relever dans un climat de plus en plus incertain. Entre diversité d'une part, et spécialisation et standardisation d'autre part, le chemin de la filière française reste complexe à définir. Les nombreuses évolutions des connaissances scientifiques permettent de disposer à court ou moyen terme de nouveaux outils pour relever ces défis. La sélection génomique pour disposer des animaux les plus adaptés à leur système, les modèles de prévision pour anticiper les aléas et leurs conséquences, les outils d’évaluation environnementale pour maîtriser les risques, les outils de monitoring et d’information des troupeaux d’élevage pour améliorer les conditions de travail et l’efficience des troupeaux, les possibilités de piloter la qualité des produits par les conduites d’élevage et en particulier l’alimentation, une meilleure connaissance des mécanismes de régulation de la lactation, la découverte de la richesse des constituants du lait et de leurs propriétés nutritionnelles et fonctionnelles sont autant d’atouts pour la filière pour affronter ces défis. A travers les articles de ce numéro, nous avons voulu illustrer quelques un de ces défis et des perspectives offertes par la recherche. L’enjeu sera de les mobiliser à bon escient dans le cadre de stratégies cohérentes. Cela nécessitera la collaboration de tous les acteurs de la recherche, de la formation, du développement et de la filière. A leur niveau, les articles de ce numéro, par les nombreuses signatures communes entre chercheurs, enseignants-chercheurs et ingénieurs de recherche-développement, témoignent de la vitalité des unités mixtes de recherche et des unités mixtes thématiques impliquées dans l’élevage laitier. De même, bon nombre de travaux relatés dans les articles de ce numéro sont le fruit de programmes de recherche co-financés et menés en collaboration étroite entre la recherche, les instituts technique et la filière. Nous y voyons un fort signe positif pour l'avenir de l'élevage laitier en France Cet avant-propos ne saurait s’achever sans remercier René Baumont et le comité de rédaction d’Inra Productions Animales pour l’initiative judicieuse de ce numéro spécial, mais aussi pour nous avoir aidés à mener à bien ce projet comprenant de nombreux auteurs, qui ont bien voulu se prêter à l’exercice difficile de la rédaction d’un article de synthèse qui conjugue la rigueur de l’information scientifique avec l’exigence de la rendre accessible à un large public. Ce numéro doit beaucoup aussi aux relectures constructives de nombreux collègues que nous remercions ici anonymement. Enfin, cet ouvrage doit aussi sa qualité à un travail remarquable d’édition technique assuré par Pascale Béraudque nous associons à ces remerciements. Nous avons eu la primeur de ces articles et nous espérons que vous partagerez l’intérêt que nous avons eu à leur lecture à la fois instructive, enrichissante et propice à nourrir notre réflexion pour le futur de la recherche-développement dans le domaine de l’élevage bovin laitier.Philippe FAVERDIN, Christine LEROUX RéférencesDoreau M., Baumont R., Perez J.M., (Eds) 2011. Dossier, Gaz à effet de serre en élevage bovin : le méthane. INRA Prod. Anim., 24, 411-474. Fanica P.O., 2008. Le lait, la vache et le citadin. Du XVIIe au XXe siècle. Editions Quae, Paris, France,520p. Faye B., Bonnet P., Corniaux C., Duteurtre G., 2010. Peuples du lait. Editions Quae, Paris France, 160p. Hostiou N., Dedieu B., Baumont R., (Eds) 2012. Numéro spécial, Travail en élevage. INRA Prod. Anim., 25, 83-220. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M., (Eds) 2011. Numéro spécial, Amélioration génétique. INRA Prod. Anim., 24, 283-404. Sauvant D., Perez J.M., (Eds) 2010. Dossier, Robustesse, rusticité, flexibilité, plasticité, résilience… les nouveaux critères de qualité des animaux et des systèmes d'élevage. INRA Prod. Anim., 23, 1-102. Steinfeld H., Gerber P., Wassenaar T., Castel V., Rosales M., de Haan C., 2006. Livestock's long shadow: environmental issues and options. Food and Agriculture Organization of the United Nations,414p.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Leles, Robson Felipe dos Santos, Polyanne Junqueira Silva Andresen Strini, Paulinne Junqueira Silva Andresen Strini, Simone Cristina Putrick, Euzebio Oliveira y Carla Viana Dendasck. "Importance de la connaissance de l’anatomie humaine à l’éducation physique". Revista Científica Multidisciplinar Núcleo do Conhecimento, 12 de diciembre de 2017, 21–40. http://dx.doi.org/10.32749/nucleodoconhecimento.com.br/sante/anatomie.

Texto completo
Resumen
Les deux domaines de l’éducation physique et de l’anatomie humaine thématique approche liée à l’étude et le fonctionnement du corps humain, avec des points communs a démontré tout au long de l’histoire de l’humanité. De cette façon, le but de cette étude est d’évaluer l’importance de la connaissance de l’anatomie humaine pour le cours d’éducation physique. Pour ce faire, une étude descriptive de la littérature, grâce à une recherche sur les bases de données électroniques de la bibliothèque virtuelle de santé (BVS), lilas, Medline, Scielo, Cochrane, Pepsic, Pubmed et Google Scholar. La sélection des articles scientifiques a eu lieu au cours des 10 dernières années, contemplant la production scientifique entre 2006 et 2016, à l’aide de terminologies enregistrés dans les descripteurs de sciences de la santé (DECS), la recherche avancée et les termes en Portugais et en anglais, comme : « Anatomie » ou « anatomie humaine » et « éducation physique » et « anatomy» ou « human anatomy » et « physical education ». Avant les études présentées, il peut être noté l’importance de la connaissance des structures anatomiques du corps humain pour les étudiants et les professionnels de l’éducation physique. Nous pouvons donc conclure que votre réelle importance est sous-estimée, nécessitant des recherches supplémentaires en mesure d’expliquer votre rôle clé dans la formation intellectuelle, technique et pratique des diplômés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Salviano, Ana Laura Góes, Giovanna Rocha Santana, Claudio Alberto Gellis de Mattos Dias, Maria Helena Mendonça de Araújo, Euzébio de Oliveira, Carla Viana Dendasck, Bruno Rodrigues dos Santos y Amanda Alves Fecury. "Connaissance des formes de prévention et de contagion des IST chez les élèves inscrits dans les écoles publiques de la ville de Macapá, Amazonie, Brésil". Revista Científica Multidisciplinar Núcleo do Conhecimento, 16 de diciembre de 2020, 05–16. http://dx.doi.org/10.32749/nucleodoconhecimento.com.br/sante/prevention-et-de-contagion.

Texto completo
Resumen
La sexualité a commencé à être considérée comme une portée positive de l’action humaine, dans ce contexte, elle a commencé à valoriser l’éducation sexuelle, soulevant des discussions sur son importance. Le but de cet article était d’analyser les connaissances sur les formes de contagion et la prévention des IST. Cette étude a été menée dans 03 écoles publiques de niveau élémentaire et secondaire. L’échantillon se composait de 287 élèves inscrits régulièrement dans ces écoles couvrant la 8e année / 7e année de l’école primaire jusqu’à la 3e année de l’école secondaire. Des données sur le sexe, l’âge, l’état matrimonial, le niveau de scolarité et d’autres ont été recueillies dans le cadre de la présente étude. La plupart des participants ont déjà été en contact avec le terme IST; cependant, il a encore des croyances sur ses formes de transmission. Il est nécessaire d’aborder la sexualité avec un aspect plus naturel et positif de la vie humaine, en fournissant la libre discussion des normes et des modèles de comportement et le débat sur les attitudes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Corrêa, Maurício Barros y Rosimeire Martins Régis dos Santos. "Enseignement dans l’enseignement supérieur : formation pédagogique en tant que mobilisateur du changement". Revista Científica Multidisciplinar Núcleo do Conhecimento, 8 de abril de 2019, 45–62. http://dx.doi.org/10.32749/nucleodoconhecimento.com.br/education-fr/mobilisateur-du-changement.

Texto completo
Resumen
Cette étude traite du thème de la formation pédagogique en tant que mobilisateur du changement et son objectif est de déterminer l’importance de l’enseignement de la pratique dans l’enseignement supérieur en tant que mobilisateur du changement, cherchant également l’objectif : analyser les stratégies de qualité dans la formation humaine et définir le sens de la construction des connaissances et de la formation pédagogique pour mobiliser les changements, conduisant le citoyen à une connaissance pleine et consciente de son rôle dans l’environnement où il vit et dans la société. D’abord remise en question de l’importance de l’enseignement dans l’enseignement supérieur dans la formation pédagogique pour mobiliser les changements, l’étude traite de l’éducation de l’éducateur en termes de stratégies de qualité, de significations et de contributions théoriques et pédagogiques à la pratique de l’enseignement, ainsi que des conceptions théoriques et pédagogiques de l’apprentissage, de ses nouveaux paradigmes et lignes directrices. Par le biais de recherches bibliographiques qualitatives et exploratoires, l’étude conclut que si les temps actuels sont des changements et des évolutions technologiques, il est nécessaire que la pratique enseignante recycle certaines idées et abolisse définitivement le modèle, les objectifs et les hypothèses traditionnels de l’éducation, en comprenant l’éducation dans la perspective de son défi de former pour l’intégrale et en permanence, en renforçant les valeurs et les idéaux positifs et en redimensionnant le rôle de l’enseignant en tant que médiateur de l’apprentissage. , capable de conduire ses élèves au recensement critique qui les mènera à un apprentissage tout au long de la vie et en même temps, la conscience que la connaissance n’est pas un processus continu et qu’il doit être alimenté en tout temps avec la recherche constante de la formation continue. Rôle que les établissements d’enseignement, eux aussi, devraient inculquer à la tête de leurs enseignants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Broquet, Grégoire y Frédéric Chevallier. "La surveillance des émissions anthropiques de CO2 depuis l’espace : un enjeu géopolitique émergent". L’Espace Politique 51-52 (2024). http://dx.doi.org/10.4000/12de3.

Texto completo
Resumen
L’accord de Paris sur le climat en 2015, et plus généralement les politiques de lutte contre le changement climatique s’appuient sur une connaissance des émissions de gaz à effet de serre, en particulier de dioxyde de carbone (CO2), dues à l’activité humaine, établie par des inventaires combinant des données sur ces activités et des coefficients d’émissions correspondants. Cette approche présente aujourd’hui des limitations, avec des niveaux d’incertitudes variables en fonction des pays et des secteurs d’activité, et en termes de délais et de résolution spatiale et temporelle, qui pénalisent la transparence et la fiabilité recherchées par l’accord de Paris. Or l’acquisition et le traitement d’observations, notamment satellitaires, des concentrations atmosphériques de CO2 pourrait permettre des estimations rapides et fiables des émissions de CO2 à différentes échelles spatiales, et un contrôle voire une amélioration de la qualité des inventaires. Cet article montre ainsi que cette approche atmosphérique, longtemps limitée à la recherche scientifique, émerge aujourd’hui comme un moyen de répondre au besoin politique de nouvelles capacités de suivi des émissions de CO2. L’Europe affiche de grandes ambitions dans ce domaine, avec la mission spatiale Copernicus Anthropogenic Carbon Dioxide Monitoring (CO2M) et la préparation d’un service opérationnel de suivi atmosphérique des émissions anthropiques de CO2, qui alimenterait les déclarations officielles des émissions européennes. Cependant, la maturité actuelle des chaînes de traitement ne permet pas encore de qualifier un tel système. L’utilisation de ses estimations des émissions de CO2 dans un cadre international pose de nombreux défis techniques et politiques, que cet article discute, en leur donnant un contexte et des perspectives générales. Il s’appuie pour cela sur une revue d’articles scientifiques et de rapports pour les décideurs politiques, et sur une connaissance des échanges internationaux sur le sujet.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

ICHTER, Jean, Marie-Caroline PRIMA y Guillaume GIGOT. "Quelles menaces pèsent sur la faune et la flore de France hexagonale et de Corse ? Un éclairage à partir de la Liste rouge nationale". Naturae 2024, n.º 7 (17 de abril de 2024). http://dx.doi.org/10.5852/naturae2024a7.

Texto completo
Resumen
La Liste rouge nationale (LRN) est une démarche collaborative d’évaluation du risque d’extinction des espèces sur le territoire français selon la méthodologie de l’Union internationale pour la Conservation de la Nature (UICN). Entre 2008 et 2020, 6700 espèces réparties en 11 chapitres ont été évaluées, et 700 sont considérées comme menacées. Les auteurs ont bancarisé et harmonisé les catégories de menaces identifiées lors des ateliers selon la classification des menaces directes de l’UICN, afin de proposer une analyse des activités et des processus d’origine humaine ayant un impact négatif sur les espèces menacées de France hexagonale et de Corse. La disparition de leurs milieux de vie due à l’urbanisation, au développement industriel, à l’agriculture, à la production d’énergie, aux exploitations minières et aux modifications du système naturel apparaît comme la principale menace qui pèse sur les espèces terrestres. Pour les espèces inféodées au milieu marin, les résultats de la Liste rouge nationale en métropole mettent en évidence les prélèvements comme la principale menace directe ou indirecte. Cet article présente également une carte de la répartition des espèces menacées en France hexagonale et en Corse à partir de 1,7 millions de données d’occurrence de l’INPN. Celle-ci met en évidence l’importance de la région méditerranéenne (en particulier du sud-est), des massifs montagneux et des vallées comme celles de la Loire et du Rhône. Cette carte n’a pas l’ambition d’être exhaustive, notamment en raison de l’hétérogénéité du niveau de connaissance, mais doit contribuer à l’identification de secteurs à fort enjeu de conservation à l’échelle nationale. Enfin, ce travail inclut à titre exploratoire, une analyse des patrons de distribution des espèces impactées par la pollution et l’enfrichement afin de diagnostiquer les zones potentiellement plus sensibles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Imsil, Niparat. "L’alphabet latin comme moyen de mobilisation du plurilinguisme chez les étudiants thaïlandais en langues étrangères". Didactique(s), plurilinguisme(s), mondialisation(s)(1) 1 (2024). http://dx.doi.org/10.4000/11q9v.

Texto completo
Resumen
En 2018, le gouvernement thaïlandais a lancé une politique reposant sur les compétences en communication en anglais et en troisième langue des citoyens du pays. Depuis son lancement, les établissements scolaires et universitaires bénéficient d’une grande liberté pour diversifier leurs programmes de langues étrangères. Les apprenants thaïlandais peuvent choisir librement d’apprendre des langues dans leur école ou université. L’anglais jouit d’un statut privilégié en en tant que langue obligatoire pour tous les apprenants du niveau primaire au niveau universitaire. Ils ont également la possibilité d'apprendre une ou deux langues étrangères comme cours majeurs ou optionnels. Le français occupe actuellement la troisième place parmi les langues étrangères du pays, derrière l’anglais et le chinois mandarin (Ambassade de France en Thaïlande, 2021). En donnant des cours de français à l’université, nous nous intéressons depuis plusieurs années au plurilinguisme des étudiants en langues thaïlandais, et plus particulièrement au rôle joué par leur « expérience antérieure » – au sens que donnent Bono (2008) et Markey (2009) à ce terme – d’une ou de plusieurs langues étrangères dans leur apprentissage d’une nouvelle langue étrangère. Cet article fait partie de notre recherche intitulée « Utilisation de l’anglais dans l’apprentissage du français chez les étudiants de français de l’université Naresuan ». L’objectif principal de cette recherche est de mettre en lumière la façon dont des étudiants thaïlandais mobilisent leurs ressources plurilingues dans l’apprentissage du français comme langue étrangère. Il nous semble en effet essentiel de découvrir les « modalités d’appropriation inscrites dans une logique plurielle » afin d’aider les apprenants, comme le formulent très bien Castellotti et Moore, « à apprendre dans la pluralité » (2011 : 250). Nous remarquons que l’alphabet latin est utilisé très souvent par nos étudiants. Quels usages de l’alphabet latin sont utilisés ? Et quels rôles jouent ces usages dans l’apprentissage de nouvelles langues étrangères ?Pour obtenir les informations nécessaires à notre travail, nous avons privilégié une approche qualitative et interprétative. Nous avons, dans un premier temps, analysé les productions écrites du niveau B1 des étudiants en français de deuxième année dans le cours French Reading and Writing II. Nous avons également effectué des entretiens oraux afin de mieux connaître leurs perceptions et leur manière de mobiliser leur plurilinguisme, en particulier l’anglais, pendant leur apprentissage des langues à l’université. L’analyse des données montre que l’alphabet latin joue un rôle très important et est largement utilisé. Il l’est en premier lieu pour la prononciation de la nouvelle langue, ensuite pour la solution des problèmes lexicaux, puis pour la connaissance culturelle, et enfin comme remédiation à l’insécurité linguistique des étudiants. La modalité d’appropriation d’une nouvelle langue étrangère confirme le fait que les répertoires linguistiques pluriels des étudiants sont, com me le soulignent Candelier et Castellotti, « un principe cognitif qui leur permet d’apprendre, de construire d’autres concepts et de les construire autrement » (2013 : 204).
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

MONTAGNE, L. y J. Y. DOURMAD. "Avant-propos". INRAE Productions Animales 22, n.º 1 (14 de febrero de 2009). http://dx.doi.org/10.20870/productions-animales.2009.22.1.3322.

Texto completo
Resumen
L’alimentation et la nutrition, fonction physiologique sur laquelle elle repose, sont des composantes clés de l’élevage et des filières porcines. Le coût alimentaire représente en moyenne 62% du coût de production (moyenne naisseurs-engraisseurs GTE-TB-IFIP 2007). En outre, l’alimentation influence de nombreuses dimensions de l’élevage comme la qualité des produits, l’environnement, le bien-être des animaux... L’alimentation est ainsi l’un des principaux leviers d’action qui permet d’adapter l’élevage aux nouveaux contextes de la production porcine. Le contexte technique et économique de l’élevage a connu des évolutions récentes importantes. Concernant l’animal, les dernières décennies ont été marquées par la sélection de truies hyperprolifiques et de porcs charcutiers à vitesse de croissance élevée. Ainsi, entre 1977 et 2007, la prolificité des truies a augmenté de 3,3 porcelets nés totaux/portée et le gain moyen quotidien des porcs charcutiers de 160 g (données G3T et GTE, IFIP). Concernant l’aliment, les années 90 ont été marquées par une hausse des taux d’incorporation des céréales dans les aliments suite à la réforme de la Politique Agricole Commune en 1993. Ainsi, la part de céréales et de leurs coproduits dans les aliments composés pour porc est passé de moins de 15% à près de 70% aujourd’hui (données SNIA). Ces dernières années ont été de plus marquées par une forte augmentation du coût de l’aliment en raison de l’inflation des cours de la plupart des matières premières. La production porcine doit de plus s’adapter aux demandes multiples et parfois contradictoires du consommateur (coût, qualité et sécurité sanitaire des produits) et du citoyen (limitation des rejets dans l’environnement, arrêt de l’utilisation d’antibiotiques comme facteurs de croissance, respect du bien-être des animaux…). Les enjeux actuels des filières porcines françaises et européennes sont de répondre simultanément à toutes les dimensions de la durabilité (économique, environnementale, sociale et sociétale) et d’anticiper les nouveaux défis à venir. L’enjeu économique principal est de maintenir sur les territoires européens, des filières compétitives au niveau mondial. Ceci passe par une maîtrise des coûts d’alimentation qui est essentielle quels que soient les choix d’alimentation faits par l’éleveur, notamment celui d’acheter des aliments complets ou de fabriquer son aliment à la ferme à partir de céréales pouvant être produites sur l’exploitation. La maîtrise des coûts d’alimentation implique d’ajuster aux mieux les apports alimentaires aux besoins des animaux. Ceci passe par une bonne connaissance des besoins des animaux en macro et micronutriments. Dans ce dossier spécial, l’article de Matte et al illustre le manque de connaissances sur l’influence des vitamines sur la physiologie de la truie. La maîtrise des coûts d’alimentation implique aussi de bien connaitre la valeur nutritive des matières premières et, en particulier, des coproduits issus de l’agroalimentaire ou des filières de production d’agrocarburants. L’intérêt nutritionnel, chez le porc, des drêches de blé fait l’objet de l’article de Cozannet et al. Ceci passe aussi par le developpement d’outils permettant de prédire les valeurs des aliments (EvaPig®, www.evapig.com) et de simuler les performances des animaux (InraPorc®, www.rennes.inra.fr/inraporc/). Les enjeux environnementaux liés à l’alimentation sont de poursuivre les efforts réalisés sur la réduction des rejets de l’élevage, azote et phosphore, ainsi que de les élargir aux oligo-éléments tels que le cuivre et le zinc, et aux résidus médicamenteux… Les articles de Dourmad et al et Pomar et al présentent les données récentes sur l’effet de la nutrition et de l’alimentation sur les rejets polluants de l’élevage de porc. Les enjeux sociaux, en partie liés aux enjeux économiques, sont le maintien des emplois liés à la filière porcine dans les bassins de production, ainsi que la pérennisation de l’existence de gammes variées de produits frais et transformés permettant de répondre aux attentes diverses des consommateurs parmi lesquelles des attentes en terme de qualité de la viande. Cette dernière peut être modulée par l’alimentation, comme présenté dans l’article de Mourot et Lebret. Les enjeux sociétaux sont d’éviter la compétition au niveau de l’utilisation des ressources végétales entre alimentation porcine et alimentation humaine. Ceci passe par une meilleure utilisation de matières premières peu utilisables par l’homme telles que les matières premières riches en fibres. Dans ce contexte, l’article de Le Gall et al présente les conséquences de l’utilisation d’aliments riches en fibres sur la nutrition, la santé et le comportement. Un autre enjeu sociétal est de limiter l’utilisation de substances médicamenteuses en élevage, en favorisant une bonne santé de l’animal par des voies alimentaires mais aussi non alimentaires (conduite d’élevage). Ainsi l’article de Montagne et al rapporte les connaissances récentes sur les interactions entre la nutrition, la physiologie digestive et la santé du porcelet autour du sevrage, période particulièrement critique pour l’animal. La recherche scientifique produit des connaissances sur la biologie et l’élevage du porc. En partenariat avec les organismes de transfert, de développement et d’enseignement, ces connaissances permettent d’élaborer des outils et des pistes de réflexion permettant de répondre aux enjeux actuels et futurs. Ce dossier spécial sur l’alimentation et la nutrition du porc a l’ambition d’y contribuer.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Auger, Reginald y Allison Bain. "Anthropologie et archéologie". Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.030.

Texto completo
Resumen
Les parcours sinueux qu’ont suivis l’anthropologie et l’archéologie en Amérique du Nord depuis une cinquantaine d’années démontrent des intérêts convergents pour la connaissance et l’explication du comportement humain et cela avec des méthodes de recherche de plus en plus divergentes. L’anthropologie qui a émergé des milieux intellectuels aux États-Unis au XIXe siècle avait pour origine l’intérêt pour la compréhension des populations autochtones de l’Amérique; de cet intérêt pour l’humain, se sont développés des outils pour comprendre le comportement qui se cachait derrière le geste posé. Dès le début, l’anthropologue s’intéressait aux comportements et l’archéologue documentait les traces du geste posé. De cette proximité entre l’anthropologie et l’archéologie qui s’est concrétisée par la création du Bureau of American Ethnology à la fin du XIXe siècle, il était naturel de placer la formation en archéologie au sein de départements d’anthropologie dans les universités aux États-Unis et au Canada. Malgré l’apparence initiale d’un champ unifié et d’un terrain partagé entre l’anthropologie et l’archéologie, la pratique s’est transformée pour devenir tout autre au fil des ans. Au milieu du XXe siècle, l’archéologie commence à remettre en question sa relation avec les interprétations fonctionnalistes des anthropologues (Trigger 2006 : 363-372). La première figure à souligner le problème de l’inéquation entre les résultats de la recherche archéologique et la théorie en anthropologie fut Walter Taylor (1948) dans son livre A Study of Archaeology. Taylor, le relativiste, exposa son penchant pour le particularisme historique dans une approche qu’il identifie comme étant conjonctive; pour ce chercheur iconoclaste, l’historiographie comptait pour beaucoup. L’approche conjonctive consistait à établir des corrélations entre différents types de données dans des contextes historiques et culturels spécifiques afin de faire le pont entre des particularités historiques (les collections archéologiques) et des données anthropologiques. La méthodologie qu’il proposait impliquait la vérification d’hypothèses par l’analyse de la composition et de la structure des collections archéologiques. L’objectif central de cette approche visait à mettre de l’avant des études contextuelles détaillées qui permettraient d’adapter des hypothèses générales sur la culture à des données spécifiques. Dans sa formulation de l’approche conjonctive en archéologie et la vérification d’hypothèses, Taylor reconnaissait qu’une réflexion critique était nécessaire puisque l'archéologue travaillait dans le présent. En dépit de la richesse des collections archéologiques et constatant le danger qui planait sur l’archéologie si nous avions continué à publier des listes d’attributs de nos objets au lieu d’interpréter la culture matérielle comme étant la trace du comportement humain, dans un geste de médiation entre l’anthropologie et l’archéologie, Binford (1962) publiait son article portant le titre Archaeology as Anthropology. Comme il le signale dans son introduction son article qui faisait suite à un ouvrage venant d’être publié par Willey et Phillips (1958) où l’on mentionne clairement que l’archéologie américaine « c’est de l’anthropologie ou rien du tout ». Ce geste d’éclat dans une période charnière de l’enseignement de l’archéologie dans les universités nord-américaines allait donner naissance à un nouveau paradigme que l’on appela la New Archaeology aussi connue sous le nom d’archéologie processuelle. Un tel changement de paradigme venait en contradiction avec les pratiques européennes en matière d’archéologie préhistorique, notamment celles de l’École de Bordeaux et de François Bordes, son membre le plus influent, qui avait réussi à imposer sa vision sur le sens de la variabilité des outils en pierre du paléolithique moyen (Bordes 1961; 1984). Dans sa thèse de doctorat intitulée The Bordes-Binford Debate: Transatlantic Interpretive Traditions in Paleolithic Archaeology, Melissa C. Wargo (2009) présente une analyse en profondeur des modes de pensée qui diffèrent entre l’Europe et l’Amérique du Nord. Essentiellement, le raisonnement traditionnel voulait que l’apparition d’une nouvelle culture archéologique (de nouveaux types) puisse signifier la manifestation d’un nouveau groupe de personnes, un groupe ethnique détectable avec les outils de l’archéologie. C’est ce que nous apprenions à la lecture des travaux de François Bordes sur les changements technologiques observés au paléolithique moyen. Lorsque Binford est parvenu à étudier les mêmes collections, il proposa des interprétations toutes autres. Ainsi, alors que pour Bordes, des outils différents représentent des groupes différents; si l’ensemble de l’assemblage ne peut être attribué à un groupe avoisinant, peut-être alors que certains éléments peuvent l’être. Et si de tels parallèles peuvent être établis, l’approche de Bordes a pour corollaire que c’est là le lieu d’origine de la population à l’étude et que nous serions en présence d’une diffusion de traits culturels à partir de la migration d’un groupe ethnique. Pour Binford, la différence dans la composition des assemblages devrait plutôt être interprétée comme étant le résultat d’adaptations; pour ce chercheur, les assemblages archéologiques sont des coffres d’outils adaptés pour une fonction particulière. Nonobstant la grande quantité de statistiques accumulées, Binford, de son propre aveu, admit qu’il fut incapable d’expliquer ce qu’elles signifiaient. En d’autres mots, il avait beaucoup d’information sur le présent mais ne pouvait l’expliquer par manque d’analogie avec le passé. En dépit de ces différences d’opinion, l’utilité de la typologie de Bordes réside dans le fait qu’elle fournissait un langage descriptif; cette typologie a cependant été par la suite rejetée par certains chercheurs qui considéraient que la définition des types de François Bordes était inadéquate parce que trop subjective. Pire encore, Bordes a été accusé d’incorporer dans ses interprétations des hypothèses non vérifiées sur les capacités cognitives des hominidés durant le paléolithique moyen. De nos jours, nos analyses de la technologie visent à remplacer cette approche typologique de Bordes par une méthode s’appuyant sur la combinaison d’attributs dont la description porte davantage sur le comportement. De toute évidence, le débat entre le promoteur de la New Archaeology et la figure de proue de l’archéologie française et son approche taxonomique en pierre a permis de mettre en évidence un malaise profond sur la façon dont le passé devrait être interprété. Ce débat est aussi emblématique de traditions scientifiques différentes entre l’Europe et l’Amérique du Nord. C’est dans ce contexte intellectuel que sont nés des départements d’anthropologie associant l’anthropologie culturelle, l’anthropologie biologique, la linguistique et l’archéologie. Ces quatre champs sont apparus à des moments bien précis de l’histoire des universités nord-américaines mais de nos jours, la réalité de l’anthropologie est devenue beaucoup plus complexe (Bruner 2010). Un étudiant en archéologie peut avoir des besoins de formation en géographie, en histoire, en géologie, en botanique, en biologie, en ethnohistoire, en systèmes d’information géographique, en informatique, etc. alors qu’un étudiant en anthropologie pour atteindre un niveau de compétence élevé pourrait avoir besoin de formation en histoire, en science politique, en sociologie, en art, en littérature, en théorie critique, etc. Malgré que les besoins aient grandement changé depuis la création des départements d’anthropologie, les structures académiques sont demeurées statiques. La protection des départements d’anthropologie dans leur configuration actuelle des quatre champs relève le plus souvent des politiques universitaires. Ainsi, même si les professeurs étaient d’accord qu’il serait intellectuellement plus profitable de scinder ces gros départements, la question de diviser les départements d’anthropologie en unités plus petites qui feraient la promotion de l’interdisciplinarité dans les sciences humaines et sociales n’est pas envisagée dans la plupart des universités nord-américaines (Smith 2011). Au milieu de cette tourmente, se sont développés un certain nombre de départements et de programmes d’archéologie en Amérique du Nord. De là est née une discipline émancipée du joug des structures trop rigides et se donnant un ensemble de méthodes de recherche qui lui étaient propres. La trajectoire conceptuelle empruntée par ceux-ci a permis de remonter au-delà du geste et de la parole en retenant une classe cohérente de concepts explicatifs développés, certes en anthropologie, mais raffinés et adaptés au contact de l’archéologie et d’autres disciplines en sciences humaine et sociales et sciences de la nature. Cette indépendance intellectuelle de l’anthropologie s’est notamment affirmée par des collaborations entre l’archéologie et la philosophie des sciences (Kelly et Hanen 1988; Salmon 1982; Wylie 2002; Wylie et Chapman 2015). La croissance de l’intérêt pour les explications processuelles des données archéologiques chez plusieurs archéologues nord-américains fut motivée par le fait que les néo-évolutionistes en anthropologie mettaient trop l'accent sur les régularités dans les cultures. Les concepts utilisés en archéologie processuelle exerçaient une influence significative sur notre discipline et l’adoption de cette approche théorique était d’autant plus attrayante car les variables proposées se présentaient comme des causes majeures de changements culturels et relativement accessibles à partir des vestiges archéologiques. Cette approche s'intensifia et donna de nouvelles directions aux tendances déjà présentes en archéologie préhistorique. Dans ce changement de paradigme qui donna naissance au courant de la Nouvelle Archéologie en Amérique du Nord et à un moindre degré au Royaume-Uni, l’accent était placé sur la vérification d’hypothèses sur les processus culturels comme outils d’explication du passé. De la position qu’elle occupait comme l’un des quatre sous-champs de l’anthropologie ou encore, de celle de servante de l’histoire, l’archéologie est devenue l’un des plus vastes champs du monde académique (Sabloff 2008 : 28). En plus d’avoir trouvé son ancrage théorique dans les sciences sociales et humaines, l’archéologie, attirée par les techniques et méthodes fraie régulièrement avec les sciences physiques et les sciences de la nature. En se donnant ses propres méthodes de collecte et d’analyse pour l’examen de cultures distinctes et en poursuivant avec des comparaisons interculturelles, la discipline cherchait à mieux comprendre les cultures qui se sont développées à travers le temps et l’espace. Puisque l’objet d’étude de l’archéologie porte sur les traces de groupes humains dans leur environnement naturel et leur univers social, les questions qu’elle se pose sont fondamentales à l’histoire de l’humanité et pour répondre à de telles questions elle s’est dotée de méthodologies d’enquête qui lui sont propres. L’utilisation d’équipements sophistiqués pour déterminer la composition chimique des résidus lipidiques incrustés sur un outil en pierre taillée ou encore, les recherches sur la composition physico-chimique de la pâte d’une céramique sont des techniques visant à répondre à des questions d’ordre anthropologique. Le quand et le comment du passé sont relativement faciles à identifier alors que pour découvrir le pourquoi l’archéologue fait souvent appel à l’analogie ethnographique, une méthodologie issue de l’insatisfaction des archéologues à l’endroit des travaux en anthropologie culturelle (David et Kramer 2001). Une autre méthodologie est celle de l’archéologie expérimentale qui s’intéresse à la fabrication et à l’usage des outils (Tringham 1978), méthode similaires à celle de l’ethnoarchéologie. L’expérimentation à partir d’outils fabriqués par le chercheur et les banques de données provenant d’expérimentations contrôlées servent alors d’éléments de comparaison pour interpréter la forme des assemblages archéologiques (Chabot et al. 2014) est au centre de la méthode préconissée. Le développement de l’ethnoarchéologie durant les années 1970 aurait inspiré Binford (1981) lorsqu’il mit de l’avant l’utilisation de théories de niveau intermédiaire pour établir un lien entre ses données archéologiques et les théories de niveau supérieur sur le comportement. Sa décision semble avoir reposé sur les développements de l’approche ethnoarchéologique et ses propres terrains ethnoarchéologiques chez les Nunamiut de l’Alaska (Binford 1978). D’autres orientations théoriques ont vu le jour au cours des années 1960–1970 et ont fait la distinction entre différentes approches matérialistes par rapport à des schémas évolutionnistes antérieurs. Par exemple, Leslie White (1975) adopta une forme de déterminisme technologique très étroit qui reflétait une croyance en la technologie comme source de progrès social. Julian Steward (1955) envisagea un déterminisme écologique moins restrictif alors que Marvin Harris (1968) y voyait un déterminisme économique encore plus large. Pour ces quelques positivistes le rôle que l’archéologie se devait de jouer était d’expliquer la culture matérielle du passé. Quant à l’archéologue Lewis Binford (1987), il soutenait que l’étude des relations entre le comportement humain et la culture matérielle ne devrait pas être le rôle central de l’archéologie puisque selon lui, les données ne contiendraient aucune information directe sur les relations entre le comportement humain et la culture matérielle. Dorénavant, les données archéologiques se devaient d’être comprises par elles-mêmes, sans avoir recours à des analogies ethnographiques. Cette dernière approche voulait clairement établir de la distance entre l’archéologie, l’anthropologie culturelle, l’ethnologie et peut-être les sciences sociales en général ; son mérite était peut-être, justement, d’éviter les réductionnismes et les analogies rapides entre explications anthropologiques et assemblages archéologiques. Dans la même veine, d’autres remises en question sont apparues durant les années 1980 avec les travaux d’Ian Hodder (1982; 1985) sur la validité des certitudes positivistes qui avaient été le fonds théorique et empirique des adeptes de la New Archaeology. Depuis cette réflexion sur l’essence même de l’archéologie, Hodder a reconnu qu’une position critique est fondamentale face à l’objet d’étude; naquit alors le courant théorique post-processuel en archéologie. Dans son cheminement pour découvrir la signification des vestiges qu’elle étudie, l’archéologie post-processuelle s’appuie sur des études détaillées permettant d’adapter des hypothèses générales sur la culture à des données spécifiques en exploitant la diversité des sources; cette direction du courant post-processuel en archéologie porte le nom d’archéologie contextuelle. Comme tout changement de paradigme apporte avec lui son lot de détracteurs, l’archéologie post-processuelle a été immédiatement accusée d’une trop grande subjectivité interprétative voire, de déconstructionisme. Les autres orientations placées sous le label archéologie post-processuelle incluent : le structuralisme, le néo-marxisme, l’archéologie cognitive, la phénoménologie, et d’autres encore Ainsi l’individu, l’agent ou l’acteur et son intentionnalité devrait être au centre des interprétations dans la théorie post-processuelle. Nous pouvons conclure que l’examen de la relation entre l’anthropologie et l’archéologie en Amérique du Nord a permis de constater que, depuis ses débuts, l’archéologie dans cette région du monde a vécu une liaison relativement tumultueuse avec l’anthropologie. Cette condition, souvent problématique, a vu naître, au Canada d’abord, des groupuscules d’archéologues avec des intérêts divergents qui se sont distanciés des paradigmes qui dominaient les départements d’anthropologie pour former des départements d’archéologie ou des programmes d’archéologie autonomes des programmes d’anthropologie. Sur les chemins empruntés ces nouveaux départements sont entrés en relation avec les départements de sciences naturelles, notamment, la géographie, avec laquelle les archéologues ont partagé un ensemble de concepts et de méthodes. Il en a résulté un enseignement de l’archéologie nettement interdisciplinaire et faisant appel à des méthodes quantitatives pour comprendre la culture matérielle dans son environnement naturel et expliquer son milieu culturel à partir de concepts empruntés aussi bien aux sciences humaines qu’aux sciences naturelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Novarina, Virgile, Walid Breidi, Jean-Marc Chomaz y Laurent Karst. "Rêve quantique". .able journal, n.º 12 (2023). http://dx.doi.org/10.69564/able.fr.23012.reve.

Texto completo
Resumen
Même si un dormeur peut sembler inerte, son cerveau traverse des états créatifs subconscients. Le sommeil avec mouvements oculaires non rapides, en particulier, est associé à une moindre perception de soi et de son environnement. Durant cette étape, des échanges intenses se produisent entre les régions du cerveau. Le cerveau est une entité insondable qui implique des milliards de neurones interconnectés échangeant des signaux électriques, chimiques et physiques. L'activité électronique est décrite par l'équation de Schrödinger de la mécanique quantique qui régit la fonction d'onde associée aux électrons répartis parmi toutes les cellules. La dualité onde-particule s'applique et, selon l'appareil de mesure qui définit l'observable quantique choisie, les électrons peuvent être observés sous forme de motif d'onde cohérent qui couvre de grandes régions du cerveau ou sous forme de particules localisées sur des neurones individuels. Ainsi, les pensées et les rêves appartiennent à l'espace des fonctions d'ondes, ni ondulatoires ni corpusculaires, et toute mesure correspond à une projection arbitraire. Les ondes alpha, bêta… delta mesurées par électroencéphalogramme ressemblent à des observables quantiques, utilisées pour projeter un état d'esprit infiniment complexe sur une représentation simple prédéterminée. Mais que perd-on ou gagne-t-on à utiliser un abécédaire aussi simple ? Dans le but d'explorer la richesse de l'activité cérébrale durant le sommeil, l'artiste du sommeil Virgile Novarina, en collaboration avec l'artiste numérique Walid Breid, s'est associé à l'artiste et physicien Jean-Marc Chomaz et à l'architecte et designer Laurent Karst du collectif LABOFACTORY, concepteur d'installations artistiques interrogeant notre relation aux éléments, vent, nuages, vagues ou océans. « Full fathom five thy father lies, [À cinq brasses sous les eaux ton père est gisant] »,[mfn]William Shakespeare. La Tempête, acte I, scène 2. La brasse (« fathom » en anglais) est une unité de mesure marine [NDLT]. [/mfn] l'océan, début et fin, limbes et linceul. L'océan absorbe toute lumière et ondes électromagnétiques en quelques mètres de profondeur. Des mesures en profondeur peuvent être collectées à distance par réflexion et dispersion de son ou in situ par des sondes descendues en profondeur depuis des navires, des bouées ou des planeurs sous-marins. Ces données montrent que l'océan profond est animé de courants, tourbillons et vagues à toutes les échelles. Les masses d'eau transportées par les courants de surface se refroidissent en se dirigeant au nord. Plus salées car venant de zones plus chaudes, elles deviennent plus denses que les eaux environnantes et plongent en profondeur. Cette circulation, appelée thermohaline, car induite par les variations de température et de salinité, parcourt en une seule grande boucle, en surface et en profondeur, tous les océans, et son voyage dure mille ans. Actuellement, l'eau abyssale a quitté la surface il y a plusieurs centaines d'années et elle garde la mémoire des conditions climatiques au moment de sa plongée. Sa lente remontée tempère le réchauffement climatique. Mais son sort dans un monde en mutation reste inconnu. La circulation thermohaline est-elle en train de ralentir ? Et peut-elle alors conduire à un nouvel épisode d'anoxie, un océan profond immobile dépourvu d'oxygène et de vie, comme ce fut le cas au cours de périodes géologiques anciennes ? Rêve quantique, le jour où j'ai imaginé l'océan, conçu comme une installation immersive, crée des connexions entre le cerveau et l'océan, tous deux insondables. La mesure de l'activité cérébrale modifie les tensions du vent à la surface de l'océan miniature, comme si littéralement, l'esprit soufflait à la surface des eaux. Cette installation conserve l'idée quantique de la projection sur des observables qui définissent un système d'états, semblables dans leur sémantique concernant l'océan et le cerveau : vagues, vortex, courants et pulsations. Que se passerait-il si la sémantique d'un univers était traduite dans un autre, dans une sorte d'écriture automatique de l'intérieur vers l'extérieur ? Le visiteur qui entre dans le monde transcodé se sentirait-il plongé dans le rêve ou tomberait-il dans l'océan ? Ou la réalité elle-même serait-elle subjuguée, le visiteur noyé dans son propre inconscient ? Le documentaire retrace la genèse du projet et les recherches qui ont été engagées. Le film réunit deux mondes infinis et inaccessibles : le sommeil et l'océan. Il constitue une exploration visuelle de l'espace ouvert par le déséquilibre entre les dimensions poétiques du projet, la connaissance et les faits scientifiques ainsi que l'expérience humaine de la recherche commune. Le documentaire interroge également l'expérience d'une visiteuse qui entre dans l'espace intime et étrange d'un dormeur dans son lit, à proximité d'une sorte de phare qui renferme un océan miniature. En se rapprochant, elle remarque le bandeau, le téléphone portable qui surveille les ondes cérébrales. Au sol, elle observe la projection graphique des ombres des mouvements océaniques internes qui forment un cercle lumineux et changeant de quatre mètres de diamètre. Quel est le rapport ? Les artistes ont patiemment construit un abécédaire d'états d'ondes delta à partir de mesures. La série temporelle de différents états forme une phrase sans fin transcodée en direct dans un deuxième abécédaire afin de contrôler un dispositif motorisé à la surface de l'océan qui imite l'entraînement par le vent. La visiteuse pouvait-elle le percevoir ? Ou se perdre dans la traduction, rêver avec l'océan, flotter avec le dormeur ?
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Blais, Louise. "Biopolitique". Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.105.

Texto completo
Resumen
On doit à Michel Foucault la notion de biopolitique, proposée dès 1974, et dont il en attribuera l’héritage à son maitre, Georges Canguilhem. Depuis, la notion de biopolitique occupe une place non négligeable dans des domaines et disciplines aussi variés que le « management » privé ou public, la santé et les services sociaux, le commerce ou les sciences humaines et sociales (littérature, philosophie, sociologie, anthropologie….). La biopolitique est au cœur des processus de normalisation et de contrôle social. Citons d’emblée Foucault : « Le contrôle de la société sur les individus ne s’effectue pas seulement par la conscience ou par l’idéologie, mais aussi dans le corps et avec le corps. Le corps est une réalité biopolitique ; la médecine est une stratégie biopolitique » (Foucault, 1994 : 210). La biopolitique, soutient Foucault, est une stratégie politique de la gouvernance qu’il faut situer dans le cadre qui l’a vu naitre : l’émergence du libéralisme (Foucault, 2004). La biopolitique désigne le nouvel objet de gouvernance des sociétés libérales depuis deux siècles: la population comme ensemble des gouvernés dans leur existence biologique (Gros et al, 2013). La biopolitique est tout à la fois stratégie politique, outil de savoir/pouvoir et pratique gouvernementale/institutionnelle. Sa tâche, sa responsabilité, son mandat est de s’occuper de la « santé » des populations: natalité, mortalité, morbidité, hygiène, alimentation, sexualité, pollution, pauvreté, comportements… l’air, l’eau, les constructions, les égouts …. Le champ de la santé s’étend alors à l’infini, à travers un panoptique, c’est à dire, ce dispositif qui rend possible l’idée d’un regard englobant portant sur chacun des individus (Foucault, 1994 : 261). C’est en ce sens que, pour Foucault, la médecine ne se réduit pas à la seule figure du médecin; elle est une « stratégie biopolitique » qui se déploie et s’incarne dans un dispositif institutionnel et professionnel indispensable à la gouvernance des sociétés (néo)libérales (Foucault, 1994 : 210). C’est aussi en ce sens que Guillaume le Blanc (2006 :154) soutiendra que : « La médicalisation de la vie humaine est l’évènement majeur de la biopolitique ». De ce point de vue, les études populationnelles et épidémiologiques, dont les premières remontent au 19e siècle (Blais, 2006) prennent toute leur importance comme outils de la gouvernance. D’une part, elles nourrissent les choix et décisions des gouvernants concernant les populations à gouverner, choix et décisions qui sont à la fois d’ordre politique, économique, social et culturel, et qui s’inscrivent dans des rapports de pouvoir. D’autre part, elles modélisent les représentations des populations (des gouvernés) dans leur existence biologique et sociale. La biopolitique est en ce sens un mode de connaissance, à la fois des populations en tant qu’agrégats d’individus, et de soi en tant qu’individu dans la collectivité. La biopolitique est, chez Foucault, un outil qui forge les normes, outil essentiel à la gouvernance et ses instances de pratiques : la justice, bien sûr, mais aussi, et notamment, les institutions de la santé, des services sociaux, de l’éducation, du travail… Elle établit des normes visuelles (les apparences, les comportements, les performances, les existences biologiques…) et discursives (les manières de nommer les choses, de les dire, le dicible, ce qui est recevable, la parole, l’expression, l’argumentation…). Elle modélise les représentations faites de la norme, des représentations autant de l’autre, du différent, de la non-norme, que de soi en tant qu’individu(s) par rapport et en rapport(s) à autrui et sa place dans la collectivité. Comme le souligne le Blanc (2006 :9), chez Foucault la vie est qualifiée par des normes qui sont tout à la fois des normes de savoir et des normes de pouvoir. Toutefois, le contrôle social n’est pas que processus unidirectionnel, hiérarchique ou « top-down », ce qui serait inadéquat pour rendre compte de la complexité de son mode opératoire. Judith Revel (2008 : 28) résume ainsi le fonctionnement de la biopolitique néolibérale et ce qui en fait l’efficacité dans la pensée de Foucault, efficacité dans le sens de « comment ça marche ». Le contrôle social, dit-elle, est « une économie du pouvoir qui gère la société en fonction de modèles normatifs » de l’appareil d’État et ses institutions. En même temps, pour qu’il ne soit pas que répression autoritaire, le contrôle social opère par l’intériorisation de la norme chez les individus, une « pénétration fine du pouvoir dans les mailles de la vie », que Foucault appelait le « pouvoir capillaire ». En tant que mode de connaissance, la biopolitique produit du savoir et donc, selon la formule consacrée, du pouvoir. D’une part, il y a le(s) savoir(s) qui alimente(nt) les gouvernants dans l’exercice du pouvoir. Les classifications et catégories toujours plus différenciées de la biopolitique produisent des individus objectivés d’une population à gérer, l’individu-objet sur lequel agissent les institutions de la gouvernance (Blais 2006). Sur ce point, Foucault rejoint des auteurs comme Illich (1975), Goffman (1968) et Castel (1981, 1979, 1977) qui ont analysé et exposé les effets contreproductifs, stigmatisants, assujettissants ou normalisants de la pensée et des pratiques classificatrices dès lors qu’elles enferment les individus dans des catégories. D’autre part, il y a le(s) savoir(s) qui alimente(nt) aussi les gouvernés dans leur rapport à la norme, dans les manières de l’intérioriser à travers les choix, décisions et pratiques qui tissent toute vie au quotidien. Un savoir qui produit ainsi un individu-sujet, un sujet pensant et agissant. En d’autres termes, le sujet émerge à travers les catégories qui le définissent. La biopolitique renvoie inévitablement à la question de la manière (ou l’art, dirait Foucault) de gouverner (Gros et al, 2013 : 6). À l’ère du numérique, du Big Data, des algorithmes, qui connaissent un essor global depuis la mort de Foucault en 1984, la notion de biopolitique est-t-elle encore un outil d’analyse efficace des modalités de contrôle et de gouvernement des populations? Pour certains, dont Pierre Dardot et Christian Laval (2016), ce passage du gouvernement des corps, c’est à dire à une forme de pouvoir qui s’exerce sur les corps par une surveillance individualisée, au gouvernement de soi-même implique un nouveau mode de gouvernance. Celui qui se met en place s’appuierait moins, argüent-ils, sur les normes et contrôles de la biopolitique, que sur l’idée de la liberté des sujets qu’il s’agit de gouverner par des incitations et mesures les laissant en apparence libres d’agir, en canalisant, voire en manipulant les intérêts des individus et des populations. C’est ce que Foucault appelait la « conduite des conduites ». Dardot et Laval donnent comme exemple de telles mesures celui du code de la route où la liberté est celle du « choix » du chemin et de la destination, mais selon les règles de la route (vitesse, permis, etc). D’autres diront que le pouvoir d’accumulation de masses de données par les Facebook, Google et autres grands joueurs de l’internet dessine un nouvel art de la gouvernance où la surveillance a cédé au profilage. D’un régime de normalisation on passe à un régime de neutralisation, soutient Antoinette Rouvroy (2018 : 63). Et pour Mondher Kilani, la biopolitique détient désormais un « … pouvoir démultiplié de surveillance et d’engloutissement des individus et des conscience,… » (Kilani, 2018 : 292). Il s’agit alors d’étudier les biopolitiques contemporaines là où elles se redéfinissent en permanence (Fassin, 2006 : 40). Si les catégories de la biopolitique ont tendance à objectiver les individus, elles contiennent aussi une source de re-subjectivation. Chez Foucault, le processus de re-subjectivation ne se réduit pas à l’individu : se défaire des marques objectivantes de la pensée et de la pratique classificatrice ne se fait pas seul. La création de nouvelles pratiques arrivent aussi par le bas, comme en témoigne l’impact des mouvements féministes, écologistes, homosexuels, transgenres, de personnes psychiatrisées….. C’est pourquoi Foucault s’intéressait aux micro-pratiques (dans les prisons, les milieux psychiatriques, etc) comme pratiques de liberté et lieux de dé-assujettissement. D’où l’importance pour les sciences humaines et sociales d’étudier et d’exposer les nouveaux modes opératoires de la biopolitique, mais aussi les micro-pratiques de résistance, de liberté, les contre-pouvoirs qui se créent dans les interstices de la société. Car la «vie politique» est constituée d’un débat permanent entre gouvernés et gouvernants (Gros et al, 2013 : 7).
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Mancini, Silvia. "Religion". Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.041.

Texto completo
Resumen
orsque l’on emploie le concept-terme de « religion », on a l’impression de savoir d’avance ce à quoi il renvoie, un peu comme si tout le monde était implicitement d’accord sur sa signification. Malgré les précautions rhétoriques de mise, nombreux sont ceux qui continuent à se faire les porte-paroles des sciences sociales, lesquelles non seulement s’en servent de manière insuffisamment problématisée (recourant le plus souvent à des raisons purement pratiques ou conventionnelles), mais n’hésitent guère à fournir de la religion une définition normative (Bradbury et al., 1972). À l’instar d’autres concepts, que l’anthropologie a soumis à la critique par la pratique du comparatisme différentiel (et non pas « analogique »), celui de religion n’a pas encore fait l’objet, au sein cette discipline, d’un travail analogue de relativisation et de mise en perspective. Seule l’historicisation de la religion (en lieu et place d’une approche normative) serait en effet susceptible d’éviter le risque de projeter une vision christiano-centrique sur des pratiques, conceptions et institutions symboliques appartenant à des sociétés foncièrement étrangères à l’histoire culturelle européenne (Sabbatucci 2002). Force est de constater que cette notion de religion a subi historiquement un processus de dilatation-élargissement parallèle à la découverte des civilisations « autres » – parallèle aussi au double processus de conquête et de colonisation du monde par la culture occidentale. Ce n’est, en effet, qu’à partir du XVIe siècle, que de nombreuses coutumes et conceptions propres aux peuples autochtones ont été interprétées comme « manifestations religieuses » (Augé 1982). Au fur et à mesure de la rencontre, tombèrent sous l’étiquette de « religion » tous ces comportements, institutions et représentations dont on ne comprenait ni la signification, ni la fonction pratique, et qui, aux yeux des conquérants, ne se justifiaient que comme « faits religieux » (Bernand et Gruzinski 1988). Ce qui excédait le fonctionnel ou l’expérience commune des Européens était appréhendé sub specie religionis : ainsi, la « couvade », le totémisme, l’évitement cérémoniel de la belle-mère, etc. Si une telle manière de procéder a indiscutablement contribué à rendre plus étendue la notion de religion par rapport à sa définition d’origine (lorsque l’on identifiait la religion avec le christianisme), elle a entraîné aussi une conséquence redoutable. Cette transformation en un concept à géométrie variable, dont les frontières se déplacent au fur et à mesure qu’on lui incorpore de nouvelles données historiques et ethnographiques, est allée de pair avec la généralisation au monde entier d’une catégorie-institution typiquement occidentale – celle de religion, justement (Lafiteau, 1724). Une telle généralisation a fonctionné comme l’un des plus puissants vecteurs de globalisation culturelle, religionisation du monde et globalisation étant allées de compagnie. Comment l’anthropologie, née dès le XVIIIe siècle sous les auspices d’une pensée qui ne se voulait pas confessionnelle, et qui aspirait à une connaissance neutre et scientifique des autres cultures, a-t-elle pu contribuer à cette généralisation de la notion de religion ? Certes, une telle question peut ressembler à une provocation. Il reste que c’est bien l’anthropologie qui, depuis sa posture relativiste, défendra l’idée selon laquelle priver les cultures autochtones de religion reviendrait à commettre une grave erreur ethnocentrique, comme si, du même coup, on privait ces sociétés de leur statut humain. Comme nous le verrons, l’histoire du concept de religion nous oblige à reconnaître que cet argument ne fait que reprendre le discours missionnaire. Historiquement parlant, l’identification établie jadis entre religion et christianisme – qui de nos jours peut apparaitre restrictive et euro-centrique –, était tout à fait correcte, dans la mesure où la religion fut une invention exclusivement chrétienne. Pour quelles raisons l’Europe – qui encore au XVIe siècle, à travers la bouche de ses missionnaires et voyageurs, déclarait sa surprise de ne pas trouver du tout, dans le Nouveau Monde, de formes religieuses (Clastres 1988) – a-t-elle fini par développer d’abord un discours sur les « religions sauvages » ou « primitives », puis sur les religions autochtones ? L’attribution d’une religion aux sociétés du Nouveau Monde constitua une étape stratégique indispensable dans le processus d’assimilation et de mise en compatibilité des traits culturels des « autres » avec les traits européens. Un tel processus de « religionisation » généralisée fut l’effet de la nécessité pratique et politique de la conversion de ces populations, laquelle allait de pair avec un programme de civilisation de celles-ci (évangélisation et civilisation étant interchangeables, dans la logique des conquérants). Or, pour que cette « mise en comptabilité religieuse » entre les cultures pût fonctionner (c’est en effet pour l’Occident, et l’Occident exclusivement, que la religion constitue un trait culturel fondateur et distinctif), il fallait bien admettre que les peuples à convertir et civiliser eussent une forme de religion, quelle qu’elle fût, et dont il fallait identifier les traits caractéristiques. Pour ce faire, la comparaison analogique offrit un outil irremplaçable (Acosta, 1590). Elle autorisa à parler de « croyances » des peuples sauvages; de leur « foi »; de leurs « dieux »; de leur vision de l’« âme », etc. – autant de notions dépourvues de sens dans des cultures ni théistes ni monothéistes. Dès la fin du XVIIIème, et surtout au XIXème, l’anthropologie a fini paradoxalement par s’approprier le modus operandi adopté jusque là par les missionnaires à des fins d’inculturation. De fait, en même temps que s’effectuait le processus de christianisation implicite du monde à travers la généralisation à toutes les cultures de catégories culturelles d’origine chrétiennes, l’idée s’affirmait, en sciences sociales, que non seulement la religion est une institution universelle, mais qu’elle est dotée aussi d’une irremplaçable et universelle fonction instituante. Certes, les anthropologues inscrivent leur démarche dans une perspective qui se veut scientifique, fondée sur l’observation empirique et exempte de toute finalité pratique de conversion. Il reste que, étonnamment, l’idée de la nature historiquement arbitraire de la religion n’a pas suscité un très vif écho chez les spécialistes de la diversité culturelle. Un tel désintérêt des anthropologues pour l’histoire du concept de religion constitue à lui seul un problème historique supplémentaire. Pourquoi la religion « résiste »-t-elle au processus de relativisation des absolus conceptuels auquel l’anthropologie même nous a habitués? Quel statut recouvre la religion dans l’imaginaire anthropologique moderne (Gasbarro 2007)? C’est un fait, que la problématisation historique de la religion a fait défaut aux évolutionnistes qui, s’ils envisagent cette institution en termes évolutifs, n’en mettent guère en doute l’universalité en tant qu’expression de « civilisation »; elle a fait défaut aussi à Durkheim (1912), préoccupé de découvrir les invariants normatifs des institutions sociales. Elle est absente également dans l’ethnologie historique allemande, tributaire de la vision romantique qui identifie la religion d’un peuple au réservoir de ses traits culturels les plus significatifs et les plus porteurs de sens. Une idée qui refait surface dans une certaine anthropologie culturaliste américaine, jusqu’à Clifford Geertz (1972). L’historicisation de la religion n’est pas pratiquée non plus par la Phénoménologie religieuse (Otto 1995; Van der Leuuw 1948 ; Eliade 1965), qui pour asseoir la nature universelle de la religion convoque les structures anhistoriques de la conscience humaine confrontée au sacré, et elle l’est encore moins par celui dont la méthode structurale a par ailleurs contribué puissamment à la dé-religionisation des productions symboliques des sociétés autochtones d’Amérique. En fait, chez Lévi-Strauss, le travail de dé-religionisation pratiqué dans l’analyse du totémisme ou des mythes fera recours non pas à l’histoire, mais à la psychologie (Lévi-Strauss 1962, 1964). Derrière cette résistance à une mise en perspective historique et culturelle de la religion, le soupçon surgit que celle-ci continue implicitement d’incarner, en Occident, une valeur forte et fondatrice. Un ordre du sens qui n’a pas tout à fait disparu de notre imaginaire culturel. De cette situation, une fois de plus, seule l’histoire peut nous fournir la clé. Le rôle instituant et le pouvoir de sens dont l’Occident crédite la religion prend origine dans le conflit qui, au début de notre ère, a opposé le Christianisme en plein essor au monde culturel de l’Antiquité païenne que le message chrétien prétend subvertir. Dans la tradition romaine – celle-là même à laquelle le Christianisme empruntera le mot latin religio, qu’il reprend à son compte pour se désigner lui-même –, on ne fait pas de distinction, comme nous le faisons de nos jours, entre une sphère religieuse et une sphère civile (Durand, Scheid 1994). Dans l’ordre du monde romain, on ne reconnaît guère la religion en tant que sphère distincte et autonome de la vie socio-culturelle institutionnelle. Une formule, selon Dario Sabbatucci (2002), synthétise au mieux cette conception romaine : sacré : public = profane : privé. En d’autres termes, à Rome, était sacré tout ce qui relève du domaine public; était profane, en revanche, tout ce qui relève de la vie et des relations des citoyens entre eux, en dehors du secteur public proprement dit. Dans un tel dispositif reposant sur des règles de conduite balisées et un agencement dynamique des divers ordres dont l’action rituelle est le moteur et l’instrument régulateur, la religio n’a donc aucun rapport avec l’idée d’un dieu transcendant, ni avec la foi, ni avec un projet de salut, ni avec l’idée d’une âme individuelle qui survit à la mort, ni avec l’expérience vécue du sacré, compris comme une structure transhistorique et transculturelle de la conscience. La religio, pour les Romains, désignait plutôt un comportement respectueux des traditions, une conduite réservée, une attitude de dévotion. Comment est-on donc passé de la religio des Romains à la religion des Chrétiens? À partir du décret qui, sous Théodose (en 380 apr. J.C.), fit du Christianisme la religion d’État, laquelle remplaça officiellement l’ancien ordre païen, l’Église fut obligée de composer avec ce qui restait du système vaincu, dont elle devenait l’héritière. Notamment, avec ces institutions déjà en place qui s’avéraient susceptibles d’être récupérées et mises à contribution pour bâtir le nouvel ordre. Parmi ces héritages figurent, d’une part, la philosophie grecque (mise à contribution pour asseoir les vérités chrétiennes, comme fut le cas de la scolastique); de l’autre, la jurisprudence et le droit romains (récupérés dans le cadre du Droit canonique). Malgré ces incorporations, pour éviter toute contradiction l’Église se devait de bannir de l’héritage de l’Antiquité ces manifestations irréductiblement incompatibles avec le nouveau message de vérité et la nouvelle sacralité dont elle était le porte-parole. Il fallait, en somme, supprimer les divinités polythéistes (qui apparaissent dorénavant « fausses en mensongères »), sans pour autant renoncer à se servir des institutions qui par le passé leur avaient été associées. La solution historique à cette contradiction consista à désarticuler et à réaménager l’ancien système de références (exprimé par la formule public : sacré = privé : privé). Ce système, comme on l’a vu, reposait sur la sacralisation des instituions publiques et de l’État de droit, qui dorénavant, dans la vision chrétienne, relèveront exclusivement du domaine civil (dont la sphère d’action est l’opposition publique / privé). Ce réaménagement consista en outre à séparer rigoureusement le domaine civil du domaine religieux, fondé, lui, sur le nouveau message chrétien et dont la sphère d’action est l’opposition sacré/profane (Rendre à César ce qui appartient à César, et à Dieu ce qui appartient à Dieu). Une telle séparation du religieux et du civil ne plaça toutefois guère ces deux sphères sur un pied d’égalité. Depuis lors, on accorda symboliquement au domaine religieux une position super-ordonnée et fondatrice par rapport au domaine civil et à ses diverses expressions, qui, toujours au niveau symbolique et existentiel, furent hiérarchiquement soumises au premier. Malgré la sécularisation qui, à la Renaissance, connut une impulsion importante en raison de la priorité accordée aux valeurs humanistes et au rôle de la politique (sphère civile par excellence), c’est un fait que l’horizon de sens du religieux continue de remplir, en Occident, le même rôle instituant et fondateur. Cela est dû, probablement, à une culture civile défaillante, incapable de bâtir au niveau symbolique un imaginaire collectif aussi puissant que l’imaginaire religieux (Mancini 2008). La preuve en est qu’encore aujourd’hui on consulte des théologiens sur des questions de société relatives à la vie et la mort, ainsi qu’à l’horizon du sens ultime de l’existence. Il incombe à l’anthropologie contemporaine de s’interroger sur son engagement « civil », et de se demander si elle a vraiment contribué, par sa connaissance de la diversité culturelle, à changer le statut de code de sens prioritaire attribué en Occident à la religion (Kilani 2011). Et ce, même si les Autres, dont l’imaginaire occidental s’est emparé, savent très bien jouer de leurs « traditions religieuses » respectives pour revendiquer leur droit à l’autodétermination en défense de leurs droits civils.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía