Journal articles on the topic 'Prototype à échelle réduite'

To see the other types of publications on this topic, follow the link: Prototype à échelle réduite.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 27 journal articles for your research on the topic 'Prototype à échelle réduite.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Jaber, Jana, Marianne Conin, Olivier Deck, Olivier Godard, and Samuel Kenzari. "Essai préliminaire de l’application de l’impression 3D à la modélisation physique des massifs rocheux." Revue Française de Géotechnique, no. 168 (2021): 1. http://dx.doi.org/10.1051/geotech/2021011.

Full text
Abstract:
Cet article présente une étude de l’applicabilité de l’impression 3D (3DP) en modélisation physique des massifs rocheux. Le comportement mécanique des massifs rocheux est contrôlé par les propriétés de la roche intacte, et par la présence des discontinuités rocheuses à différentes échelles. Afin de comprendre l’influence de ces discontinuités sur le comportement mécanique des ouvrages exploités dans un massif rocheux, la 3DP est utilisée pour introduire explicitement les discontinuités dans la modélisation physique. Des joints rocheux artificiels sont fabriqués en polyamide 12 par 3DP (technique de frittage laser SLS). Ils sont caractérisés géométriquement (rugosité, ouverture du joint, présence de ponts rocheux) et mécaniquement (raideur normale et tangentielle, cohésion, angle de frottement) pour reproduire le comportement d’un joint rocheux réel. Les résultats des joints rocheux sont représentés à l’échelle du prototype (échelle 1) en appliquant des lois de similitudes et comparés à des propriétés des joints réels. Finalement, une comparaison entre le comportement mécanique d’un massif rocheux discontinu numérique à l’échelle du prototype et celui d’un modèle réduit ayant les propriétés du PA12 obtenues par 3DP permet de valider la capacité de cette technique à reproduire le comportement d’un massif discontinu à une échelle réduite.
APA, Harvard, Vancouver, ISO, and other styles
2

Glath, Julien, Vincent Barazzutti, Antoine Bayard, Gaspard Leveque, Sosava Peka, Lancelot Senlis, Paul Thieffry, Marc Mimram, and Olivier Baverel. "Concevoir et construire une structure réversible grâce aux assemblages non-séquentiels." SHS Web of Conferences 147 (2022): 09002. http://dx.doi.org/10.1051/shsconf/202214709002.

Full text
Abstract:
Face à la diminution des ressources et afin de réduire l’impact carbone du secteur de la construction, il est important d’envisager la fin de vie des bâtiments. Il faut considérer les constructions et leur structure comme des éléments pouvant être démontés ou désassemblés pour être recyclés ou réutilisés. Cette recherche s’intéresse aux assemblages non-séquentiels, permettant une réversibilité pour répondre à ces enjeux. Pour démontrer l’intérêt de ces assemblages, un prototype de Nexorade échelle 1 a été construit et illustre l’article. La première partie définit l’assemblage non-séquentiel et ses cinématiques possibles. La recherche du pavage et de la géométrie sont évoquées dans la seconde partie. L’article continue sur la génération de la nexorade et son analyse mécanique mettant en évidence l'intérêt d’incliner les poutres de la nexorade, pour réduire la flèche de 35%. La séquence d’assemblage est développée dans la partie 5. Enfin, la construction du pavillon est détaillée, permettant le passage d’un modèle numérique à la fabrication du prototype. Pour conclure cet article, les auteurs discutent des résultats obtenus sur les assemblages non-séquentiels et sur l’inclinaison des poutres. Des extensions possibles et futures recherches sont suggérées.
APA, Harvard, Vancouver, ISO, and other styles
3

Roussette, Olivier, Yannick Desplanques, and Gérard Degallaix. "Représentativité thermique d'essais tribologiques à échelle réduite." Comptes Rendus Mécanique 331, no. 5 (May 2003): 343–49. http://dx.doi.org/10.1016/s1631-0721(03)00082-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Alory, Gaël, Thierry Delcroix, and Isabelle Dadou. "Reproduire le phénomène El Niño à échelle réduite." La Météorologie 8, no. 89 (2015): 11. http://dx.doi.org/10.4267/2042/56592.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lavoie, Marc. "Des recherches patrimoniales à échelle réduite : l’avenir de Parcs Canada." Opinion, no. 22-23 (March 25, 2013): 231–33. http://dx.doi.org/10.7202/1014984ar.

Full text
Abstract:
Au cours des derniers mois, le gouvernement fédéral a sabré dans les effectifs de nombreux ministères, surtout en ce qui a trait à la recherche. À Parcs Canada, le nombre de chercheurs a été réduit de beaucoup. Or il s’avère que les archéologues, les conservateurs et les historiens au service du gouvernement fédéral croulaient déjà sous une montagne de travail. Il faut se demander comment ceux qui ont survécu à ces coupures pourront poursuivre leurs recherches et répondre aux demandes à jamais croissantes du public pour des informations sur les sites patrimoniaux au pays.
APA, Harvard, Vancouver, ISO, and other styles
6

Foret, Gilles, Xiemena Oviedo, Karam Sab, and Pierre-Etienne Gautier. "Vibration du ballast ferroviaire. Une étude expérimentale à échelle réduite." Revue française de génie civil 7, no. 6 (June 28, 2003): 777–95. http://dx.doi.org/10.3166/rfgc.7.777-795.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Martiré, Thierry, Guillaume Pellecuer, Philippe Enrici, Jean-Jacques Huselstein, J. P. Gairaud, and E. Briquet. "Simulations, mesures et régulation sur un système S3R pour satellite à échelle réduite." J3eA 22 (2023): 1016. http://dx.doi.org/10.1051/j3ea/20231016.

Full text
Abstract:
Dans cet article nous présentons un TP réparti sur 2 séances permettant d’approcher le fonctionnement d’un système d’alimentation pour satellite. Ce TP, présent dans les enseignements de Master 2 (IEFS, puis 3EFS) depuis le LMD4, se repose d’une part sur une maquette permettant de simuler le plus fidèlement possible un système d’alimentation S3R (sequential switching shunt regulator) à échelle réduite et d’autre part sur une maquette permettant d’avoir un petit générateur photovoltaïque d’une dizaine de watt avec deux panneaux. Les étudiants étudient et caractérisent ces panneaux dans une première série de TP, puis simulent le S3R avec le logiciel PSIM en intégrant les caractéristiques du générateur qu’ils ont à disposition et enfin font des mesures dans une ultime séance sur une maquette dédiée permettant d’utiliser jusqu’à 3 sections de panneaux solaires connectées en parallèle.
APA, Harvard, Vancouver, ISO, and other styles
8

Dadou, Isabelle, Virginie Sanial, Kévin Guerreiro, Marie-Lou Bachèlery, Sébastien Chastanet, Gaël Alory, and Samuel Somot. "Reproduire la circulation thermohaline à échelle réduite et comprendre son rôle dans le climat." La Météorologie 8, no. 93 (2016): 15. http://dx.doi.org/10.4267/2042/59937.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Amarenco, G., P. Marquis, C. McCarthy, F. Richard, and B. Leriche. "Échelle Ditrovie: version réduite permettant l'évaluation de la qualité de vie lors des troubles mictionnels." Annales de Réadaptation et de Médecine Physique 39, no. 6 (January 1996): 378. http://dx.doi.org/10.1016/0168-6054(96)86974-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Horcik, Zoya, and Marc Durand. "L’expérience mimétique dans l’apprentissage adulte: le cas des formations par simulation." Swiss Journal of Educational Research 37, no. 1 (September 20, 2018): 167–86. http://dx.doi.org/10.24452/sjer.37.1.4949.

Full text
Abstract:
L’objectif cet article est de discuter la pertinence de la notion de mimétisme dans l’apprentissage adulte en prenant appui sur une recherche effectuée au cours d’une formation sur simulateur de pleine-échelle pour des infirmiers en anesthésie. Les résultats montrent que les participants engagés dans des dispositifs de formation par simulation font une expérience particulière, qualifiée de mimétique, qui ne peut être réduite entièrement au travail de référence. Nos résultats soulèvent la question du rapport de «similarité-différence» entre l’activité de travail et l’activité de formation. Nous faisons l’hypothèse que l’expérience mimétique est également présente dans d’autres environnements d’apprentissage qui sont considérés comme «sérieux»: c’est-à-dire ne nécessitant pas d’engagement explicitement ludique ou mimétique de la part des participants.
APA, Harvard, Vancouver, ISO, and other styles
11

Khadraoui, Mohamed Amine, and Leila Sriti. "Etude expérimentale du comportement thermique d’une façade ventilée dans un climat chaud et aride." Journal of Renewable Energies 20, no. 4 (December 31, 2017): 626–34. http://dx.doi.org/10.54966/jreen.v20i4.655.

Full text
Abstract:
Les façades des édifices sont considérées comme des surfaces de transfert de chaleur entre l’ambiance interne et le climat extérieur. Elles sont des zones de grandes pertes thermiques à travers différents modes de transfert(par conduction, convection et rayonnement), ce qui influe d’une grande manière sur le fonctionnement thermique des bâtiments. L’objectif de cette recherche est d’étudier le comportement thermique d’une façade ventilée sur son efficacité dans une zone chaude et aride. Cette recherche est basée sur un travail expérimental à travers l’exploitation des cellules tests à une échelle réduite. Les paramètres étudiés sont : les températures surfaciques externes, surfaciques internes et les températures ambiantes. Les résultats ont démontré que le fonctionnement thermique de la cavité d’air d’une façade ventilée influe d’une façon positive sur le comportement thermique de la façade et par la suite sur la performance thermique et énergétique de la construction.
APA, Harvard, Vancouver, ISO, and other styles
12

Orpana, Heather M., Justin J. Lang, and Kim Yurkowski. "Validation d’une version réduite de l’Échelle de provisions sociales au moyen de données d’enquêtes nationales canadiennes." Promotion de la santé et prévention des maladies chroniques au Canada 39, no. 12 (December 2019): 352–62. http://dx.doi.org/10.24095/hpcdp.39.12.02f.

Full text
Abstract:
Introduction L’Échelle de provisions sociales à 10 items (SPS-10) a été mise en oeuvre dans un certain nombre d’enquêtes nationales canadiennes pour évaluer le soutien social. L’objectif de notre étude était de réduire l’échelle SPS-10 à une échelle à 5 items (SPS-5) tout en conservant des propriétés de mesure adéquates. Méthodologie Nous avons analysé les données fournies par les personnes de 18 ans et plus ayant répondu aux questions du module utilisant l’Échelle de provisions sociales dans le cadre du cycle thématique sur la santé mentale de l’Enquête sur la santé dans les collectivités canadiennes de 2012 (ESCC-SM 2012) et du cycle annuel de l’Enquête sur la santé dans les collectivités canadiennes de 2017 (ESCC 2017). Pour choisir les items, nous avons effectué une analyse factorielle exploratoire et une corrélation item-total sur les données du cycle SM ESCC 2012. Nous avons utilisé une analyse de corrélation entre l’échelle SPS-5, l’échelle SPS-10 et les construits de santé mentale positive (SMP) correspondants pour évaluer la validité critérielle de l’échelle SPS-5 par rapport à l’échelle SPS-10. Nous avons effectué une analyse factorielle confirmatoire à partir des données du cycle ESCC 2017 afin de confirmer la structure des facteurs de l’échelle SPS‑5. Résultats L’échelle SPS-5 présente une cohérence interne élevée (indice alpha de Cronbach de 0,88) et des corrélations avec les construits de SMP correspondants semblables à celles de l’échelle SPS-10. Les échelles SPS-5 et SPS-10 se sont aussi avérées très fortement corrélées (r = 0,97). L’analyse factorielle confirmatoire indique que le modèle à un seul facteur par provision, c’est-à-dire la SPS-5, est bien ajusté aux données. Les échelles SPS-5 et SPS-10 produisent des estimations similaires d’un soutien social élevé, de respectivement 92,7 et 91,5 %. Conclusion La nouvelle échelle SPS-5 offre des propriétés de mesure adéquates et fonctionne de façon semblable à l’échelle SPS-10, étayant l’utilisation de cette version réduite. Elle constitue une solution de remplacement valide et utilisable de l’échelle SPS-10, ce qui pourrait alléger la tâche des participants aux enquêtes nationales sur la santé.
APA, Harvard, Vancouver, ISO, and other styles
13

Touré, H. M. "Evaluation de l'impact de l'atteinte des cibles de couverture des indicateurs des plans en vigueur sur la sous nutrition et la mortalité des enfants de moins de 5 ans au Mali." Mali Santé Publique 10, no. 1 (July 24, 2020): 7–18. http://dx.doi.org/10.53318/msp.v10i1.1656.

Full text
Abstract:
Introduction : Au Mali, le niveau de la sous nutrition des enfants de moins de 5 ans restent préoccupants. L'objectif de cette étude était d'évaluer l'impact de l'atteinte des cibles de couverture des indicateurs de plans SMNI&N en vigueur au Mali sur la sous nutrition et la mortalité des enfants de moins de 5 ans. Matériel et méthodes : Nous avons modélisé l'impact de deux paquets d'intervention dans LiST entre 2014 et 2023. Une projection incluait les interventions et les cibles des plans en vigueur en 2014. Une autre projection portait à une couverture de 100% les interventions nutritionnelles et de WASH. Résultats : Nos résultats montrent que, si le Mali atteint les cibles des plans, plus de 115 800 cas de malnutrition chronique seraient évités en 2018 et jusqu'à plus de 711 000 cas en 2023. Les pratiques appropriées d'alimentation de complément éviteraient plus de 364000 cas. La malnutrition chronique serait réduite de 38% à 33,9% contre 31,9% pour le scenario. La malnutrition aigüe serait réduite de 12,9% à 9,9% contre 8,8% pour le scénario. Le nombre de vies sauvées chez les enfants serait de plus de 71 500 en 2018 et plus de 214 000 en 2023. La réduction la plus importante s'observerait pour la mortalité infanto-juvénile qui passerait à 126,6 à 80‰ naissances vivantes en 2023. Conclusion : L'étude a révélé que, même avec la mise à échelle des interventions à une couverture de 100% du secteur de la Santé et du WASH, les objectifs de sous- nutrition des plans ne seront pas atteints. D'où la nécessité de mener des actions multisectorielles coordonnées.
APA, Harvard, Vancouver, ISO, and other styles
14

Creel, Jérôme, and Henri Sterdyniak. "À propos de la volatilité de l'euro." Revue de l'OFCE 65, no. 2 (June 1, 1998): 199–226. http://dx.doi.org/10.3917/reof.p1998.65n1.0199.

Full text
Abstract:
Résumé Faut-il craindre que instauration de euro accroisse la volatilité des taux de change échelle mondiale ? Cet article utilise une maquette à trois pays pour comparer la volatilité du taux de change selon la nature des chocs et le régime de change en Europe (change flexible, SME ou UEM). Si, théoriquement, le taux de change d'un grand pays fermé fluctue plus que celui un petit pays ouvert, les résultats sont mitigés dans le cas spécifique de l'euro. Le surplus de volatilité n'aurait lieu que pour des chocs de demande ou des chocs d'offre externe. La volatilité serait réduite à la suite de chocs d'offre interne. Ces résultats s'inversent si la sensibilité du commerce intra-européen aux prix relatifs est particulièrement forte. Dans le cas de chocs communs en Europe, le surplus de volatilité permettrait une meilleure stabilisation économique. Pour les chocs ne frappant qu'un pays, l'euro serait plus stable que la monnaie du pays touché, mais cette stabilité nuirait la stabilisation économique. Toutefois, l'indépendance de la BCE pourrait conduire à de fortes variations de l'euro à la suite de chocs inflationnistes. Par ailleurs, la paralysie des politiques budgétaires induites par le Pacte de stabilité rendrait nécessaires des politiques monétaires plus actives, ce qui serait une source d'instabilité.
APA, Harvard, Vancouver, ISO, and other styles
15

Vandergucht, David. "ZFOREST : UN PROTOTYPE DE PLATEFORME WEB DE COVISUALISATION LIDAR, RASTER ET VECTEUR À GRANDE ÉCHELLE." Revue Française de Photogrammétrie et de Télédétection 1, no. 211-212 (December 30, 2020): 129–42. http://dx.doi.org/10.52638/rfpt.2015.551.

Full text
Abstract:
En recherche comme en exploitation forestière, la donnée Lidar aéroportée apporte des clefs de compréhension surla structure du terrain, de la forêt et par extension, des informations sur la biomasse aérienne. Mais pour être utile, cette donnée Lidar doit couvrir de vastes étendues tout en étant très résolue spatialement. Ces caractéristiques se traduisent par de grands volumes de données très difficiles à visualiser, manipuler et étudier sans l’aide de logiciels très onéreux.Dans le cadre du projet ANR FORESEE, nous avons développé un logiciel web, de visualisation mixte nuage de pointsLidar / surface 3D issue d’un Modèle Numérique de Terrain / carte / photographie aérienne et terrestre / donnée vectorielle : la plateforme zForest. Ce logiciel, qui s’adresse aux chercheurs en télédétection et à terme aux exploitants forestiers, permet la navigation à grande échelle dans des données massives et leur exploration, du niveau de détail le plus large (la région) jusqu’au plus fin (l’arbre). Cet outil permet la mesure, l’annotation et l’extraction des données. Il propose également une interface de programmation web (API) permettant à d’autres outils du marché d’utiliser ses données sources. zForest étant une plateforme web, elle est disponible sans installation sur tous les navigateurs internet récents, facilitant son accessibilité et son déploiement.
APA, Harvard, Vancouver, ISO, and other styles
16

Bouzid, Noureddine, Noureddine Settou, Touhami Lanez, Abdelkader Djelloul, Ahmed Abdelhafid Bebba, and Fatiha Chelgham. "Rôle des transferts thermiques sur la corrosion des concentriques utilisés dans les puits producteurs d’eau albienne." Revue des sciences de l'eau 22, no. 3 (August 3, 2009): 397–406. http://dx.doi.org/10.7202/037778ar.

Full text
Abstract:
Résume L’eau de l’aquifère albien de la région de Haoud‑Berkaoui est utilisée à grande échelle et à des fins variées dans le Bas‑Sahara algérien, notamment dans le domaine de l’extraction pétrolière. Pour améliorer les conditions d’exploitation de l’eau souterraine, des concentriques ont été installés au sein des puits producteurs pour l’acheminement d’inhibiteurs de corrosion. La durée de vie de ces concentriques, prévue initialement pour cinq années, a été réduite à seulement deux ans, des fuites importantes d’eau ainsi que des dégradations au niveau des têtes de puits ayant été constatées. Les analyses chimiques des échantillons d’eau de plusieurs forages montrent que ces derniers sont de nature incrustante, chargés en sulfates, peu riches en gaz carbonique dissous et ne contiennent pas de H2S ni d’oxygène. Il a été possible, par thermométrie, de mettre en évidence l’existence d’un gradient de température, variable en fonction de la profondeur et pouvant atteindre 16 °C. La corrosion du concentrique sous transfert thermique a été examinée à l’aide des techniques électrochimiques. La vitesse de corrosion augmente considérablement en fonction du gradient de température croissant, quelle que soit la nature de l’eau (ayant ou non subi un traitement préalable par bactéricides et inhibiteurs). La meilleure efficacité des traitements employés a été obtenue pour un gradient nul et n’atteint que 30 %. L’absence totale de FeS élimine toute possibilité de corrosion d’origine bactérienne, le gradient de température semble favoriser l’accélération de la cinétique d’échange entre le métal et l’eau.
APA, Harvard, Vancouver, ISO, and other styles
17

Pla, Guillaume, Julien Crippa, Abdelatif Djerboua, Octavian Dobricean, Frédéric Dongar, Allan Eugene, and Mireille Raymond. "ESPADA : un outil pour la gestion en temps réel des crues éclairs urbaines en pleine modernisation." La Houille Blanche, no. 3-4 (October 2019): 57–66. http://dx.doi.org/10.1051/lhb/2019027.

Full text
Abstract:
La ville de Nîmes est un territoire particulièrement exposé au risque inondation, et notamment aux crues torrentielles. Si aucun cours d'eau majeur n'est présent dans sa zone urbaine dense, ce sont les cadereaux, fossés de garrigues, qui sont en charge de la collecte du ruissellement et traversent la ville. Les évènements méditerranéens, des bassins versants de taille réduite (au plus 30 km2) et de nature karstique ainsi qu'une configuration en piémont sont autant de facteurs à l'origine de ruissellement potentiellement conséquent avec débordements majeurs sur la ville, de type crues-éclairs. Suite aux inondations du 3 octobre 1988, la ville de Nîmes a lancé une politique ambitieuse de prévention du risque inondation, incluant un aménagement important des cadereaux. Dans cette démarche, elle se dote en 2004 d'un système d'alerte et d'aide à la gestion de crise permettant de prévoir le risque inondation : ESPADA (Evaluation et suivi des précipitations en agglomération pour devancer l'alerte). L'objectif est de prévoir les débits des cadereaux à échéance maximale 1 h 30, en exploitant un modèle hydrologique intégrant une représentation fine du fonctionnement karstique. Dans le cadre de son Programme d'actions de prévention des inondations (PAPI), la ville de Nîmes a débuté en 2014 la modernisation du système ESPADA avec pour objectif d'améliorer la qualité des données d'entrée du système temps réel (pas de temps 5 min). Un réseau radio de collecte fiabilisée des capteurs hydrométéorologiques de la Ville a été mis en place, assurant également la collecte de postes du SPC-GD (Service de prévision des crues du Grand Delta). Parallèlement, un outil radar d'observation et prévision de pluie au pixel 500 m, échelle adaptée aux contraintes hydrologiques locales, a été développé, incluant une calibration de la donnée par exploitation des données des postes pluviographiques disponibles. Dans le cadre de la seconde étape de cette modernisation, le modèle de prévision du système est retravaillé afin de fonctionner en continu au pas de temps 5 min. La propagation est gérée via un modèle hydraulique 1D. Par ailleurs, les données limnigraphiques sont utilisées en temps réel afin de réajuster les valeurs de débits et les niveaux des bassins de rétention. De même, une interface en ligne est en cours de développement, permettant une utilisation efficace des outils par l'ensemble des acteurs de la gestion de crise. À terme, il est prévu de mettre à disposition de la population une partie des informations associées au système ESPADA via une interface de type Vigicrues.
APA, Harvard, Vancouver, ISO, and other styles
18

Breton, S. N., P. L. Pallé, R. A. García, M. Fredslund Andersen, F. Grundahl, J. Christensen-Dalsgaard, H. Kjeldsen, and S. Mathur. "No swan song for Sun-as-a-star helioseismology: Performances of the Solar-SONG prototype for individual mode characterisation." Astronomy & Astrophysics 658 (January 27, 2022): A27. http://dx.doi.org/10.1051/0004-6361/202141496.

Full text
Abstract:
The GOLF instrument on board SoHO has been in operation for almost 25 years, but the ageing of the instrument has now strongly affected its performance, especially in the low-frequency pressure-mode (p-mode) region. At the end of the SoHO mission, the ground-based network BiSON will remain the only facility able to perform Sun-integrated helioseismic observations. Therefore, we want to assess the helioseismic performances of an échelle spectrograph such as SONG. The high precision of such an instrument and the quality of the data acquired for asteroseismic purposes call for an evaluation of the instrument’s ability to perform global radial-velocity measurements of the solar disk. Data acquired during the Solar-SONG 2018 observation campaign at the Teide Observatory are used to study mid- and low-frequency p modes. A Solar-SONG time series of 30 days in duration is reduced with a combination of the traditional IDL iSONG pipeline and a new Python pipeline described in this paper. A mode fitting method built around a Bayesian approach is then performed on the Solar-SONG and contemporaneous GOLF, BiSON, and HMI data. For this contemporaneous time series, Solar-SONG is able to characterise p modes at a lower frequency than BiSON or GOLF (1750 μHz versus 1946 and 2157 μHz, respectively), while for HMI it is possible to characterise a mode at 1686 μHz. The decrease in GOLF sensitivity is then evaluated through the evolution of its low-frequency p-mode characterisation abilities over the years: a set of 30-day-long GOLF time series, considered at the same period of the year from 1996 to 2017, is analysed. We show that it is more difficult to accurately characterise p modes in the range 1680 to 2160 μHz when considering the most recent time series. By comparing the global power level of different frequency regions, we also observe that the Solar-SONG noise level in the 1000 to 1500 μHz region is lower than for any GOLF subseries considered in this work. While the global p-mode power-level ratio is larger for GOLF during the first years of the mission, this ratio decreases over the years and is bested by Solar-SONG for every time series after 2000. All these observations strongly suggest that efforts should be made towards deploying more Solar-SONG nodes in order to acquire longer time series with better duty cycles.
APA, Harvard, Vancouver, ISO, and other styles
19

Huber, Claire, Fengshan Li, Xijun Lai, Sadri Haouet, Arnaud Durand, Suzanne Butler, James Burnham, et al. "Using Pléiades HR data to understand and monitor a dynamic socio-ecological system: China's Poyang lake." Revue Française de Photogrammétrie et de Télédétection, no. 209 (January 29, 2015): 125–31. http://dx.doi.org/10.52638/rfpt.2015.206.

Full text
Abstract:
Le lac Poyang, première réserve d'eau douce de Chine, est un lac de moussons présentant de fortes variations de surfaces en eau entre la saison sèche, novembre-mars, et la saison humide juin-septembre. Les surfaces en eau passent ainsi de plus de 3000 km2 en été, à moins de 1000 km2 en hiver, cela correspondant à une variation inter annuelle de la hauteur de l'eau de 8 à 12 mètres. En saison sèche, la dépression du Poyang comprend une cuvette centrale en eau de taille réduite, et des lacs déconnectés entourés de vastes zones enherbées plus ou moins hautes. Lorsque le niveau d'eau augmente, la grande dépression centrale se remplit, puis au fur et à mesure du remplissage, comme une marée montante, l'eau arrive au niveau des lacs, les submerge et l'ensemble forme alors une petite mer intérieure d'eau douce. Cette dynamique et cette amplitude de variations ont de nombreuses implications en termes de ressources en eau, de santé publique (bilharziose), et mais aussi de richesse de la biodiversité.Le lac Poyang est un des milieux les plus riches et les plus importants en termes de biodiversité en Asie du Sud Est. Il s'agit d'une zone d'hivernage essentielle pour toute l'avifaune de l'Asie et de Sibérie. Plus de trois cents espèces d'oiseaux dépendent de cet habitat unique dont plus d'une douzaine d'espèces considérées en danger. Les plus emblématiques sont les grues de Sibérie et les cigognes blanches orientales dont la quasi-totalité, 98% de la population mondiale (moins de 3000 individus) viennent hiverner au Poyang. Cette de grande diversité d'oiseaux d'eau migrateurs est une conséquence directe de l'hydrologie complexe du lac Poyang.La forte variabilité intra et interannuelle du remplissage du Poyang, est un phénomène difficile à qualifier, c'est pourquoi un suivi temporel à relative haute fréquence est nécessaire. Dans le cadre de la RTU Pléiades HR, des acquisitions sur une base mensuelle ont été programmées au cours de l'année 2013 couvrant la partie la plus riche et sensible de la Reserve Naturelle du lac Poyang (PLNR). L'exploitation des données a porté sur plusieurs axes. Tout d'abord la caractérisation, à une échelle fine, des trajets de l'eau et de la dynamique de remplissage et de vidange des lacs, mettant en évidence un remplissage plutôt tardif et peu important au regard des observations réalisées les 12 dernières années, et surtout une vidange très précoce (fin juillet, entrainant par exemple la vidange totale du Bang Hu, principal site d'accueil des grues sibériennes). Les travaux ont également portés sur l'autre principale composant du milieu naturel, la végétation et sa dynamique inverse de l'eau. A partir des relevés terrain, le long de quatorze de transects, des indices de végétation ont été exploités afin de réaliser la cartographie de la végétation de ce secteur clé du lac Poyang. Les travaux ont également portes portés sur l'impact des activités anthropiques sur le milieu avec deux atteintes fortes, la mise en place de zones de cultures au sein du Parc national, et l'exploitation du lac Poyang comme carrière de sable se traduisant par un fort retrait des berges et un creusement des lits mineurs. Enfin, l'exploitation des données Pléiades HR, associées à des données CSK a permis de lever la première carte des filets de pêche au sein de la Reserve naturelle. De plus, deux triplets stéréo ont été acquis lors de périodes de basses hautes en en mars et septembre 2013, permettant la génération de modèles numériques de surfaces très précis et très détaillés.Les résultats obtenus suite à l'exploitation des images Pléiades HR, transmis à l'administration en charge de la gestion du Parc et à une ONG, l'International Crane Fondation, montrent l'apport des données Pléiades HR pour le suivi environnemental et aussi tout l'intérêt de séries temporelles très haute résolution pour la connaissance, et par la même, la protection des milieux.
APA, Harvard, Vancouver, ISO, and other styles
20

FAVERDIN, P., and C. LEROUX. "Avant-propos." INRAE Productions Animales 26, no. 2 (April 16, 2013): 71–76. http://dx.doi.org/10.20870/productions-animales.2013.26.2.3137.

Full text
Abstract:
Le lait n’est pas tout à fait un aliment comme les autres puisqu’il est aussi produit par l’Homme. Cet aliment est indispensable à l’alimentation de l’enfant, car sa richesse nutritionnelle combinée à sa forme liquide en font une ration « tout en un » du jeune pendant ses premières semaines de vie. L’homme a très tôt domestiqué d’autres mammifères pour produire cet aliment nécessaire pour le jeune et l’a aussi intégré dans l’alimentation de l’adulte sous forme native ou après transformation. De fait, le lait est un des rares produits animaux avec l’oeuf qui est produit régulièrement et qu’il est possible d’obtenir sans tuer l’animal. Sa production fait pleinement partie de la fonction de reproduction et son prélèvement doit être géré pour ne pas handicaper le développement du jeune animal qui est également un élément d’avenir dans l’élevage. Les vaches laitières ont longtemps bénéficié de noms très personnalisés, voire de prénoms, jusqu’à ce que la traçabilité ne vienne proposer des identifiants plus proches du matricule de la sécurité sociale que des petits noms affectueux utilisés jusqu’alors. La traite est un moment particulier où l’éleveur se substitue au jeune pour prélever le lait plusieurs fois par jour. Tout ceci fait traditionnellement de l’élevage laitier un élevage qui associe étroitement l’homme et l’animal. Au commencement de la domestication et pendant longtemps, le principal défaut du lait a résidé dans sa faible aptitude à la conservation, nécessitant une consommation plutôt locale, le temps entre production et consommation devant rester le plus court possible. De fait, le développement de sa consommation dans les villes est récent et ne s’est pas fait sans quelques soucis (Fanica 2008). Bien entendu, les évolutions de l’industrie laitière et des transports ont permis de franchir ce double cap de la conservation et des distances, faisant en quelques décennies d’un produit local du peuple d’un terroir, riche d’identité, d’histoire et de culture (Faye et al 2010), un produit générique du commerce mondial qui s’échange entre continents suivant les règles de l’organisation mondiale du commerce et dont la demande augmente régulièrement. Ce passage du local au mondial ne s’effectue pas sans des changements radicaux des modes de production et de l’organisation des filières, avec des conséquences parfois importantes sur les territoires. La production de lait en France, pays traditionnel d’élevage bovin laitier, illustre parfaitement cette évolution et se trouve aujourd’hui à une période charnière. Riche d’une grande diversité de terroirs et de produits, la production française présente un profil original dont on ne sait pas aujourd’hui si c’est une force ou une faiblesse dans cette évolution. Depuis 1984, le système des quotas laitiers liés à la terre et non commercialisables en France a ralenti, comparativement aux pays voisins, l’évolution vers une spécialisation et une intensification des systèmes de production laitiers, mais il disparaîtra en 2015. Le contexte économique des prix des matières premières et du prix du lait devient beaucoup plus instable que par le passé. Le métier d’éleveur laitier, avec sa complexité, sa charge de travail importante, ses astreintes et la diminution de sa rémunération, devient moins attractif. La nécessaire prise en compte de l’impact de l’élevage sur l’environnement et plus globalement de la durabilité, constitue un nouveau défi qui est souvent vécu comme une contrainte supplémentaire. Cependant, les connaissances scientifiques et technologiques ont beaucoup progressé et offrent de nouveaux outils à l’élevage laitier pour construire une trajectoire originale dans cette évolution. Ce numéro spécial d’INRA Productions Animales se propose donc en quelques articles de faire un état des lieux des connaissances concernant la production laitière, ainsi que des nouveaux défis et des nouveaux outils qui s’offrent à la filière pour construire son avenir. Ce panorama n’est volontairement pas exhaustif et traitera prioritairement des vaches laitières avec cependant, lorsqu’il est apparu nécessaire, quelques exemples tirés de travaux réalisés chez les caprins. De même, il ne s’agit pas ici d’aborder la transformation du lait et les évolutions des nombreux produits transformés. Mais nous avons cherché à présenter un point sur un certain nombre de sujets en mettant en avant les avancées récentes et les défis scientifiques, techniques, économiques et organisationnels qui concernent la production laitière, en quatre grandes parties. La première plantera tout d’abord le décor du secteur laitier français. La deuxième présentera les nouvelles avancées des travaux sur la femelle laitière, la lactation et le lait. La troisième analysera les différents leviers que constituent la sélection génétique, la gestion de la santé, l’alimentation et la traite, pour mieux maîtriser la production de lait en élevage. Enfin, la dernière partie abordera des questions plus spécifiques concernant les systèmes d’élevage et leur futur. Le premier article de V. Chatellier et al fournit une analyse à la fois du bilan et des perspectives du secteur laitier français. Après une analyse du marché des produits laitiers au travers de la demande et de l’offre et des grandes stratégies des acteurs de la filière, cet article présente les spécificités françaises des exploitations laitières liées en particulier à la diversité des systèmes de production et des territoires. Cette double diversité se traduit également dans les écarts de productivité et des résultats économiques des exploitations dont la main-d’oeuvre reste majoritairement familiale, avec la question de son renouvellement qui se pose différemment selon les territoires. Enfin, à l’aune des changements importants de contexte qui se préparent avec la fin des quotas et les nouvelles relations qui se mettent en place entre producteurs et transformateurs, les auteurs étudient les différents scénarios qui en découlent et qui conduiront à l’écriture du futur du secteur laitier français dans les territoires et le marché mondial. La série d’articles sur l’animal et le lait débute par une approche systémique de l’animal laitier. La vache laitière est d’abord perçue au travers de sa fonction de production, et les modèles de prévision de la lactation se sont longtemps focalisés sur cette seule fonction. La notion d’animaux plus robustes et d’élevages plus durables (cf. Dossier « Robustesse... », Sauvant et Perez 2010) amène à revisiter cet angle d’approche pour l’élargir à ensemble des fonctions physiologiques en prenant mieux en compte les interactions entre les génotypes animaux et leurs environnements. La modélisation aborde cette complexité de deux façons contrastées, l’une plutôt ascendante en partant des mécanismes élémentaires et en les agrégeant, l’autre plutôt descendante, en partant de grandes propriétés émergeantes des principales fonctions et de leurs interactions, voire de leur compétition dans l’accès aux ressources nutritionnelles. La revue de Friggens et al aborde ainsi la question de la dynamique de partition des nutriments entre fonction physiologiques chez les vaches laitières en fonction du génotype en présentant plusieurs approches de modélisation. Cette revue s’attache à montrer l’intérêt de partir des propriétés émergeantes pour arriver à modéliser les réponses complexes (production, reproduction, composition du lait, état corporel…) d’une vache soumise à différentes conduites d’élevage au cours de sa carrière. Les outils de demain qui permettront d’optimiser la conduited’élevage face aux aléas économiques et climatiques dépendront de l’avancée de ces modèles et des connaissances scientifiques qui les sous-tendent. La fonction de lactation est la conséquence de nombreux mécanismes à l’échelle de l’animal, tout particulièrement au niveau de la glande mammaire. Le développement et le fonctionnement de cet organe caractérisé par sa cyclicité ont fait l’objet de nombreux travaux à l’Inra et dans de nombreuses équipes de recherches internationales. Il ne s’agissait pas ici de relater l’ensemble de ces travaux mais de consacrer un article aux dernières connaissances acquises sur les mécanismes de biosynthèse et de sécrétion des constituants du lait. L’article de Leroux et al présente les travaux sur la régulation de l’expression génique dans la glande mammaire avec un intérêt particulier pour les données acquises avec les nouveaux outils d’études globales de génomique expressionnelle. Ceux-ci apportent de nouvelles connaissances sur les effets des facteurs génétiques sur la biosynthèse et la sécrétion du lait, sur leur régulation nutritionnelle et sur l’interaction de ces facteurs. Ce dernier point constitue un champ d’investigation supplémentaire pour décrypter les secrets du fonctionnement mammaire avec notamment l’intervention de nouveaux acteurs que sont les petits ARN non codants (ou microARN) qui vient encore accroître la complexité du fonctionnement mammaire dans son rôle prépondérant lors de la lactation. Après avoir fait cet état des lieux des connaissances sur la biosynthèse et la sécrétion des constituants du lait au niveau de la glande mammaire, l’article de Léonil et al présente la complexité des fractions protéique et lipidique du lait et de leur assemblage en structures supramoléculaires. Ces structures finales sont sous la dépendance de la nature et de la variabilité des constituants, ellesmêmes dues aux polymorphismes des gènes responsables de leur synthèse. Ainsi, les auteurs font un état des lieux des connaissances sur la structure et le polymorphisme des gènes spécifiant les protéines coagulables du lait que sont les caséines pour arriver à l’organisation de ces dernières en micelles. Le rôle nutritionnel de ces protéines majeures du lait et leur fonction biologique sont revisitées à la lumière des connaissances croissantes sur les peptides bioactifs qu’elles contiennent. La fraction lipidique n’est pas en reste avec la présentation de sa complexité et de son organisation sous forme de globule gras ainsi que de son impact nutritionnel sur le consommateur. Enfin, la découverte récente, dans le lait, de petites particules (ou exosomes) véhiculant des protéines et des ARN ouvre de nouvelle voies d’investigation de l’impact du lait sur la santé du consommateur. La série d’articles consacrée aux leviers d’action dont disposent les éleveurs pour moduler la production laitière ainsi que la composition du lait débute par l’article de Brochard et al, qui retrace l’impact de la sélection génétique pour arriver aux apports de la sélection génomique des races bovines laitières. Un bref historique de la sélection génétique présente les progrès réalisés sur les caractères de production laitière mais aussi sur des caractères de robustesse (fertilité, mammites…) et permet ainsi de dresser le décor génétique des élevages français. L’avènement des outils de génomique grâce au séquençage du génome bovin a conduit à renouveler les perspectives de sélection des bovins laitiers (cf. Numéro spécial, «amélioration génétique" Mulsant et al 2011). La présentation brève de ces outils permet de mieux appréhender les retombées attendues. Les opportunités offertes par la sélection génomique sur les caractères laitiers sensu stricto se complètent et permettent également de proposer une sélection sur de nouveaux caractères. En effet, la prise en compte progressive d’autres caractères oriente la sélection vers une complexité accrue notamment grâce à l’établissement de nouvelles mesures phénotypiques. L’évolution vers une meilleure robustesse, une efficacité alimentaire optimisée mais aussi une empreinte environnementale réduite, sera d’autant plus envisageable que la sélection pourra s’appuyer sur des capacités de phénotypage de plus en plus fin et à grande échelle. Un autre facteur prépondérant dans l’élevage laitier concerne la gestion de la santé animale qui affecte, notamment, la durabilité des élevages sous l’angle socio-économique. Cette gestion complexe doit prendre en compte de nombreux paramètres tel que le nombre des traitements nécessaires, le temps passé, les pertes économiques directes à court et long terme, etc. Les infections ne touchent pas toutes directement la glande mammaire, mais en affectant l’animal, elles impactent la lactation, l’efficacité de production du troupeau et donc l’élevage. L’article de Seegers et al passe en revue sept maladies majeures classées en trois groupes affectant les bovins laitiers. Il présente les connaissances récentes acquises sur ces maladies et les perspectives qu’elles ouvrent pour mieux les maîtriser. Ces maladies ont bien souvent un impact économique fort sur les élevages et/ou sont transmissibles à l’Homme constituant ainsi des questionnements de recherche forts et pour lesquels les moyens d’actions sont aussi multiples que variés. De plus, les attentes sociétales visent à diminuer, autant que faire se peut, les intrants médicamenteux. L’alimentation est un levier de maîtrise de la production et de la composition du lait qui présente l’avantage d’avoir des effets rapides et réversibles. Bien que ce levier puisse également moduler la composition protéique du lait, l’impact prépondérant de l’alimentation sur la composition en acides gras du lait, dans le but de fournir aux consommateurs une qualité nutritionnelle du lait la plus favorable possible, a été mis en exergue par de nombreuses études. La détermination de la composition en acides gras des laits est de plus en plus précise, notamment du fait des nouvelles techniques qui permettent une meilleure caractérisation de ces profils. Outre l’impact de l’alimentation, les effets des apports nutritionnels chez le ruminant sur les teneurs en composés vitaminiques du lait sont également à prendre en compte dans la perspective de l’utilisation du lait comme source complémentaire naturelle de vitamines chez les sujets présentant une efficacité d’absorption réduite (tel que les jeunes ou à l’inverse les personnes âgées). L’article de Ferlay et al recense les principaux facteurs alimentaires (nature de la ration de base, supplémentation oléagineuse, différents types de suppléments lipidiques et leurs interactions) influençant la composition en acides gras et en vitamines du lait de vache. Enfin, la traite constitue un outil supplémentaire de pilotage des troupeaux en termes de production laitière mais aussi de qualité sanitaire, technologique et nutritionnelle du lait. De plus, une meilleure connaissance des effets des différentes pratiques de traite est cruciale dans le contexte actuel de gestion du travail dans les exploitations laitières (cf. Numéro spécial, « Travail en élevage », Hostiou et al 2012). Les moyens mis en oeuvre se situent à différents niveaux allant de la fréquence de traite aux systèmes de stockage des laits en passant par les réglages possibles ou les types de machines à traire. L’article de Guinard-Flament et al fait le point des connaissances actuelles sur les effets et les conséquences de modifications de la conduite des animaux à la traite. Il présente les effets de la fréquence de traite sur le niveau de production laitière et sur la composition du lait. Le contexte de la traite, avec les effets mécaniques de la machine à traire et celui du système de stockage, est également présenté dans ses multiples facettes pour souligner leur rôle prépondérant sur la qualité microbienne des laits. La conduite des vaches à la traite est également un moyen de gestion de la carrière d’une vache laitière à travers le pilotage de certaines phases du cycle de production (effets sur la reproduction et sur la durée de la lactation et leurs conséquences sur la santé de l’animal...). La dimension des systèmes d’élevage est dominée ces dernières années par la question environnementale, notamment depuis la parution du rapport de la FAO « Livestock’s long shadow » (Steinfeld et al 2006). L’élevage laitier, très consommateur de ressources de qualité, est concerné au premier rang par ce défi environnemental. Mais ces enjeux, peu perceptibles à l’échelle de l’élevage pourtant à l’origine de ces risques, sont difficiles à intégrer dans les objectifs des systèmes de production. L’article de Dollé et al sur les impacts environnementaux des systèmes bovins laitiers français apporte de nombreux éléments quantifiés sur les émissions des éléments à risque pour l’environnement par les élevages laitiers. Ces risques concernent bien entendu la qualité de l’eau, notamment via les excrétions d’azote et de phosphore, ce qui est connu depuis longtemps avec leurs impacts sur l’eutrophisation des cours d’eau et des côtes. Les risques liés à la qualité de l’air ont été pris en compte beaucoup plus récemment et concernent principalement les émissions d’ammoniac pouvant affecter la santé humaine et des gaz à effet de serre responsables du réchauffement climatique (cf. Dossier, « Gaz à effet de serre en élevage bovin : le méthane », Doreau et al 2011). Ensuite, l’article aborde la question de la biodiversité, auxiliaire de l’agriculture et des paysages, où l’élevage joue un rôle central au sein des territoires agricoles. L’article aborde pour finir la question de la quantification de ces impacts afin d’améliorer objectivement les performances environnementales des élevages et montre que performances environnementales et économiques en élevage laitier ne sont pas antinomiques. En guise de conclusion de ce numéro, J.L. Peyraud et K. Duhem se sont prêtés à un exercice d’analyse prospective des élevages laitiers et du lait de demain en reprenant certains des constats de l’article introductif, notamment sur la diversité des systèmes et des territoires, la restructuration rapide de la filière et la reconstruction du métier d’éleveur. La filière devra demain affronter la tension entre l’amélioration de la compétitivité et celle de la durabilité de l’élevage en tirant profit des innovations. La meilleure prise en compte des qualités nutritionnelles des produits et de l’évolution des demandes tout en améliorant l’intégration de l’élevage au sein des territoires constitue un double défi pour résoudre cette tension. L’analyse des auteurs prône cependant un maintien de la diversité et la complémentarité des systèmes dans une diversité de territoires pour mieux répondre aux enjeux de la société et des éleveurs. Ce numéro spécial montre combien la filière laitière est aujourd’hui plus que jamais à la croisée des chemins avec des défis économiques et sociétaux difficiles à relever dans un climat de plus en plus incertain. Entre diversité d'une part, et spécialisation et standardisation d'autre part, le chemin de la filière française reste complexe à définir. Les nombreuses évolutions des connaissances scientifiques permettent de disposer à court ou moyen terme de nouveaux outils pour relever ces défis. La sélection génomique pour disposer des animaux les plus adaptés à leur système, les modèles de prévision pour anticiper les aléas et leurs conséquences, les outils d’évaluation environnementale pour maîtriser les risques, les outils de monitoring et d’information des troupeaux d’élevage pour améliorer les conditions de travail et l’efficience des troupeaux, les possibilités de piloter la qualité des produits par les conduites d’élevage et en particulier l’alimentation, une meilleure connaissance des mécanismes de régulation de la lactation, la découverte de la richesse des constituants du lait et de leurs propriétés nutritionnelles et fonctionnelles sont autant d’atouts pour la filière pour affronter ces défis. A travers les articles de ce numéro, nous avons voulu illustrer quelques un de ces défis et des perspectives offertes par la recherche. L’enjeu sera de les mobiliser à bon escient dans le cadre de stratégies cohérentes. Cela nécessitera la collaboration de tous les acteurs de la recherche, de la formation, du développement et de la filière. A leur niveau, les articles de ce numéro, par les nombreuses signatures communes entre chercheurs, enseignants-chercheurs et ingénieurs de recherche-développement, témoignent de la vitalité des unités mixtes de recherche et des unités mixtes thématiques impliquées dans l’élevage laitier. De même, bon nombre de travaux relatés dans les articles de ce numéro sont le fruit de programmes de recherche co-financés et menés en collaboration étroite entre la recherche, les instituts technique et la filière. Nous y voyons un fort signe positif pour l'avenir de l'élevage laitier en France Cet avant-propos ne saurait s’achever sans remercier René Baumont et le comité de rédaction d’Inra Productions Animales pour l’initiative judicieuse de ce numéro spécial, mais aussi pour nous avoir aidés à mener à bien ce projet comprenant de nombreux auteurs, qui ont bien voulu se prêter à l’exercice difficile de la rédaction d’un article de synthèse qui conjugue la rigueur de l’information scientifique avec l’exigence de la rendre accessible à un large public. Ce numéro doit beaucoup aussi aux relectures constructives de nombreux collègues que nous remercions ici anonymement. Enfin, cet ouvrage doit aussi sa qualité à un travail remarquable d’édition technique assuré par Pascale Béraudque nous associons à ces remerciements. Nous avons eu la primeur de ces articles et nous espérons que vous partagerez l’intérêt que nous avons eu à leur lecture à la fois instructive, enrichissante et propice à nourrir notre réflexion pour le futur de la recherche-développement dans le domaine de l’élevage bovin laitier.Philippe FAVERDIN, Christine LEROUX RéférencesDoreau M., Baumont R., Perez J.M., (Eds) 2011. Dossier, Gaz à effet de serre en élevage bovin : le méthane. INRA Prod. Anim., 24, 411-474. Fanica P.O., 2008. Le lait, la vache et le citadin. Du XVIIe au XXe siècle. Editions Quae, Paris, France,520p. Faye B., Bonnet P., Corniaux C., Duteurtre G., 2010. Peuples du lait. Editions Quae, Paris France, 160p. Hostiou N., Dedieu B., Baumont R., (Eds) 2012. Numéro spécial, Travail en élevage. INRA Prod. Anim., 25, 83-220. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M., (Eds) 2011. Numéro spécial, Amélioration génétique. INRA Prod. Anim., 24, 283-404. Sauvant D., Perez J.M., (Eds) 2010. Dossier, Robustesse, rusticité, flexibilité, plasticité, résilience… les nouveaux critères de qualité des animaux et des systèmes d'élevage. INRA Prod. Anim., 23, 1-102. Steinfeld H., Gerber P., Wassenaar T., Castel V., Rosales M., de Haan C., 2006. Livestock's long shadow: environmental issues and options. Food and Agriculture Organization of the United Nations,414p.
APA, Harvard, Vancouver, ISO, and other styles
21

Gagnon, Alex. "Archéologie de la « bande de Chambers ». Récits de meurtre, littérature et espace public au Québec (1837-1844)." @nalyses. Revue des littératures franco-canadiennes et québécoise, January 11, 2017. http://dx.doi.org/10.18192/analyses.v12i1.1922.

Full text
Abstract:
Bien étudié par l’historiographie française, l’impact considérable du fait divers et du crime sur la littérature et l’imaginaire du xixe siècle l’est beaucoup moins par l’historiographie québécoise, alors que le phénomène est, bien qu’à une échelle plus réduite, tout aussi important de ce côté de l’Atlantique. L’article a pour objectif d’éclairer ce point d’histoire littéraire en réinscrivant certains des premiers romans canadiens-français dans le contexte précis de leur publication. Inspirés de faits divers marquants (dont la fameuse affaire de la « bande de Chambers »), ceux-ci entretiennent d’étroites et de fortes relations avec la presse et, partant, avec certains débats sociaux et politiques qui ont marqué l’espace public québécois des années 1830 et 1840.
APA, Harvard, Vancouver, ISO, and other styles
22

Bourkhiss, M., M. Lachkar, A. Ouakil, A. Farah, and B. Bourkhiss. "Caractérisation physicochimique de l’huile de carthame (Carthamus tinctorius) produite dans le Sud-Est marocain." Phytothérapie, 2021. http://dx.doi.org/10.3166/phyto-2021-0287.

Full text
Abstract:
L’introduction du carthame dans la région de Goulmima (Sud-Est marocain), et son exploitation en tant que plante oléagineuse à fort rendement lipidique et riche en acides gras polyinsaturés, est récente et à une échelle très réduite. Cette étude a pour but de contribuer à la valorisation de l’huile de cette plante par la détermination de son potentiel de rendement, de sa composition en acides gras et de ses caractéristiques physicochimiques. Le rendement en grains est de 2 360 kg/ha, et la teneur en huile obtenue par pressage à froid, exprimée en pourcentage de matière sèche, est de 30,7 %. L’analyse des acides gras montre que l’acide linoléique est l’acide principal, avec un taux de 78,30 %. Les teneurs en acide palmitique, acide stéarique et en acide oléique sont respectivement de 6,76, 4,67 et 9,95 %. Les autres acides gras sont à l’état de traces. L’évaluation des paramètres physicochimiques a révélé une valeur de densité relative de 0,924 ; un degré d’acidité de 0,65 % en acide oléique, un indice de peroxyde de l’ordre de 10,25 meq d’O2/kg d’huile et des indices d’extinction spécifique de l’ordre de 2,34 et 0,63 aux longueurs d’onde de 232 et 270 nm respectivement. L’huile de carthame présente donc des propriétés biochimiques et physicochimiques qui en font une huile d’avenir.
APA, Harvard, Vancouver, ISO, and other styles
23

Hamed, R., E. M. Khedr, N. A. Haridy, K. O. Mohamed, S. Elsawy, and B. Leroy. "Effets de la stimulation transcrânienne à courant direct sur la douleur et la consommation d’opioïdes après une chirurgie de la colonne vertébrale." Douleur et Analgésie, 2023. http://dx.doi.org/10.3166/dea-2022-0252.

Full text
Abstract:
Contexte : La stimulation transcrânienne à courant direct (tDCS) a montré des résultats prometteurs dans le soulagement de différents types de douleur. Cette étude compare l’efficacité de trois sessions de tDCS anodale appliquée sur l’aire motrice primaire (M1) ou le cortex préfrontal dorsolatéral gauche (DLPFC) ou de sham sur la réduction de la douleur et la consommation totale d’opioïdes chez des patients postopératoires de chirurgie de la colonne vertébrale. Matériel : Soixante-sept des 75 patients éligibles pour une chirurgie postopératoire de la colonne vertébrale ont été répartis au hasard dans l’un des trois groupes expérimentaux. Le groupe A a reçu une tDCS anodale appliquée sur le cortex M1, le groupe B sur le cortex DLPF gauche (2 mA, 20 minutes), et le groupe C a reçu une tDCS sham, tous pendant trois jours postopératoires consécutifs. Les patients ont été évalués à l’aide d’une échelle visuelle analogique (EVA) et d’une échelle visuelle analogique adynamique (EVAA) au début de l’étude et à chacun des jours de traitement. La consommation totale de morphine sur les trois jours postopératoires a été évaluée. Résultats : L’Anova à mesures répétées à deux voies n’a montré aucune différence statistiquement significative de l’EVA au repos entre les trois groupes. Cependant, on a constaté une amélioration significative de la douleur (p < 0,001) dans l’EVAA dans les deux groupes actifs (groupes A et B) par rapport au groupe fictif (groupe C) dans la période postopératoire, sans différence significative entre les groupes actifs. La consommation de morphine a été significativement réduite dans les deux groupes actifs par rapport au groupe sham, mais il n’y avait pas de différence de consommation entre les groupes actifs. Conclusion : Il y a eu une réduction postopératoire significative de la consommation de morphine et des scores DVAS après trois sessions de tDCS active. Impact : La tDCS est un outil prometteur pour soulager la douleur dans le domaine de la chirurgie postopératoire de la colonne vertébrale.
APA, Harvard, Vancouver, ISO, and other styles
24

Kameni, Eric, Theo Van Der Weide, and W. T. De Groot. "From conceptual model to implementation model Piloting a multi-level case study in Cameroon." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 32 - 2019 - 2020 (October 1, 2019). http://dx.doi.org/10.46298/arima.3822.

Full text
Abstract:
This paper presents the application of a Multi-Level Agent Based Model technology through a Natural Model based Design in Context (NMDC) to describe and model a class of environ-mental problems. NMDC allow training domain expert to design a conceptual model for a concrete environmental problem. This model describes the underlying application domain in terms of environmental concepts and neither requires specific technical skills nor involves implementation details. We show how the associated TiC (Tool-in-Context) develop through NMDC can help the domain expert to describe in semi-natural (specific) language the environmental problem. This description is the basis for TiC to generate a simulation tool. On the base of this, we transform the specific language to NetLogo agent based code, thereby facilitating an early prototype application to be used by the domain expert. Finally, we applied this approach to explain and analyze the process of deforestation around the Laf Forest Reserve and discuss the prototype resulting from our approach. Cet article présente une application de l’approche de modélisation multi-échelle à base d’agent en s’appuyant sur un modèle spécifique (NMDC) pour décrire et modéliser une classe de problèmes environnementaux. Le modèle NMDC permet à l’expert du domaine de décrire le domaine d’application sous-jacent en termes de concepts environnementaux et ne nécessite pas de compétences techniques spécifiques, ni de détails de mise en oeuvre. Nous montrons comment l’outil TiC (Tool-in-Context) associé développé à partir du modèle NMDC peut aider l’expert du domaine à décrire dans un langage naturel (spécifique) le problème environnemental. Cette description est la base pour l’outil TiC de générer un outil de simulation. A travers cet outil, nous transformons le langage spécifique en code multi-agents NetLogo, facilitant ainsi un premier prototype de l’application pouvant être utilisé par l’expert de domaine. Enfin, nous appliquons cette approche pour expliquer et analyser le processus de déforestation autour de la réserve forestière de Laf et discuter du prototype résultant de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
25

Baurin, Arno, and Jean Hindriks. "Numéro 151 - octobre 2019." Regards économiques, October 22, 2019. http://dx.doi.org/10.14428/regardseco/2019.10.22.01.

Full text
Abstract:
Une opinion publique favorableLes décisions d’augmenter l’âge légal à la pension et de «durcir» les conditions de carrière et d’âge pour accéder à la pension anticipée ont remis au centre de la concertation sociale la question de la pénibilité des métiers. Des sondages révèlent que plus de 80 % de la population est favorable à la prise en compte de la pénibilité dans la détermination des conditions d’accès à la pension. La question se pose alors de savoir comment identifier les métiers pénibles. C’est difficile mais ce n’est pas impossible. Quels critères utiliser ?Si l’on regarde les autres pays européens, on doit admettre que la liste des métiers pénibles est parfois folklorique : les toreros en Espagne, les danseurs (sirtaki) en Grèce ou les musiciens jouant d’instrument à vent en Pologne. En Belgique, le rapport des conciliateurs Soete et de Callataÿ mentionne que les partenaires sociaux s’accordent sur le fait que «les éléments de pénibilité doivent être établis de façon objective, mesurable, contrôlable et facilement enregistrable».Deux approches distinctes peuvent être utilisées : une approche (directe) basée sur les conditions de travail, et une approche (indirecte) basée sur l’impact du métier sur la santé et la mortalité. La pénibilité sur base des conditions travailL’approche directe des conditions de travail est la voie qui avait été suivie par le gouvernement Michel Ier. Quatre critères avaient été définis par les partenaires sociaux : le travail physique lourd, l’organisation du travail pesante (en équipe, travail de nuit), les risques pour la sécurité accrus et la charge mentale et émotionnelle. Il avait été établi que si la profession répondait à un (resp., deux, trois) de ces critères, la durée de carrière requise pour une pension anticipée serait réduite de 5 % (resp. 10 %, 15 %). Cette réforme est aujourd’hui dans une impasse.Cette approche est selon nous inadéquate et mène à des discussions sans fin sur la pondération entre les différents critères.Nous proposons donc l’approche indirecte qui offre un raccourci en se limitant à objectiver l’impact du métier sur la santé. Juger de la pénibilité d’un métier sans regarder son incidence sur la santé c’est comme juger de la qualité d’un plat sans le goûter. La pénibilité sur base de la mortalitéNotre premier indicateur consiste à identifier les emplois avec un risque de mortalité élevé. Concrètement, nous utilisons une base de données américaine qui comporte 1.835.072 individus et renseigne leurs niveaux de salaire, d’études ainsi que leurs professions au moment de l’enquête, rassemblées en 91 «groupes de métiers». Ces personnes sont suivies durant 11 années afin de répertorier leurs (éventuelles) dates de décès. Nous observons 160.750 décès, ce qui signifie que91,24 % des individus sont encore en vie à la fin du suivi. Nos résultats montrent qu’il existe un différentiel substantiel de longévité entre différents métiers à âge équivalent. Par exemple, si l’on considère l’espérance de vie d’un homme à 25 ans, nos résultats révèlent que les serveurs, les infirmiers, les militaires ou les métallurgistes ont une longévité sensiblement plus faible (7 ans de moins) que les enseignants, les ingénieurs ou les architectes. On pourrait penser que ce résultat est lié aux différences de revenus ou de genre. Mais si l’on tient compte de ces différences entre métiers nous obtenons une même hiérarchie avec le métier d’enseignant dont la pénibilité relative n’est pas avérée. La pénibilité sur base de la santéL’espérance de vie n’est pas suffisante pour évaluer la pénibilité; car l’espérance de vie en bonne santé (morbidité) est aussi importante. Cependant, contrairement à la mortalité, celle-ci est plus difficile à appréhender. Nous utilisons dans notre analyse la santé autoévaluée (SAE) qui se base sur la question «Comment évaluez-vous votre santé ?» sur une échelle comportant 5 réponses (très bonne, bonne, moyenne, mauvaise et très mauvaise). Nous utilisons une base de donnée européenne qui contient 43.850 individus, avec leur métier, leur niveau d’études, leur salaire et leur SAE. Nous estimons la probabilité de se déclarer en bonne/très bonne santé pour un métier donné (par rapport à une profession de référence), en tenant compte de l’effet sur la santé d’autres facteurs comme le genre, l’âge, le niveau d’études, le salaire et le statut d’indépendant. Nos résultats révèlent par exemple que par rapport aux enseignants, les agriculteurs ou travailleurs du bâtiment ont 41 % moins de chances de se déclarer en bonne santé, les métallurgistes ou techniciens de surface 35% moins de chances, et les policiers ou services de protection 20 % moins de chances.Il convient de préciser que nos résultats sont partiels car faute de données plus exhaustives et détaillées nous ne pouvons distinguer la pénibilité de certains métiers. Nos résultats sont aussi basés sur des données américaines et européennes car nous n’avons pu, à ce stade, nous procurer les données belges. C’est donc un appel à la poursuite de cette analyse de la pénibilité basée sur des données belges de santé et de mortalité. En Belgique les données nécessaires à cette analyse existent via la Banque Carrefour de la Sécurité Sociale. Il faut aussi préciser que la pénibilité varie dans le temps et l’espace et que les indicateurs de pénibilité doivent être recalculés selon la situation et l’époque dans lesquelles ils sont utilisés. Etre policier en période d’alerte terroriste ne présente pas le même risque qu’être policier en temps normal.
APA, Harvard, Vancouver, ISO, and other styles
26

De Briey, Valérie. "Numéro 28 - mars 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15993.

Full text
Abstract:
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
APA, Harvard, Vancouver, ISO, and other styles
27

De Briey, Valérie. "Numéro 28 - mars 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2005.03.01.

Full text
Abstract:
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography