To see the other types of publications on this topic, follow the link: Mesures d’équilibres.

Journal articles on the topic 'Mesures d’équilibres'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 42 journal articles for your research on the topic 'Mesures d’équilibres.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Gendron, Michel. "Mesures de performance et économie de l’information, une synthèse de la littérature théorique." L'Actualité économique 63, no. 2-3 (January 27, 2009): 169–86. http://dx.doi.org/10.7202/601416ar.

Full text
Abstract:
Résumé La mesure de la performance des gestionnaires de portefeuille est un sujet d’importance majeure en finance. Les gestionnaires de portefeuille prétendent produire une distribution de rendements « supérieure » à celle d’un portefeuille non géré. Dans un marché où les acteurs sont rationnels, une performance supérieure est généralement associée à la possession d’information supérieure. Les mesures traditionnelles de performance où la relation rendement-risque est l’outil de mesure de base ne tiennent pas compte de l’asymétrie de l’information. De plus, le modèle d’équilibre de marchés financiers (CAPM) a été récemment remis en question, comme outil servant à la mesure de performance. Des modèles tenant compte explicitement de l’information ont donc été développés pour servir de cadre à cette mesure. Le but de cet article est de faire une synthèse de la littérature théorique portant sur la mesure de performance des gestionnaires de portefeuille en mettant l’accent sur les modèles récemment suggérés qui tiennent compte explicitement de l’information des gestionnaires.
APA, Harvard, Vancouver, ISO, and other styles
2

Dinh, Tien-Cuong, and Christophe Dupont. "Dimension de la mesure d’équilibre d’applications méromorphes." Journal of Geometric Analysis 14, no. 4 (December 2004): 613–27. http://dx.doi.org/10.1007/bf02922172.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lhomme, Michel. "Polynésie française, pour un fenua européen entre Chine et États-Unis." Revue Défense Nationale N° 872, no. 7 (July 10, 2024): 225–35. http://dx.doi.org/10.3917/rdna.872.0225.

Full text
Abstract:
L’auteur voit monter en Asie l’antagonisme sino-américain et mesure l’enrôlement progressif de tous les acteurs du Pacifique Sud dans une stratégie d’endiguement de l’activité chinoise. Il demande que la Polynésie française soit tenue à l’écart de ces perspectives et devienne une tête de pont européenne d’équilibre pour faciliter un développement harmonieux de la région Asie-Pacifique.
APA, Harvard, Vancouver, ISO, and other styles
4

Lombi, Emily. "« Théâtre immersif » et spécificité théâtrale : une question d’équilibre." Voix Plurielles 17, no. 2 (December 12, 2020): 12–24. http://dx.doi.org/10.26522/vp.v17i2.2597.

Full text
Abstract:
À l’aube du vingtième siècle, une poignée d’hommes de théâtre questionnent la relation acteur-spectateur et le rapport scène-salle à travers de nouvelles initiatives à l’exemple de celles menées, en Russie, par le metteur en scène Vsevolod Meyerhold qui, dans l’optique d’optimiser l’activité du spectateur, brise le quatrième mur et cherche de nouveaux dispositifs scéniques. Les expériences de ce réformateur, auxquelles peuvent s’en ajouter d’autres, préparent d’une certaine manière celles que nous connaissons aujourd’hui sous le terme de « théâtre immersif » et qui se sont particulièrement affirmées depuis les années quatre-vingt-dix. Or, dans quelle mesure ces dispositifs répondent-ils toujours aux spécificités du théâtre ? Pour apporter une réponse à cette interrogation, nous proposons de montrer non seulement la continuité d’expériences immersives dans l’histoire du théâtre, mais aussi d’en saisir le fonctionnement et les objectifs sur la scène actuelle à travers un regard posé sur le travail de Léonard Matton autour du spectacle Helsingør-château d’Hamlet (Paris, 2018), et sur celui de la compagnie Thespis autour du spectacle Shakespeare’s Ghosts (Lyon, 2019). Mots clés : immersif, théâtre, spectateur, acteur
APA, Harvard, Vancouver, ISO, and other styles
5

Touchart, Laurent, and Pascal Bartout. "Les plans d’eau qui n’existent plus réchauffent-ils les cours d’eau ? L’exemple de l’impact d’un étang en assec (commune de Cieux, Haute-Vienne)." Annales de géographie N° 758, no. 4 (July 30, 2024): 77–105. http://dx.doi.org/10.3917/ag.758.0077.

Full text
Abstract:
Le but de la recherche est d’évaluer l’impact thermique d’un étang limousin à déversoir de surface de 2,2 ha sur un ruisseau de rang 1, et de comparer ce résultat, d’une part avec l’influence du même plan d’eau mis en assec, d’autre part avec un second étang resté en eau. La recherche s’appuie sur 8 ans de mesures horaires de température de l’eau. Elle est cadrée par une réflexion épistémologique menant à une nouvelle typologie des démarches empiriques existantes (température d’effacement, de rétablissement, de transfert, de reconstruction, d’équilibre, de reconstitution) et remettant en cause l’assimilation trop souvent pratiquée entre les températures d’entrée et de sortie du plan d’eau. De juin à septembre, le ruisseau est en moyenne de 6,0 °C plus chaud en aval qu’en amont quand l’étang est en eau, de 0,8 °C quand il est en assec. En eau, ce sont les minima qui sont le plus augmentés, en assec ce sont les maxima. Un gradient moyen de réchauffement du ruisseau de 0,27 °C/100 m est mesuré d’amont en aval. Comparé avec le réchauffement dû à l’étang sur la même distance, il permet d’estimer que l’évolution naturelle du ruisseau est responsable de 15 % du réchauffement, l’étang en causant 85 %. Sur une distance plus grande prenant en compte l’impact cumulé d’une chaîne de deux étangs, la part de l’évolution naturelle du cours d’eau monte à 26 %.
APA, Harvard, Vancouver, ISO, and other styles
6

Briend, Jean-Yves, and Julien Duval. "Deux caractérisations de la mesure d’équilibre d’un endomorphisme de P k (C)." Publications mathématiques de l'IHÉS 109, no. 1 (March 26, 2009): 295–96. http://dx.doi.org/10.1007/s10240-009-0020-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Dullien, Sebastian. "The New Consensus from a Traditional Keynesian and Post-Keynesian Perspective A worthwhile foundation for research or just a waste of time?" Économie appliquée 64, no. 1 (2011): 173–200. http://dx.doi.org/10.3406/ecoap.2011.3563.

Full text
Abstract:
L’article examine dans quelle mesure le modèle d’équilibre général dynamique et stochastique, souvent qualifié de «nouveau consensus keynésien» est compatible avec l’approche keynésienne traditionnelle ou avec l’approche post-keynésienne. L’argumentation qu’il développe est la suivante : alors qu ’à première vue les modèles EGDS semblent incorporer un certain nombre d’éléments keynésiens ou post-keynésiens la monnaie endogène, la nécessité de l’intervention de la banque centrale - les mécanismes à l’œuvre sont totalement incompatibles avec la conception keynésienne et post-keynésienne du fonctionnement de l’économie globale».
APA, Harvard, Vancouver, ISO, and other styles
8

Broze, L., C. Gouriéroux, and A. Szafarz. "Bulles spéculatives et transmission d’information sur le marché d’un bien stockable." Articles 62, no. 2 (January 27, 2009): 166–84. http://dx.doi.org/10.7202/601367ar.

Full text
Abstract:
Résumé Nous étudions l’évolution du prix d’équilibre pour un bien stockable à titre spéculatif. L’impact des différents paramètres structurels sur l’amplitude des bulles spéculatives est mis en évidence. De plus le paramètre auxiliaire lié à la présence d’anticipations rationnelles est interprété comme une mesure de la confiance accordée par les agents à leurs propres anticipations. Lorsque les agents sont différenciés, notamment par le niveau de l’information dont ils disposent, nous montrons que tous les spéculateurs atteignant un seuil d’information forment les mêmes anticipations. De la sorte, on peut caractériser les cas où le marché est efficient.
APA, Harvard, Vancouver, ISO, and other styles
9

Pierucci, Christophe. "La nouvelle responsabilité des ordonnateurs devant la juridiction financière : plus de moyens, mais encore modeste." Gestion & Finances Publiques, no. 2 (March 2022): 27–33. http://dx.doi.org/10.3166/gfp.2022.2.005.

Full text
Abstract:
La loi de finances pour 2022 a habilité le Gouvernement à agir par voie d’ordonnance pour réformer la responsabilité des ordonnateurs. En exigeant que la répression des fautes de gestion soit confiée à la Cour des comptes au lieu de la CDBF, elle apporte une louable réponse à l’insuffisance des moyens du juge des ordonnateurs depuis 1948. La responsabilité répressive des ordonnateurs est-elle pour autant en mesure de connaître un réel essor et de devenir moins confidentielle ? Les principes essentiels définis par la loi affaiblissent la portée du futur régime de responsabilité et le vouent à demeurer modeste, même si certains facteurs d’équilibre peuvent être envisagés.
APA, Harvard, Vancouver, ISO, and other styles
10

Bagari, Sara. "Mesures d’équilibre entre vie professionnelle et vie privée dans la loi slovène sur la relation de travail." Revue de droit comparé du travail et de la sécurité sociale 3 (2024): 350–53. http://dx.doi.org/10.4000/12f1o.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Rey, Serge. "L’apport du NATREX à la modélisation des taux de change d’équilibre : théorie et application au dollar canadien." Articles 85, no. 2 (September 1, 2010): 131–81. http://dx.doi.org/10.7202/044252ar.

Full text
Abstract:
L’analyse des mésalignements des taux de change, sur/sous-évaluations des monnaies, reste au coeur des débats de la finance internationale. Or, ces mésalignements ne peuvent être définis et mesurés qu’en référence à un taux de change d’équilibre. On considère que le modèle pertinent doit répondre à certaines exigences, qui relèvent à la fois du contenu théorique et du caractère opérationnel. Au niveau théorique ce modèle devra s’attacher d’une part à expliquer la dynamique des taux de change réels, en distinguant notamment les équilibres de moyen et long terme; d’autre part à rendre compte de l’interaction taux de change-dette externe. On montre que les modèles standard de la littérature que sont la PPA, le modèle FEER et le modèle BEER, ne répondent que partiellement à ces exigences, et qu’a contrario, le NATREX constitue à ce jour l’approche la plus élaborée. On procède à une application empirique au cas du dollar canadien à partir des trois modèles de référence, le FEER, le BEER et le NATREX, sur la période débutant au 1er trimestre de 1970 et se terminant au 3e trimestre de 2008. On en déduit les valeurs correspondantes pour le taux de change nominal d’équilibre du dollar canadien contre dollar américain. On conclut que le NATREX constitue un guide utile pour les autorités monétaires, comme pour les opérateurs privés.
APA, Harvard, Vancouver, ISO, and other styles
12

Charrier, Maxime, Olivier Rascle, David Le Foll, and Geneviève Cabagno. "Faut-il se confronter à meilleur que soi ? Effets de l’intensité de la comparaison sociale ascendante sur l’évaluation de soi et la performance motrice." Movement & Sport Sciences - Science & Motricité, no. 112 (2021): 1–9. http://dx.doi.org/10.1051/sm/2021009.

Full text
Abstract:
L’objectif de cette étude était d’observer l’influence de l’intensité d’un feedback de comparaison sociale ascendante sur l’évaluation de soi et la performance motrice d’élèves français lors d’une tâche d’équilibre. L’étude s’est déroulée en deux phases. La première était consacrée à la sélection des cibles de comparaison. Les participants, 76 élèves, 31 filles et 45 garçons (Mâge = 12,7 ans), devaient mentionner le nom des élèves avec lesquels ils avaient l’habitude de se comparer en éducation physique et sportive. Trois semaines plus tard, 35 élèves garçons (Mâge = 12,8 ans) ont participé à la phase 2. Au temps 1, ils réalisaient une première performance puis remplissaient une mesure d’évaluation de soi. La semaine suivante, au temps 2, ils étaient exposés à un feedback de comparaison ascendante (modérée, CAM, performance 1 de la cible de comparaison légèrement supérieure, 30 %, versus forte, CAF, 120 %). Il leur était alors demandé une seconde évaluation de soi, une mesure de leurs attentes de réussite ainsi qu’une seconde performance sur cette même tâche. Les résultats révèlent une diminution de l’évaluation de soi suite au feedback de CAF, ce qui n’est pas le cas dans la condition CAM.
APA, Harvard, Vancouver, ISO, and other styles
13

Saidi, Abdelkader. "« Ma Santé-NC » : Un plan de réforme du système de santé de la Nouvelle-Calédonie." Regards N° 61, no. 1 (July 11, 2023): 189–201. http://dx.doi.org/10.3917/regar.061.0189.

Full text
Abstract:
Faute d’avoir engagé les réformes structurelles indispensables à sa survie, le système de santé de la Nouvelle-Calédonie n’est ni en mesure d’équilibrer ses comptes, ni de faire face à l’augmentation des maladies chroniques et du vieillissement de la population. Cette situation est aggravée par la perte d’attractivité croissante du territoire auprès des professionnels de santé, dans un contexte institutionnel en pleine transition. Pour éviter une crise sanitaire sans précédent, à un tournant majeur de son histoire, le territoire doit avoir la capacité de mettre en œuvre un plan responsable et ambitieux. Après avoir retracé les contours du système de santé de la Nouvelle-Calédonie, cet éclairage propose « Ma Santé-NC », un projet de refondation à travers une ligne stratégique pour un maintien en bonne santé à tous les âges de la vie.
APA, Harvard, Vancouver, ISO, and other styles
14

Catz, Frédéric, and Renato Di Ruzza. "Taux d’intérêt, investissement et épargne dans la théorie néo-classique." Économie appliquée 44, no. 2 (1991): 133–52. http://dx.doi.org/10.3406/ecoap.1991.2258.

Full text
Abstract:
Cet article s’interroge sur la cohérence de la théorie néo-classique qui cherche à déduire tous les prix à partir des conditions d’équilibre sur tous les marchés, y compris les loyers spécifiques des biens «de capital» ainsi que le taux d’intérêt considéré comme le «loyer de l’épargne». Après avoir montré que le seul cadre néo-classique adéquat pour appréhender les concepts d’épargne, d’investissement et de taux d’intérêt est la théorie walrasienne de l’équilibre temporaire (par opposition à la théorie moderne de l’équilibre intertemporel) et présenté une version réduite à l’essentiel du modèle de capitalisation et de crédit, l’article démontre l’impossibilité de fonder le taux d’intérêt en tant que prix indicateur de rareté du «capital» (la question de la mesure du capital n’étant pas ici en cause) et expose ce que pourrait être un discours cohérent sur cette question.
APA, Harvard, Vancouver, ISO, and other styles
15

PAGUI TSOBJMO, Guy Clarck, Franck Éric TCHAMENI, Calvin LIMALEBA TABI, and Hans SIMO ZOSSIE DE MOFO. "THE « NEW CITY TRADING (NCT) » ENTRE RÉÉQUILIBRE URBAIN ET ARMATURE DES ÉQUIPEMENTS MARCHANDS ET PÔLES COMMERCIAUX DANS LA MÉTROPOLE DOUALA AU CAMEROUN." URBAN ART BIO 2, no. 3 (January 29, 2024): 1–25. http://dx.doi.org/10.35788/uab.v2i3.107.

Full text
Abstract:
Cette écriture fait suite à l’élaboration du Schéma Directeur des Équipements Marchands et Pôles Commerciaux de la ville de Douala (SDEM) réalisée en 2020 au compte de la Communauté Urbaine de Douala. Cette étude est l’une des premières en la matière dans la sous-région Afrique centrale. Elle nous a permis de comprendre les enjeux de développement harmonieux de Douala, poumon économique de cette sous-région. Dans cette présente réflexion, il est question de présenter l’origine des activités commerciale depuis la période coloniale à nos jours, d’établir un cadre analytique de ces équipements disparate sur l’ensemble de l’aire urbaine, et d’établir un ensemble de mesure susceptible d’équilibrer la répartition territoriale de ces derniers à travers l’approche des lieux centraux de Walter Christaller et, en mettant en exergue la new city trading (NCT) traduit par « ville nouvelle marchande » comme plateforme d’innovation économique pour la ville de Douala.
APA, Harvard, Vancouver, ISO, and other styles
16

Bélanger, André, and Ghislain Tabi Tabi. "Vers un repli de l’individualisme contractuel ? L’exemple du cautionnement." Les Cahiers de droit 47, no. 3 (April 12, 2005): 429–74. http://dx.doi.org/10.7202/043894ar.

Full text
Abstract:
L’étude qui suit porte sur le contrat de cautionnement, considéré dans son environnement social, économique et juridique qui ne permet plus de l’aborder sous l’angle du volontarisme contractuel tel qu’il a été reconduit dans le Code civil du Québec. Elle a pour objet de permettre la reconsidération du rôle sociétal du contrat et de l’importance de la coopération des parties dans le contexte de la formation et de l’exécution du cautionnement, et ce, dans la mesure où il ne paraît plus raisonnable de stimuler la recherche d’équilibre entre les parties au contrat en considérant avant toute chose les besoins du crédit, la moralité contractuelle et la responsabilisation des cautions. Tant le contexte dans lequel la majorité des cautions inexpérimentées s’engagent que la forme de contrat d’adhésion sous laquelle est généralement présenté le cautionnement perturbent la compréhension de la caution quant à la nature de son engagement. Par conséquent, une « recompréhension » moins libérale et individualiste de cet acte normatif doit être envisagée.
APA, Harvard, Vancouver, ISO, and other styles
17

Hemissi, Wided, Hend Ghazzai, Rim Lahmandi-Ayed, and Sana Mami Kefi. "Competition and Poverty: Does the Competition Type Matter?" Revue d'économie politique Vol. 134, no. 4 (September 18, 2024): 611–30. http://dx.doi.org/10.3917/redp.344.0611.

Full text
Abstract:
Nous étudions l’impact de la nature de la concurrence sur la pauvreté. Plus précisément, nous vérifions si les résultats obtenus par Ghazzai et al. [2023] sur l’effet de la concurrence sur la pauvreté dans le cadre de concurrence en prix, restent valables si les firmes se font concurrence en quantités. Nous considérons un modèle d’équilibre général avec des préférences verticales. En tenant compte de la structure de propriété, nous comparons la pauvreté sous deux types de marché : Monopole et Duopole. La pauvreté est mesurée par la taille de la population dont le revenu est inférieur à un seuil de pauvreté exogène. Les nouveaux résultats confirment ceux de Ghazzai et al. [2023] et montrent que les politiques visant à encourager la concurrence ne sont pas toujours efficaces pour réduire la pauvreté. JEL Classification: D43, I32, L13.
APA, Harvard, Vancouver, ISO, and other styles
18

Crépin, Annie. "1812, fin d’une époque de la conscription." Revue Historique des Armées 267, no. 2 (April 1, 2012): 33–42. http://dx.doi.org/10.3917/rha.267.0033.

Full text
Abstract:
Dans l’histoire de la conscription de l’époque consulaire et impériale, 1812 confirme les tendances apparues à partir de la fin de 1806 et en 1807 : les révoltes ouvertes contre la conscription s’atténuent, l’insoumission diminue, l’institution paraît mieux acceptée. Le « système conscriptionnel » est entré dans une phase d’équilibre. Mais cet équilibre demeure précaire, bien des signes l’attestent encore en 1812, et la soumission des populations est due davantage au perfectionnement répressif de la « machine conscriptionnelle » qu’à une adhésion envers l’institution, du moins dans les zones rétives envers celle-ci. Mais le régime se fie au bon fonctionnement apparent du système et Napoléon en 1812, au lieu de s’en tenir à une attitude prudente et à des exigences mesurées, revient à la pratique des détournements de la loi Jourdan, qui lui permettent de « puiser à volonté » dans le vivier d’hommes que lui offre la conscription. Ces dérives contribuent à l’usure du système que révèlera le second semestre de 1813 au cours duquel volera en éclats le très fragile consensus qui était né sept ans auparavant.
APA, Harvard, Vancouver, ISO, and other styles
19

Leroy, Pierre, Jean Louis Grzesiak, and Luc Derreumaux. "Méthode « Monte Carlo » de calcul d’incertitudes appliquée à la détermination des conditions d’équilibre calcocarbonique : Conséquences sur le choix des mesures de terrain." European journal of water quality 42, no. 2 (2011): 71–89. http://dx.doi.org/10.1051/wqual/2012001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Savard, Luc, and Épiphane Adjovi. "Externalités de la santé et de l’éducation et bien-être : un modèle d’équilibre général calculable appliqué au Bénin." L'Actualité économique 74, no. 3 (February 9, 2009): 523–60. http://dx.doi.org/10.7202/602273ar.

Full text
Abstract:
RÉSUMÉ Dans les pays en voie de développement, des programmes d’ajustement structurel (PAS) ont été adoptés pour permettre aux pays en question de corriger leurs déséquilibres interne et externe. Deux des caractéristiques des PAS sont la réduction importante de la taille de la fonction publique et la libéralisation de l’économie. Lorsque des modèles d’équilibre général calculable (MEGC) conventionnels sont utilisés pour mesurer l’impact sur le bien-être des ménages d’une libéralisation du commerce extérieur, entre autres, les résultats montrent généralement une augmentation du PIB et du bien-être des ménages. Toutefois, au Bénin comme dans plusieurs pays africains, une part importante des recettes de l’État provient des droits de douane à l’importation (41 %), tandis que la capacité de l’État à modifier sa structure de taxation pour maintenir des recettes constantes est très limitée. Pour compenser la perte de recettes causée par la diminution des droits d’importation, le gouvernement doit réduire ses dépenses et, étant donné l’importance des dépenses de l’éducation et de la santé (27 % des dépenses totales de l’État), ces dernières seront également diminuées. La question est donc de savoir si en présence d’externalités des dépenses de santé et d’éducation les impacts seront modifiés. Les résultats de notre modèle montrent qu’avec l’introduction des externalités faibles, les effets positifs attendus sur le bien-être de la libéralisation sont inversés pour les trois groupes de ménages.
APA, Harvard, Vancouver, ISO, and other styles
21

Le Feuvre, Nicky, and Nathalie Lapeyre. "L’analyse de l’articulation des temps de vie au sein de la profession médicale en France : révélateur ou miroir grossissant des spécificités sexuées ?" Enfances, Familles, Générations, no. 18 (March 6, 2013): 72–93. http://dx.doi.org/10.7202/1014575ar.

Full text
Abstract:
Cet article vise à identifier quelques-uns des écueils analytiques qui surgissent lors de recherches sur les pratiques et aspirations en matière d’articulation des temps de vie au sein d’un groupe professionnel particulier, celui des médecins. Caractérisée par de très longues durées du travail, la profession médicale offre également une grande « souveraineté temporelle ». Si l’éthos de la profession médicale a longtemps été fondé sur un principe de « disponibilité permanente », plusieurs facteurs participent à une remise en question de ce socle historique des identités professionnelles, surtout chez les jeunes générations de médecins des deux sexes. Toutefois, ce changement ne s’exprime pas toujours dans les mêmes registres : en situation d’entretien, les femmes évoquent plus spontanément des aspirations « d’équilibre » des temps professionnels et familiaux, alors que les hommes revendiquent la recherche d’un « équilibre » individuel, par le truchement de loisirs personnels. Reste à savoir dans quelle mesure ces différences discursives renvoient effectivement à des pratiques sexuées spécifiques ou traduisent plutôt un mécanisme d’ajustement des récits aux injonctions normatives qui continuent de peser sur l’acceptabilité sociale des pratiques (et aspirations) masculines et féminines en matière d’articulation des temps de vie.
APA, Harvard, Vancouver, ISO, and other styles
22

Dallaire, Mathieu, Emmy Lachance, Benjamin Paré, Audrey Viens, Andréanne Zgela, Suzy Ngomo, Louis-David Beaulieu, Christian Larivière, and Rubens A. da Silva. "Est-ce que la ceinture lombaire et la contraction du transverse apportent un changement immédiat sur les mesures d’équilibre postural débout chez lombalgiques chroniques ?" Neurophysiologie Clinique 49, no. 6 (December 2019): 439. http://dx.doi.org/10.1016/j.neucli.2019.10.090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Mercado Yebra, Joaquín, and Lucero Yañez Carrillo. "Unidades de producción agrícola y rentabilidad: Tecajec, Yecapixtla, Morelos / Units of agricultural production and profitability: Tecajec, Yecapixtla, Morelos." Revista Trace, no. 83 (January 31, 2023): 161. http://dx.doi.org/10.22134/trace.83.2023.728.

Full text
Abstract:
El objetivo de este artículo es dimensionar y analizar la rentabilidad de la producción agrícola familiar de temporal en tres unidades económicas, con el fin de determinar en qué medida el excedente económico, efectivo e imputado, cubre los requerimientos de consumo y reproducción del capital del ciclo agrícola. El trabajo de campo se realizó en la localidad de Tecajec, Yecapixtla, Morelos, en el periodo de junio de 2016 a mayo de 2017 y se utilizó el método de investigación en granjas complementado con técnicas de estudios de caso. El resultado fue que el excedente resultó insuficiente para cubrir los costos efectivos e imputados de la mano de obra y el beneficio promedio por actividades de organización, es decir, no existe equilibrio entre el trabajo familiar con las necesidades de consumo y de reposición del capital; los subsidios fueron indispensables para el nuevo ciclo de producción.Abstract: The objective of the article is to measure and analyze the profitability of seasonal family agricultural production in three economic units, in order to determine to what extent the economic surplus, effective and imputed, covers the consumption and reproduction requirements of the capital of the agricultural cycle. The fieldwork was carried out in the town of Tecajec, Yecapixtla, Morelos, in the period June 2016- May 2017, using the farm research method complemented with case study techniques. It was found that the surplus was insufficient to cover the effective and imputed costs of labor and the average benefit from organizational activities, that is, there is no balance between family work and the needs of consumption and replacement of capital; the subsidies were indispensable for the new production cycle.Keywords: agricultural unit; profitability; surplus; subsidies; peasant family.Résumé : L’objectif de l’article est de mesurer et d’analyser la rentabilité de la production agricole familiale saisonnière dans trois unités économiques, afin de déterminer dans quelle mesure le surplus économique, effectif et imputé, couvre les besoins de consom­mation et de reproduction du capital du cycle agricole. Le travail de terrain a été réalisé dans la ville de Tecajec, Yecapixtla, Morelos, entre juin 2016 et mai 2017, en utilisant la méthode de recherche agricole complétée par des techniques d’étude de cas. Il a été constaté que l’excédent était insuffisant pour couvrir les coûts effectifs et imputés du travail et le bénéfice moyen des activités organisationnelles, c’est-à-dire qu’il n’y a pas d’équilibre entre le travail familial et les besoins de consommation et de remplacement du capital; les subventions étaient indispensables pour le nouveau cycle de production.Mots clés : unité agricole ; rentabilité ; surplus ; subventions ; famille paysanne.
APA, Harvard, Vancouver, ISO, and other styles
24

Ancori, Bernard. "Communication, cognition et créativité dans les sociétés de la connaissance. À propos de deux dilemmes." Nouvelles perspectives en sciences sociales 9, no. 2 (July 23, 2014): 45–93. http://dx.doi.org/10.7202/1025971ar.

Full text
Abstract:
L’histoire des sciences et l’analyse bibliométrique suggèrent que les sciences de la nature, les sciences de l’ingénieur et, dans une moindre mesure, les sciences médicales seraient entrées depuis une trentaine d’années dans un régime d’équilibre stationnaire. Le but de cet article est d’identifier l’une des causes possibles d’une telle situation, et de proposer une solution efficace pour y remédier. Cette cause pourrait en effet tenir au privilège conféré, depuis le début des années 1970 et surtout depuis le milieu des années 1990, à la communication sociale au détriment de la cognition individuelle ou collective. Quant à la solution efficace pour y remédier, elle consisterait à développer systématiquement dans certains domaines des collaborations de recherche entre le monde académique et les mondes non académiques. Pour le montrer, nous procédons en deux étapes. La première met en évidence l’existence de deux dilemmes liés en ce qui concerne la structure et l’évolution d’un réseau sociocognitif complexe d’acteurs individuels : le dilemme entre créativité globale du réseau et proximités individuelles des acteurs, et celui qui se pose à chacun de ces derniers, dans chaque état du réseau, entre communiquer et cogiter. La seconde étape résume rapidement l’évolution des sciences et des technologies occidentales vers une techno-science dont la créativité semble s’essouffler, puis montre que la généralisation de forums hybrides pourrait redonner un surcroît de vigueur à cette créativité aujourd’hui atone.
APA, Harvard, Vancouver, ISO, and other styles
25

Martineau, W. "Quelles approches psychothérapiques dans les ESPT et les traumatismes psychiques ?" European Psychiatry 29, S3 (November 2014): 675. http://dx.doi.org/10.1016/j.eurpsy.2014.09.087.

Full text
Abstract:
Les traumatismes psychiques et les états de stress post-traumatiques constituent une part sous-estimée des troubles psychiques car souvent mal identifiés ou s’insérant dans un trouble de la personnalité, ou une pathologie bien documentée antérieurement. Leur abord spécifique est alors négligé. S’il est sans doute inutile d’en faire, dans une perspective linéaire, une cause de tout symptôme rencontré, il convient de les considérer dans le champ du soin dans une perspective intégrant la complexité. En effet, c’est dans ce champ pourtant gravement pathogène, que se sont développées les vingt dernières années des approches psychothérapiques innovantes et souvent résolutives. A trop cibler le symptôme apparent comme repère de la pathologie, on s’est mis à ignorer les déclencheurs, les moments de rupture d’équilibre qui permettent de mieux comprendre l’expression symptomatique et de la traiter. Il s’agit donc d’ouvrir une autre porte d’entrée du soin, plus apte et plus prompte à dissoudre le symptôme, dans la mesure où elle s’attache à traiter son émergence plus que son expression ; et à intégrer l’évènement dans une histoire sans en subir la réactualisation par le symptôme ou une mémoire en alerte. Au cours de cette session trois types d’approches tout à fait complémentaires seront évoquées : hypnose orientée solutions, thérapie narrative, et hypnose et thérapie stratégique par mouvements alternatifs. Elles permettent de remettre le sujet dans une position d’acteur de son devenir et supposent une coopération avec le patient qui amène une co-construction du soin.
APA, Harvard, Vancouver, ISO, and other styles
26

Decaluwé, Bernard, André Lemelin, David Bahan, and Nabil Annabi. "Taxation et mobilité partielle du capital dans un modèle d'équilibre général calculable statique birégional du Québec et du reste du Canada." Articles 87, no. 2 (January 20, 2012): 175–203. http://dx.doi.org/10.7202/1007620ar.

Full text
Abstract:
Cet article présente la version statique du modèle d’équilibre général calculable (MEGC) développé pour le ministère des Finances du Québec. C’est un MEGC de grande taille, multisectoriel et birégional, du Québec et du reste du Canada. L’exposé est centré sur les taux effectifs marginaux d’imposition (TEMI) et la mobilité partielle du capital. L’objectif est de décrire une technique de modélisation qui permet d’aborder l’allocation du capital dans le cadre d’un modèle statique, bien que cette question soit fondamentalement dynamique. Les TEMI mesurent l’écart entre le taux de rendement payé aux détenteurs de capital et la valeur du produit marginal du capital. Ils synthétisent donc les multiples distorsions que peut créer la fiscalité dans les incitations touchant l’allocation des ressources. Leur utilisation devient intéressante lorsque le capital est mobile entre ses utilisations concurrentes. Dans la version statique du modèle, le capital n’est pas parfaitement mobile, comme cela serait approprié dans un modèle statique à très long terme; il est plutôt partiellement mobile entre industries et régions, la mobilité étant limitée par une borne supérieure sur la quantité de capital qui peut quitter une industrie donnée dans une région donnée. De plus, il y a dans le modèle un certain degré de mobilité internationale du capital, sous la forme d’une offre à élasticité-prix constante. Les résultats de simulation présentés montrent que le comportement du modèle est en accord avec les anticipations théoriques.
APA, Harvard, Vancouver, ISO, and other styles
27

Toure, Fatouma. "L’essentiel pour une gestion sans stress des patients porteurs d’une polykystose hépato-rénale en dialyse péritonéale." Bulletin de la Dialyse à Domicile 6, no. 1 (April 26, 2023): 35–39. http://dx.doi.org/10.25796/bdd.v6i1.76683.

Full text
Abstract:
Résumé La polykystose hépatorénale autosomique dominante (PKR) est une maladie rénale chronique fréquente. La dialyse péritonéale (DP) concerne moins de 7% de ces patients. La sous-utilisation de la DP est due à la crainte d’un échec technique en raison de volumineux organes intra-péritonéaux.Pour illustrer la faisabilité de la DP chez les patients PKR malgré les organomégalies. nous rapportons le cas d’une patiente de 70 ans atteinte de polykystose hépatorénale, traitée par DP après une longue histoire de transplantation rénale et d’hémodialyse. L’évolution de la patiente en DP a été satisfaisante en termes d’adéquation et d’équilibre hydrosodé. Nous faisons ensuite une revue de la littérature sur les spécificités de la prise en charge des patients PKR en DP. La survie des patients atteints de polykystose est identique en DP et en hémodialyse. Il n’y a pas de surrisque d’échec technique ni de péritonites chez les patients polykystiques en DP. Cependant, il y a un peu plus de hernies symptomatiques chez les patients polykystiques, sans impact sur la survie technique. La mesure de la pression intra-péritonéale (PIP) est une aide à la prescription, permettant d’adapter le volume de dialysat pour les échanges. En cas de nécessité de réduction néphronique, l’embolisation artérielle rénale semble être la technique à privilégier. Elle est associée à une meilleure survie technique, à une réduction des transferts temporaires ou permanents en hémodialyse et à une réduction du temps d’hospitalisation.En conclusion, la dialyse péritonéale est une option viable pour les patients atteints de polykystose hépatorénale malgré les organomégalies. Une orientation précoce en DP pourrait préserver le capital vasculaire des patients. Les professionnels de santé doivent être informés sur la survie, l’échec technique, les péritonites, les hernies symptomatiques et l’utilisation de la presssion intrapéritonéale (PIP) pour optimiser la prise en charge des patients polykystiques en DP.
APA, Harvard, Vancouver, ISO, and other styles
28

Mbang, Marthe Olga. "Mésalignements du taux de change effectif réel et diversification des exportations en Zone CEMAC." European Scientific Journal, ESJ 18, no. 9 (March 31, 2022): 111. http://dx.doi.org/10.19044/esj.2022.v18n9p111.

Full text
Abstract:
L’objectif du présent article est d’analyser, à partir des données de la Banque Mondiale (BM) et du CEPII, les effets des mésalignements du taux de change effectif réel, sur la diversification des exportations, la zone CEMAC entre 2000 et 2017. La portée de cette étude est double. D’une part, elle apporte des éléments d’information aux décideurs dans les pays de la zone CEMAC pour l’élaboration d’une stratégie de prévention des crises de la balance des paiements. D’autre part, aucune étude, à notre connaissance, ne semble avoir établi le lien entre les mésalignements du taux de change et la diversification des exportations en zone CEMAC. A cet effet, les mésalignements sont d’abord, estimés à partir d’un modèle en panel dynamique. Ensuite, le TCE est estimé au moyen du modèle BEER via la technique d’estimation du Pooled Mean Group. Enfin, l’estimation des effets des mésalignements du TCER sur la diversification des exportations utilise la technique d’estimation des doubles moindres carrés en panel. Les résultats montrent qu’il existe un mésalignement du taux de change effectif réel par rapport à sa valeur d’équilibre dans la zone CEMAC et que ces mésalignements limitent la diversification des exportations des pays de cette zone. Il faudrait donc un dosage adéquat des politiques monétaire et budgétaire, dans le cadre d’un policy mix. Ceci, à l’effet de réduire l’influence négative de la forte dépendance du FCFA vis-à-vis de l’euro, sur la diversification des exportations des pays de la CEMAC. Cette mesure favoriserait un meilleur ajustement du taux de change vers sa trajectoire d’équilibre à long terme. The objective of this paper is to analyze, based on data from the World Bank (WB) and CEPII, the effects of real effective exchange rate misalignments on export diversification in the CEMAC zone between 2000 and 2017. The scope of this study is twofold. On the one hand, it provides information to decision-makers in the countries of the CEMAC zone for the development of a strategy for the prevention of balance of payments crises. On the other hand, no study to our knowledge seems to have established the link between exchange rate misalignments and export diversification in the CEMAC zone. To this end, the misalignments are first estimated from a dynamic panel model. Then, the TCE is estimated using the BEER model via the Pooled Mean Group estimation technique. Finally, the estimation of the effects of REER misalignments on export diversification uses the panel twostage least squares estimation technique. The results show that there is a misalignment of the real effective exchange rate compared to its equilibrium value in the CEMAC zone and that these misalignments limit the diversification of exports from these countries. An adequate mix of monetary and fiscal policies is therefore needed within the framework of a policy mix. This has the effect of reducing the negative influence of the strong dependence of the FCFA on the euro on the diversification of exports from CEMAC countries. This measure would promote a better adjustment of the exchange rate towards its long-term equilibrium path.
APA, Harvard, Vancouver, ISO, and other styles
29

Li, Tao, and Zhenyu M. Wang. "La forme pléthorique au sommet de la bureaucratie autoritaire : l’exemple de la Russie et de la Chine." Revue Internationale des Sciences Administratives Vol. 89, no. 3 (September 15, 2023): 309–28. http://dx.doi.org/10.3917/risa.893.0309.

Full text
Abstract:
La prédominance des bureaucraties pléthoriques au sommet dans les pays non démocratiques ne peut s’expliquer par les théories de Parkinson, Tullock, Niskanen ou Simon, ni par les théories managériales classiques. Lorsque les postes de la bureaucratie sont porteurs de rentes, la concurrence pour les promotions devient un processus de recherche de rentes. Empruntant le cadre de la théorie du tournoi aux études managériales, nous soutenons que la bureaucratie pléthorique au sommet ressemble à un tournoi avec trop de finalistes. Lorsque la rente est centralisée au sommet (centralisation du pouvoir), comme c’est le cas dans de nombreuses non-démocraties, la bureaucratie optimale doit être pléthorique au sommet, accommodant et encourageant relativement plus de finalistes au sommet à concourir pour le grand prix final. Nous apportons des preuves suggestives en analysant les organisations ministérielles en Chine (1993-2014) et en Russie (2002-2015). Après quelques fluctuations, la forme des ministères russes a fini par converger avec celle de la Chine. En état d’équilibre, les formes de leur ministère sont beaucoup plus pléthoriques au sommet que ce que prescrivent les théories managériales. Au niveau micro, la centralisation du pouvoir ministériel, mesurée par l’influence perçue des ministres, est en corrélation avec la pléthore au sommet des ministères en Russie. Remarques à l’intention des praticiens Notre théorie suggère que les structures bureaucratiques autoritaires pléthoriques au sommet découlent naturellement d’un tournoi de carrière séquentiel décalé et d’un dirigeant bureaucratique maximisant les efforts. Nos résultats suggèrent également que les ministères chinois et russes convergent tous deux vers une structure pléthorique au sommet à long terme. Nous démontrons que la structure pléthorique au sommet est apparue pour la première fois lors de l’expérience de l’économie planifiée en Union soviétique. Notre recherche apporte un éclairage nouveau sur les réformes du secteur public qui visent à réduire la pléthore au sommet de la bureaucratie dans les autocraties.
APA, Harvard, Vancouver, ISO, and other styles
30

HENRY, Y. "Alimentation du porc pour la production de viande maigre : évolutions récentes et perspectives." INRAE Productions Animales 6, no. 1 (February 27, 1993): 31–45. http://dx.doi.org/10.20870/productions-animales.1993.6.1.4185.

Full text
Abstract:
La production porcine a bénéficié, au cours des dernières décennies, de progrès importants et continus réalisés par la sélection pour une croissance sans cesse plus forte de tissus maigres et un dépôt décroissant de gras, en réponse à la demande des consommateurs. Cet article examine les changements intervenus dans l’alimentation en considérant les évolutions récentes et les perspectives, compte tenu de l’évolution prévisible des performances de production et de l’apport des nouvelles technologies. L’importance du progrès génétique en faveur de la croissance des tissus maigres a conduit en premier lieu à envisager une modélisation de la prévision des besoins nutritionnels (énergie, protéines et acides aminés, minéraux), dont les variations se traduisent notamment par des exigences moins marquées en énergie que par le passé et par un accroissement important des besoins en acides aminés relativement à l’apport énergétique. Grâce à cette démarche de modélisation, il est désormais possible de définir de nouvelles stratégies d’alimentation adaptées pour la production de viande maigre (plan de rationnement alimentaire, choix du type d’aliment pour une phase de production déterminée), en fonction des conditions particulières de production et à l’aide de systèmes d’évaluation des aliments suffisamment discriminants (énergie nette, digestibilité iléale des acides aminés). En outre, l’augmentation de certains intrants alimentaires (azote, phosphore) pour une production accrue de viande maigre implique une gestion raisonnée de leurs apports, afin de prévenir des rejets excessifs dans l’environnement (eau, atmosphère). La tendance à une certaine dégradation de la qualité de la viande, notamment sous l’angle technologique et organoleptique, au fur et à mesure des progrès de la sélection sur la croissance musculaire, oblige à une prise en compte, par l’alimentation, des exigences de qualité des produits, qu’il s’agisse des dépôts gras ou des tissus maigres (importance du gras intramusculaire). Il en est de même avec le recours à de nouvelles technologies permettant, soit de préserver le potentiel de croissance musculaire (utilisation du porc mâle entier), soit de le stimuler (facteurs de croissance). En dernier lieu, après avoir considéré les effets de l’alimentation sur la conformation des carcasses, en relation avec l’amélioration du développement musculaire, les conséquences d’un amaigrissement excessif des truies sur les performances de reproduction sont évoquées en liaison avec la mobilisation et la reconstitution des réserves lipidiques corporelles. Ce problème d’équilibre entre les tissus musculaire et gras constitue un enjeu important pour l’évolution future de l’alimentation du porc maigre. Au plan de l’application, les nouvelles approches nutritionnelles, basées sur l’établissement de lois de réponse qui prennent en compte la diversité à la fois des types génétiques (depuis les plus gras jusqu’aux plus maigres) et des conditions d’élevage et de milieu devraient permettre, dans chaque cas, de définir les conditions optimales de production d’un type de porc particulier.
APA, Harvard, Vancouver, ISO, and other styles
31

Paterson, Donald H., Gareth R. Jones, and Charles L. Rice. "Le vieillissement et l’activité physique : données sur lesquelles fonder des recommandations relatives à l’exercice à l’intention des adultes âgésCet article est tiré d’un supplément intitulé Advancing physical activity measurement and guidelines in Canada: a scientific review and evidence-based foundation for the future of Canadian physical activity guidelines (Favoriser les lignes directrices et la mesure de l’activité physique au Canada: examen scientifique et justification selon les données probantes pour l’avenir des lignes directrices de l’activité physique canadienne) publié par Physiologie appliquée, nutrition et métabolisme et la Revue canadienne de santé publique. On peut aussi mentionner Appl. Physiol. Nutr. Metab. 32 (Suppl. 2F) ou Can. J. Public Health 98 (Suppl. 2)." Applied Physiology, Nutrition, and Metabolism 32, S2F (December 2007): S75—S121. http://dx.doi.org/10.1139/h07-165.

Full text
Abstract:
De nombreuses études épidémiologiques confirment les bienfaits procurés par l’activité physique en ce qui concerne la diminution du risque de maladie associée à l’âge et de la mortalité quelle qu’en soit la cause. L’analyse de la littérature scientifique centrée sur les caractéristiques principales (intensité, type, quantité) montre que la quantité nécessaire d’activité physique est celle qui améliore la condition cardiorespiratoire, la force musculaire, la puissance et, indirectement, l’équilibre. L’appauvrissement de ces fonctions avec l’âge entraîne des limitations physiques qui conditionnent les activités fonctionnelles journalières. En revanche, un programme d’activité physique peut atténuer ces pertes, évitant ainsi aux personnes âgées (plus de 65 ans) de traverser le seuil de l’incapacité physique. Les études transversales et longitudinales révèlent un lien entre la condition cardiorespiratoire et la capacité fonctionnelle et l’autonomie ; la force musculaire et par surcroît, la puissance musculaire, permettent d’accomplir plus efficacement les activités de tous les jours ; l’équilibre dynamique en combinaison avec la puissance musculaire forment un ensemble de prévention contre les chutes. D’après les études sur les programmes d’intervention, les personnes âgées peuvent améliorer leurs capacités fonctionnelles car elles possèdent la capacité d’adaptation à l’entraînement physique. Les quelques études qui ont analysé les quantités minimale et optimale d’activité physique indiquent qu’il faut faire des exercices dans les plages d’intensité modérée à vigoureuse si on veut atteindre et préserver les gains résultant de la pratique régulière. Par conséquent, on devrait prescrire des activités physiques en spécifiant le type d’activité qui améliorera les variables organiques associées au maintien de la capacité fonctionnelle et de l’autonomie et, de ce fait, on repoussera la maladie et la mort. Une bonne recommandation concernant l’exercice physique chez les personnes âgées devrait inclure des activités cardiorespiratoires modérément vigoureuses (la marche rapide), un entraînement à la force et à la puissance pour la préservation de la masse musculaire et de la capacité de travail de groupes musculaires choisis et des exercices d’équilibre et d’étirement au besoin.
APA, Harvard, Vancouver, ISO, and other styles
32

GUYOMARD, H., B. COUDURIER, and P. HERPIN. "Avant-propos." INRAE Productions Animales 22, no. 3 (April 17, 2009): 147–50. http://dx.doi.org/10.20870/productions-animales.2009.22.3.3341.

Full text
Abstract:
L’Agriculture Biologique (AB) se présente comme un mode de production agricole spécifique basé sur le respect d’un certain nombre de principes et de pratiques visant à réduire au maximum les impacts négatifs sur l’environnement. Elle est soumise à des interdictions et/ou des obligations de moyens, par exemple l’interdiction des Organismes Génétiquement Modifiés (OGM), des engrais de synthèse et des pesticides ou l’obligation de rotations pluriannuelles. Dans le cas de l’élevage, les critères portent sur l’origine des animaux, les conditions de logement et d’accès aux parcours, l’alimentation ainsi que la prévention et le traitement des maladies. Ainsi, la prévention des maladies est principalement basée sur l’utilisation de techniques d’élevage stimulant les défenses naturelles des animaux et, en cas de problème sanitaire, le recours à l’homéopathie ou à la phytothérapie ; l’emploi d’autres médicaments vétérinaires n’est pas exclu à condition de respecter des conditions réglementaires strictes1. L’AB s’inscrit dans des filières d’approvisionnement et de commercialisation incluant la transformation et la préparation des aliments, la distribution de gros et/ou de détail et le consommateur final. Dans tous les pays, agriculteurs, conditionneurs et importateurs doivent se conformer à des réglementations pour associer à leurs produits un étiquetage attestant de leur nature biologique. Les produits issus de l’AB sont certifiés et des mécanismes d’inspection assurent le respect des règlements. L’AB mondiale est aujourd’hui encore une activité marginale au regard des terres consacrées (moins de 2%), du nombre d’agriculteurs engagés ou des volumes concernés. Il s’agit toutefois d’une activité en forte croissance avec, par exemple, un triplement des surfaces mondiales dédiées entre 1999 et aujourd’hui. Le marché mondial des produits issus de l’AB était estimé à 25 milliards d’euros en 2006, soit deux fois plus qu’en 2000 (données IFOAM). La consommation est très fortement concentrée, à plus de 95% en Amérique du Nord d’une part, et en Europe de l’Ouest où les principaux marchés sont l’Allemagne, l’Italie, la France et le Royaume-Uni, d’autre part. Sur ces deux continents, les importations sont nécessaires pour pallier le déficit de l’offre domestique au regard de la demande intérieure. Ceci est particulièrement vrai en France. Selon le ministère en charge de l’agriculture (2009), «la demande [française] de produits issus de l’AB croît de 10% par an depuis 1999. Or, l’offre [nationale] de produits issus de l’AB est aujourd’hui insuffisante pour satisfaire cette demande croissante. Les surfaces des 11 970 exploitations agricoles françaises en AB ne représentent que 2% de la surface agricole. Par défaut d’organisation entre les producteurs et à cause de l’éparpillement des productions, une part significative des produits bio n’est pas valorisée». Et simultanément, 25% environ de la consommation française de produits bio est satisfaite par des importations. Cette situation a conduit le Ministre en charge de l’agriculture à proposer, dans le cadre du Grenelle de l’environnement, un plan visant le triplement à l’horizon 2012 des surfaces françaises en AB (6% de la surface agricole utile en 2012). Pour atteindre cet objectif, le plan inclut un soutien budgétaire à la structuration de la filière bio (sous la forme d’un fonds de structuration doté de 15 millions d’euros sur cinq ans), la mobilisation de la recherche (notamment sous la forme de crédits «recherche»), un soutien accru aux exploitations converties en AB (via le déplafonnement des 7 600 €/an/unité des aides agro-environnementales pour les exploitations en conversion vers l’AB et une augmentation de l’enveloppe dédiée, ainsi que la reconduction du crédit d’impôt en 2009, celui-ci étant par ailleurs augmenté) et enfin, l’obligation dès 2012 faite à la restauration collective de proposer dans ses menus 20% de produits issus de l’AB. Enfin, dans le cadre du bilan de santé de la Politique Agricole Commune (PAC) du 23 février 2009, une aide spécifique aux exploitations en AB d’un montant d’un peu moins de 40 millions d’euros a été adoptée. Le plan français en faveur de l’AB, popularisé sous le libellé «AB : objectif 2012», vise donc à développer la production domestique de produits issus de l’AB via la fixation d’un objectif quantitatif en termes de surfaces dédiées en jouant simultanément sur la demande (via une contrainte d’incorporation de produits issus de l’AB dans la restauration collective) et l’offre (via, de façon générale, un soutien augmenté aux exploitations en conversion vers l’AB et déjà converties à l’AB). Dans ce contexte, le comité éditorial de la revue Inra Productions Animales et la direction de l’Inra ont souhaité apporter un éclairage scientifique sur les acquis, les verrous et les perspectives en matière d’élevage AB. Ce numéro a été coordonné par J.M. Perez avec l’aide de nombreux relecteurs : que tous soient ici remerciés. Après une présentation du cahier des charges français et de la réglementation communautaire (Leroux et al), le numéro se décline en trois parties : une série d’articles sur différentes filières animales concernées (avicole, porcine, bovine allaitante, ovine allaitante), un focus sur deux approches à l’échelle des systèmes d’élevage (ovin allaitant et bovin laitier), et enfin des articles centrés sur les problèmes les plus aigus rencontrés dans le domaine de la gestion sanitaire et de la maitrise de la reproduction. L’article conclusif de Bellon et al fait le point sur les principales questions de recherche qui demeurent. En aviculture (Guémené et al), à l’exception de l’œuf, la production bio reste marginale, mais les filières sont bien organisées. Cette situation résulte d’une relative synergie avec les filières label rouge, avec lesquelles elles partagent plusieurs caractéristiques (types génétiques, longue durée d’élevage, parcours). Des difficultés multiples subsistent néanmoins. La production bio est pénalisée par le manque de poussins AB, des difficultés de maintien de l’état environnemental et sanitaire des parcours, la rareté de l’aliment bio et la difficulté d’assurer l’équilibre en acides aminés des rations (pas d’acides aminés de synthèse), élément susceptible d’expliquer la surmortalité constatée en pondeuse (liée à des problèmes comportementaux). Par suite, les performances sont inférieures à celles de l’élevage conventionnel (augmentation de la durée d’élevage et de l’indice de conversion) et l’impact environnemental, bien qu’amélioré quand il est rapporté à l’hectare, est moins favorable quand il est mesuré par unité produite, à l’exception notable de l’utilisation de pesticides. Prunier et al aboutissent aux mêmes conclusions dans le cas de la production de porcs AB. Relativement au conventionnel, les contraintes sont fortes sur le plan alimentaire (rareté de l’aliment AB, problème d’équilibre en acides aminés des rations) et de la conduite d’élevage (interdiction ou limitation des pratiques de convenance, âge des animaux au sevrage de 40 jours, difficultés de synchronisation des chaleurs et des mises bas, limitation des traitements vétérinaires). Ces contraintes et la grande diversité des élevages de porcs AB se traduisent par une forte variabilité des performances en termes de survie, reproduction, composition corporelle ou qualité des produits : autant de critères qu’il conviendra de mieux maîtriser à l’avenir pour assurer la pérennité de l’élevage porcin AB. Les performances zootechniques et économiques de l’élevage bovin allaitant bio sont abordées dans l’article de Veysset et al à partir d’un échantillon limité d’exploitations situées en zones défavorisées. Les caractéristiques des unités AB diffèrent peu de celles de leurs voisines en élevage conventionnel ; avec un chargement à l’hectare plus faible mais une plus grande autonomie alimentaire, les résultats techniques des élevages AB sont proches de ceux des élevages conventionnels et ce, en dépit d’une moindre production de viande vive par unité de bétail, en raison d’un cycle de production en moyenne plus long. Sur le plan économique, les charges plus faibles (pas de traitements antiparasitaires, pas de vaccinations systématiques) ne suffisent pas à compenser un moindre produit à l’hectare. Un verrou majeur est le déficit de gestion collective de la filière verticale (absence totale de débouché en AB pour les animaux maigres, en particulier) qui se traduit par un problème aigu de sous-valorisation puisque dans l’échantillon enquêté 71% des animaux sont vendus sans signe de qualité : nul doute qu’il s’agit là d’une priorité d’action. En élevage ovin (Benoit et Laignel), également sur la base d’un échantillon malheureusement restreint, les différences de performances techniques et économiques des élevages conventionnels versus bio varient sensiblement selon la localisation géographique, plaine ou montagne ; il est de ce fait difficile (et dangereux) de dégager des enseignements généraux valables pour l’élevage bio dans son ensemble. L’étude détaillée des adaptations des systèmes d’élevage aux potentialités agronomiques réalisée sur quatre fermes expérimentales montre néanmoins le rôle clé de la variable «autonomie alimentaire». Par suite, la situation économique des élevages ovins bio est plus difficile en zone de montagne où l’autonomie alimentaire, voire fourragère, est moindre (l’achat des aliments non produits sur l’exploitation représente 41% du prix de vente des agneaux dans l’échantillon enquêté). In fine, cela suggère que la variabilité des performances de l’élevage ovin bio, de plaine et de montagne, dépend plus du coût de l’aliment et de la valorisation des agneaux que de la productivité numérique. L’article de Benoit et al porte également sur l’élevage ovin biologique, plus précisément la comparaison de deux systèmes ovins allaitants AB différant par le rythme de reproduction des animaux. Cela montre que les performances de l’élevage ovin AB ne s’améliorent pas quand le rythme de reproduction est accéléré, le faible avantage de productivité numérique ne permettant pas de compenser l’augmentation des consommations d’aliments concentrés et la moindre qualité des agneaux. Au final, cela illustre la plus grande difficulté à piloter le système AB le plus intensif. L’article de Coquil et al relève aussi d’une approche systémique appliquée cette fois à l’élevage bovin laitier. Il porte sur l’analyse d’un dispositif original de polyculture-élevage mis en place à la Station Inra de Mirecourt reposant sur la valorisation maximale des ressources du milieu naturel et accordant une importance première à l’autonomie en paille et à la culture des légumineuses (protéagineux, luzerne). Le cheptel valorise les produits végétaux (prairies et cultures) et assure la fertilisation des parcelles en retour. L’autonomie alimentaire étant privilégiée, les effectifs animaux sont une variable d’ajustement, situation plutôt inhabituelle par comparaison avec des élevages laitiers conventionnels qui cherchent en premier lieu à maintenir les cheptels et les capacités de production animale. Les premiers retours d’expérience suggèrent une révision du dispositif en maximisant les synergies et les complémentarités plutôt que de considérer que l’une des deux activités, la culture ou l’élevage, est au service de l’autre. Cabaret et al proposent un éclairage sur les problèmes sanitaires en élevage biologique. Sur la base, d’une part, d’une analyse des déclaratifs des acteurs de l’élevage, et, d’autre part, d’évaluations aussi objectivées que possible, les chercheurs montrent qu’il n’y aurait pas de différence notable entre l’AB et le conventionnel sur le plan des maladies infectieuses et parasitaires (nature, fréquence). La gestion de la santé des cheptels AB repose davantage sur l’éleveur que sur les prescripteurs externes auxquels il est moins fait appel, et sur une planification sanitaire préalable privilégiant la prévention et une réflexion de plus long terme sur la santé globale du troupeau, l’ensemble des maladies qui peuvent l’affecter, etc. La planification n’est pas uniquement technique. Elle requiert aussi l’adhésion des éleveurs. De fait, l’enquête analysée dans cet article relative aux élevages ovins allaitants met en lumière l’importance de ces aspects individuels et culturels sur la gestion de la santé en élevage biologique. Les alternatives aux traitements anthelminthiques en élevage ruminant AB font l’objet de nombreux travaux (Hoste et al). Différents moyens de lutte contre les parasitoses sont mis en œuvre : gestion du pâturage de façon à limiter le parasitisme helminthique (rotations, mise au repos, assainissement), augmentation de la résistance de l’hôte (génétique, nutrition, vaccination), et traitements alternatifs des animaux infectés (homéopathie, phytothérapie, aromathérapie). Les protocoles d’évaluation objective de ces traitements alternatifs posent des problèmes méthodologiques non totalement résolus à ce jour. Mais traiter autrement, c’est aussi réduire le nombre de traitements anthelminthiques de synthèse via un emploi plus ciblé (saison, catégories d’animaux). Au total, de par la contrainte du cahier des charges à respecter, l’élevage biologique a recours à l’ensemble des moyens de lutte contre les maladies parasitaires. Dans le cadre de cette approche intégrée de la santé animale, l’élevage biologique peut jouer un rôle de démonstrateur pour l’ensemble des systèmes d’élevage concernés par le problème de la résistance et des alternatives aux anthelminthiques utilisés à grande échelle. Même si la réglementation n’impose pas de conduites de reproduction spécifiques en élevage AB, elle contraint fortement les pratiques, notamment l’utilisation des traitements hormonaux. L’impact de ces contraintes est particulièrement fort en élevage de petits ruminants (où le recours à des hormones de synthèse permet l’induction et la synchronisation des chaleurs et des ovulations) et en production porcine (où la synchronisation des chaleurs et des mises bas est très pratiquée). Néanmoins, Pellicer-Rubio et al rappellent que des solutions utilisées en élevage conventionnel peuvent également être mobilisées en élevage biologique, l’effet mâle et les traitements photopériodiques naturels notamment, et ce dans toutes les filières, en particulier celles fortement consommatrices de traitements hormonaux. De façon générale, les marges de progrès sont encore importantes et les solutions seront inévitablement multiformes, combinant diverses techniques selon une approche intégrée. Ici aussi, l’AB veut être valeur d’exemple, en particulier dans la perspective d’une possible interdiction des hormones exogènes en productions animales. L’article de Bellon et al conclut le numéro. Il met l’accent sur quatre thématiques prioritaires de recherche à développer, à savoir 1) la conception de systèmes d’élevage AB, 2) l’évaluation de l’état sanitaire des troupeaux et le développement d’outils thérapeutiques alternatifs, 3) la maîtrise de la qualité des produits et 4) l’étude des interactions entre élevage AB et environnement. A ces quatre orientations, on ajoutera la nécessité de recherches sur l’organisation des filières, la distribution, les politiques publiques, etc. dans la perspective de différenciation et de valorisation par le consommateur des produits issus de l’élevage biologique. Dans le droit fil de ces conclusions, l’Inra a lancé, ce printemps, un nouvel appel à projets de recherche sur l’AB dans le cadre du programme dit AgriBio3 (programme qui prend la suite de deux premiers programmes également ciblés sur l’AB). Les deux grandes thématiques privilégiées sont, d’une part, les performances techniques de l’AB (évaluation, amélioration, conséquences sur les pratiques), et, d’autre part, le développement économique de l’AB (caractérisation de la demande, ajustement entre l’offre et la demande, stratégie des acteurs et politiques publiques). Ce programme, associé à d’autres initiatives nationales (appel à projets d’innovation et de partenariat CASDAR du ministère en charge de l’agriculture) et européennes (programme européen CORE Organic en cours de montage, suite à un premier programme éponyme), devrait permettre, du moins nous l’espérons, de répondre aux défis de l’AB, plus spécifiquement ici à ceux de l’élevage biologique. Un enjeu important est aussi que les innovations qui émergeront de ces futurs programmes, tout comme des travaux pionniers décrits dans ce numéro, constituent une source d’inspiration pour faire évoluer et asseoirla durabilité d’autres formes d’élevage.
APA, Harvard, Vancouver, ISO, and other styles
33

De la Croix, David, and Johan Lepers. "Numéro 32 - septembre 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15953.

Full text
Abstract:
Pour ne plus faire peser le financement de la sécurité sociale uniquement sur le facteur travail, l’instauration d’une cotisation sociale généralisée (CSG) est souvent proposée. Une alternative, suggérée par la note du gouvernement fédéral sur les fins de carrière, est de rendre la pension plus sensible au nombre d’années travaillées, en introduisant un malus fonction du nombre d’années de préretraite. Cette mesure est sensée réduire le coût lié aux prépensions et ainsi rendre le financement du système plus aisé. Nous avons simulé ces deux options politiques dans un modèle d’équilibre général calculable afin d’en comparer les conséquences non seulement pour la sécurité sociale mais aussi pour la croissance et le bien-être des différentes générations. La CSG revient à introduire un impôt supplémentaire sur tous les revenus (comme des centimes additionnels), c’est-à-dire sur le travail mais également le capital, les allocations familiales, les pensions et les allocations de chômage. Lorsque nous parlons aujourd'hui de la CSG en Belgique, un taux de 1,5 % est souvent prononcé. Nous simulerons une CSG de 5 % afin de faire ressortir des effets plus significatifs. Rappelons qu’en France le taux actuel de la CSG est de 7,5 %. Concernant le malus pension, nous supposons que les travailleurs se retirant anticipativement de la vie professionnelle verraient leur pension diminuer de 4 % par année de départ anticipé. Un travailleur qui partirait ainsi à 60 ans verrait donc ses allocations de pension allégées de 5 fois 4 %. Dans cette simulation, la pension reste non-cumulable avec un salaire, au contraire de la proposition de Sneessens et Van der Linden. Les simulations nous montrent que ces deux mesures sont à même de retarder l’âge effectif de la retraite d’un an en moyenne, ce qui est modestement bénéfique pour le financement des dépenses de l’Etat. Nous avons néanmoins constaté que la CSG a comme gros désavantage de réduire le capital productif (fuite des capitaux), ce qui n’est pas favorable à la croissance. Le malus pension s'est avéré pour sa part très ciblé sur les individus âgés. Bien que très différentes, ces deux mesures affectent négativement les personnes âgées au bénéfice des plus jeunes et des générations futures. Nous avons confronté ces mesures "classiques" à une politique alternative de notre cru, qui consiste à diminuer de moitié la taxation du travail pesant sur les travailleurs âgés (58-65 ans). Leur taux moyen d’imposition (incluant les cotisations sociales) passe de 48 % à 24 %. Concrètement, l’abattement pour charges professionnelles pourrait être majoré à partir de 58 ans de manière à obtenir la réduction du taux moyen d’imposition désirée. En agissant de la sorte, on incite les travailleurs à ne pas accepter une sortie prématurée du marché du travail. Dans nos simulations, cette politique s'est révélée être une mesure très bénéfique. L’âge effectif de la retraite augmente de 4 ans en moyenne (passant de 59 ans à 63 ans), ce qui a pour effet d’accroître la base taxable et de réduire les dépenses de prépension. Ces effets sont tels que la mesure s'autofinance complètement. Des effets positifs sur le PNB par habitant ont également pu être dégagés. La diminution de la taxation du travail des travailleurs âgés profite à toutes les générations d'individus actuellement en vie, ainsi qu'aux générations futures. Sachant qu'en ce moment même, le gouvernement fédéral planche sur l'évaluation de mesures afin de refinancer la sécurité sociale, il nous paraît utile de mettre en avant les effets bénéfiques d'une réduction massive de la taxation sur les travailleurs de plus de 58 ans. C’est aussi une alternative intéressante pour accroître le taux d’activité des travailleurs âgés sans requérir un démantèlement du régime des prépensions.
APA, Harvard, Vancouver, ISO, and other styles
34

De la Croix, David, and Johan Lepers. "Numéro 32 - septembre 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2005.09.01.

Full text
Abstract:
Pour ne plus faire peser le financement de la sécurité sociale uniquement sur le facteur travail, l’instauration d’une cotisation sociale généralisée (CSG) est souvent proposée. Une alternative, suggérée par la note du gouvernement fédéral sur les fins de carrière, est de rendre la pension plus sensible au nombre d’années travaillées, en introduisant un malus fonction du nombre d’années de préretraite. Cette mesure est sensée réduire le coût lié aux prépensions et ainsi rendre le financement du système plus aisé. Nous avons simulé ces deux options politiques dans un modèle d’équilibre général calculable afin d’en comparer les conséquences non seulement pour la sécurité sociale mais aussi pour la croissance et le bien-être des différentes générations. La CSG revient à introduire un impôt supplémentaire sur tous les revenus (comme des centimes additionnels), c’est-à-dire sur le travail mais également le capital, les allocations familiales, les pensions et les allocations de chômage. Lorsque nous parlons aujourd'hui de la CSG en Belgique, un taux de 1,5 % est souvent prononcé. Nous simulerons une CSG de 5 % afin de faire ressortir des effets plus significatifs. Rappelons qu’en France le taux actuel de la CSG est de 7,5 %. Concernant le malus pension, nous supposons que les travailleurs se retirant anticipativement de la vie professionnelle verraient leur pension diminuer de 4 % par année de départ anticipé. Un travailleur qui partirait ainsi à 60 ans verrait donc ses allocations de pension allégées de 5 fois 4 %. Dans cette simulation, la pension reste non-cumulable avec un salaire, au contraire de la proposition de Sneessens et Van der Linden. Les simulations nous montrent que ces deux mesures sont à même de retarder l’âge effectif de la retraite d’un an en moyenne, ce qui est modestement bénéfique pour le financement des dépenses de l’Etat. Nous avons néanmoins constaté que la CSG a comme gros désavantage de réduire le capital productif (fuite des capitaux), ce qui n’est pas favorable à la croissance. Le malus pension s'est avéré pour sa part très ciblé sur les individus âgés. Bien que très différentes, ces deux mesures affectent négativement les personnes âgées au bénéfice des plus jeunes et des générations futures. Nous avons confronté ces mesures "classiques" à une politique alternative de notre cru, qui consiste à diminuer de moitié la taxation du travail pesant sur les travailleurs âgés (58-65 ans). Leur taux moyen d’imposition (incluant les cotisations sociales) passe de 48 % à 24 %. Concrètement, l’abattement pour charges professionnelles pourrait être majoré à partir de 58 ans de manière à obtenir la réduction du taux moyen d’imposition désirée. En agissant de la sorte, on incite les travailleurs à ne pas accepter une sortie prématurée du marché du travail. Dans nos simulations, cette politique s'est révélée être une mesure très bénéfique. L’âge effectif de la retraite augmente de 4 ans en moyenne (passant de 59 ans à 63 ans), ce qui a pour effet d’accroître la base taxable et de réduire les dépenses de prépension. Ces effets sont tels que la mesure s'autofinance complètement. Des effets positifs sur le PNB par habitant ont également pu être dégagés. La diminution de la taxation du travail des travailleurs âgés profite à toutes les générations d'individus actuellement en vie, ainsi qu'aux générations futures. Sachant qu'en ce moment même, le gouvernement fédéral planche sur l'évaluation de mesures afin de refinancer la sécurité sociale, il nous paraît utile de mettre en avant les effets bénéfiques d'une réduction massive de la taxation sur les travailleurs de plus de 58 ans. C’est aussi une alternative intéressante pour accroître le taux d’activité des travailleurs âgés sans requérir un démantèlement du régime des prépensions.
APA, Harvard, Vancouver, ISO, and other styles
35

Chelghoum, Abdelaziz, Mahfoud Kadja, Pascal Higelin, and Tayeb Ouksel. "Le moteur à charge stratifiée, Un moyen de réduction des NOx." Journal of Renewable Energies 13, no. 1 (October 25, 2023). http://dx.doi.org/10.54966/jreen.v13i1.186.

Full text
Abstract:
Afin de réduire la quantité d’oxyde d’azote formée dans un moteur à essence, la solution proposée est la combustion stratifiée. Pour cela, le modèle multi zone est utilisé pour l’étude du processus de combustion et la formation de l’oxyde d’azote dans un moteur à allumage commandé. Il commence par l’utilisation de l’approche de Wiebe pour décrire le processus de dégagement de chaleur durant la phase de combustion. L’utilisation d’un schéma d’équilibre chimique pour le système C – H – O – N est nécessaire pour le calculer de la concentration des espèces dans les gaz d’échappement,. Ainsi, les résultats théoriques des deux types de moteurs (à charge homogène et à charge stratifiée) issus de ce modèle sont comparés avec ceux mesurés.
APA, Harvard, Vancouver, ISO, and other styles
36

Almeida, Oleg. "À la recherche d'une traduction parfaite: Partie II." caleidoscópio: literatura e tradução 4, no. 2 (May 28, 2021). http://dx.doi.org/10.26512/caleidoscopio.v4i2.32328.

Full text
Abstract:
Dans cet article, il s’agit de la traduction poétique, de ses qualités esthétiques et de ses éventuels facteurs limitants. Analysant six versions françaises du célèbre poème « Le Prophète » d’Alexandre Pouchkine, l’auteur tente d’établir une sorte d’équilibre entre leur exactitude textuelle et leur beauté stylistique pour savoir à quel point le dilemme « précision versus inspiration » par lequel elles sont influencées se révèle insoluble dans ce contexte. Il se charge ensuite de produire encore deux versions du poème et il conclut qu’une traduction poétique, même si elle est juxtalinéaire, n’est jamais parfaite ni ne peut être appréciée que dans la mesure où les préférences subjectives de son lecteur se rapprochent de celles du traducteur.
APA, Harvard, Vancouver, ISO, and other styles
37

Pavel, Thomas. "La mesure de la pastorale." 45, no. 2 (August 19, 2009): 13–24. http://dx.doi.org/10.7202/037842ar.

Full text
Abstract:
Résumé Le roman pastoral des xvie et xviie siècles raconte le destin d’êtres humains qui, oscillant entre la constance et la faiblesse, passent du dévouement au caprice et de l’inconstance à la fidélité. Bien que l’amour entraîne ces personnages vers la source du Bien, du Vrai et de l’Un, ils demeurent en proie aux troubles intérieurs et aux perturbations engendrés par le désir. La tension entre l’imperfection humaine et l’élan vers l’idéal se reflète dans l’alternance, typique pour le roman pastoral, de la narration en prose et du transport poétique. Or, en dépit de la coexistence de ces grandeurs incommensurables, des oeuvres comme l’Ameto de Boccace, l’Arcadie de Sannazaro, La Diane de Montemayor, Galatée de Cervantès, l’Arcadie de Sir Philip Sydney et L’Astrée d’Honoré d’Urfé dégagent une remarquable impression de mesure et d’équilibre, qui réunit la force de l’idéal aux impulsions les plus intimes de l’âme humaine. Cet équilibre est perceptible dans tous les ingrédients du roman pastoral : le cadre idyllique, l’intrigue, la psychologie morale et l’élégance du style. Située dans une Arcadie primitive qui ignore les conflits, la pastorale inclut également des épisodes appartenant au monde des rivalités sociales. Elle ne se contente pas d’une seule histoire, mais incorpore une gamme de situations où l’amour est confronté à la Fortune, à la duplicité du coeur humain et, enfin, à l’énigme de l’union entre corps et âme. Concernant la psychologie, la pastorale ne s’attarde pas aux replis du coeur humain mais peint des âmes que l’élan amoureux emporte au-delà des circonstances amères et boueuses de leur vie. Enfin, l’alternance de la prose et des passages en vers participe elle aussi à cette mesure sans doute fragile, à cet équilibre souvent instable, en soulignant à sa manière l’incommensurabilité de la faiblesse humaine avec le Beau et le Bien qui l’attirent.
APA, Harvard, Vancouver, ISO, and other styles
38

Chouchane, Toufik, Sabiha Chouchane, Atmane Boukari, Adel Balaska, and Mohamed El-Hadi Samar. "Elimination du plomb en solution par la sciure de bois." Journal of Renewable Energies 14, no. 4 (October 24, 2023). http://dx.doi.org/10.54966/jreen.v14i4.285.

Full text
Abstract:
Cette étude présente les résultats obtenus lors de l’utilisation de la sciure de bois pour l’élimination du plomb contenu dans les eaux usées. Les propriétés de sorption ont été déterminées en régime discontinu. Les résultats des essais montrent qu’un gramme de sciure de bois activé peut fixer 40,04 mg/g de plomb selon le modèle de Langmuir, 1er version, avec une cinétique du pseudo premier ordre, où le temps d’équilibre est de 10 minutes. Les mesures réalisées révèlent aussi, que la diffusion externe contrôle la vitesse du processus globale de la sorption. La diffusion dans les pores ne présente pas l’unique mécanisme réactionnel limitant cette cinétique, ce mécanisme est basé aussi sur l’échange cationique, où les ions de bases jouent un rôle très important. En dernier, on montre que cette sorption est spontanée (G < 0) jusqu'à 40 °C, exothermique (H < 0) et aucun changement n’a été effectué au niveau de la structure de la sciure de bois (S < 0).
APA, Harvard, Vancouver, ISO, and other styles
39

François, Aurélien, Nadine Dermit-Richard, Daniel Plumley, and Robert Wilson. "Analyzing the effectiveness of UEFA's financial fair play regulations: A comparative study of the French Ligue 1 and the English Premier League." Management et Organisations du Sport 3, Research articles (December 14, 2021). http://dx.doi.org/10.46298/mos-2021-7270.

Full text
Abstract:
This article assesses the effectiveness of the UEFA Financial Fair Play (FFP) regulations, one of the few financial regulatory tools for open leagues in Europe in two top divisions in Europe. The objective of FFP borrows from the theoretical concept of ‘soft budget constraint’ in sport finance and regulation literature. Introduced by UEFA in 2011 and fully implemented from 2013, FFP requires clubs qualifying for European competitions to comply with the financial concept of “break-even”, where football expenses should not exceed football revenues. This study uses the French Ligue 1 (L1) and the English Premier League (PL) as a case study for analysing the effectiveness of FFP and includes thirteen clubs (seven French and six English) in total. The selection of clubs was guided firstly by data access but was also restricted to clubs regularly participating in European competitions between 2011, when FFP came into effect, and 2018. The scope of the study enabled us to measure the effect of FFP with regard to the break-even rule and the payroll ratios before and after its full application by comparing the periods 2008-2013 and 2013-2018 using descriptive statistics and tests of comparisons. The results are contrasted according to the national context of the clubs studied and the indicators analysed. First, they show a general improvement in the profitability of the clubs in the sample, although the results are statistically significant only in the case of the PL. Concerning the payroll ratios, the first measure (payroll/operating expenses) decreased significantly for all clubs, with significant differences found comparatively in the case of the L1. The second measure (payroll/operating income) also decreased, but the decrease was only significant at the sample level when the trading activity was included in operating income. From a theoretical perspective, this contribution makes it possible to compare the conclusions obtained with existing works, be it predictive or empirical in nature. From a managerial point of view, it calls for UEFA to remain vigilant in respect of FFP. While the results appear to suggest that FFP has been effective in improving the financial equilibrium of clubs and their payroll ratios, the link between better financial health and good governance remains a key challenge for the industry moving forward. Cet article ambitionne d’évaluer l’efficacité du système de Fair-play financier (FPF), un des rares outils de régulation des ligues ouvertes en Europe. Elle s’inscrit dans le cadre de la régulation financière des ligues de sports collectifs en empruntant des éléments théoriques au concept de « contrainte budgétaire lâche ». Instauré par l’UEFA en 2011 et pleinement appliqué à partir de 2013, le FPF impose aux clubs qualifiés en coupes d’Europe de respecter une règle d’équilibre financier limitant leurs montants de dépenses issues de l’activité football à ceux de leurs recettes, sans l’aide d’apports extérieurs. Pour parvenir à cet objectif, nous avons retenu sept clubs évoluant en Ligue 1 française (L1) et six en Premier League anglaise (PL). Cette sélection a d’abord été guidée par l’accès aux données et a été restreinte aux clubs participant régulièrement aux compétitions européennes entre 2011, année d’entrée en vigueur du FPF, et 2018. Le périmètre ainsi constitué nous a permis de mesurer l’effet du FPF au regard de la règle d’équilibre et des ratios de masse salariale avant et après sa pleine application en comparant les périodes 2008-2013 et 2013-2018 à partir de statistiques descriptives et de tests de comparaisons. Les résultats sont contrastés en fonction du contexte national des clubs étudiés et des indicateurs analysés. Ils montrent d’abord une amélioration générale de la profitabilité des clubs sur l’ensemble de l’échantillon même si, au niveau national, les résultats ne sont statistiquement significatifs que dans le cas de la PL. Concernant les ratios de masse salariale, le premier étudié (masse salariale/charges d’exploitation) a diminué de façon significative sur l’ensemble des clubs même si la significativité des tests de comparaison n’a été constatée, cette fois-ci, que dans le cas de la L1. Le second (masse salariale/revenus d’exploitation) a également diminué mais la baisse n’est significative à l’échelle de l’échantillon que lorsque l’activité de transfert est intégrée aux revenus d’exploitation. D’un point de vue théorique, cette contribution permet de confronter les conclusions obtenues aux travaux existants qu’ils soient de nature prédictive ou empirique. D’un point de vue managérial, elle invite l’UEFA à rester vigilante car, si les résultats sont plutôt flatteurs laissant à penser que le FPF a été efficace dans l’amélioration de l’équilibre financier des clubs et de leurs ratios de masse salariale, le lien entre meilleure santé financière et bonne gouvernance est toutefois interrogé en fin d’article.
APA, Harvard, Vancouver, ISO, and other styles
40

De Briey, Valérie. "Numéro 28 - mars 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15993.

Full text
Abstract:
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
APA, Harvard, Vancouver, ISO, and other styles
41

De Briey, Valérie. "Numéro 28 - mars 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2005.03.01.

Full text
Abstract:
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
APA, Harvard, Vancouver, ISO, and other styles
42

Pensieroso, Luca, and Michel De Vroey. "Focus 25 - juin 2020." Regards économiques, July 16, 2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Full text
Abstract:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography