Journal articles on the topic 'Retourné en temps d'une diffusion'

To see the other types of publications on this topic, follow the link: Retourné en temps d'une diffusion.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 26 journal articles for your research on the topic 'Retourné en temps d'une diffusion.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Léandre, Rémi. "Minoration en temps petit de la densité d'une diffusion dégénérée." Journal of Functional Analysis 74, no. 2 (October 1987): 399–414. http://dx.doi.org/10.1016/0022-1236(87)90031-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

BRÛLÉ, Michel. "L’oeuvre ouverte de Lucien Goldman." Sociologie et sociétés 3, no. 1 (September 30, 2002): 3–14. http://dx.doi.org/10.7202/001109ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé L'auteur commence par montrer l'importance de l'œuvre de Lucien Goldmann pour situer le phénomène de la création artistique à l'intérieur de la totalité des comportements humains. Il souligne l'originalité des hypothèses goldmanniennes quant au rôle et à la fonction de l'œuvre littéraire comme élément actif pour la constitution d'une conscience collective. Dans un deuxième temps l'auteur illustre la pertinence du structuralisme génétique par une analyse schématique de l'œuvre du romancier québécois Roger Lemelin. Enfin il montre comment les travaux d'une autre sociologie de la littérature (celle de Robert Escarpit) développée à partir de recherches sur la production, la diffusion et la consommation du livre rejoignent ceux de Lucien Goldmann dans l'élaboration d'une théorie dynamique et globale de la littérature.
3

L�andre, R�mi. "Majoration en temps petit de la densit� d'une diffusion d�g�n�r�e." Probability Theory and Related Fields 74, no. 2 (1987): 289–94. http://dx.doi.org/10.1007/bf00569994.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Adeyefa, C. A. O., and O. A. Durojaiye. "Détection des anticorps anti-adénovirus dans le sérum de chevaux Polo au Nigeria." Revue d’élevage et de médecine vétérinaire des pays tropicaux 45, no. 1 (January 1, 1992): 21–22. http://dx.doi.org/10.19182/remvt.8950.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des échantillons de sérum ont été recueillis chez 107 chevaux Polo présentant des symptômes cliniques de virose respiratoire afin de rechercher par précipito-diffusion en gélose et contre-immunoélectroph orèse des anticorps anti-adénovirus. Les résultats obtenus apportent la preuve sérologique de la présence d'une infection à adénovirus. La contre-immunoélectrophorèse s'est révélée environ trois fois plus sensible que le test de précipitation en gélose : 19,3 % contre 64,5 %. Cet examen pourrait donc servir au passage au crible d'un nombre important d'échantillons en peu de temps.
5

Crombez, Jean-Charles. "Le changement des contrôles et le contrôle d’échange." Santé mentale au Québec 3, no. 2 (June 2, 2006): 79–85. http://dx.doi.org/10.7202/030041ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'article qui suit est d'un genre particulier. Il s'agit en fait d'une lettre publique adressée à M. Simon Durivage à la suite de la diffusion d'un dossier sur les médecines parallèles présenté le 31 mars 1978 à la télévision de Radio-Canada. On se rappellera que cette émission comportait deux volets : dans un premier temps, on nous présentait des interviews de deux thérapeutes de même que les commentaires de quelques clients. On avait aussi l'occasion de voir ces thérapeutes à l'œuvre ; dans un deuxième temps, on assistait à une discussion menée par M. Durivage et qui réunissait M. Denis Lazure, Ministre des Affaires Sociales, Me André De Gagné, de l'Office des Professions et Mme Claire Dutrisac du journal La Presse. Jean-Charles Crombez, qui signe cette lettre, l'a proposée au journal Le Devoir qui n'a pas cru devoir la publier. Cette émission a sûrement intéressé de nombreux thérapeutes de toute orientation et de toute formation ; elle a sûrement aussi provoqué chez cet auditoire de vives réactions ; c'est pourquoi le Comité de rédaction a cru à propos de publier ce texte dans lequel nous trouverons matière à réflexion d'une part et un ensemble de critiques bien articulées d'autre part.
6

Durand, André. "La Conférence de Genève d'août 1864 vue par la presse genevoise." Revue Internationale de la Croix-Rouge 71, no. 778 (August 1989): 294–317. http://dx.doi.org/10.1017/s0035336100017299.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La Conférence de Genève d'août 1864 s'était tenue à huis clos. Un dessin paru dans le journal satirique le Carillon de Saint-Gervais témoigne de la réaction des journalistes devant cette décision. On y voit trois personnages, représentant symboliquement trois journaux genevois, le Journal de Genève, La Démocratie suisse et le Carillon de Saint-Gervais, bloqués devant la porte du Congrès international, sur laquelle on lit ces mots: Défense d'entrer. En légende: Tribune ouverte è la Presse, par le Congrès international. C'était là, sans doute, la première expression d'une réserve qui a parfois caractérisé les rapports des institutions humanitaires et de la presse d'information. Aujourd'hui, heureusement, les temps ont change. Information et diffusion sont des éléments essentiels de la politique du Comité international de la Croix-Rouge, et l'on peut supposer que si quelque dessinateur illustrait à son tour le déroulement d'une conférence internationale, il la représenterait toutes portes ouvertes.
7

Ramos, Jean-Marc. "Vitesse et représentation du temps: la modélisation du rythme de croissance dans la diffusion sociale d'une innovation." Social Science Information 39, no. 2 (June 2000): 269–85. http://dx.doi.org/10.1177/053901800039002006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kouaouci, Ali. "Essai de reconstitution de la pratique contraceptive en Algérie durant la période 1967-1987." Population Vol. 48, no. 4 (April 1, 1993): 859–83. http://dx.doi.org/10.3917/popu.p1993.48n4.0883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Kouaouci (Ali). - Essai de reconstitution de la pratique contraceptive en Algérie durant la période 1967-1987 L'enquête nationale algérienne sur la fécondité (ENAF) est la première enquête de grande envergure ayant permis de mesurer l'extension de la pratique contraceptive dans les divers groupes de la population algérienne distingués par l'âge, la durée du mariage, le nombre d'enfants déjà nés, l'habitat, etc. Mais, en outre, quelques questions rétrospectives sur la pratique au cours des divers intervalles entre naissances permettent de retracer la diffusion de ces comportements au fil du temps et d'en préciser les intentions (arrêt ou espacement). On voit alors comment cette dynamique a anticipé sur la reconnaisance politique de l'intérêt d'une régulation des naissances et s'est installée en dépit des préceptes religieux.
9

Díaz Muñoz, María Ángeles. "Sociedad, tecnología y naturaleza: una entrevista con el profesor Torsten Hägerstrand." Estudios Geográficos 55, no. 214 (March 30, 1994): 5–31. http://dx.doi.org/10.3989/egeogr.1994.i214.5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Este artículo es una transcripción literal de una entrevista realizada al profesor Torsten Hagerstrand. En ella, el profesor Hagerstrand reflexiona sobre la definición de la Geografia, la relación de esta ciencia con otras disciplinas científicas, y sobre conceptos geográficos básicos como región o espacio. Habla también sobre su trayectoria investigadora, revelando los propósitos e intereses que estuvieron en la base de sus trabajos sobre la difusión de las innovaciones y de la formulación de la Geografia del Tiempo. [fr] Cet article est une transcription litterale d'une interview réalisée a Torsten Hagerstrand. Le professeur réfléchit a propos de la définition de la Géographie, de la relatión existante entre cette science et d'autres disciplines scientifiques et sur d'autres concepts de base comme ce sont région ou espace. Il parle aussi de sa propre trajectorie de recherche, en montrant le but et l'intéret sur lesquels ont été fondées ses travaux sur la diffusion des innovations, et de la formulation de la Géographie du Temps.
10

Waters, Chris. "“All Sorts and Any Quantity of Outlandish Recreations”: History, Sociology, and the Study of Leisure in England, 1820 to 1870." Historical Papers 16, no. 1 (April 26, 2006): 8–33. http://dx.doi.org/10.7202/030866ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé L'étude des loisirs populaires en Angleterre durant la période victorienne jouit présentement d'une grande faveur. Cependant, de nombreux problèmes se posent au chercheur qui s'y adonne. En effet, le sujet est non seulement complexe en lui-même mais il est aussi perçu différemment par les uns ou les autres. Par exemple, certains historiens abordent le problème comme s'il se rattachait aux traditions populaires plus anciennes, d'autres y voient plutôt l'émergence du phénomène de la « culture de masse » alors que d'aucuns l'approchent d'une façon tout à fait élitiste en concentrant leurs efforts sur l'étude de la réforme des loisirs tout en ignorant les réactions populaires aux mesures de réforme. En fait, la question est d'autant plus compliquée qu'on lui associe habituellement le concept de contrôle social. L'auteur suggère ici des approches différentes qui auraient avantage à être utilisées. Ainsi, il fait valoir tout le profit que l'on pourrait tirer de l'examen des modes d'invention et de diffusion des activités de loisir, de l'étude du contenu spécifique de ces activités et de la préparation d'études de communautés particulières où l'on ferait une large place aux rapports qui s'établissent entre l'occupation, les aspirations et les choix individuels qui se font, compte tenu de la gamme des activités récréatives qui sont offertes dans un temps et un espace donnés.
11

Hanson, Stephen E., and Jeffrey S. Kopstein. "Regime Type and Diffusion in Comparative Politics Methodology." Canadian Journal of Political Science 38, no. 1 (March 2005): 69–99. http://dx.doi.org/10.1017/s0008423905050043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Abstract.In recent years, several prominent political scientists have argued that quantitative and qualitative methodologies should be seen as united by a single logic of scientific inference. Just exactly how this reconciliation of quantitative and qualitative methodological approaches should be effected in practice, however, remains highly contentious. For all its promise, the project of uniting quantitative and qualitative methods in political science has thus reached something of an impasse. Participants on both sides of the quantitative/qualitative debate are convinced that this methodological divide should eventually be transcended, but few have abandoned the conviction that their preferred approach sets the standard by which progress in this endeavor should be judged. Evidently, we still lack consensus on precisely where the distinctive strengths of each methodological approach lie, and how these strengths can be combined effectively in systematic investigations of the political world. In this essay, we argue that a satisfactory synthesis of quantitative and qualitative methods for making causal inferences in comparative politics depends upon the resolution of a prior theoretical problem at the stage of research design: establishing a typology of political regimes and accounting for the mechanisms of their reproduction and diffusion over time and space.Résumé.Ces dernières années, plusieurs politologues éminents ont soutenu qu'il faudrait considérer les méthodologies quantitative et qualitative comme étant unies par une même logique de déduction scientifique. Comment réaliser cette réconciliation des approches quantitative et qualitative dans la pratique demeure cependant un sujet hautement contesté. Tout prometteur qu'il soit, le projet d'unifier les méthodes quantitative et qualitative en science politique se retrouve en fait dans une impasse. Les participants des deux côtés du débat quantitatif/qualitatif sont persuadés qu'il faudra un jour transcender cette fracture méthodologique, mais ils sont peu nombreux à avoir abandonné la conviction que l'approche qu'ils privilégient établit la norme qui permettra d'évaluer les progrès accomplis. Il est évident qu'il n'y a pas encore de consensus quant aux forces respectives précises de chaque méthode, ni sur la manière de les combiner efficacement pour procéder à des études systématiques du monde politique. Dans cet article, nous avançons qu'une synthèse satisfaisante des méthodes quantitative et qualitative pour arriver à des déductions causales en politique comparée exige qu'on s'emploie à résoudre d'abord un problème théorique à l'étape de la conception de la recherche, à savoir l'établissement d'une typologie des régimes politiques et l'inventaire des mécanismes de leur reproduction et de leur diffusion dans l'espace et dans le temps.
12

Schwegler and Puric. "Mammakarzinom: Was brachten adjuvante Therapien nach Ablatio? Überblick über unsere Ergebnisse über >= 20 Jahre." Praxis 91, no. 38 (September 1, 2002): 1541–51. http://dx.doi.org/10.1024/0369-8394.91.38.1541.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail présente les résultats de 626 patientes qui ont subi une ablation mammaire avec irradiation loco-régionale consécutive. Chez 49.5% (310/626), le traitement s'est limité à une irradiation loco-régionale. 32.8% (205/626) ont été traitées par tamoxifène et 17.7% (111/626) par chimiothérapeutique adjuvante avec ou sans tamoxifène. La classification TN a été basée sur les résultats anatomo-pathologiques. L'âge médian était de 59 ans (25-91), la médiane du temps d'observation de 180 mois (60-265). Le taux de récidive locale était de 7.1% et de métastases à distance de 40.4%. 35.6% des patientes sont décédées des conséquences de la tumeur primaire et 20.3% d'une autre cause. La survie tumorale spécifique était de 76% sans adénopathies axillaires, de 55% en cas d'atteinte de 1 à 3 ganglions lymphatiques et de 30% en cas d'atteinte de plus de 3 ganglions. Un profil de risque rétrospectif a permis de déterminer le status des ganglions lymphatiques, l'invasion vasculaire et la taille initiale de la tumeur comme facteurs significatifs et pronostiques. En leur présence, le taux de récidive locale augmente de deux à six fois. On observe des différences importantes des résultats selon le traitement chez les collectifs à haut risque avec une survie tumorale spécifique à 20 ans de 26 à 47% et une différence statistiquement significative en faveur du groupe traité par chimiothérapie. La comparaison de la survie tumorale spécifique à 20 ans est de 65% à 72% si l'on exclut les facteurs de risque cités auparavant. Une différence statistique n'est de loin pas atteinte (p = 0.8) entre les diverses modalités thérapeutiqes des groupes à faible risque. Une attention spéciale est accordée à l'évaluation des ganglions axillaires. 59.6% (248/626) des patientes n'avaient initialement pas de métastases ganglionnaires, 76.2% (189/248) n'ont pas développé de métastases à distance. Chez 78.4% (149/190), on s'est contenté d'une irradiation loco-régionale. Dans 60.4% (378/626), l'histologie axillaire était positive. 48.7% (184/378) des patientes n'avaient pas de métastases à distance. 19.6% (36/184) ont reçu une chimiothérapie adjuvante, 49.4% (91/184) ont été traitées, en plus, par tamoxifène alors que l'on s'est contenté chez 31% (57/184) d'une irradiation loco-régionale. Lorsque 1 à 3 ganglions étaient positifs, chez 58.4% (108/185), une dissémination n'a été constatée ni cliniquement ni radiologiquement. Il est possible que c'est grâce à l'efficacité de la chimiothérapie et du tamoxifène que seulement 38.2% (13/34), respectivement 34.3% (23/67), ont développé des métastases à distance. Contrairement, en cas d'atteinte >= 4 ganglions: 76.2% (48/63) des patientes sous chimiothérapie et 85.1% (23/27) avec invasion vasculaire ont développé des métastases à distance. On ne peut pas exclure un effet contraire au but du traitement. Ces chiffres illustrent le fait qu'une atteinte axillaire peut être l'expression d'une généralisation ultérieure mais ne doit pas être le signe avant-coureur d'une diffusion tumorale. Les complications post-thérapeutiques de notre collectif se sont révélées faibles. Le taux d'infarctus du myocarde n'était pas plus élevé. On n'a pas constaté de lésions nerveuses dues à l'irradiation. Il n'y a aucune raison de renoncer aux avantages d'une radiothérapie postopératoire en raison d'effets secondaires potentiels.
13

Ogura, Mieko. "The Development of Middle English i and u." Diachronica 12, no. 1 (January 1, 1995): 31–53. http://dx.doi.org/10.1075/dia.12.1.03ogu.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
SUMMARY Based on the data presented in Ogura (1987), Labov (1992, 1994) reanalyzes the distribution of ME i and u words at 311 sites in England and maintains that the mathematical analysis supports the regularity hypothesis as well as the claim of phonetic conditioning of sound change. We have shown that diffusion from word to word and diffusion from site to site progress side by side, and that lexical diffusion from word to word along the time dimension is reflected in the spatial distribution of the words through sites. We have compared a given pair of ME i and ME u words by counting the number of sites where the pair of words is pronounced differently, which strongly indicates lexical diffusion at work. We have also clarified the ordering relation among the words and have refuted Labov's claim of phonetically conditioned regular sound change. We have claimed that lexical diffusion is working W1thin narrow phonetic environments. We may conclude, contrary to Labov's claims, that the spatial distribution of words is strongly suggestive of lexical diffusion. RÉSUMÉ A partir des donnees fournies dans Ogura (1987), Labov (1992, 1994) reprend l'analyse de la distribution des mots en moyen anglais contenant des i et u a 311 sites en Angleterre et il soutient que son analyse mathematique appuie l'hypothese de regularite ainsi bien que son affirmation relative au conditionnement phonetique du changement des sons. Nous demontrons que la diffusion lexical procede de mot a mot et qu'elle progresse d'un site a l'autre, parallelement; nous demontrons egalement que la diffusion lexicale de mot a mot en fonction du temps est reflechie par la distribution spatiale de mots a travers les sites. Nous comparons des paires de mots contenants ces i et u du moyen anglais en comptant le nombre de sites ou ces paires des mots sont prononcees differemment, signe d'une diffusion lexicale en cours. Nous eclair-cissons les liens d'ordre entre les mots et refutons ainsi l'hypothese de Labov sur le conditionnement phonetique d'un changement regulier des sons. Nous affirmons que la diffusion lexicale opere dans le cadre etroit des environne-ments phonetiques. Ainsi, a l'encontre des affirmations de Labov, la distribution spatiale de mots revele Taction de la diffusion lexicale. ZUSAMMENFASSUNG Auf Grundlage von in Ogura (1987) vorgelegten Daten hat Labov (1992, 1994) eine Reanalyse der Distribution von I und u enthaltenen Wortern des Mittelenglischen an 311 Stellen in England unternommen. Er behauptet, daß seine mathematische Analyse der erstmalig von den Junggrammatikern formu-lierten Regularitatshypothese ebenso unterstlitze W1e seine Auffassung eines phonetisch bedingten Lautwandels. Es W1rd hier gezeigt, daß die Diffusion von Wort zu Wort vor sich geht und von Ort zu Ort nebeneinander fortschreitet. DaB die lexikalische Diffusion von Wort zu Wort der Zeitdimension entlang vor sich geht, spiegelt sich in der spatialen Distribution der Worter in diesen Orten W1der. Der Vergleich beliebiger Wortpaare des Mittelenglischen, die i und u enthalten, in denen die Anzahl von Orten solcher Wortpaare, die ver-schiedene Aussprachen aufweisen, legt nahe, anzunehmen, daB lexikalische Diffusion am Werk ist. AuBerdem ist die Anordnungsrelation innerhalb dieser Worter geklart worden, so daB Labovs Behauptung, daB es sich hier um phonetisch bedingten, regelhaften Lautwandel handle, wohl W1derlegt sein diirfte. Im vorliegenden Aufsatz W1rd dagegen behauptet, daB die lexikalische Diffusion sich im Rahmen von engen phonetischen Umgebungen vollzieht. Es W1rd daraus gefolgert, daB, im Gegensatz zu Labovs Annahmen, die spatiale Distribution von Wortern fur das W1rken einer lexikalischen Diffusion spricht.
14

Simoëns, Serge, Christophe Michelot, Michel Ayrault, and Vladimir Sabelnikov. "Modèle stochastique de diffusion continu en temps: approximation différentielle de l'équation d'évolution de la densité de probabilité de la concentration et sa solution asymptotique dans le cas d'une turbulence homogène." Comptes Rendus de l'Académie des Sciences - Series IIB - Mechanics-Physics-Chemistry-Astronomy 324, no. 11 (June 1997): 667–78. http://dx.doi.org/10.1016/s1251-8069(97)83172-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Oosterbosch, Michel. "Overheidsbemoeiingen met het Antwerpse notariaat tijdens de XVIde eeuw." Tijdschrift voor Rechtsgeschiedenis / Revue d'Histoire du Droit / The Legal History Review 63, no. 1-2 (1995): 83–101. http://dx.doi.org/10.1163/157181995x00059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
AbstractLa diffusion dans toute l'Europe du notariat public, d'origine italienne, se situe bien avant la fin du 13e siècle. Aux Pays-Bas, pays de droit coutumier, l'introduction de cette "nouvelle" institution est facilitée par la réception des droits savants et, avant tout, par l'organisation de la justice et de l'administration ecclésiastiques. Par la suite, le notariat public y est considéré, essentiellement et à juste titre d'ailleurs, comme une institution ecclésiastique. Vers 1500 cependant, les premiers signes d'un changement apparaissent. Le notariat y subit une laïcisation et une sécularisation graduelles, tant sur le plan personnel que sur celui de la compétence. En même temps, une professionalisation se manifeste: la fonction notariale évolue d'une profession secondaire et annexe à une profession libérale à temps plein. Toutefois, le notariat n'est nullement exempt de défauts: la prolifération du droit de nomination résulte en un nombre de notaires considéré comme trop élévé. Un manque de compétence professionnelle et de sentiment du devoir, des tricheries et avidité sont cités comme les abus les plus répandus. Les autorités centrales et locales se voient dans l'obligation d'intervenir. Pour le pouvoir central, il s'agit de prendre en main le contróle du notariat dans le cadre de l'unification du droit et des institutions; pour le pouvoir local, il s'agit de sauvegarder ses privilèges et de défendre ses compétences par la propagation de ses propres moyens d'authentification. Au 16e siècle, la politique princière n'envisage jamais une réforme globale du notariat. Des réformes partielles se dessinent dans deux édits, pourtant fondamentaux, de Charles Quint. L'ordonnance du 7 octobre 1531 introduit l'obligation pour tous les notaires d'obtenir une admission soit du Conseil Privé soit de l'un des conseils de justice provinciaux, pour l'exercice de l'office. L'édit du 4 octobre 1540 ordonne, entre autres, de tenir registre de tous les actes. La politique du magistrat anversois est à la fois défensive et offensive. Par deux stratégies convergentes, il tente d'atteindre son but: 1) la limitation des activités notariales par une interprétation restrictive de la compétence "canonique" ou médiévale des notaires (testaments, codicilles, contracts de mariage) et 2) par le renforcement de la surveillance urbaine des notaires, de l'exercice de la profession et de la conservation des protocoles. Les archives anversoises contiennent des exemples typiques de favoritisme de la part du magistrat envers les propres bureaux d'écriture. Les secrétaires et leurs clercs, les "stoelklerken", sont exhortés à plusieures reprises de propager la secrétairerie et de s'abstenir autant que possible de l'exercice du notariat. Cette politique trouve son apogée en 1565 dans le projet d'une ordonnance municipale, interdisant aux notaires de rédiger la plupart des contrats commerciaux. Malgré les protestations multiples, tant des notaires résidants auprès de la Bourse anversoise, qui font appel au Conseil de Brabant, que des nations commerciales, qui dirigent une requête fervente au magistrat, l'ordonnance est proclamée le 27 mars 1565 et réitérée le 8 mai 1576. Néanmoins, l'on peut se demander si les notaires et leurs clients se sont vraiment et complètement conformés aux règlements de l'autorité urbaine. Or, l'ordonnance de 1565 prévoit également la registration obligatoire des diplómes de création et d'admission des notaires par les secrétaires de la ville, ainsi que la déposition à la secrétairerie des protocoles des notaires défunts. Après la promulgation renouvelée de 1576, ces mesures sont reprises dans la codification des coutumes anversoises, imprimées une première fois en 1582. Le 24 janvier 1582, le magistrat (calviniste) d'Anvers, ordonne de dresser une liste compréhensive des notaires résidants dans la ville. Entre le 26 janvier et le 8 février, pas moins de 81 notaires sont enregistrés! Le 13 juin 1582, enfin. le magistrat tente d'assujettir complèment le notariat par l'introduction d'un droit municipal d'admission. La liste des notaires comporte finalement 105 noms. Pourtant, il n'est pas encore question d'une épuration ni d'une réduction du nombre. La reconquête d'Anvers par les Espagnols en août 1585 met fin aux aspirations du magistrat. L'autorité urbaine perd sa qualité d'instance de contróle. Elle ne retient ni le droit d'admission ni de présentation; même la registration des notaires semble avoir été abandonnée. C'est gráce à l'initiative du chancelier de Brabant que le nombre des notaires anversois est reduit à des proportions plus modestes: en décembre 1585, la ville ne compte que 39 notaires entre ses murs.
16

Passet, Olivier. "Le Japon : les doutes d'un créancier." Revue de l'OFCE 54, no. 3 (September 1, 1995): 5–55. http://dx.doi.org/10.3917/reof.p1995.54n1.0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé La dégradation de l'activité industrielle depuis le mois d'avril, souligne la fragilité de la reprise japonaise. Ce mouvement ne fait que confirmer les doutes que l'on pouvait avoir sur les moteurs de la croissance. Il accompagne le repli de la politique de soutien à l'activité menée par le gouvernement depuis la fin de l'année der- nière. Ce dernier, ayant misé trop tôt sur la dynamique autonome de la demande privée, doit donc se résoudre à de nouvelles interventions. C'est moins la perte de compétitivité des entreprises nippones qui constitue à court terme le principal obstacle à la croissance, que l'effort déployé par ces dernières pour contenir leurs coûts unitaires. Leur rapide adaptation à la parité du yen a pesé en dernier ressort sur le revenu des ménages, qui voient, au gré des aléas du marché des changes, varier la partie la plus instable de leurs revenus, que sont les primes et la rémunération des heures supplémentaires. Simultanément les hausses négociées de salaire s'érodent d'année en année. Ceci explique en partie la prudence des comportements d'épargne des ménages. La vitalité de la demande de biens durables, qui constituait un des éléments les plus prometteurs et solides de la reprise, apparaît se substituer à d'autres achats, en raison de le baisse des prix relatifs de ce type de biens. Ce que l'on appelle au Japon le « Kakaku Hakai », phénomène de « destruction des prix » (qui touche particulièrement les biens durables et l'habillement), lié à l'ouverture du système de distribution et à la hausse du yen, a pu fausser la perception de la reprise. On peut douter, de plus, de la capacité du secteur privé à prendre la relève de l'Etat, dans le contexte actuel de délabrement des bilans des organismes financiers. Compte tenu du poids des mauvaises créances, un risque de crise systémique pèse sur le système de financement nippon, dont /'epicentre se situe au niveau des intermédiaires non bancaires, spécialisés dans le financement de l'immobilier. On pouvait croire jusque là que le premier créancier du monde pouvait compter sur ses réserves pour sortir son écono- mie de l'impasse. Mais ce matelas de créances, en se dépréciant, se transforme en fardeau : le Japon réalise tardivement qu'il a prêté au dessus de ses moyens et hésite aujourd'hui à liquider un actif déprécié. Cet attentisme participe à la faiblesse de l'activité et exacerbe un peu plus le problème des créances douteuses. Mais la crise que traverse aujourd'hui le Japon dépasse les conséquences de /'après bulle et de la hausse du yen. Cette dernière est d'ailleurs probablement partiellement réversible. On trouve difficilement les fondamentaux qui justifieraient le niveau actuel de parité de la devise nippone. L'internationalisation du yen est bien trop lente pour justifier une déviation d'une telle ampleur de la monnaie par rapport à sa parité de pouvoir d'achat, au cours des dernières années. Son niveau actuel serait plutôt un handicap à la diffusion du yen comme monnaie de réserve et de facturation, tant il accroît le risque de change. Il semble davantage lié aux arbitrages qu'opèrent les banques nippones en faveur du yen, compte tenu de la dégradation de leurs bilans et de leur volonté de diminuer les risques. Si l'on admet que l'appréciation du yen n'a pas d'autre fondement structurel, il faut alors envisager les consé- quences qu'engendrerait la mise en jeu de forces de rappel. Le ralentissement du potentiel de croissance nippon s'inscrit dans le long terme. Après une phase de rattrapage de productivité, l'économie japonaise devra composer dorénavant avec un sentier de croissance de moyen et long terme proche des performances moyennes de l'OCDE. Elle peut s'en écarter un temps, grâce à la dynamique régionale, par le truchement de l'investissement direct. Mais ce jeu n'a qu'un temps, compte tenu de la perméabilité croissante de son marché intérieur (liée à la rationalisation et à la déréglementation de son système de distribution), et du processus de rattrapage et d'auto- nomie grandissante de ses voisins asiatiques. La surévaluation de la devise nippone a surtout rompu la cohérence de la politique de délocalisation. Le risque le plus sensible à long terme, est celui d'un boomerang asiatique, lié à une délocalisation désordonnée des activités intermédiaires, guidée par l'urgence, et d'une diffusion incontrôlée du progrès technique.
17

Oyedum, U. M., F. A. Kuta, S. A. Garba, and S. O. Enejiyon. "Comparative analysis of the phytochemical and antibacterial activity of the root extracts of Euphorbia heterophylla and Vitellaria paradoxa." African Journal of Clinical and Experimental Microbiology 22, no. 4 (September 27, 2021): 504–14. http://dx.doi.org/10.4314/ajcem.v22i4.11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Background: Over time, herbal plants and their various components have been major sources of therapeutic medicine for man. A comparative study was carried out to determine the phytochemical components and antibacterial activities of the different crude extracts of Euphorbia heterophylla and Vitellaria paradoxa roots on four enteric bacteria; Salmonella typhi, Shigella flexneri, Escherichia coli and Proteus vulgaris.Methodology: Root samples of E. heterophylla and V. paradoxa were collected, washed, air dried and processed to fine powder in the microbiology laboratory of Federal University of Technology, Minna, Nigeria. Crude extract of the root samples was done by the cold maceration technique using four solvents (chloroform, methanol, petroleum ether and water). Phytochemical analysis of the extracts was done using previously described technique, and in vitro antibacterial activities of different concentrations of the extracts (50-200 mg/ml) and a standard antibiotic (ciprofloxacin) were tested on four enteric bacteria (S. typhi, S. flexneri, E. coli, P. vulgaris) by the agar diffusion test. In vivo antibacterial activities of the two plants were also tested by daily oral administration of 2000 mg/kg bodyweight (for 7 days) of each extract on inbred mice infected through intraperitoneal inoculation of an infective dose of each of the four enteric bacteria. Data were computed as mean ± standard error and analysed by the Statistical Analysis System (SAS) version 9.4. Associations between variables were determined using analysis of variance (ANOVA), with p < 0.05 considered as significant value.Results: Phytochemical analysis of the crude extracts of both plants revealed the presence of cardiac glycosides, saponins, alkaloids, flavonoids, and tannins but V. paradoxa contain more carbohydrates and starch, and less phlobatannins, compared to E. heterophylla. In vitro assay showed dose-dependent antibacterial activity of the methanol, aqueous and chloroform (but not petroleum ether) extracts of the two plant roots. The in vitro antibacterial activities of the different extracts of V. paradoxica extracts were significantly higher (higher mean diameters of inhibition zones) than those of E. heterophylla (p<0.05), and methanol extracts gave the highest antibacterial effects. However, the root extract of E. heterophylla gave a higher antibacterial activity with the in vivo assay on inbred mice than V. paradoxa, and methanol extracts of the two plant extracts gave the highest in vivo activity, followed by aqueous extract and least activity was obtained with the chloroform extract.Conclusion: Crude extracts of E. heterophylla and V. paradoxa roots produce antibacterial activity against enteric Gram-negative bacteria pathogens involved in diarrhoea illnesses. Further researches should be directed towards isolation and characterization of the active compounds in the crude extracts. French title: Analyse comparative de l'activité phytochimique et antibactérienne des extraits de racines d'Euphorbia heterophylla et de Vitellaria paradoxa Contexte: Au fil du temps, les plantes médicinales et leurs divers composants ont été une source majeure de médecine thérapeutique pour l'homme. Une étude comparative a été réalisée pour déterminer les composants phytochimiques et les activités antibactériennes des différents extraits bruts de racines d'Euphorbia heterophylla et de Vitellaria paradoxa sur quatre bactéries entériques; Salmonella typhi, Shigella flexneri, Escherichia coli et Proteus vulgaris. Méthodologie: Des échantillons de racines d'E. heterophylla et de V. paradoxa ont été collectés, lavés, séchés à l'air et transformés en poudre fine dans le laboratoire de microbiologie de l'Université fédérale de technologie, Minna, Nigéria. L'extraction brute des échantillons de racines a été réalisée par la technique de macération à froid en utilisant quatre solvants (chloroforme, méthanol, éther de pétrole et eau). L'analyse phytochimique des extraits a été effectuée en utilisant la technique décrite précédemment, et les activités antibactériennes in vitro de différentes concentrations des extraits (50-200 mg/ml) et d'un antibiotique standard (ciprofloxacine) ont été testées sur quatre bactéries entériques (S. typhi, S. flexneri, E. coli, P. vulgaris) par le test de diffusion sur gélose. Les activités antibactériennes in vivo des deux plantes ont également été testées par administration orale quotidienne de 2000 mg/kg de poids corporel (pendant 7 jours) de chaque extrait sur des souris consanguines infectées par inoculation intrapéritonéale d'une dose infectieuse de chacune des quatre bactéries entériques. Les données ont été calculées en tant que moyenne ± erreur standard et analysées par le système d'analyse statistique (SAS) version 9.4. Les associations entre les variables ont été déterminées à l'aide d'une analyse de variance (ANOVA), avec p < 0,05 considéré comme une valeur significative. Résultats: L'analyse phytochimique des extraits bruts des deux plantes a révélé la présence de glycosides cardiaques, de saponines, d'alcaloïdes, de flavonoïdes et de tanins mais V. paradoxa contient plus de glucides et d'amidon, et moins de phlobatannins, par rapport à E. heterophylla. Un essai in vitro a montré une activité antibactérienne dose-dépendante des extraits au méthanol, aqueux et au chloroforme (mais pas à l'éther de pétrole) des deux racines des plantes. Les activités antibactériennes in vitro des différents extraits d'extraits de V. paradoxica étaient significativement plus élevées (diamètres moyens des zones d'inhibition plus élevés) que celles d'E. heterophylla (p<0,05), et les extraits au méthanol ont donné les effets antibactériens les plus élevés. Cependant, l'extrait de racine d'E. heterophylla a donné une activité antibactérienne plus élevée avec le test in vivo sur des souris consanguines que V. paradoxa, et les extraits au méthanol des deux extraits de plantes ont donné l'activité in vivo la plus élevée, suivie par l'extrait aqueux et l'activité la plus faible a été obtenu avec l'extrait chloroformique. Conclusion: Des extraits bruts de racines d'E. heterophylla et de V. paradoxa produisent une activité antibactérienne contre les bactéries pathogènes entériques à Gram négatif impliquées dans les maladies diarrhéiques. D'autres recherches devraient être dirigées vers l'isolement et la caractérisation des composés actifs dans les extraits bruts.
18

Mondoloni, Emilie. "Les séries télévisées à destination des publics préscolaires : un méta-genre télévisuel spécifique." Recherches en Communication 34 (February 22, 2012). http://dx.doi.org/10.14428/rec.v34i34.51993.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les séries télévisées à destination de la jeunesse et à fortiori à destination des publics préscolaires se sont récemment multipliées selon des formes et des contenus spécifiques. Le public des enfants âgés de trois à six ans est visé par une programmation ciblée ou non par les chaînes de télévision généralistes (TF1, France 5 et M6) et thématiques (Piwi, Playhouse Disney, Tiji et Cap canal) qui assurent la diffusion de ces séries télévisées spécifiques. Une étude fondée d'une part sur l'analyse des grilles de programmation de deux chaînes généralistes (TF1 et France 5) et des chaînes thématiques citées précédemment, et d'autre part sur l'analyse d'un corpus de trois séries télévisuelles (Dora l'exploratrice, Oui-oui au pays des jouets et Jasper le pingouin), permet de mettre en évidence un méta-genre audiovisuel spécifique préscolaire. Dans un premier temps, l'analyse des grilles de programmation permet d'établir des caractéristiques récurrentes des séries télévisées préscolaires : formats et procédés de production. Dans un deuxième temps, l'analyse des séries télévisées montre la présence de plusieurs invariants dans celles-ci. Aussi à partir de ces deux analyses, nous proposons une définition sémio-pragmatique du méta-genre préscolaire, désignant en cela les spécificités de celui-ci. Cette définition se décline à partir d'invariants observés dans les séries télévisées (relation temporelle du programme au monde, mode discursif et représentations des relations humaines et sociales), de critères de forme (formats et procédés de production) et un critère issu de la filière audiovisuelle (objectifs du contenu).
19

Diasio, Nicoletta. "Généalogie des savoirs anthropologies." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dès 1941 Ernesto De Martino appelait à un historicisme radical qui arrache les populations étudiées par les ethnologues à une condition de réification qui en faisait « une humanité fortuite, un monstrueux commérage de l’histoire humaine, dont l’étrangeté minutieusement chiffrée n’arrivait pas à en corriger la futilité » (1961 :19). Son approche dénonçait la contradiction latente d’une science qui se définit « humaine » dans son objet, mais aux méthodes prétendument naturalistes et cautionnant souvent des enjeux de pouvoir. C'est au contraire par la reconnaissance d'une commune historicité que les populations, et les savoirs qu'ils produisent, peuvent se penser ensemble, les unes par rapport aux autres (Gadamer 1963). Le dialogue entre historiens et anthropologues a permis d’ouvrir la comparaison aux différentes manières dont les sociétés humaines ont procédé pour inventer et reformuler la tradition, fabriquer des modèles du passé, figurer le changement et se penser dans le présent (Detienne 2000). Toutefois, comme le critiquait déjà Stocking en 1965, l’histoire de l’anthropologie a souvent eu du mal à penser le passé comme autre chose que le présent et à reconnaître aux populations ‘autres’ leur historicité. Une reconnaissance pleine des anthropologies périphériques passe alors par l'étude des généalogies plurielles de ces savoirs élaborés par ceux qui ont longtemps été envisagés comme des objets de connaissance ethnologique. Cette analyse est d'autant plus nécessaire qu'une des manières de nier à ces « autres » la légitimité à produire du savoir, a été celle de les encapsuler dans un éternel présent et de leur nier le labeur de l'histoire et les dynamiques de transformation. Dans la constitution des anthropologies hégémoniques, la mise à distance spatiale et temporelle a joué un rôle fondamental dans la construction de l'altérité. Mais si la spatialisation de la différence a fait l'objet de critiques sévères, l'attribution aux populations étudiées d'un temps différent n'a été remise en question que plus tardivement. Cette « allochronie » (Fabian 1983) relève de différents procédés : un rejet des autres peuples en-dehors de notre temps, un déni de la co-temporalité unissant l'anthropologue et son interlocuteur, qui biffe la dimension intersubjective du terrain, la primauté de l'observation visuelle et de la représentation qui fige l'expérience ethnologique dans un fictif ici-et-maintenant. La soustraction de la durée agit aussi bien dans la construction des objets d'étude, que dans le silence qui entoure la production anthropologiques des peuples ethnologisés. Une anthropologie non hégémonique devrait pallier à ce défaut d'historicité par une archéologie des savoirs produits par ceux qui ont fait l'objet même d'une altérisation. Comment la réflexion sur l'altérité a-t-elle été produite ailleurs que dans les anthropologies dites hégémoniques? Qu'est-ce que ce déni de l'histoire a entraîné dans la production anthropologique de ceux qui en ont été les premiers objets ? Il s'agit d'analyser « comment se sont formées, au travers, en dépit ou avec l'appui des systèmes de contrainte, des séries de discours; quelle a été la norme spécifique de chacune, et quelles ont été leurs conditions d'apparition, de croissance, de variation » (Foucault, 1971: 62-63). Une telle généalogie permettrait de reconstruire les procédures internes de production, de sélection, de classification, de légitimation, de validation des discours anthropologiques, et celles externes de mise en œuvre de ces savoirs, de leur circulation, ainsi que des modes d'appropriation, d'usage et de transmission. Ces deux types de procédures sont à analyser autant dans l'élaboration théorique, que dans l'épaisseur des pratiques: systèmes de l'édition, structures de formation, laboratoires de recherche, supports et circuits de diffusion de l'information. Ces histoires sont elles-mêmes segmentaires, plurielles, discontinues, traversées par des controverses et des tensions. Leur reconstruction permettrait de restituer la diversité interne de ces savoirs locaux, en montrant comment la place de l'anthropologie, son projet, ses cadres théoriques changent selon les histoires locales, les institutions, des rapports mobiles de pouvoir (Diasio 1999). Elles permettraient de montrer les jeux d'influence, de circulation et d'emprunt, qui souvent bousculent l'apparente hiérarchie entre savoirs hégémoniques et savoirs dits périphériques, comme le montre un numéro de la revue Deshima consacré au structuralisme néerlandais. Cela implique également de relever comment l'anthropologie se situe à la croisée de disciplines différentes et que leur configuration spécifique donne lieu à des modes spécifiques de construire et appréhender l'altérité ( → centre-périphérie). Ces savoirs, d'ailleurs, ne sont pas forcément appelés « anthropologie », mais peuvent relever de préoccupations et de méthodes qui ne sont pas moins « anthropologiques ». Comme l’affirme Bachelard, « toute connaissance, prise au moment de sa constitution est une connaissance polémique » (1950: 14). L'histoire des processus formatifs de l'anthropologie est enfin à explorer en lien avec les pratiques de recherche. Comment devient-on anthropologue? Et quels sont les sujets d'études, les méthodologies, les postures épistémologiques acceptées selon les contextes institutionnels et les systèmes disciplinaires ? Déconstruire les mécanismes de production des anthropologues et des anthropologies permet alors une opération de décentrement, qui ne peut que revitaliser la discipline. Enfin, si l’histoire et le temps prennent depuis 1989 une ampleur inédite, l’étude des anthropologies non-hégémoniques nous permettrait d’interroger plus largement les régimes d’historicité des sociétés en mutation et de questionner ce que Hartog a défini « le présentisme » : un temps désorienté entre un passé qui se dérobe et un futur incertain, ce qui amène à « l’expérience d’un présent perpétuel, insaisissable et quasiment immobile, cherchant malgré tout à produire par lui-même un temps historique » (2003 : 28). La mise en perspective des savoirs anthropologiques et de leurs généalogies, constitue une entrée pour penser la manière dont sont construits concomitamment altérité culturelle et rapports au temps (Lenclud 2010).
20

Belleflamme, Paul, and Xavier Wauthy. "Numéro 100 - décembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14903.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous publions le 100ème numéro de Regards économiques en ce 12/12/12, jour de fin du monde pour certains, jour marquant l'anniversaire d'une belle aventure entamée voici déjà 10 ans pour d'autres ! En effet, c'est en 2002, à l'initiative de l'IRES, que la revue des économistes de l'UCL a vu le jour avec pour objectif de publier 6 à 8 numéros par an. Avec une moyenne de 10 numéros chaque année, nous sommes bien au-delà de nos espérances ! De quelques centaines d'abonnés en 2002, on est passé en 2012 à plus de 6.000 abonnés qui sont informés de la sortie d'un nouveau numéro. Regards économiques, c'est aussi 111 auteurs différents qui ont tenté de montrer, dans un style qui se veut délibérément pédagogique et non technique, la diversité des regards que les économistes peuvent porter sur des questions socio-économiques importantes. Enfin, les numéros de Regards économiques ont suscité l'intérêt des journalistes puisqu'on compte près de 300 articles dans les principaux organes de presse belges. 10 ans de contenus riches... mais pourtant gratuits, voilà ce qui a inspiré Paul Belleflamme (UCL) et Xavier Wauthy (FUSL), les auteurs du numéro anniversaire de Regards économiques. Dans leur article intitulé «Economie des contenus numériques : bientôt la fin du gratuit ?», ils nous livrent leur réflexion sur les questions que soulève à long terme la gratuité dans le monde numérique. Face à des contenus surabondants parce que gratuits, ils préconisent toute initiative permettant aux utilisateurs «saturés» de contenus de trier et/ou de prioritiser l'information, quitte à rendre ces services payants. On vous rassure d'emblée : Regards économiques reste gratuit et renforce en sus son offre de services grâce à ce tout nouveau site web spécialement conçu pour faciliter l'accès aux articles de la revue. Et cerise sur le gâteau, le site web s'enrichit d'un nouveau type d'articles, le «focus», qui donne, avec un regard vif mais toujours aussi rigoureux, un point de vue concis sur des événements de l'actualité. A l'occasion de la sortie du nouveau site web de Regards économiques, nous publions, sur ce site, trois premiers focus. Economie des contenus numériques : bientôt la fin du gratuit ? Cela fait plusieurs années que la presse écrite traverse des temps difficiles. Ainsi, le groupe Rossel vient d'annoncer un plan d'économies à hauteur de 10 millions d'euros. Même si les licenciements secs devraient être évités, le personnel sera inévitablement réduit (on parle, notamment, d'une réduction de 34 équivalents temps plein au Soir). En cause, essentiellement, la réduction des revenus publicitaires due au ralentissement de l'activité économique. La presse écrite doit également faire face aux changements dans les habitudes de consommation de l'information qu'entraîne l'usage de l'internet mobile et des réseaux sociaux. Ainsi, une étude récente du Pew Research Center (think-tank américain) menée aux Etats-Unis montre que de 2010 à 2011, près de deux fois plus d'utilisateurs ont obtenu de l'information via un appareil mobile et près de trois fois plus via les réseaux sociaux; ces chiffres sont encore plus élevés pour la population jeune. C'est sans doute ce qui a motivé le magazine d'actualité hebdomadaire Newsweek à abandonner son édition papier (vieille de 80 ans) au profit d'un format entièrement numérique. Mais les défis à relever dans un monde digital où les contenus sont dématérialisés sont au moins aussi importants que dans un monde analogique où ils sont couchés sur papier. Et ceci est vrai pour la presse comme pour tout autre producteur de contenu. Aujourd'hui, n'importe quel contenu se résume en effet à une suite de 0 et de 1, que l'on peut transmettre de manière indistincte sur le réseau à destination de n'importe quel utilisateur doté d'un réceptacle quasi universel. La diffusion de l'information a donc changé radicalement de nature : elle n'est plus incarnée dans un support (un livre, un journal, etc.) mais transmise comme un flux à destination d'un support d'interprétation (une tablette numérique, par exemple). Une conséquence de cette évolution est que la consommation de contenus a peu à peu été perçue comme gratuite par nombres d'utilisateurs. L'objectif du centième numéro de Regards Economiques est de revisiter les questions que pose à long terme la gratuité dans le monde digital. La consommation gratuite des contenus numériques pourrait en effet receler en elle-même les ferments de sa disparition. Dans ce numéro, nous identifions et discutons trois problèmes majeurs : L'extinction de certains contenus. Faute de trouver les moyens de couvrir les coûts de production, certains contenus pourraient ne plus être produits et, en disparaissant, menacer la «media-diversité». La saturation de notre attention. Il faut de plus en plus de temps et d'énergie pour identifier, parmi des contenus surabondants parce que gratuits, ceux qui nous sont les plus pertinents et pour en disposer au moment opportun. Traiter individuellement le flot d'information pourrait représenter un coût à terme prohibitif. Des embouteillages informationnels. Confrontées à une explosion des flux numériques, les capacités de transmission pourraient être engorgées, ré-instaurant de facto une forme de rareté dans l'accessibilité des contenus, ou de certains d'entre eux. Le développement d'offres de contenus légales, et payantes soit pour l'utilisateur (Deezer) ou pour la plateforme qui diffuse (YouTube) offre des perspectives de solution pour le premier problème. La où la diffusion de l'information est devenue non coûteuse, des modèles d'affaires commencent à se développer autour de la monétisation d'une consommation triée, partagée, temporalisée en fonction des besoins de chaque utilisateur (par exemple, Apple a introduit une fonction «A lire plus tard» dans la dernière version de son navigateur Safari). Enfin, la gestion des embouteillages informationnels renvoie évidemment à la neutralité supposée du net et à sa pérennité.
21

Belleflamme, Paul, and Xavier Wauthy. "Numéro 100 - décembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2012.12.01.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous publions le 100ème numéro de Regards économiques en ce 12/12/12, jour de fin du monde pour certains, jour marquant l'anniversaire d'une belle aventure entamée voici déjà 10 ans pour d'autres ! En effet, c'est en 2002, à l'initiative de l'IRES, que la revue des économistes de l'UCL a vu le jour avec pour objectif de publier 6 à 8 numéros par an. Avec une moyenne de 10 numéros chaque année, nous sommes bien au-delà de nos espérances ! De quelques centaines d'abonnés en 2002, on est passé en 2012 à plus de 6.000 abonnés qui sont informés de la sortie d'un nouveau numéro. Regards économiques, c'est aussi 111 auteurs différents qui ont tenté de montrer, dans un style qui se veut délibérément pédagogique et non technique, la diversité des regards que les économistes peuvent porter sur des questions socio-économiques importantes. Enfin, les numéros de Regards économiques ont suscité l'intérêt des journalistes puisqu'on compte près de 300 articles dans les principaux organes de presse belges. 10 ans de contenus riches... mais pourtant gratuits, voilà ce qui a inspiré Paul Belleflamme (UCL) et Xavier Wauthy (FUSL), les auteurs du numéro anniversaire de Regards économiques. Dans leur article intitulé «Economie des contenus numériques : bientôt la fin du gratuit ?», ils nous livrent leur réflexion sur les questions que soulève à long terme la gratuité dans le monde numérique. Face à des contenus surabondants parce que gratuits, ils préconisent toute initiative permettant aux utilisateurs «saturés» de contenus de trier et/ou de prioritiser l'information, quitte à rendre ces services payants. On vous rassure d'emblée : Regards économiques reste gratuit et renforce en sus son offre de services grâce à ce tout nouveau site web spécialement conçu pour faciliter l'accès aux articles de la revue. Et cerise sur le gâteau, le site web s'enrichit d'un nouveau type d'articles, le «focus», qui donne, avec un regard vif mais toujours aussi rigoureux, un point de vue concis sur des événements de l'actualité. A l'occasion de la sortie du nouveau site web de Regards économiques, nous publions, sur ce site, trois premiers focus. Economie des contenus numériques : bientôt la fin du gratuit ? Cela fait plusieurs années que la presse écrite traverse des temps difficiles. Ainsi, le groupe Rossel vient d'annoncer un plan d'économies à hauteur de 10 millions d'euros. Même si les licenciements secs devraient être évités, le personnel sera inévitablement réduit (on parle, notamment, d'une réduction de 34 équivalents temps plein au Soir). En cause, essentiellement, la réduction des revenus publicitaires due au ralentissement de l'activité économique. La presse écrite doit également faire face aux changements dans les habitudes de consommation de l'information qu'entraîne l'usage de l'internet mobile et des réseaux sociaux. Ainsi, une étude récente du Pew Research Center (think-tank américain) menée aux Etats-Unis montre que de 2010 à 2011, près de deux fois plus d'utilisateurs ont obtenu de l'information via un appareil mobile et près de trois fois plus via les réseaux sociaux; ces chiffres sont encore plus élevés pour la population jeune. C'est sans doute ce qui a motivé le magazine d'actualité hebdomadaire Newsweek à abandonner son édition papier (vieille de 80 ans) au profit d'un format entièrement numérique. Mais les défis à relever dans un monde digital où les contenus sont dématérialisés sont au moins aussi importants que dans un monde analogique où ils sont couchés sur papier. Et ceci est vrai pour la presse comme pour tout autre producteur de contenu. Aujourd'hui, n'importe quel contenu se résume en effet à une suite de 0 et de 1, que l'on peut transmettre de manière indistincte sur le réseau à destination de n'importe quel utilisateur doté d'un réceptacle quasi universel. La diffusion de l'information a donc changé radicalement de nature : elle n'est plus incarnée dans un support (un livre, un journal, etc.) mais transmise comme un flux à destination d'un support d'interprétation (une tablette numérique, par exemple). Une conséquence de cette évolution est que la consommation de contenus a peu à peu été perçue comme gratuite par nombres d'utilisateurs. L'objectif du centième numéro de Regards Economiques est de revisiter les questions que pose à long terme la gratuité dans le monde digital. La consommation gratuite des contenus numériques pourrait en effet receler en elle-même les ferments de sa disparition. Dans ce numéro, nous identifions et discutons trois problèmes majeurs : L'extinction de certains contenus. Faute de trouver les moyens de couvrir les coûts de production, certains contenus pourraient ne plus être produits et, en disparaissant, menacer la «media-diversité». La saturation de notre attention. Il faut de plus en plus de temps et d'énergie pour identifier, parmi des contenus surabondants parce que gratuits, ceux qui nous sont les plus pertinents et pour en disposer au moment opportun. Traiter individuellement le flot d'information pourrait représenter un coût à terme prohibitif. Des embouteillages informationnels. Confrontées à une explosion des flux numériques, les capacités de transmission pourraient être engorgées, ré-instaurant de facto une forme de rareté dans l'accessibilité des contenus, ou de certains d'entre eux. Le développement d'offres de contenus légales, et payantes soit pour l'utilisateur (Deezer) ou pour la plateforme qui diffuse (YouTube) offre des perspectives de solution pour le premier problème. La où la diffusion de l'information est devenue non coûteuse, des modèles d'affaires commencent à se développer autour de la monétisation d'une consommation triée, partagée, temporalisée en fonction des besoins de chaque utilisateur (par exemple, Apple a introduit une fonction «A lire plus tard» dans la dernière version de son navigateur Safari). Enfin, la gestion des embouteillages informationnels renvoie évidemment à la neutralité supposée du net et à sa pérennité.
22

Dorval, Vincent, Nicolas Leymarie, Alexandre Imperiale, Edouard Demaldent, Zakaria Aghenzour, and Pierre-Emile Lhuillier. "Simulations numériques à l'échelle de microstructures hétérogènes pour déterminer des propriétés effectives de propagation ultrasonore." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28514.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes basées sur les rayons permettent de simuler rapidement la propagation d’ondes ultrasonores sur de grandes distances. Elles peuvent être couplées à des modèles de diffraction pour produire des simulations complètes des contrôles ultrasonores mais ne tiennent pas compte des interactions complexes qui se produisent dans des milieux fortement hétérogènes. Or, ces dernières peuvent avoir un impact significatif sur les performances d'inspection. Par comparaison, les simulations par Eléments Finis (EF) à l'échelle de la microstructure tiennent compte de ces interactions mais requièrent des temps de calcul si importants qu’elles sont retreintes à des Volumes Elémentaires Représentatifs (VER) en trois dimensions. Le travail présenté dans cette communication vise à combiner les avantages de ces deux approches. D'une part, des simulations EF réalisées sur des VER de la microstructure sont utilisées pour déterminer les paramètres macroscopiques effectifs tels que les vitesses, les atténuations et les coefficients de diffusion. D'autre part, un modèle basé sur les rayons exploite ces données pour simuler l’inspection ultrasonore visée où les ondes se propagent sur des distances importantes par rapport aux longueurs d'onde et à la taille caractéristique de la microstructure. Un module de simulation dédié a été implémenté dans une version de développement du logiciel CIVA. Il génère des réalisations aléatoires de microstructures pour un ensemble donné de paramètres, pilote des calculs par éléments finis, et post-traite leurs résultats pour obtenir des estimations des propriétés du milieu effectif macroscopique. Les volumes considérés par le modèle éléments finis sont suffisamment petits pour permettre des calculs rapides en trois dimensions, de l’ordre de quelques minutes. Des résultats ont été obtenus pour différents types de microstructures, décrivant des métaux et des bétons. En particulier, cette communication se concentre sur des applications à l’acier qui ont fait l'objet d'études collaboratives entre le CEA et EDF. Cette approche s’avère prometteuse pour combiner la modélisation à l'échelle de la microstructure et les simulations à plus grande échelle.
23

Tchembe, Martin Xavier, and Maurice Tchoupe Tchendji. "Building a publish/subscribe information dissemination platform for hybrid mobile ad-hoc social networks over android devices." Revue Africaine de Recherche en Informatique et Mathématiques Appliquées Volume 36 - Special issue CRI... (June 4, 2023). http://dx.doi.org/10.46298/arima.9136.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Soumission à Episciences Mobile ad-hoc social networks (MASNs) have been the subject of several research studies over the past two decades. They allow stations located in a small geographical area to be connected without the need for a network infrastructure and offer them the possibility to communicate any time anywhere. To communicate, stations regularly broadcast their interests in the form of keywords. Stations with a high degree of similarity among their keywords can communicate with each other. However, the coverage of MASNs is limited to a small geographical area, due to the limited communication range of mobile ad-hoc networks (MANET) stations. In this paper, we present an architecture and implementation of hybrid mobile ad-hoc social networks (MASNs coupled to infrastructure networks) of Android mobile devices for information dissemination. Stations can use the infrastructure network to communicate and rely on the mobile ad-hoc network when the infrastructure is not available.Rather than communicating synchronously as this is the case in the similar works found in the literature, in our approach, the stations communicate using a publish/subscribe communication protocol, which is perfectly suited to this type of network thanks to the decoupling in time and space it provides. Les réseaux sociaux mobiles ad hoc (MASN) ont fait l'objet de plusieurs recherches au cours des deux dernières décennies. Ils permettent à des stations situées dans une petite zone géographique d'être connectées sans avoir besoin d'une infrastructure de réseau et leur offrent la possibilité de communiquer à tout moment et en tout lieu. Pour communiquer, les stations diffusent régulièrement leurs centres d'intérêt sous forme de mots-clés. Les stations dont les mots-clés présentent un degré élevé de similitude peuvent communiquer entre elles. Cependant, la couverture des réseaux MASN est limitée à une petite zone géographique, en raison de la portée de communication limitée des stations des réseaux mobiles ad hoc (MANET). Dans cet article, nous présentons une architecture et une mise en œuvre de réseaux sociaux mobiles ad hoc hybrides (MASN couplés à des réseaux d'infrastructure) d'appareils mobiles Android pour la diffusion d'informations. Les stations peuvent utiliser le réseau d'infrastructure pour communiquer et s'appuyer sur le réseau mobile ad hoc lorsque l'infrastructure n'est pas disponible.Plutôt que de communiquer de manière synchrone comme c'est le cas dans les travaux similaires trouvés dans la littérature, dans notre approche, les stations communiquent en utilisant un protocole de communication de type publication/abonnement, qui est parfaitement adapté à ce type de réseau grâce au découplage dans le temps et l'espace qu'il fournit.
24

Bodart, Vincent, and Raouf Boucekkine. "Numéro 3 - juin 2002." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16263.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin d'expliquer les performances exceptionnelles (croissance soutenue, faible niveau de chômage et de l’inflation, forte accélération de la productivité) de l’économie américaine durant la décennie passée, plusieurs économistes ont évoqué l'émergence d'une "Nouvelle Economie", faisant référence au développement fulgurant des nouvelles technologies de l'information et des communications (TIC). Les partisans de la "Nouvelle Economie" estiment en effet que ces nouvelles technologies ont modifié de façon profonde le fonctionnement de l'économie et que, à l’instar d'autres innovations technologiques importantes au début du siècle passé, elles sont le vecteur d’une nouvelle ère de croissance et de prospérité. Mais est-ce vraiment le cas ? Malgré de fort nombreux aménagements de la comptabilité nationale américaine visant à mieux tenir compte des effets de l’usage des TIC sur la croissance de la productivité, les dernières études statistiques publiées à la fin du premier trimestre 2002, dressent un tableau mitigé de la situation. En particulier, l’impact de l’usage des TIC sur la croissance de la productivité dans les services ayant le plus investi en TIC est parfois même négatif ! De quoi susciter de réelles interrogations sur les mesures effectuées mais aussi et surtout sur les vertus de l’informatisation. Sur la base de certains enseignements récents de la théorie économique, l'article de Regards Economiques revient sur cette dernière question pour tirer quelques conclusions utiles sur le cas d’un "petit" pays comme la Belgique ! A l’évidence, les nouvelles technologies ont créé de réelles opportunités, mais transformer ces opportunités en croissance économique soutenable et créatrice d’emplois nouveaux et stables n’est pas sans coût. La nécessité de réorganiser le travail pour accompagner l’informatisation n’est qu’un défi parmi d’autres pour en assurer le succès et la pérennité. De fait, une informatisation réussie repose au moins sur deux piliers fondamentaux : réorganisation du travail (vers plus d’autonomie notamment) et modernisation soutenue par un effort constant en R&D et/ou d’adoption maîtrisée des avances technologiques. Pour un "petit" pays comme la Belgique et vu le niveau actuel des ressources dévolues à la recherche comme en atteste le dernier rapport sur la R&D en Belgique, l’effort de modernisation ne consiste évidemment pas à lancer des plans de R&D à même de concurrencer Intel ou Microsoft mais à assurer une diffusion rapide des TIC et à développer les qualifications à même de faciliter cette diffusion. Les niveaux actuels de diffusion en Belgique sont de toute évidence trop faibles pour espérer un gain significatif et durable en terme de productivité ou de croissance de PIB et de l’emploi. Mais même si le niveau de diffusion est élevé, l’expérience américaine nous apprend que cela ne garantit pas à coup sûr une augmentation généralisée du taux de croissance de la productivité. Il semble de plus en plus avéré que l’investissement en TIC n’est décisif en termes de gains de productivité que s’il est accompagné d’un changement organisationnel vers plus d’autonomie et de polyvalence notamment. Un troisième pilier sur lequel doit reposer tout processus d’informatisation concerne le volet institutionnel. L’effondrement de très nombreuses start-ups américaines et européennes entre 2000 et 2002 (la dernière à déposer son bilan n’est pas des moindres : Napster) et le procès Microsoft sont autant d’indicateurs des problèmes institutionnels inhérents à la "Nouvelle Economie" et notamment à son volet commerce électronique. Le problème est bien connu : les start-ups vendent un bien particulier, l’information, qui s’avère très facile à copier alors même que sa production est en général coûteuse. Par ailleurs, l’utilisation d’Internet permet aux consommateurs de comparer les prix, ce qui tend à rogner considérablement les profits des entreprises. Mais en même temps, la valeur de nombreux biens d’information, comme par exemple les softwares, augmente avec le nombre d’utilisateurs (c’est la notion d’externalités de réseau), donnant lieu à des monopoles naturels. Dans cette configuration, le démantèlement des monopoles peut avoir des effets négatifs sur le bien-être des consommateurs, sans compter les effets désastreux que cela peut engendrer sur le financement de la R&D, aspect si essentiel dans la viabilité d’un régime de croissance tiré par les TIC.
25

Bodart, Vincent, and Raouf Boucekkine. "Numéro 3 - juin 2002." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2002.06.01.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin d'expliquer les performances exceptionnelles (croissance soutenue, faible niveau de chômage et de l’inflation, forte accélération de la productivité) de l’économie américaine durant la décennie passée, plusieurs économistes ont évoqué l'émergence d'une "Nouvelle Economie", faisant référence au développement fulgurant des nouvelles technologies de l'information et des communications (TIC). Les partisans de la "Nouvelle Economie" estiment en effet que ces nouvelles technologies ont modifié de façon profonde le fonctionnement de l'économie et que, à l’instar d'autres innovations technologiques importantes au début du siècle passé, elles sont le vecteur d’une nouvelle ère de croissance et de prospérité. Mais est-ce vraiment le cas ? Malgré de fort nombreux aménagements de la comptabilité nationale américaine visant à mieux tenir compte des effets de l’usage des TIC sur la croissance de la productivité, les dernières études statistiques publiées à la fin du premier trimestre 2002, dressent un tableau mitigé de la situation. En particulier, l’impact de l’usage des TIC sur la croissance de la productivité dans les services ayant le plus investi en TIC est parfois même négatif ! De quoi susciter de réelles interrogations sur les mesures effectuées mais aussi et surtout sur les vertus de l’informatisation. Sur la base de certains enseignements récents de la théorie économique, l'article de Regards Economiques revient sur cette dernière question pour tirer quelques conclusions utiles sur le cas d’un "petit" pays comme la Belgique ! A l’évidence, les nouvelles technologies ont créé de réelles opportunités, mais transformer ces opportunités en croissance économique soutenable et créatrice d’emplois nouveaux et stables n’est pas sans coût. La nécessité de réorganiser le travail pour accompagner l’informatisation n’est qu’un défi parmi d’autres pour en assurer le succès et la pérennité. De fait, une informatisation réussie repose au moins sur deux piliers fondamentaux : réorganisation du travail (vers plus d’autonomie notamment) et modernisation soutenue par un effort constant en R&D et/ou d’adoption maîtrisée des avances technologiques. Pour un "petit" pays comme la Belgique et vu le niveau actuel des ressources dévolues à la recherche comme en atteste le dernier rapport sur la R&D en Belgique, l’effort de modernisation ne consiste évidemment pas à lancer des plans de R&D à même de concurrencer Intel ou Microsoft mais à assurer une diffusion rapide des TIC et à développer les qualifications à même de faciliter cette diffusion. Les niveaux actuels de diffusion en Belgique sont de toute évidence trop faibles pour espérer un gain significatif et durable en terme de productivité ou de croissance de PIB et de l’emploi. Mais même si le niveau de diffusion est élevé, l’expérience américaine nous apprend que cela ne garantit pas à coup sûr une augmentation généralisée du taux de croissance de la productivité. Il semble de plus en plus avéré que l’investissement en TIC n’est décisif en termes de gains de productivité que s’il est accompagné d’un changement organisationnel vers plus d’autonomie et de polyvalence notamment. Un troisième pilier sur lequel doit reposer tout processus d’informatisation concerne le volet institutionnel. L’effondrement de très nombreuses start-ups américaines et européennes entre 2000 et 2002 (la dernière à déposer son bilan n’est pas des moindres : Napster) et le procès Microsoft sont autant d’indicateurs des problèmes institutionnels inhérents à la "Nouvelle Economie" et notamment à son volet commerce électronique. Le problème est bien connu : les start-ups vendent un bien particulier, l’information, qui s’avère très facile à copier alors même que sa production est en général coûteuse. Par ailleurs, l’utilisation d’Internet permet aux consommateurs de comparer les prix, ce qui tend à rogner considérablement les profits des entreprises. Mais en même temps, la valeur de nombreux biens d’information, comme par exemple les softwares, augmente avec le nombre d’utilisateurs (c’est la notion d’externalités de réseau), donnant lieu à des monopoles naturels. Dans cette configuration, le démantèlement des monopoles peut avoir des effets négatifs sur le bien-être des consommateurs, sans compter les effets désastreux que cela peut engendrer sur le financement de la R&D, aspect si essentiel dans la viabilité d’un régime de croissance tiré par les TIC.
26

Levy, Joseph. "Colonialité." Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Parmi les perspectives anthropologiques qui structurent le champ des études coloniales et post-coloniales, on peut retenir celle de la colonialité développée dans l’école socio-anthropologique latina-américaine qui veut mettre en évidence la continuité existant entre les périodes coloniales et post-coloniales. Ce concept renvoie en premier lieu à l’analyse des rapports de pouvoir dans cette région. Liée à la progression du capitalisme dans ces régions périphériques et subalternes, la colonialité structure de façon profonde l’ensemble des relations sociales et, à part celles qui se fondent sur les critères de race et d’ethnicité (Quijano 2007) « inclut, normalement, les rapports seigneuriaux entre dominants et dominés ; le sexisme et le patriarcat ; le familismo (jeux d’influence fondé sur les réseaux familiaux), le clientélisme, le compadrazgo (copinage) et le patrimonialisme dans les relations entre le public et le privé et surtout entre la société civile et les institutions politiques » (Quijano 1994). Ce concept a été élargi pour rendre aussi compte du rapport au pouvoir, car la colonialité ne se limiterait donc pas à la sphère politique, mais affecterait celle des connaissances et des savoirs. Dans cette perspective, Lander (2000) a analysé comment les sciences sociales ont contribué à renforcer le néolibéralisme qui se veut un discours hégémonique d’un « modèle de civilisation, […] comme une synthèse extraordinaire des présupposés et des valeurs fondamentales de la société libérale moderne touchant l'être humain, la richesse, la nature, l'histoire, le progrès, la connaissance et la bonne vie » (2000, p.4) [1][1]. Ce discours doit être déconstruit pour mettre en évidence ses fondements idéologiques et épistémologiques visant à la naturalisation de la société libérale et remettre en question les principes de neutralité et d’objectivité à la base des sciences sociales contemporaines. Cette déconstruction se nourrit déjà des travaux issus de plusieurs approches critiques dont, entre autres, les études féministes, les apports des chercheurs de l’Inde et du continent africain. Mignolo (2001) s’est penché, quant à lui, sur la « géopolitique de la connaissance » , pour montrer comment les différences dans les perspectives coloniales issues du centre et de la périphérie ont contribué à une « double conscience épistémologique » où « l’épistémé monotopique de la modernité est confrontée à l’épistémé pluritopique de la colonialité. La double conscience épistémologique n’est pas une position de défense de l’“antimodernité ”. Au contraire c’est une épistémé de la frontière, du bord de la pensée, énoncée à partir de la colonialité » (2001, p. 57). Cette réflexion épistémologique a été reprise par Fatima Hurtado Lopez (2009) qui insiste sur les inégalités existant dans la production des connaissances et la dévalorisation de celles issues des groupes dominés. Selon elle, pour transformer cette situation, la décolonisation du savoir ne consiste pas en une « croisade contre l'Occident au nom d'un autochtonisme latino-américaniste, de culturalismes ethnocentriques et de nationalismes populistes. Il ne s'agit pas non plus d'aller contre la science moderne ni de promouvoir un nouveau type d'obscurantisme épistémique […]. Il s'agit au contraire, de créer une pensée intégrative et transdisciplinaire où la science occidentale puisse s'articuler avec d'autres formes de production de connaissances. Le groupe propose ainsi -face à l'universalité monologique impériale- une pluriversalité décoloniale capable d'ouvrir la possibilité d'une pensée alternative et plurielle ». L’étude de la construction de la discipline anthropologique, de ses savoirs et de sa transmission a fait l’objet d’une analyse qui s’inspire du concept de colonialité du pouvoir et du savoir. Escobar et Restrepo (2009) mettent d’abord en évidence les distinctions essentielles entre « anthropologies hégémoniques » et « anthropologies subalternes ». Les premières renvoient à la discipline, au plan théorique et pratique, telle que pensée et encadrée dans les départements d’anthropologie des universités américaines et européennes (Angleterre et France). L’hégémonie est ici conceptualisée « non comme une domination, une imposition ou une coercition que comme ce qui s’opère au fil du temps à partir du sens commun disciplinaire et qui se tient en dehors de tout examen » (Escobar et Restrepo 2009, p. 84). Quant aux secondes, elles renvoient aux anthropologies négligées par les centres hégémoniques et elles se situent dans les marges, les interstices des centres anthropologiques divers, indépendamment de leur localisation géographique. Elles n’obéissent pas aux canons de la discipline normée touchant les théories, les méthodologies, la publication et la diffusion des savoirs, qui fondent la colonialité, et n’attendent pas une reconnaissance de sa part. Aux yeux du « système-monde de l’anthropologie » conceptualisé comme renvoyant à des relations structurales de pouvoir disciplinaire marquées par l’imposition de discours et les modalités de sanction de l’expertise (examens, titres, etc.), les anthropologies subalternes n’obéissant pas au diktat de l’expertise, les savoirs des populations sont dévalorisés et disqualifiés. Par ailleurs, les modalités associées à l’acquisition des compétences anthropologiques, à travers la socialisation disciplinaire, ne font pas l’objet d’une analyse critique. Comme le soulignent encore Escobar et Restrepo, « la formation professionnelle est certainement l’un des mécanismes ayant le plus grand impact sur les subjectivités anthropologiques et dans l’incorporation de ce qui est pensable et faisable. Étudier la manière, les lieux et les personnes avec qui se forment les nouvelles générations d’anthropologues, mais également la manière dont elles s’inscrivent dans leur travail professionnel, permet de comprendre les dynamiques de consolidation, confrontation et dissolution des hégémonies en anthropologie » (2009, p. 88), et qui influencent les centres périphériques. L’étude des stratégies liées à la professionnalisation anthropologique ne peut non plus faire l’économie de l’analyse des normes liées à l’évaluation des projets de recherche et des publications qui contribuent à imposer des perspectives dominantes. L’organisation des anthropologies subalternes demande aussi à être mieux comprise en menant des recherches sur leurs rapports avec le monde académique, la structuration de leur univers épistémologique, théorique et pratique et leur retentissement sur la discipline anthropologique. La notion de colonialité oblige donc à un exercice de réflexivité qui peut aider à cerner les stratégies politiques et intellectuelles privilégiées dans les disciplines anthropologiques ainsi que les résistances et les obstacles qui empêchent le plein déploiement de leurs projets et de leurs expressions plurielles et l’établissement d’une « anthropologie du monde » qui tient compte de la diversité des épistémologies et qui s’interroge sur les enjeux linguistiques liés à sa construction (Lema Silva 2016). Cette approche originale est soutenue par le Grupo Modernidad /Colonialidad ( Pachon Soto 2008) et le réseau d’études décoloniales (reseaudecolonial.org) dont les travaux sont diffusés par sa Revue d’études décoloniales.

To the bibliography