Journal articles on the topic 'Principe de précaution – Qualité – Contrôle'

To see the other types of publications on this topic, follow the link: Principe de précaution – Qualité – Contrôle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 25 journal articles for your research on the topic 'Principe de précaution – Qualité – Contrôle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Hapdey, S., I. Gardin, A. Salles, F. Rousselière, A. Edet-Sanson, and P. Véra. "Imagerie hybride : principe, dosimétrie et contrôle de qualité." Médecine Nucléaire 33, no. 5 (May 2009): 285–89. http://dx.doi.org/10.1016/j.mednuc.2009.02.009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Cartier, Geneviève. "Le principe de précaution et la déférence judiciaire en droit administratif." Les Cahiers de droit 43, no. 1 (April 12, 2005): 79–101. http://dx.doi.org/10.7202/043703ar.

Full text
Abstract:
Dans l'article qui suit, l'auteure cherche à vérifier la compatibilité des exigences que pose le principe de précaution avec l'attitude de déférence des cours de justice canadiennes à l'égard des décisions des organismes administratifs spécialisés. Le degré de déférence judiciaire repose sur un certain nombre de facteurs, parmi lesquels figurent l'expertise du décideur administratif et la nature discrétionnaire de son pouvoir. Comme le principe de précaution constitue à la base une stratégie de gestion des risques soumise à l'attention des décideurs appelés à prendre position dans un contexte d'incertitude scientifique, l'expertise du décideur pourrait difficilement fonder la déférence judiciaire puisque, dans un tel cas, l'expert atteint les limites de son expertise. Toutefois, dans l'hypothèse où le décideur dispose d'un pouvoir discrétionnaire, cette caractéristique pourrait justifier la déférence et limiter le contrôle judiciaire au caractère raisonnable de la décision rendue. Selon l'affaire Baker c. Canada (Ministre de la Citoyenneté et de l'Immigration), le caractère raisonnable d'une décision discrétionnaire repose notamment sur sa compatibilité avec les valeurs qui en sous-tendent la délégation. Or, les valeurs qui sous-tendent toute délégation du pouvoir de rendre des décisions dans un contexte de précaution expriment notamment la nécessité d'élargir l'espace public de dialogue, pour permettre aux citoyens de s'exprimer quant aux mesures à prendre et au niveau de risque qu'ils sont prêts à accepter dans un contexte d'incertitude scientifique. De plus, l'affaire 114957 Canada ltée (Spraytech, Société d'arrosage) c. Hudson (Ville) suggère un certain nombre d'indications selon lesquelles le Canada reconnaîtrait les valeurs que véhicule le principe de précaution. Par conséquent, les exigences de ce principe sont compatibles avec la politique de déférence judiciaire, qui s'appliquera non pas au contenu de la décision prise dans un contexte de précaution mais au processus suivi pour y parvenir
APA, Harvard, Vancouver, ISO, and other styles
3

Ouardighi, Fouad El, and Charles S. Tapiero. "Qualité et diffusion des produits." Recherche et Applications en Marketing (French Edition) 11, no. 4 (December 1996): 35–51. http://dx.doi.org/10.1177/076737019601100402.

Full text
Abstract:
Dans cet article, nous proposons une solution au problème du contrôle optimal de la diffusion des produits par la qualité en contexte de concurrence monopolistique. Pour spécifier la dynamique des ventes instantanées, nous supposons que le prix est un signal fiable de qualité et que la demande exprime une préférence pour la qualité par rapport au prix. La résolution du programme dynamique par le principe du maximum de Pontryagin débouche sur des cas de figure différenciés. D'autre part, une validation empirique des hypothèses du modèle sur les ventes de terminaux téléphoniques nous permet d'améliorer très sensiblement le coefficient de détermination obtenu par le modèle de Bass. Enfin, une application numérique du problème du contrôle optimal de la diffusion par la qualité permet de mesurer le coût d'opportunité de la stratégie optimale de qualité par rapport à la stratégie observée.
APA, Harvard, Vancouver, ISO, and other styles
4

Vanhamme, Françoise. "Organisation sociale de la mise en liberté provisoire : des effets de profilage?" Reflets 22, no. 1 (July 28, 2016): 28–55. http://dx.doi.org/10.7202/1037162ar.

Full text
Abstract:
La présente contribution se veut une synthèse des récents travaux que nous avons menés sur la détermination judiciaire d’une mise en liberté ou en détention provisoire. Elle vise à en montrer l’organisation sociale, en l’occurrence comment les raisonnements qui sous-tendent cette décision sont ancrés dans des nécessités socioprofessionnelles. En effet, dans un contexte balisé par le droit et le contrôle politique et médiatique, un principe de précaution partagé s’articule à une approche globale de défense sociale et mène à une escalade de conditions de libération (cautionnement en argent, recours à une personne garante, encadrement institutionnel) auxquelles les justiciables socialement marginalisés ne peuvent que difficilement répondre. La détention provisoire peut en devenir plus fréquente pour ce groupe. Le profilage social qui s’en esquisse serait ainsi un effet des pratiques en contexte.
APA, Harvard, Vancouver, ISO, and other styles
5

JEONHOON. "Le principe de précaution et le contrôle de légalité - L’annalyse des jurisprudences du Conseil d’Etat en France -." Public Law Journal 15, no. 1 (February 2014): 243–61. http://dx.doi.org/10.31779/plj.15.1.201402.009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

LE MOAL, M. "Qualifier la qualité des données localisées numériques des réseaux d’eau et d’assainissement." Techniques Sciences Méthodes 11 (November 20, 2019): 51–64. http://dx.doi.org/10.36904/tsm/201911051.

Full text
Abstract:
Les systèmes d’information géographique (SIG) sont devenus incontournables dans la gestion des réseaux d’eau et d’assainissement et leur efficacité repose en très grande partie sur la qualité des données exploitées. Parallèlement, les évolutions réglementaires et les pratiques des utilisateurs augmentant notamment les échanges d’informations renforcent le rôle central des données et de leur qualité. Si la plupart des solutions SIG du marché disposent de fonctions dédiées à la qualification de la qualité des données, elles procèdent de la traduction préalable de spécifications des données en règles informatiques avant de procéder aux tests qualitatifs. Cette approche chronophage requiert des compétences métier. Pour éviter ces contraintes, Axes Conseil a élaboré un procédé de contrôle des données SIG rapide et accessible à des acteurs métier de l’eau et de l’assainissement. Plutôt qu’une lourde approche de modélisation a priori, le principe est de générer un ensemble d’indicateurs explicites facilement exploitables a posteriori par les acteurs du métier. Cette approche offre une grande souplesse d’analyse et ne nécessite pas de compétences informatiques avancées.
APA, Harvard, Vancouver, ISO, and other styles
7

Kouandongui Bangue Songrou, F., E. Bidan Tapiade, M. Ouimon, and T. Mobima. "Connaissances en matière de radioprotection des manipulateurs de radiologie de Bangui et de Bimbo (Centrafrique)." Radioprotection 54, no. 1 (January 2019): 41–45. http://dx.doi.org/10.1051/radiopro/2018046.

Full text
Abstract:
Les rayons X, principales sources d’exposition aux rayonnements ionisants (RI) d’origine humaine ont un rôle nocif dans la genèse des affections malignes et cancéreuses. L’application des principes de radioprotection par l’ensemble du personnel utilisant les rayons X est une obligation réglementaire. L’Agence Internationale de l’Energie Atomique (AIEA) recommande que ce personnel soit formé, avec des aptitudes et compétences vérifiées avant d’effectuer les tâches spécifiques. Une enquête a été menée auprès du personnel travaillant sous RI dans les établissements de radiodiagnostic de Bangui et de Bimbo pour évaluer leurs niveaux de connaissances en radioprotection. Parmi les enquêtes, 36,8 % étaient titulaires d’un diplôme de technicien supérieur en radiologie et imagerie médicale, formés à la radioprotection et sans renouvellement de leurs connaissances. Le niveau de connaissance de l’ensemble du personnel, quel que soit le profil et l’établissement est très modeste. L’application du principe de justification des examens n’est pas effective dans tous les établissements. Aucun contrôle qualité n’a jamais eu lieu dans les établissements, ceux-ci manquent de personnel référent en radioprotection et de matériel de protection contre les rayons X. Le gouvernement et l’ANR doivent poursuivre leurs efforts pour la formation continue en radioprotection du personnel et pour le contrôle qualité des installations. La diffusion de la culture de radioprotection entre praticiens est aussi à encourager.
APA, Harvard, Vancouver, ISO, and other styles
8

Malézieux, Eric, Damien Beillouin, and David Makowski. "Mieux nourrir la planète : diversifier les cultures pour construire des systèmes alimentaires durables." Perspective, no. 58 (2022): 1–4. http://dx.doi.org/10.19182/perspective/36931.

Full text
Abstract:
Aujourd’hui, d’importantes mutations de l’agriculture mondiale sont nécessaires pour produire suffisamment d’aliments sains pour tous, tout en préservant la qualité des terres, de l’air et de l’eau et en sauvegardant la biodiversité. Mais produire suffisamment et préserver en même temps l’environnement est une équation particulièrement complexe à résoudre. Les pratiques agroécologiques, dont un principe essentiel est l’usage de la biodiversité cultivée, constituent une voie prometteuse pour assurer ces mutations. De nombreuses preuves qualitatives et quantitatives montrent leur efficacité sur les plans agricole et environnemental et confirment leur capacité à répondre aux impératifs de production mondiale sur le long terme. Parmi les voies possibles de diversification, l’agroforesterie, les cultures associées et la rotation des cultures permettent d’augmenter significativement la production et favorisent la biodiversité et les services écosystémiques fournis — qualité du sol, contrôle des maladies et ravageurs, qualité et usage de l’eau. Ces preuves permettent de fonder de nouvelles politiques publiques à mettre en œuvre des échelles locales à l’échelle mondiale. La réalisation de telles politiques est cruciale dans les régions vulnérables au changement climatique et dont les besoins alimentaires sont en augmentation, comme l’Afrique subsaharienne.
APA, Harvard, Vancouver, ISO, and other styles
9

Sparling, Robert. "Le Prince et le problème de la corruption : réflexions sur une aporie machiavélienne." Les ateliers de l'éthique 9, no. 1 (April 9, 2014): 8–27. http://dx.doi.org/10.7202/1024292ar.

Full text
Abstract:
Dans les études sur la corruption politique, on trouve fréquemment des retours au lieu commun que les problèmes d’abus de charge publique en vue d’un intérêt privé ne peuvent être réglés sans la magie du leadership (l’anglicisme malheureux s’impose ici), cette qualité énigmatique de commandement qui saurait mettre en place les dispositifs d’incitatifs, de surveillance et de contrôle nécessaires pour contrer les abus. Mais un tel argument mène à une aporie, car les études qui placent ainsi leur confiance dans cet énigmatique leadership sont également traversées par l’idée, aussi un lieu commun, que toute autorité qui n’est pas sujette à la surveillance et au contrôle aura tendance à être corrompue. Dans cet essai, je propose de lire Le Prince de Machiavel comme une méditation sur le paradoxe suivant : l’autorité du principe est à la fois la source de la purification politique et la cause principale de la corruption. Le Prince, souvent considéré comme un texte fondateur des « leadership ethics », sera mal compris s’il n’est pas lu à la lumière de la préoccupation centrale de Machiavel républicain : la corruption.
APA, Harvard, Vancouver, ISO, and other styles
10

Osbild, D., M. Babut, and P. Vasseur. "Les biocapteurs appliqués au contrôle des eaux: Revue - État de l'art." Revue des sciences de l'eau 8, no. 4 (April 12, 2005): 505–38. http://dx.doi.org/10.7202/705236ar.

Full text
Abstract:
Cet article présente l'ensemble des biocapteurs en cours d'étude et proposés pour le contrôle en continu, automatisé et in situ de la qualité des eaux. Le principe des systèmes, étudiés jusqu'ici majoritairement en laboratoire et sur pilote, sera donné avec leurs performances au plan sensibilité et spécificité de détection des polluants hydriques. Ces performances conditionnent leur domaine d'application : les systèmes très sensibles étant affectés au contrôle des eaux d'alimentation et des eaux souterraines, les moins sensibles au contrôle des effluents très contaminés. Les biocapteurs peuvent se caractériser par deux de leurs composantes principales : - le réactif biologique ou biocatalyseur, sensible au(x) polluant(s); - le détecteur appelé transducteur, qui traduit la réponse biologique du biocatalyseur en un signal électrique. Le transducteur peut être de type optique, électrochimique, ampérométrique principalement, ou piézoélectrique. Trois grands types de biocapteurs peuvent être distingués selon la nature du biocatalyseur : - les bioréacteurs, basés sur l'étude des réponses comportementales des vertébrés (poissons) et d'autres organismes aquatiques (microcrustacés, bivalves): - les biosondes cellulaires reposant sur l'étude des fonctions métaboliques telles que la respiration, la bioluminescence, la photosynthèse de microorganismes immobilisés (bactéries, microalgues, levures) ou libres (boues activées) dans le milieu analysé: - les biocapteurs "d'affinité" basés sur l'utilisation d'enzymes ou d'anticorps, chargés de détecter respectivement les substrats et inhibiteurs enzymatiques spécifiques, ou les substances antigéniques vis à vis desquelles les anticorps ont été développés. Ces systèmes sont, par principe, les plus spécifiques mais aussi les plus sensibles. Ils ne couvrent, cependant, qu'une gamme encore très limitée de micropolluants hydriques. Le degré d'autonomie d'un biocapteur, sa facilité d'utilisation et de maintenance et sa fiabilité, sont des éléments qui rentrent en ligne de compte dans les performances. Ces qualités devront être évaluées lors de la phase de validation in situ, essentielle et déterminante pour juger de l'intérêt du système en conditions de fonctionnement réel.
APA, Harvard, Vancouver, ISO, and other styles
11

Trudeau, Hélène. "La précaution en cas d'incertitude scientifique : une des interprétations possibles de l'article 20 in fine de la Loi sur la qualité de l'environnement ?" Les Cahiers de droit 43, no. 1 (April 12, 2005): 103–36. http://dx.doi.org/10.7202/043704ar.

Full text
Abstract:
L'article 20 in fine de la Loi sur la qualité de l'environnement est sûrement l'article le plus important de tout le droit de l'environnement québécois. En prohibant l'émission de contaminants qui sont « susceptibles » de porter atteinte à l'environnement, cette disposition concerne tant les situations où un dommage effectif à l'environnement a été constaté que les situations de risques de dommages pour l'environnement. Par le présent texte, l'auteure veut démontrer que, en raison de sa formulation et du but qu'il vise, l'article 20 in fine pourrait être interprété comme s'appliquant non seulement aux situations de risques connus ou prouvés pour l'environnement, mais aussi aux situations de risques incertains pour l'environnement, c'est-à-dire de risques qui font l'objet d'un début de preuve scientifique mais dont l'existence ne peut être démontrée de façon certaine compte tenu de l'état actuel des connaissances scientifiques. Ainsi, l'article 20 in fine pourrait comporter en lui-même certains des préceptes du principe de précaution qui impose, en cas d'incertitude scientifique quant aux risques que fait courir à l'environnement l'utilisation d'une substance ou d'un procédé, une obligation de tenir compte de ces risques, même s'ils ne sont pas prouvés.
APA, Harvard, Vancouver, ISO, and other styles
12

de Lamy, Bertrand. "Dérives et évolution du principe de la légalité en droit pénal français : contribution à l’étude des sources du droit pénal français." Les Cahiers de droit 50, no. 3-4 (March 4, 2010): 585–609. http://dx.doi.org/10.7202/039334ar.

Full text
Abstract:
Le principe de la légalité criminelle connaît une évolution importante en droit pénal français. La diversification des sources du droit remet en cause la conception classique qui conférait à la loi, au sens formel, le monopole de la répression. L’apparition et l’extraordinaire développement du droit international, et en particulier du droit européen, ressurgissent sur le droit pénal. Non seulement la loi pénale subit la concurrence d’autres normes, mais encore elle est devenue un objet de contrôle de la part des juges internes et de la Cour européenne des droits de l’homme. Cette dernière fait glisser la France vers une conception matérielle de la légalité en ne s’intéressant pas à la légitimité de celui qui édicte la norme, mais à la seule qualité rédactionnelle de cette dernière. Cette évolution amène à s’interroger, notamment, à propos de l’incidence de ce désordre normatif sur la cohérence des mouvements de pénalisation et la légitimité du droit de punir.
APA, Harvard, Vancouver, ISO, and other styles
13

Byk, Christian. "Le génie génétique : une ingénierie diabolique ou les méprises de la politique européenne." Les Cahiers de droit 43, no. 3 (April 12, 2005): 503–44. http://dx.doi.org/10.7202/043720ar.

Full text
Abstract:
Perçues par les instances de la Communauté européenne comme devant constituer le levier d'une nouvelle politique économique capable de relever pour les pays industrialisés le défi du double choc pétrolier, les biotechnologies ont fait l'objet d'une politique européenne ambitieuse destinée tout d'abord à en assurer la fiabilité technique puis à les intégrer à un marché ouvert et loyal. Paradoxalement, au moment où cette politique aurait dû produire ses premiers effets en permettant la mise sur le marché de produits issus d'organismes génétiquement modifiés (OGM) et en facilitant la brevetabilité de ceux-ci, sa légitimité a été remise en cause. Une succession de crises en matière de sécurité sanitaire (scandale du sang contaminé, crise de la vache folle), pourtant sans rapport direct avec les OGM, ont contribué à mettre en cause l'acceptabilité sociale des biotechnologies, tant en raison des doutes qui ont surgi quant au contrôle des risques que pour des raisons d'ordre culturel, s'agissant du lancement sur le marché de nouveaux aliments. Dès lors, pour trouver une issue à cette crise, le droit n'est plus seulement utilisé comme l'instrument au service d'une politique industrielle, mais il doit à la fois retrouver un rôle symbolique, capable de mobiliser valeurs et principes fondamentaux réaffirmant la primauté de l'être humain, et une fonction de terrain, consistant à organiser des filières de gestion des risques en vue de donner au principe de précaution vie et cohérence dans le domaine de la coopération internationale.
APA, Harvard, Vancouver, ISO, and other styles
14

Pringuey, D. "SPCDN – Une phénoménologie de la rencontre en psychiatrie." European Psychiatry 29, S3 (November 2014): 584. http://dx.doi.org/10.1016/j.eurpsy.2014.09.293.

Full text
Abstract:
Les progrès de la technique dans notre discipline redoublent l’exigence d’une attention soutenue dans l’usage de nos outils thérapeutiques, ce qui requiert une reprise attentive des aspects relationnels de la prise en charge. L’évidence clinique, les enquêtes formelles et la demande de formation des plus jeunes en attestent. Il est dès lors souhaitable de revoir sur le terrain le fonds du talent thérapeutique depuis la clinique psychiatrique et d’illustrer la nécessité d’une phénoménologie de la rencontre comme condition nécessaire à l’ajustement interpersonnel créatif de toute relation de soin. Bruno Giordana envisage de montrer comment toute rencontre se fonde sur la catégorie du sentir et en quoi son rapport au fond de la vie en vue d’une co-constitution d’un « nous » étaye les notions d’alliance et de partenariat. Si la rencontre dispose de ressorts biopsychosociaux souvent perfectionnés pour faire œuvre commune de compréhension et de projet, Frédéric Jover se propose d’explorer son urgence dans la crise de l’entre-deux qui marque parfois violemment les contours d’une fabrique de l’identité, en quoi l’impératif d’une décision existentielle marque un tournant biographique qu’il faut savoir accompagner. L’accueil institutionnel s’opère désormais sous l’aspect moderne du contrôle « Qualité » mais Dominique Pringuey veut reprendre utilement le principe originaire de « permissivité » thérapeutique faisant valoir que tout procédé thérapeutique tient dans ce qu’il permet du travail relationnel qui inscrit l’hospitalisation dans l’ordre de l’hospitalité. Nous conforterons la thèse selon laquelle la rencontre porte en elle la dynamique de la puissance vitale seule capable de s’opposer aux forces de destruction, de soutenir l’échange et la parole, d’accompagner le souci et de promouvoir le rétablissement.
APA, Harvard, Vancouver, ISO, and other styles
15

Villeneuve, Valérie, Stéphane Légaré, Jean Painchaud, and Warwick Vincent. "Dynamique et modélisation de l’oxygène dissous en rivière." Revue des sciences de l'eau 19, no. 4 (January 17, 2007): 259–74. http://dx.doi.org/10.7202/014414ar.

Full text
Abstract:
Résumé La concentration en oxygène dissous en milieu fluvial varie selon un cycle diurne (24 h) qu’il est essentiel de considérer dans l’évaluation de l’état d’oxygénation d’un cours d’eau. En principe, seules des mesures en continu recueillies au cours de cycles de 24 h permettent d’évaluer correctement l’état d’oxygénation d’une rivière, ce que, en pratique, les contraintes logistiques et budgétaires ne permettent pas de réaliser. Le présent article vise à faire la synthèse des connaissances sur les facteurs de contrôle et la modélisation des variations diurnes de la concentration en oxygène dissous en rivière. Parmi les facteurs biologiques et physico-chimiques, les activités autotrophe et hétérotrophe sont les facteurs dominants responsables des variations diurnes de l’oxygène dissous. Certains modèles de qualité de l’eau permettent de modéliser la teneur en oxygène et, dans certains cas, la variation diurne. Toutefois, ces modèles sont souvent complexes, d’utilisation ardue et impliquent la mesure directe sur des cycles de 24 h des variables qui régissent la concentration en oxygène dans le milieu. Une démarche est proposée pour l’élaboration d’un modèle et a été appliquée dans une étude de cas réalisée dans la rivière Saint-Charles (Québec, Canada). Un modèle simple (une fonction sinusoïdale) dont les paramètres ont été corrélés à la température et à la concentration moyenne en nitrate a permis de générer des valeurs simulées d’oxygène dissous très proches des valeurs observées in situ. Un modèle alternatif utilisant des valeurs ponctuelles de température et de concentration de nitrate a donné des résultats équivalents. L’approche proposée constitue donc une alternative simple et pratique à la mesure en continu de l’oxygène et permet une évaluation plus réaliste de l’état réel d’oxygénation d’une rivière que la prise de mesures ponctuelles.
APA, Harvard, Vancouver, ISO, and other styles
16

Nague, Lionel Tematio, Emmanuel Mpondo, Emmanuel Nnanga Nga, Clautaire Mwebi Ekengoue, and Richard Vivien Youagam. "Formulation et Fabrication des Suppositoires à Visée Antipaludique à Base du Beurre de Karité Contenant Artémisia annua Cultivé à L’ouest Cameroun." European Scientific Journal, ESJ 18, no. 27 (August 31, 2022): 204. http://dx.doi.org/10.19044/esj.2022.v18n27p204.

Full text
Abstract:
Le but de la présente étude est de formuler et fabriquer des suppositoires à visée antipaludique à base de matières premières locales afin d’améliorer la prise en charge du paludisme, essentiellement chez les enfants âgés de moins de 5 ans. Pour faire cela, on a utilisé comme principe actif la poudre de feuilles et tiges sèches de Artémisia annua provenant de la Région de l’Ouest-Cameroun et comme excipient le beurre de karité en provenance de la région du Nord Cameroun puis amélioré à 4% de silice colloïdale. Les essais organoleptiques ont mis en évidence une poudre de couleur grisâtre, de saveur amère et très odorante. L’analyse granulométrique a montré que la poudre de feuilles et tiges sèches de Artémisia annua a une granulométrie allant de très fine à fineLa concentration en flavonoïdes totaux de la poudre de feuilles et tiges sèches de Artémisia annua est de 76,9 μg/ml d’équivalent de quercétine. Les suppositoires à visée antipaludique fabriqués à partir de 250mg de poudre de feuilles et tiges sèches de Artemisia annua et 1820mg de beurre de karité+4% de silice colloïdale ont suivi un contrôle pharmaceutique. Ce contrôle qualité des suppositoires à visée antipaludique contenant Artémisia annua fabriqués en utilisant le beurre de karité comme excipient a donné des valeurs des paramètres physico-chimiques en adéquation aux valeurs standards. La forme galénique issue de cette formule pourrait présenter une meilleure prise en charge thérapeutique des patients et particulièrement les enfants, au Cameroun et ailleurs en Afrique. This paper focuses on formulating and manufacturing antimalarial suppositories based on local materials in order to improve the management of malaria mainly for children under 5 years of age. Doing it, we used as active principle the powder of leaves and stems of Artemisia annua from Western Cameroon and, as an excipient, shea butter improved with 4% colloidal silica from the Northern Cameroon. The tests revealed a greyish-coloured powder with a bitter taste and a very fragrant one. The particle size analysis showed that the powder of leaves and stems of Artemisia annua has a particle size ranging from very fine to fine. The concentration of total flavonoids in the powder of leaves and stems of Artemisia annua is 76.9 μg/ml of quercetin equivalent. Antimalarial suppositories made from 250mg of Artemisia annua leaf and stem powder and 1820mg of shea butter, enhanced with 4% colloidal silica, have undergone pharmaceutical control. This quality control of Artemisia annua antimalarial suppositories, manufactured using shea butter as an excipient, gave values ​​of the physico-chemical parameters in line with the standards values. The galenic form resulting from this formula could offer better therapeutic management of patients, particularly children, in Cameroon and elsewhere in Africa.
APA, Harvard, Vancouver, ISO, and other styles
17

Cadet, Frédéric. "Lignes électriques aériennes à très haute tension - DUP. Risques liés aux champs électromagnétiques. Contrôle du respect du principe de précaution : méconnaissance (non). Utilité publique du projet (oui). Conseil d’Etat, Assemblée, 12 avril 2013, Association Coordination Interrégionale Stop THT et autres, n° 342409, avec note." Revue Juridique de l'Environnement 38, no. 4 (2013): 675–87. http://dx.doi.org/10.3406/rjenv.2013.6121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

BROCHARD, M., K. DUHEN, and D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"." INRAE Productions Animales 27, no. 4 (October 21, 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Full text
Abstract:
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
APA, Harvard, Vancouver, ISO, and other styles
19

Koumaré, B., H. Cissé, A. Koné, M. Sacko, Y. Garango, D. Tangara, and D. Dembélé. "Contrôle de qualité des médicaments antipaludiques au Mali." Revue Malienne d'Infectiologie et de Microbiologie, April 29, 2016. http://dx.doi.org/10.53597/remim.v6i0.826.

Full text
Abstract:
Les molécules antipaludiques rencontrées et prélevées dans les différentes régions du Mali et du district de Bamako, ont été analysées au Laboratoire National de la Santé. Les échantillons analysés provenaient d'Afrique, d'Europe, d'Asie et d'Amérique. L'échantillonnage a concerné 303 échantillons analysés, dont 260 étaient conformes, soit un taux de 85,8% et 43 étaient non conformes, soit 14,2%. Les non conformités décelées provenaient toutes des formes comprimés et injectables et concernaient spécifiquement les molécules de quinine. Les non-conformités décelées étaient de 03 types : l'absence de principe actif indiqué, le surdosage et le sous-dosage. Suivant le circuit de prélèvement dans la chaîne de distribution, les nonconformités ont été décelées en majorité dans les hôpitaux et les Centres de santé (40 échantillons) et secondairement au niveau des dépôts de vente privés (03 échantillons).
APA, Harvard, Vancouver, ISO, and other styles
20

PARIS, A. "Introduction." INRAE Productions Animales 19, no. 3 (May 13, 2006). http://dx.doi.org/10.20870/productions-animales.2006.19.3.3492.

Full text
Abstract:
Durant la seconde moitié du 20e siècle, le progrès des connaissances en physiologie, en particulier dans les domaines de la nutrition, de la croissance et de la reproduction, et l'amélioration des pratiques d'élevage sont allés de pair. Il s'agissait in fine de répondre à une exigence économique, au moins dans les pays les plus développés, celle qui consistait à atteindre d'abord l'autosuffisance alimentaire avec un meilleur statut sanitaire des élevages et des productions puis, dans un deuxième temps, à développer des capacités d'exportation d'animaux ou de produits animaux. D'un point de vue agronomique, cela s'est traduit par une nécessaire amélioration des performances de l'élevage, en particulier en augmentant la vitesse de croissance des animaux, le niveau de production laitière, l'efficacité de la valorisation nutritionnelle des aliments, ou la possibilité d'accroître sensiblement les capacités de reproduction des cheptels, tout ceci en considérant les contraintes sanitaires et d'organisation du travail liées à une diminution radicale de la population agricole tout au long de ces 50 dernières années. L'essor après-guerre de l'industrie pharmaceutique a permis de créer de très nombreux analogues des premiers stéroïdes naturels qui venaient d'être décrits, tant au plan structural que de leur rôle dans la physiologie de la reproduction ou de la croissance. Ainsi, avant que les mécanismes et modes d'action de ces hormones ne soient clairement établis, celles-ci pouvaient déjà être utilisées, que ce soit pour mieux maîtriser la reproduction ou pour améliorer la croissance des animaux. Dès les années 50, les premiers stéroïdes anabolisants avaient fait leur apparition en élevage. Le diéthylstilbœstrol (DES) synthétisé à la fin des années 30 (Dodds et al 1938) a pu être utilisé comme promoteur de croissance jusqu'à la fin des années 70 aux USA où, depuis, il a été interdit en raison de risques importants pour la santé du consommateur (Herbst et al 1971, Fara et al 1979, Herbst et Bern 1981, Perez-Comas 1988). A compter de cette période, une réévaluation des caractéristiques toxicologiques des quelques molécules utilisées pour leurs propriétés hormonales a permis de mieux préciser les risques pour le consommateur, de renforcer les contrôles de molécules analogues pouvant être utilisées frauduleusement et d'encourager la mise en place de nouvelles recherches pour encore mieux apprécier les effets, à des doses faibles, de résidus qui peuvent être retrouvés dans certains tissus destinés à la consommation. Des divergences d'opinions, scientifiques, économiques et politiques, sont apparues entre l'Union européenne (UE) et certains pays hors l'UE à l'occasion de l'application stricte en 1988 par l'UE du principe de précaution en matière d'utilisation des hormones stéroïdiennes, essentiellement comme anabolisants. En effet, la position adoptée par l'UE s'appuie sur la mise en avant d'un certain nombre de difficultés d'interprétation de résultats permettant de conclure à l'absence d'effet toxique des faibles doses de résidus de ces hormones présentes dans les produits animaux destinés à la consommation (SCVPH 2002, Andersson et Skakkebæk 1999). Dans l'UE, une hormone peptidique, l'hormone de croissance, pouvant être utilisée dans les élevages laitiers ou dans les élevages de porcs à l'engrais, a subi plus récemment le même sort que les stéroïdes anabolisants, même si l'évaluation des risques propres à son utilisation ne peut être comparée à celle des stéroïdes. Le bannissement des β-agonistes dans l'UE est à ranger dans le même cortège réglementaire. En filigrane, le souci apparu depuis plus d'une dizaine d'années d'améliorer la qualité et la traçabilité des produits animaux, de maintenir les prix à la production, d'assainir l'environnement économique des productions animales et éviter ainsi des situations structurelles d'excédent, très coûteuses, telles qu'elles existaient dans les années 70 et 80 en Europe de l'Ouest explique aussi la position ferme adoptée par l'UE en matière de recours aux promoteurs de croissance. Cette tendance forte ne peut être ignorée des acteurs des filières concernées. Elle constitue d'ailleurs un nouveau jeu de contraintes à intégrer dans les différents paramètres technico-économiques à prendre en considération dans les pratiques d'élevage actuellement en place, à condition d'en mieux connaître les bases génétiques, physiologiques et biochimiques. C'est dans ce climat actuel d'interrogation sur l'avenir des filières animales que la nécessité d'une synthèse bibliographique actualisée sur les risques posés en matière de santé publique par l'utilisation des hormones en élevage est apparue. Cette synthèse est destinée tout à la fois aux professionnels des filières concernées, aux scientifiques directement impliqués dans les différents domaines de recherche et de développement afférents et à un public de «décideurs» interagissant avec ces mêmes filières. Cette initiative en revient à l'Académie des sciences qui la publiera dans la collection des Rapports sur la science et la technologie (RST). Nous en présentons ici une version largement augmentée qui montre combien les recherches conduites depuis plus de quarante ans en la matière et les développements qui s'en sont suivis ont été à la fois importants, multiples, parfois inattendus. Les principales fonctions physiologiques d'intérêt zootechnique susceptibles d'être modulées artificiellement, les substances utilisées en pratique, les productions animales concernées sont décrites ci-après. Les éléments de l'appréciation du risque toxicologique lié à l'utilisation de ces substances et le contrôle de leur utilisation en élevage sont ensuite abordés. Enfin, de nouvelles méthodes permettant de contrôler certaines fonctions physiologiques ou d'en moduler l'expression sont brièvement présentées, qui préfigurent ce que pourrait être une zootechnie renouvelée à l'horizon 2020.
APA, Harvard, Vancouver, ISO, and other styles
21

Nague, Lionel Tematio, Emmanuel Mpondo, Emmanuel Nnanga Nga, Clautaire Mwebi Ekengoue, and Richard Vivien Youagam. "Formulation et Fabrication des Suppositoires à visée Antipaludique à Base du Beurre de Karité Contenant Artémisia annua Cultivé à l’Ouest Cameroun." European Scientific Journal ESJ 08 (August 11, 2022). http://dx.doi.org/10.19044/esipreprint.8.2022.p79.

Full text
Abstract:
Le but de la présente étude est de formuler et fabriquer des suppositoires à visée antipaludique à base de matières premières locales afin d’améliorer la prise en charge du paludisme, essentiellement chez les enfants âgés de moins de 5 ans. Pour faire cela, on a utilisé comme principe actif la poudre de feuilles et tiges sèches de Artémisia annua provenant de la Région de l’Ouest-Cameroun et comme excipient le beurre de karité en provenance de la région du Nord Cameroun puis amélioré à 4% de silice colloïdale. Les essais organoleptiques ont mis en évidence une poudre de couleur grisâtre, de saveur amère et très odorante. L’analyse granulométrique a montré que la poudre de feuilles et tiges sèches de Artémisia annua a une granulométrie allant de très fine à fineLa concentration en flavonoïdes totaux de la poudre de feuilles et tiges sèches de Artémisia annua est de 76,9 μg/ml d’équivalent de quercétine. Les suppositoires à visée antipaludique fabriqués à partir de 250mg de poudre de feuilles et tiges sèches de Artemisia annua et 1820mg de beurre de karité+4% de silice colloïdale ont suivi un contrôle pharmaceutique. Ce contrôle qualité des suppositoires à visée antipaludique contenant Artémisia annua fabriqués en utilisant le beurre de karité comme excipient a donné des valeurs des paramètres physico-chimiques en adéquation aux valeurs standards. La forme galénique issue de cette formule pourrait présenter une meilleure prise en charge thérapeutique des patients et particulièrement les enfants, au Cameroun et ailleurs en Afrique.
APA, Harvard, Vancouver, ISO, and other styles
22

Cockx, Bart, Muriel Dejemeppe, and Bruno Van der Linden. "Numéro 85 (fr) - février 2011." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15113.

Full text
Abstract:
À l’initiative du gouvernement fédéral, on a assisté depuis 2004 à des changements majeurs dans le cadre de l’assurance-chômage en Belgique. Le principe d’octroi d’allocations d’assurance à durée illimitée a en soi été renforcé par l’abolition progressive de l’article 80, qui limitait uniquement la durée de l’indemnisation des chômeurs cohabitants. Parallèlement, s’est mis en place le dispositif d’Activation du Comportement de Recherche d’emploi (ACR), qui consiste à convoquer les chômeurs indemnisés pour des entretiens individuels périodiques durant lesquels un facilitateur de l’ONEM évalue leurs activités de recherche d’emploi. L’introduction de l’ACR implique que toutes les catégories de chômeurs courent un risque de réduction ou de suspension, temporaire ou non, des allocations de chômage en raison d’une intensité de recherche insuffisante. Précisons que la procédure d’ACR a été introduite en étapes, par catégorie d’âge : à partir de juillet 2004, les moins de 30 ans étaient concernés par la procédure, à partir de juillet 2005, les moins de 40 ans, et à partir de juillet 2006, les moins de 50 ans. Ce nouveau plan reste controversé : «chasse aux chômeurs» pour les uns, ingrédient essentiel de toute politique de réduction du chômage pour les autres. Le plan d’accompagnement et de suivi des chômeurs favorise-t-il un retour plus rapide à l’emploi ? Et si oui, dans toutes les régions, pour tous les types de demandeurs d’emploi, au détriment de la qualité des emplois acceptés ? Les étapes de l’ACRUn élément essentiel de l’ACR est l’envoi d’une lettre d’avertissement environ 8 mois avant le premier entretien en vue d’informer le chômeur indemnisé de ses obligations et du déroulement de la procédure de contrôle. L’envoi de cette lettre s’effectue après une durée d’inoccupation mesurée de manière spécifique et variable selon l’âge (7 mois sous l’âge de 25 ans, 13 mois au-delà). Si les efforts de recherche d’emploi sont jugés insuffisants lors du premier entretien d’évaluation, le chômeur n’est pas encore sanctionné mais un plan d’action est mis en place. Environ quatre mois plus tard, un deuxième entretien a lieu. Une évaluation négative des efforts de recherche entraîne alors une sanction temporaire (réduction ou suspension des allocations de chômage) et la mise en place d’un second plan d’action. Si les efforts de recherche sont jugés une troisième fois insuffisants, une exclusion du droit aux allocations de chômage s’applique. Des procédures de recours sont prévues par la législation. L’évaluation de l’ACRL’essentiel de notre évaluation porte sur la population des chômeurs indemnisés âgés de 25 à 30 ans qui ont reçu une lettre d’avertissement de l’ONEM en 2004 dans le cadre de la procédure d’ACR et dont nous avons reconstitué le parcours sur le marché du travail jusque fin 2006. Nos résultats montrent que l’ACR accélère de manière significative leur transition du chômage vers l’emploi et ceci même bien avant que des entretiens d’évaluation ont lieu ou des sanctions sont imposées : 92 % de l’effet se réalise avant que les personnes concernées ne soient sanctionnées. Ceci se comprend par un effet d’anticipation. Les chômeurs accroissent leurs efforts de recherche afin d’éviter une évaluation (négative) et ses conséquences. L’effet est plus fort en Flandre qu’en Wallonie et à Bruxelles. Le contrôle de la recherche se montre donc surtout efficace là où les offres d’emplois sont abondantes. Dans ce cas, le contrôle s’avère même plus efficace pour un chômeur peu qualifié que qualifié. Sans perdre toute son efficacité, le contrôle semble cependant favoriser davantage l’embauche des travailleurs qualifiés là où les offres d’emploi sont plus rares. Pour les chômeurs qui retrouvent un emploi, le salaire obtenu est en moyenne plus faible en raison de l’ACR, mais la baisse est modeste. L’effet du relèvement de revenu engendré par l’accès plus rapide à l’emploi domine cette baisse de salaire. Pour les comptes de l’Etat, la mise en place de l’ACR engendre un gain modeste. Ce gain est en moyenne plus élevé que la baisse des perspectives de revenus du chômeur qui entre dans l’ACR. Pour aboutir à cette conclusion, nous prenons en compte le payement des allocations d’assurance et de revenu d’insertion diminuées des recettes fiscales et des cotisations sociales. Cet ensemble de conclusions ne peut être imprudemment extrapolé aux autres tranches d’âge concernées ultérieurement par l’ACR. Même sous l’hypothèse que nos conclusions qualitatives s’étendent à l’ensemble de la population actuellement visée par l’ACR (les moins de cinquante ans), elle n’est qu’une composante de la politique de lutte contre le chômage, qui, à elle seule et dans sa forme actuelle, ne pourrait avoir qu’un impact limité sur le chômage total au niveau du pays. En rythme de croisière, en 2009, quand toutes les classes d’âge en dessous de 50 ans sont concernées, par mois 2,5 % du stock de chômeurs complets indemnisés recevait l’avertissement de l’ACR. Vu cette faible proportion, il est évident que l’ACR n’est pas la panacée qui expliquerait la baisse significative du chômage total entre 2004 et 2008. L’analyse que nous avons menée sur le rôle possible de l’ACR dans l’évolution du chômage global montre que la baisse du chômage entre 2004 et 2008 vient principalement de l’amélioration de la conjoncture dans la période concernée. L’ACR y a contribué, mais vu le nombre relativement faible de chômeurs concernés et l’étalement de la politique sur de nombreux mois (durant lesquels nombre d’entre eux quitteraient le chômage même en l’absence de politique de contrôle), son rôle macroéconomique ne peut pas être exagéré. L’évolution du nombre de sanctions dans le cadre et en dehors de l’ACRAu niveau global encore, nous avons montré que les sanctions dans le cadre de l’ACR représentent une part croissante mais limitée du total de celles-ci. En 2009, l’ACR engendre un peu moins d’exclusions que l’article 80, qu’elle a progressivement remplacé et qui déterminait la fin de droit pour les seul(e)s cohabitant(e)s. Ceci ne peut occulter le constat que le niveau global des sanctions (tous motifs confondus) a beaucoup augmenté en Belgique et dans ses Régions (principalement en Wallonie) au cours de la seconde moitié de la décennie passée. L’augmentation des transferts d’information des organismes régionaux (FOREM, VDAB, ACTIRIS) vers l’ONEM (suite à l’accord de coopération de 2004) et le développement du croisement des informations disponibles dans les divers fichiers de la Sécurité Sociale sont des facteurs d’explication importants de ces évolutions. En 2009, le nombre de transmissions par demandeur d’emploi inoccupé indemnisé représentait une fréquence mensuelle de 0,8 % à Bruxelles, 1,1 % en Flandre et 1,5 % en Wallonie en 2009. En 2003, elles s’élevaient seulement à 0,4 % à Bruxelles, 0,3 % en Flandre et 0,02 % en Wallonie. Conclusion et recommandations politiquesEn résumé, nous estimons que l’ACR et le contrôle de la disponibilité des chômeurs sont une contrepartie nécessaire d’une spécificité belge, à savoir le principe d’une indemnisation des chômeurs pour une durée illimitée dans le cadre de l’assurance-chômage. Mais, la procédure d’ACR doit être réformée. Il faut d’une part commencer le premier entretien d’évaluation plus tôt dans l’épisode de chômage pour que le chômeur soit conscient plus tôt de ses obligations et pour que les avantages du système puissent se faire sentir sur une population plus large. D’autre part, il nous paraît nécessaire de renforcer encore l’objectivité de la procédure d’évaluation.
APA, Harvard, Vancouver, ISO, and other styles
23

Cockx, Bart, Muriel Dejemeppe, and Bruno Van der Linden. "Numéro 85 (fr) - février 2011." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2011.02.01.

Full text
Abstract:
À l’initiative du gouvernement fédéral, on a assisté depuis 2004 à des changements majeurs dans le cadre de l’assurance-chômage en Belgique. Le principe d’octroi d’allocations d’assurance à durée illimitée a en soi été renforcé par l’abolition progressive de l’article 80, qui limitait uniquement la durée de l’indemnisation des chômeurs cohabitants. Parallèlement, s’est mis en place le dispositif d’Activation du Comportement de Recherche d’emploi (ACR), qui consiste à convoquer les chômeurs indemnisés pour des entretiens individuels périodiques durant lesquels un facilitateur de l’ONEM évalue leurs activités de recherche d’emploi. L’introduction de l’ACR implique que toutes les catégories de chômeurs courent un risque de réduction ou de suspension, temporaire ou non, des allocations de chômage en raison d’une intensité de recherche insuffisante. Précisons que la procédure d’ACR a été introduite en étapes, par catégorie d’âge : à partir de juillet 2004, les moins de 30 ans étaient concernés par la procédure, à partir de juillet 2005, les moins de 40 ans, et à partir de juillet 2006, les moins de 50 ans. Ce nouveau plan reste controversé : «chasse aux chômeurs» pour les uns, ingrédient essentiel de toute politique de réduction du chômage pour les autres. Le plan d’accompagnement et de suivi des chômeurs favorise-t-il un retour plus rapide à l’emploi ? Et si oui, dans toutes les régions, pour tous les types de demandeurs d’emploi, au détriment de la qualité des emplois acceptés ? Les étapes de l’ACRUn élément essentiel de l’ACR est l’envoi d’une lettre d’avertissement environ 8 mois avant le premier entretien en vue d’informer le chômeur indemnisé de ses obligations et du déroulement de la procédure de contrôle. L’envoi de cette lettre s’effectue après une durée d’inoccupation mesurée de manière spécifique et variable selon l’âge (7 mois sous l’âge de 25 ans, 13 mois au-delà). Si les efforts de recherche d’emploi sont jugés insuffisants lors du premier entretien d’évaluation, le chômeur n’est pas encore sanctionné mais un plan d’action est mis en place. Environ quatre mois plus tard, un deuxième entretien a lieu. Une évaluation négative des efforts de recherche entraîne alors une sanction temporaire (réduction ou suspension des allocations de chômage) et la mise en place d’un second plan d’action. Si les efforts de recherche sont jugés une troisième fois insuffisants, une exclusion du droit aux allocations de chômage s’applique. Des procédures de recours sont prévues par la législation. L’évaluation de l’ACRL’essentiel de notre évaluation porte sur la population des chômeurs indemnisés âgés de 25 à 30 ans qui ont reçu une lettre d’avertissement de l’ONEM en 2004 dans le cadre de la procédure d’ACR et dont nous avons reconstitué le parcours sur le marché du travail jusque fin 2006. Nos résultats montrent que l’ACR accélère de manière significative leur transition du chômage vers l’emploi et ceci même bien avant que des entretiens d’évaluation ont lieu ou des sanctions sont imposées : 92 % de l’effet se réalise avant que les personnes concernées ne soient sanctionnées. Ceci se comprend par un effet d’anticipation. Les chômeurs accroissent leurs efforts de recherche afin d’éviter une évaluation (négative) et ses conséquences. L’effet est plus fort en Flandre qu’en Wallonie et à Bruxelles. Le contrôle de la recherche se montre donc surtout efficace là où les offres d’emplois sont abondantes. Dans ce cas, le contrôle s’avère même plus efficace pour un chômeur peu qualifié que qualifié. Sans perdre toute son efficacité, le contrôle semble cependant favoriser davantage l’embauche des travailleurs qualifiés là où les offres d’emploi sont plus rares. Pour les chômeurs qui retrouvent un emploi, le salaire obtenu est en moyenne plus faible en raison de l’ACR, mais la baisse est modeste. L’effet du relèvement de revenu engendré par l’accès plus rapide à l’emploi domine cette baisse de salaire. Pour les comptes de l’Etat, la mise en place de l’ACR engendre un gain modeste. Ce gain est en moyenne plus élevé que la baisse des perspectives de revenus du chômeur qui entre dans l’ACR. Pour aboutir à cette conclusion, nous prenons en compte le payement des allocations d’assurance et de revenu d’insertion diminuées des recettes fiscales et des cotisations sociales. Cet ensemble de conclusions ne peut être imprudemment extrapolé aux autres tranches d’âge concernées ultérieurement par l’ACR. Même sous l’hypothèse que nos conclusions qualitatives s’étendent à l’ensemble de la population actuellement visée par l’ACR (les moins de cinquante ans), elle n’est qu’une composante de la politique de lutte contre le chômage, qui, à elle seule et dans sa forme actuelle, ne pourrait avoir qu’un impact limité sur le chômage total au niveau du pays. En rythme de croisière, en 2009, quand toutes les classes d’âge en dessous de 50 ans sont concernées, par mois 2,5 % du stock de chômeurs complets indemnisés recevait l’avertissement de l’ACR. Vu cette faible proportion, il est évident que l’ACR n’est pas la panacée qui expliquerait la baisse significative du chômage total entre 2004 et 2008. L’analyse que nous avons menée sur le rôle possible de l’ACR dans l’évolution du chômage global montre que la baisse du chômage entre 2004 et 2008 vient principalement de l’amélioration de la conjoncture dans la période concernée. L’ACR y a contribué, mais vu le nombre relativement faible de chômeurs concernés et l’étalement de la politique sur de nombreux mois (durant lesquels nombre d’entre eux quitteraient le chômage même en l’absence de politique de contrôle), son rôle macroéconomique ne peut pas être exagéré. L’évolution du nombre de sanctions dans le cadre et en dehors de l’ACRAu niveau global encore, nous avons montré que les sanctions dans le cadre de l’ACR représentent une part croissante mais limitée du total de celles-ci. En 2009, l’ACR engendre un peu moins d’exclusions que l’article 80, qu’elle a progressivement remplacé et qui déterminait la fin de droit pour les seul(e)s cohabitant(e)s. Ceci ne peut occulter le constat que le niveau global des sanctions (tous motifs confondus) a beaucoup augmenté en Belgique et dans ses Régions (principalement en Wallonie) au cours de la seconde moitié de la décennie passée. L’augmentation des transferts d’information des organismes régionaux (FOREM, VDAB, ACTIRIS) vers l’ONEM (suite à l’accord de coopération de 2004) et le développement du croisement des informations disponibles dans les divers fichiers de la Sécurité Sociale sont des facteurs d’explication importants de ces évolutions. En 2009, le nombre de transmissions par demandeur d’emploi inoccupé indemnisé représentait une fréquence mensuelle de 0,8 % à Bruxelles, 1,1 % en Flandre et 1,5 % en Wallonie en 2009. En 2003, elles s’élevaient seulement à 0,4 % à Bruxelles, 0,3 % en Flandre et 0,02 % en Wallonie. Conclusion et recommandations politiquesEn résumé, nous estimons que l’ACR et le contrôle de la disponibilité des chômeurs sont une contrepartie nécessaire d’une spécificité belge, à savoir le principe d’une indemnisation des chômeurs pour une durée illimitée dans le cadre de l’assurance-chômage. Mais, la procédure d’ACR doit être réformée. Il faut d’une part commencer le premier entretien d’évaluation plus tôt dans l’épisode de chômage pour que le chômeur soit conscient plus tôt de ses obligations et pour que les avantages du système puissent se faire sentir sur une population plus large. D’autre part, il nous paraît nécessaire de renforcer encore l’objectivité de la procédure d’évaluation.
APA, Harvard, Vancouver, ISO, and other styles
24

Van der Linden, Bruno. "Numéro 68 - avril 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15543.

Full text
Abstract:
Depuis la déclaration commune des ministres régionaux Marcourt et Vandenbroucke, le débat sur la régionalisation (ou décentralisation) des politiques du marché du travail n'a guère progressé. On peut même parler d'enlisement. Or, le choix du bon niveau d’intervention publique importe si l'on se soucie de l'efficacité de cette intervention. On peut rechercher la centralisation ou, à l'opposé, la décentralisation par principe ou par idéologie. Ce n'est pas acceptable si la recherche d'efficacitéest l'objectif. Il y a en revanche des arguments pertinents en faveur de la centralisation et d'autres en défaveur de celle-ci. Ces arguments sont de nature économique si tant est que le qualificatif "économique" est bien compris: la répartition efficace des interventions publiques est celle qui garantit le niveau de bien-être le plus élevé possible tenant compte des ressources collectives disponibles. Ce bien-être grandit d'une part si, à ressources collectives données, on rencontre mieux les attentes et besoins des citoyens (leurs "préférences"). Dans le contexte du marché du travail, cela se traduit notamment par moins de pauvreté et de chômage involontaire et une meilleure assurance face aux risques. D'autre part, dans certains cas, le choix du bon niveau d'intervention agit directement sur les ressources collectives requises. Epargner des ressources permet de les affecter ailleurs et l'on sait à quel point les besoins sont nombreux ! Ce numéro de Regards économiques identifie donc une liste d'arguments et les illustre à l'aide d'exemples. Pour chaque type d'intervention publique, une démarche rationnelle consisterait à évaluer la portée précise de chacun de ces arguments pour ou contre la décentralisation, pour ensuite établir un bilan de synthèse et décider. Cette démarche est difficile, mais possible et nécessaire. De manière très succincte, la décentralisation, qui peut prendre diverses formes, permet une meilleure prise en compte des spécificités locales en matière d'attentes et de besoins. En outre, l'intervention publique requiert la collecte d'information (par exemple sur la disponibilité des chômeurs à l’égard du marché du travail). Fréquemment, le coût de cette collecte est plus limité ou la qualité de l'information est meilleure lorsque l'intervention se situe à un niveau décentralisé. La décentralisation a aussi ses inconvénients. Lorsque, et c'est fréquent, les décisions prises par une région affectent le bien-être d'une autre (à titre d’exemple, la diffusion d’une offre d’emploi par un organisme régional de placement peut favoriser l’appariement entre ce poste vacant et un demandeur d’emploi d’une autre région), on a besoin au minimum d'une coordination, voire d'une centralisation. Par ailleurs, il arrive que l'on épargne des ressources en menant une intervention à un niveau géographique plus large (grâce à des "économies d'échelle"). De plus, tant que les facteurs responsables du chômage sont essentiellement des chocs aléatoires (conjoncture, innovations technologiques, etc.), une assurance-chômage nationale est mieux à même de diversifier les risques qu’une assurance organisée au niveau régional. Enfin, des cadres législatifs et réglementaires hétérogènes compliquent la mobilité géographique inter-régionale et la gestion des entreprises implantées sur plus d'une région. Ce numéro de Regards économiques applique enfin ces principes à la délicate question du contrôle des chômeurs. À quel niveau placer cette intervention publique compte tenu du rôle joué d'un côté par la sécurité sociale fédérale au niveau de l'assurance du risque de chômage et d'un autre côté par les régions en matières de politiques actives et de placement des chômeurs ? L'article n'a pas l'ambition de trancher le débat. En revanche, il cerne avec précision les considérations à mettre en balance.
APA, Harvard, Vancouver, ISO, and other styles
25

Van der Linden, Bruno. "Numéro 68 - avril 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2009.04.01.

Full text
Abstract:
Depuis la déclaration commune des ministres régionaux Marcourt et Vandenbroucke, le débat sur la régionalisation (ou décentralisation) des politiques du marché du travail n'a guère progressé. On peut même parler d'enlisement. Or, le choix du bon niveau d’intervention publique importe si l'on se soucie de l'efficacité de cette intervention. On peut rechercher la centralisation ou, à l'opposé, la décentralisation par principe ou par idéologie. Ce n'est pas acceptable si la recherche d'efficacitéest l'objectif. Il y a en revanche des arguments pertinents en faveur de la centralisation et d'autres en défaveur de celle-ci. Ces arguments sont de nature économique si tant est que le qualificatif "économique" est bien compris: la répartition efficace des interventions publiques est celle qui garantit le niveau de bien-être le plus élevé possible tenant compte des ressources collectives disponibles. Ce bien-être grandit d'une part si, à ressources collectives données, on rencontre mieux les attentes et besoins des citoyens (leurs "préférences"). Dans le contexte du marché du travail, cela se traduit notamment par moins de pauvreté et de chômage involontaire et une meilleure assurance face aux risques. D'autre part, dans certains cas, le choix du bon niveau d'intervention agit directement sur les ressources collectives requises. Epargner des ressources permet de les affecter ailleurs et l'on sait à quel point les besoins sont nombreux ! Ce numéro de Regards économiques identifie donc une liste d'arguments et les illustre à l'aide d'exemples. Pour chaque type d'intervention publique, une démarche rationnelle consisterait à évaluer la portée précise de chacun de ces arguments pour ou contre la décentralisation, pour ensuite établir un bilan de synthèse et décider. Cette démarche est difficile, mais possible et nécessaire. De manière très succincte, la décentralisation, qui peut prendre diverses formes, permet une meilleure prise en compte des spécificités locales en matière d'attentes et de besoins. En outre, l'intervention publique requiert la collecte d'information (par exemple sur la disponibilité des chômeurs à l’égard du marché du travail). Fréquemment, le coût de cette collecte est plus limité ou la qualité de l'information est meilleure lorsque l'intervention se situe à un niveau décentralisé. La décentralisation a aussi ses inconvénients. Lorsque, et c'est fréquent, les décisions prises par une région affectent le bien-être d'une autre (à titre d’exemple, la diffusion d’une offre d’emploi par un organisme régional de placement peut favoriser l’appariement entre ce poste vacant et un demandeur d’emploi d’une autre région), on a besoin au minimum d'une coordination, voire d'une centralisation. Par ailleurs, il arrive que l'on épargne des ressources en menant une intervention à un niveau géographique plus large (grâce à des "économies d'échelle"). De plus, tant que les facteurs responsables du chômage sont essentiellement des chocs aléatoires (conjoncture, innovations technologiques, etc.), une assurance-chômage nationale est mieux à même de diversifier les risques qu’une assurance organisée au niveau régional. Enfin, des cadres législatifs et réglementaires hétérogènes compliquent la mobilité géographique inter-régionale et la gestion des entreprises implantées sur plus d'une région. Ce numéro de Regards économiques applique enfin ces principes à la délicate question du contrôle des chômeurs. À quel niveau placer cette intervention publique compte tenu du rôle joué d'un côté par la sécurité sociale fédérale au niveau de l'assurance du risque de chômage et d'un autre côté par les régions en matières de politiques actives et de placement des chômeurs ? L'article n'a pas l'ambition de trancher le débat. En revanche, il cerne avec précision les considérations à mettre en balance.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography