Siga este link para ver outros tipos de publicações sobre o tema: Outil de détermination des cinétiques.

Artigos de revistas sobre o tema "Outil de détermination des cinétiques"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 49 melhores artigos de revistas para estudos sobre o assunto "Outil de détermination des cinétiques".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja os artigos de revistas das mais diversas áreas científicas e compile uma bibliografia correta.

1

CHAMP, M., e P. COLONNA. "Importance de l’endommagement de l’amidon dans les aliments pour animaux". INRAE Productions Animales 6, n.º 3 (28 de junho de 1993): 185–98. http://dx.doi.org/10.20870/productions-animales.1993.6.3.4199.

Texto completo da fonte
Resumo:
Les principales modifications de l’état de l’amidon, qui se produisent au cours des étapes de transformation et de fabrication des aliments pour animaux, sont l’augmentation de surface spécifique, une diminution de la cristallinité et une dépolymérisation de l’amylose et de l’amylopectine. Les différentes méthodes in vitro qui permettent d’étudier les facteurs influençant les cinétiques d’hydrolyse de l’amidon sont présentées. La microscopie permet des observations qualitatives. Les déterminations quantitatives sont fondées sur la susceptibilité aux amylases, les solubilités en milieux aqueux et alcooliques ainsi que l’absorption d’eau. Ces différents tests permettent de prédire la digestibilité de l’amidon dans la partie supérieure du tractus digestif. L’analyse par réflectance dans le moyen infra-rouge pourrait devenir un outil de contrôle en ligne.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Kifani-Sahban, F., L. Belkbir e A. Zoulalian. "Détermination des paramètres cinétiques de la pyrolyse lente de l'eucalyptus Marocain". Thermochimica Acta 289, n.º 1 (outubro de 1996): 33–40. http://dx.doi.org/10.1016/s0040-6031(96)03030-4.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Baumard, Philippe, e Bernard Forgues. "Internet : un outil transnational au service du commerce". Décisions Marketing N° 5, n.º 2 (1 de junho de 1995): 21–32. http://dx.doi.org/10.3917/dm.05.0021.

Texto completo da fonte
Resumo:
Le développement rapide d’Internet amène à penser que ce réseau pourrait devenir un outil important pour les entreprises. Afin d’évaluer ce potentiel, nous analysons Internet sous deux angles : celui de l’industrie, et celui de l’utilisateur. Ces observations conduisent à quelques éléments de détermination des facteurs clés de succès présents et à venir sur ce secteur.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Pitault, Isabelle, Michel Forissier e Jean-René Bernard. "Détermination de constantes cinétiques du craquage catalytique par la modélisation du test de microactivité (MAT)". Canadian Journal of Chemical Engineering 73, n.º 4 (agosto de 1995): 498–504. http://dx.doi.org/10.1002/cjce.5450730409.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Frances, C., B. Biscans e C. Laguerie. "Détermination des cinétiques de croissance et de dissolution du perborate de sodium tetrahydrate en lit fluidisé". Chemical Engineering Journal 48, n.º 2 (fevereiro de 1992): 119–27. http://dx.doi.org/10.1016/0300-9467(92)85013-y.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Bauduin, Gérard, Bernard Boutevin, Bernard Pucci e Jean-Pierre Rigaud. "Cinétiques de télomérisation, 8. Détermination de la constante de transfert du phosphonate de diéthyle — effets de solvants". Die Makromolekulare Chemie 188, n.º 10 (outubro de 1987): 2339–52. http://dx.doi.org/10.1002/macp.1987.021881010.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Lafarge, Victor. "L'analyse d'erreurs comme outil dans la détermination des aides proposées par un EIAH". Alsic, Vol. 10, n° 1 (14 de dezembro de 2007): 159–70. http://dx.doi.org/10.4000/alsic.635.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Cao, Lanlan, e Marc Dupuis. "L’avantage concurrentiel des distributeurs internationaux en chine une approche par les compétences-clés". Décisions Marketing N° 58, n.º 2 (1 de abril de 2010): 63–76. http://dx.doi.org/10.3917/dm.058.0063.

Texto completo da fonte
Resumo:
Cet article montre l’importance de l’identification des compétences-clés d’une enseigne internationale de distribution dans la détermination et le renforcement d’un avantage concurrentiel durable dans un pays d’accueil. L’interview en profondeur de 21 dirigeants des principales enseignes internationales opérant sur le territoire chinois identifie deux types de compétences-clés : les compétences de base et les compétences architecturales. S’agissant des implications pour les praticiens, nous proposons un outil de diagnostic des compétences de l’enseigne et des pistes de réflexion pour contrer l’érosion de son avantage concurrentiel dans le pays d’accueil.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Belaid, Kumar Djamel, e Smaïl Kacha. "Étude cinétique et thermodynamique de l’adsorption d’un colorant basique sur la sciure de bois". Revue des sciences de l’eau 24, n.º 2 (4 de outubro de 2011): 131–44. http://dx.doi.org/10.7202/1006107ar.

Texto completo da fonte
Resumo:
L'adsorption du colorant textile rouge basique Neutral Red (RBNR) sur la sciure du bois a été étudiée. La cinétique, la thermodynamique et les isothermes d'adsorption ont été utilisés pour identifier les mécanismes de la rétention. Les expériences, menées en réacteur fermé et parfaitement agité, pour la détermination de la cinétique, ont été réalisées après réglage des paramètres influençant le système, tels le pH, la masse d'adsorbant et la concentration initiale en colorant. Les résultats obtenus ont été modélisés suivant les équations cinétiques du pseudo-premier ordre, pseudo-second ordre, ainsi que ceux liés à la diffusion externe et intraparticulaire. Les résultats expérimentaux de la réaction globale sont parfaitement ajustables au pseudo-second ordre, avec de très grands coefficients de régression. La diffusion intraparticulaire est l'étape déterminante dans le processus d'adsorption au‑dela de 60 min de contact. La thermodynamique et les isothermes d'adsorption prédisent le passage d'une réaction de surface exothermique spontanée, de type chimiosorption, avec rétention des molécules de RBNR en monocouches organisées sur la surface de l'adsorbant.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Jean-Michel, V., I. Segalen, M. Gosselin e Y. Le Meur. "Intérêt de l’utilisation de l’impédancemétrie en hémodialyse : un outil pour la détermination du poids sec ?" Néphrologie & Thérapeutique 12, n.º 5 (setembro de 2016): 325. http://dx.doi.org/10.1016/j.nephro.2016.07.091.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Anctil, François, William Larouche e Van Diem Hoang. "Analyse régionale des étiages 7-jours de la province de Québec". Water Quality Research Journal 35, n.º 1 (1 de fevereiro de 2000): 125–46. http://dx.doi.org/10.2166/wqrj.2000.008.

Texto completo da fonte
Resumo:
Abstract Une analyse régionale des étiages 7-jours mène à un outil d'estimation fort utile à l’établissement de la qualité de l’eau suite à un rejet d’eaux usées, à la détermination d’un débit environnemental associé à un ouvrage de retenue ou encore à l’établissement d’un débit tiré garanti pour des fins industrielles, agricoles ou de consommation. À partir du débit observé de 119 stations de jaugeage sises au Québec, six régions homogènes ont été délimitées à l’aide d’un test de discordance et d’hétérogénéité. Diverses distributions régionales normalisées ont ensuite été ajustées à l’aide de la méthode des moments L. Les paramètres d’ajustement de ces distributions ont été estimés tant pour des étiages hivernaux qu’estivaux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Lequeux, Guillaume. "Bactériologie de mammites : quelle place pour le laboratoire d’analyses ?" Le Nouveau Praticien Vétérinaire élevages & santé 14 (novembro de 2022): 80–89. http://dx.doi.org/10.1051/npvelsa/2023013.

Texto completo da fonte
Resumo:
Au laboratoire, les outils de diagnostic étiologique d’une infection mammaire chez les bovins reposent encore principalement sur la culture et l’identification bactérienne, d’autant plus avec l’apport important de la technologie Maldi-TOF pour l’identification bactérienne ces dernières années. L’identification par Maldi-TOF permet une détermination rapide, facile et fiable des espèces bactériennes isolées et ouvre également des perspectives en termes de caractérisation bactérienne. L’approche par PCR, disponible depuis une dizaine d’années, permet notamment d’améliorer la sensibilité de la détection, mais constitue une méthode plus sensible aux contaminations et d’interprétation parfois plus délicate que la culture bactérienne. Les outils de séquençage, plus facilement accessibles dorénavant, ouvrent également des perspectives intéressantes. La détermination de la sensibilité aux antibiotiques des pathogènes mammaires, bien que limitée dans ses indications, reste un outil indispensable au praticien dans sa prise de décision de thérapeutique antibiotique. La mise en œuvre de certaines de ces méthodes est envisageable en clinique vétérinaire, mais d’autres (Maldi-TOF, séquençage) resteront probablement réservées quasi-exclusivement au domaine du laboratoire d’analyses. Les approches PCR seront probablement amenées à pouvoir se déployer en ESV dans un avenir proche compte-tenu des nouvelles technologies à présent disponibles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

THIMONIER, J. "Détermination de l’état physiologique des femelles par analyse des niveaux de progestérone". INRAE Productions Animales 13, n.º 3 (18 de junho de 2000): 177–83. http://dx.doi.org/10.20870/productions-animales.2000.13.3.3779.

Texto completo da fonte
Resumo:
Il est possible de déterminer l’état physiologique d’une femelle à partir de l’analyse des niveaux de progestérone plasmatique ou sérique périphérique. Des règles simples pour définir le nombre de prélèvements nécessaires et l’intervalle entre prélèvements sont précisées. Elles doivent être cependant "adaptées" à chaque espèce d’animaux de ferme (bovins, caprins, équins, ovins …). La méthodologie décrite est utilisable dans les élevages pour améliorer la conduite des troupeaux. Elle ne doit cependant pas se substituer à l’outil préférentiel de l’éleveur qui reste la détection des chaleurs. Elle a permis l’adaptation des traitements hormonaux de maîtrise du moment de l’oestrus et de l’ovulation aux différentes catégories de femelles (femelles cycliques, femelles en anoestrus anovulatoire). Elle est un outil indispensable pour des actions de recherche-développement dans les élevages, en particulier pour la mise au point de traitements alternatifs aux traitements hormonaux. Enfin, elle est applicable, mais avec des ajustements indispensables, pour caractériser l’état physiologique à partir de dosages de la progestérone dans des prélèvements de lait chez les femelles laitières.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Niang-Gaye, P., e N. Karpel van Leitner. "Participation des radicaux carbonate à l’oxydation de l’atrazine lors de l’ozonation de solutions aqueuses contenant des ions hydrogénocarbonate". Revue des sciences de l'eau 18, n.º 1 (12 de abril de 2005): 65–86. http://dx.doi.org/10.7202/705550ar.

Texto completo da fonte
Resumo:
L’étude porte sur la détermination de la contribution des espèces O3, OH° et CO3°- dans la dégradation de l’atrazine lors de l’ozonation de solutions contenant différentes concentrations en ions hydrogénocarbonate et en carbone organique. Le suivi de la concentration en atrazine et en ozone dissous, et les expressions cinétiques ont permis de calculer les concentrations en radicaux hydroxyle et carbonate au cours des réactions. A partir des données expérimentales obtenues sur des eaux pures additionnées de carbone organique et inorganique, les résultats indiquent que l’élimination du micropolluant résulte de l’action de l’ozone (pour une faible part), des radicaux hydroxyle issus de la décomposition de l’ozone, mais aussi pour une part très significative, des radicaux carbonate. La participation des radicaux CO3°- diminue lorsque la concentration en carbone organique augmente. Les radicaux carbonate peuvent être responsable de plus de 40 % de la dégradation de l’atrazine lors de l’ozonation en présence de 7 mM d’ions hydrogénocarbonate et 129 µM d’ions glycolate utilisés comme molécule modèle pour l’apport de carbone organique. Les résultats obtenus sur des eaux naturelles confirment les conclusions déduites des expériences sur des eaux de composition connue.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

GHADHAB, Wassim, e Kamel NAOUI. "Stress test micro-prudentiel inversé comme outil de gestion du risque du crédit". Journal of Academic Finance 15, n.º 1 (30 de junho de 2024): 108–22. http://dx.doi.org/10.59051/joaf.v15i1.768.

Texto completo da fonte
Resumo:
Objectif : Cet article vise à appliquer le stress test micro-prudentiel inversé sur le risque de crédit de la Banque des Financements des Petites et Moyennes Entreprises (BFPME). Méthodologie : Elle repose sur des estimations économétriques effectuées sur un échantillon trimestriel de sept (07) variables sur la période 2006-2021, en intégrant l'approche BSVAR de Sims et Zha (1998). Résultats : Les résultats des estimations montrent que l'intégration de l'approche bayésienne structurelle permet de surmonter les limites du modèle classique. Le scénario de stress inversé révèle que le portefeuille de crédit de la BFPME devrait se transformer en NPL d'ici la fin de l’année 2025. Originalité de l’article : L'article introduit une approche novatrice en explorant l'intégration de l'approche bayésienne dans les stress tests et la détermination précise des scénarios de stress inversé via la distribution à priori. Il souligne l'importance pour les banques d'adopter cette approche pour dépasser les limites des modèles classiques et ajouter une dimension de réflexion des décideurs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

THIAM, Moustapha, Amadou Yacine DIATTA, Salmon FAYE, Cheikh Tidiane SALL e Assane TOURÉ. "Analyse des difficultés liées à l’usage des mathématiques dans l’étude de la Cinématique par des élèves en classe de terminale scientifique". Liens, revue internationale des sciences et technologies de l'éducation 1, n.º 7 (15 de dezembro de 2024): 165–77. https://doi.org/10.61585/pud-liens-v1n710.

Texto completo da fonte
Resumo:
Mots-clés : Cinématique, Vecteur position, Vecteur vitesse, Vecteur accélération, Dérivée, Intégral, Primitive Résumé Cet article qui s’inscrit dans le cadre d’une recherche en sciences de l’éducation et précisément en didactique de la physique s’intéresse à la forte intrication des mathématiques comme outil pour l’enseignement de la physique. Cette étude de caractère interdisciplinaire a pour objet d’explorer le niveau de maitrise, par des élèves de terminale du Sénégal, de concepts mathématiques dans l’étude de la cinématique. En choisissant une méthode quantitative, un questionnaire en ligne, sous forme de test, a été administré à des élèves de terminales S1 et S2. Les questions ont porté sur la représentation vectorielle de grandeurs cinématiques, la détermination de coordonnées cartésiennes par calcul de dérivées ou recherche de primitives et la détermination de constantes de mouvement par exploitation graphique. Les résultats ont révélé que les élèves éprouvent plus de difficultés avec la manipulation des vecteurs. Le calcul de dérivées et intégral et la recherche de primitives connaissent moins de difficultés. L’exploitation de graphiques donne plus de satisfaction. Certes les performances réalisées par les élèves sont acceptables, mais nous trouvons nécessaire d’améliorer encore le niveau de maitrise des élèves des savoirs mathématiques utilisés en physique, particulièrement la manipulation des vecteurs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Mansouri, S., R. Benbouta, K. Loucif e M. Benyahia. "Densification et caractérisation d'un outil abrasif en corindon aggloméré et détermination de sa durée de vie". Matériaux & Techniques 95, n.º 3 (2007): 179–83. http://dx.doi.org/10.1051/mattech:2008002.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Zrigue, Anissa. "Le rôle des unités de la troisième articulation du langage dans le contexte de la PNL". Neophilologica 2019 36 (5 de novembro de 2024): 1–13. https://doi.org/10.31261/neo.2024.36.04.

Texto completo da fonte
Resumo:
Traditionnellement, la linguistique a été perçue comme un outil au service de la Programmation Neuro-Linguistique (PNL). Cette perception limite souvent cet outil au langage utilisé par le coach et le coaché, visant à aider ce dernier à atteindre l'état désiré. Mais a-t-on envisagé la PNL comme un outil au service de la linguistique ? La PNL offre aux linguistes un vaste champ de recherche en linguistique appliquée. Notre objectif est de montrer que les interactions entre la linguistique et la PNL sont bidirectionnelles et que la théorie de la troisième articulation du langage a un rôle considérable dans la détermination de l’efficacité d’un protocole de programmation neurolinguistique. En PNL, le choix des unités prédicatives par le coaché n'est pas arbitraire. Il doit tenir compte, d'une part, des méta-programmes du sujet, c'est-à-dire de ses "filtres" et "modèles de pensée" qui influencent sa perception du monde, son comportement et ses réactions dans diverses situations. D'autre part, il doit considérer son « univers de croyance » pour garantir un meilleur résultat. Par exemple, il serait incongru de parler à un kinesthésique du "pouvoir de la parole" ou de ce qui pourrait être "un plaisir pour les yeux", car ses filtres diffèrent de ceux d'un sujet auditif ou visuel. Les unités de la troisième articulation du langage interviennent, ainsi, pour renforcer ces filtres étant elles-mêmes chargées, au niveau de leur combinatoire interne, d'ancres lexicales encapsulant les filtres relatifs à chaque type de sujet. Il s’agit d’étudier dans la présente étude l’apport de la théorie de la troisième articulation du langage dans la constitution d’un référentiel des prédicats visant à faciliter l’appréhension des méta-programmes respectifs des sujets.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Tutta. "La mesure échographique de l'épaisseur de l'Intima-Media de l'artère carotide commune: Marqueur précoce de l'athérosclérose". Praxis 96, n.º 21 (1 de maio de 2007): 851–57. http://dx.doi.org/10.1024/1661-8157.96.21.851.

Texto completo da fonte
Resumo:
Depuis 1986, après les travaux du groupe de Pignoli en Italie, la mesure échographique de l'épaisseur de l'intima-media (IMT) de l'artère carotide est considérée comme un outil très important pour la stratification du risque cardiovasculaire dans les études tant épidémiologiques que pharmacologiques. Après 20 ans d'améliorations technologiques dans le domaine des ultrasons et des techniques d'acquisition informatisées semiautomatiques, la mesure standardisée de L'IMT est actuellement possible et bien codifiée grâce au consensus élaboré et ensuite publié suite aux réunions d'experts à Mannheim-Brussels 2004–2006. L'analyse in vivo de l'IMT de l'artère carotide est certainement la première étape pour la détermination précoce de la formation de l'athérosclérose même avant que des lésions telles que les plaques soient identifiables. Tout particulièrement dans les situations de sujets à haut risque cardiovasculaire la mesure de l'IMT peut aider à la décision de l'introduction de traitements médicamenteux «aggressifs» même en prévention primaire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Yao, Marcel Konan, Djedro Clément Akmel, Kouamé Lazare Akpetou, Albert Trokourey, Kouassi Benjamin Yao e Nogbou Emmanuel Assidjo. "Modélisation de l'évolution spatiotemporelle du phosphore minéral dans une baie lagunaire hypereutrophe tropicale : la baie lagunaire de Tiagba (Côte d'Ivoire)". Revue des sciences de l’eau 30, n.º 3 (28 de março de 2018): 247–58. http://dx.doi.org/10.7202/1044250ar.

Texto completo da fonte
Resumo:
Ce travail décrit une nouvelle approche de la prédiction de l'évolution spatio-temporelle du phosphore minéral dans les eaux de surface, particulièrement dans la baie lagunaire de Tiagba. L'originalité de cette étude réside dans l'utilisation des réseaux de neurones artificiels, précisément du perceptron multicouche, comme outil de modélisation. Deux approches de l'évolution spatio-temporelle de ce nutriment dans cette baie ont été étudiées : sa modélisation statique et sa modélisation dynamique. Ainsi, il a été utilisé deux bases de 3 966 et 4 627 données respectivement pour sa modélisation statique et sa modélisation dynamique. L'algorithme de Levenberg-Marquardt a été utilisé pour la détermination des poids de connexions lors du développement du perceptron multicouche. Il ressort, des résultats obtenus, que les modèles 5-14-1 et 6-14-2 permettent de prédire à 70,30 % et à environ 70 % respectivement les évolutions statique et dynamique du phosphore minéral dans cette baie lagunaire. Ces modèles, jugés satisfaisant peuvent servir de socle pour d'éventuelles études visant à la réhabilitation et la gestion de cet écosystème aquatique dans le cadre de son développement durable.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Ganoulis, J. "Dispersion et disparition des bactéries conformes dans la baie de Thessaloniki". Revue des sciences de l'eau 5, n.º 4 (12 de abril de 2005): 541–54. http://dx.doi.org/10.7202/705146ar.

Texto completo da fonte
Resumo:
Dans les baies presque fermées de la Méditerranée, le taux de renouvellement et le pouvoir dispersif du milieu marin sont faibles. Ceci amène à des concentrations souvent élevées de bactéries califormes à la sortie des stations d'épuration, même munies de filières biologiques. L'élevage de coquillages dans ces baies constitue une contrainte supplémentaire aux concentrations maximales de bactéries permises selon les normes de la CEE. Le problème a été posé pour le fonctionnement de la station d'épuration de la ville de Thessaloniki. Le but de cette étude a été l'analyse quantitative de la dispersion et de la mortalité des bactéries coliformes. Pendant le premier semestre 1990, plusieurs campagnes de mesures ont permis l'échantillonnage et la détermination des concentrations de bactéries coliformes à quatre stations, situées au voisinage d'une source de contamination bactérienne. Parallèlement un modèle mathématique basé sur la simulation de la marche au hasard a été mis au point. Après étalonnage, ce modèle a servi comme outil pour simuler les impacts, sur les sites de conchyliculture, des eaux usées de la ville.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Gautier, S., e A. Quignard. "Résonance magnétique nucléaire 1H basse résolution. Le meilleur outil pour une détermination précise de la teneur en hydrogène des produits pétroliers". Revue de l'Institut Français du Pétrole 50, n.º 2 (março de 1995): 249–82. http://dx.doi.org/10.2516/ogst:1995020.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Barnier, Jean-Philippe, e David Lebeaux. "L’antibiogramme : interprétation, pièges et nouveautés". Médecine Intensive Réanimation 33, n.º 1 (29 de março de 2024): 47–60. http://dx.doi.org/10.37051/mir-00194.

Texto completo da fonte
Resumo:
L’évolution rapide de la résistance aux antibiotiques, en particulier chez les bactéries à Gram négatif, nécessite des outils fiables pour guider l’antibiothérapie. La détermination de la sensibilité aux antibiotiques est donc une activité centrale des laboratoires de microbiologie clinique. Le but est d’assurer l’adéquation entre le traitement antibiotique et la sensibilité des isolats bactériens, de détecter les résistances acquises, et de fournir des données pour le suivi de l’épidémiologie de la résistance aux antimicrobiens. De nombreuses méthodes d’antibiogramme sont disponibles : microdilution en milieu liquide, méthode automatisées, diffusion en milieu gélosé. Toutes ces techniques offrent des résultats qualitatifs : catégorisation des isolats bactériens en sensible, intermédiaire ou résistant et certaines des résultats quantitatifs (concentration minimale inhibitrice). De plus, l’antibiogramme est un outil essentiel pour la détection de mécanismes de résistance émergents, malgré les progrès de la génomique. Si de nombreux outils permettant la détection rapide des mécanismes de résistance sont aujourd’hui disponibles, il est probable que l’antibiogramme gardera une place importante dans la prise en charge des infections bactériennes dans les prochaines années. Son interprétation, parfois complexe, impose un dialogue entre le microbiologiste et le clinicien.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Hosseingholian, Mohsen, Daniel Levacher e Matoren Khay. "Mesure en continu de la raideur dynamique d’une voie ferrée". Canadian Geotechnical Journal 48, n.º 3 (março de 2011): 439–50. http://dx.doi.org/10.1139/t11-003.

Texto completo da fonte
Resumo:
La structure supportant le trafic ferroviaire est un des éléments les plus importants pour assurer la stabilité géométrique de la voie et son bon fonctionnement à long terme. Des couches de sols de faible portance et instables peuvent provoquer sous l’effet de la circulation des trains, des défauts géométriques, accélérant ainsi la dégradation des constituants de la voie. La raideur est considérée comme un indicateur structurel pertinent de la voie. Sa détermination reste difficile et dépend de la méthode utilisée. Ainsi, une étude fut réalisée pour mettre au point une technique automatisée de mesure de la raideur de la voie. Cette technique consiste à mesurer la raideur en continu sous des charges à l’essieu définies. La méthode proposée permet de localiser précisément les sections de voie présentant de fortes variations de raideur. Les essais pour des voies classiques effectués avec un chargement par vérin hydrodynamique et le Portancemètre routier ont montré que la raideur d’une voie dépend fortement des paramètres de charge et de fréquence d’excitation. La technique utilisée permet de connaître le comportement de la structure selon la réponse du sol support. Enfin, les résultats obtenus ont permis de développer un nouvel outil de mesure en continu de la portance.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

LE Thiesse, J. C., e R. Lalauze. "Détermination des différentes espèces formées à la surface de l'oxyde de nickel par adsorption d'oxygène. I - Étude expérimentale des cinétiques d'adsorption en programmation de température et par calorimétrie". Journal de Chimie Physique 83 (1986): 25–32. http://dx.doi.org/10.1051/jcp/1986830025.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Thanguturi, Soumanth, Mahtab Samimi, Gaëlle Fromont-Hankard, Anne Tallet, Catherine Coco, Yannick Le Corre, Ewa Hainaut-Wierzbicka et al. "L’investigation de l’axe RB1-SOX2 constitue un outil pour le diagnostic et la détermination du statut viral des carcinomes à cellules de Merkel". Annales de Dermatologie et de Vénéréologie - FMC 1, n.º 8 (dezembro de 2021): A62—A63. http://dx.doi.org/10.1016/j.fander.2021.09.451.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Lescalier, C. "Interactions pièce–outil–machine en rectification. Détermination rationnelle du domaine de fonctionnementWorkpiece–tool–machine-tool interactions in grinding. Determination of the grindability domain". Mécanique & Industries 3, n.º 4 (2002): 351–60. http://dx.doi.org/10.1016/s1296-2139(02)01175-2.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Yahiaoui, Abdelhalim, Bénina Touaïbia, Christophe Bouvier e Noureddine Dechemi. "Modélisation du régime de crue en Débit – durée – Fréquence du bassin de l’oued Mekerra dans l’ouest Algérien". Revue des sciences de l’eau 24, n.º 2 (4 de outubro de 2011): 103–15. http://dx.doi.org/10.7202/1006105ar.

Texto completo da fonte
Resumo:
La modélisation QdF (Débit-durée-Fréquence) est un moyen de représenter le régime de crue d'un bassin versant et constitue un outil bien adapté à la prédétermination des crues rares et extrêmes. Cet article a pour objectif d'étudier les conditions d'application de la modélisation QdF et, par conséquent, la détermination des courbes correspondantes sur le bassin versant de l'oued Mekerra, dans le Nord- Ouest algérien. Les courbes QdF sont d'abord déterminées localement, directement à partir d'une analyse statistique des débits moyens (VCXd) sur différentes durées, à partir des données disponibles à la station de Sidi-Bel-Abbès. Ces courbes sont ensuite comparées à celles obtenues en appliquant différents modèles régionaux (Vandenesse, Florac ou Soyans), dans lesquels sont pris en compte deux indices de la crue caractéristique du bassin versant, une durée descriptive de la dynamique des crues (D) et le débit instantané de période de retour dix ans (QIXA10). Les modèles régionaux les plus proches du modèle local sont le modèle Soyans pour les périodes de retour inférieures à 100 ans, et le modèle de Florac pour les périodes de retour supérieures à 100 ans. Ces résultats pourront être exploités pour construire des courbes QdF sur des bassins algériens non jaugés. Il est cependant nécessaire de répéter cette étude sur d'autres bassins afin de confirmer ces premiers résultats.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Gourde, Annie, Michel Turcotte e Liette Goyer. "Développement d’un outil d’aide à la recherche d’information sur le marché du travail (IMT) pour les personnes conseillères dans le domaine de l’orientation scolaire et professionnelle : l’Accompagnateur numérique en IMT". Canadian Journal of Career Development 24, n.º 1 (21 de janeiro de 2025): 7–32. https://doi.org/10.53379/cjcd.2025.408.

Texto completo da fonte
Resumo:
L’information sur le marché du travail (IMT) fait partie intégrante de la pratique professionnelle des conseiller.ère.s d’orientation, mais aussi des conseiller.ère.s en emploi et en développement de carrière. L’objectif de cette recherche appliquée de nature partenariale, était de créer une plateforme numérique destinée à faciliter l’utilisation de l’IMT pour les personnes conseillères et leurs client.e.s. Pour ce faire, nous ferons état des cinq étapes qui ont conduit à la conception et à la réalisation de cette plateforme numérique, soit : idéation et détermination des objectifs, fonctionnalités, besoins et clientèles cibles de la plateforme numérique, la coconception de son design, l’analyse des besoins des utilisateur.rice.s, le développement technique de la plateforme et l’appréciation auprès des personnes conseillères. Cette recherche a permis de ressortir que conformément à une étude réalisée par le Conseil de l’information sur le marché du travail (CIMT, 2019), les caractéristiques de l’IMT les plus importantes pour les personnes conseillères sont : l’actualité, la fiabilité, la facilité d’utilisation, l’exhaustivité et la spécificité. Cette recherche a également permis de déterminer que L’Accompagnateur numérique en IMT permet de répondre aux besoins des personnes conseillères en étant simple d’utilisation et en répertoriant un nombre appréciable de sites Internet (75) tout en les classant en différentes sections afin d’aider la recherche d’IMT.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Ndiaye, Ibrahima, Soussou Sambou, Issa Leye e Moustapha Diaw. "Evaluation du potentiel en petite hydroelectricite du bassin versant de wassadou en utilisant le modele hydrologique SWAT". Journal de Physique de la SOAPHYS 2, n.º 2 (12 de maio de 2021): C20A20–1—C20A20–9. http://dx.doi.org/10.46411/jpsoaphys.2020.02.20.

Texto completo da fonte
Resumo:
L’augmentation de la quantité de CO2 et le réchauffement climatique due aux énergies fossiles ont rendu nécessaire le besoin d’explorer d’autres sources d’énergies inépuisables, disponibles et non polluantes telles que les énergies renouvelables. L’énergie hydraulique représente 19% de la production mondiale. Les Petites Centrales hydroélectriques sont de petites unités deproduction peu couteuses. Le potentiel en hydroélectricité dépend du débit et de la hauteur de chute. Dans cette étude, nous sélectionnons des sites en vue de l’évaluation du potentiel en petite hydroélectricité dans le bassin versant de Wassadou sur le fleuve Gambie. Grâce à ArcGis, et au modèle numérique de terrain (MNT) 11 affluents ont été retenus, et 35 sites d’emplacements de petite centrale hydroélectrique (PCH) identifiés. Le modèle hydrologique SWAT a été calibré pour une période d’observation 1990-1995 et validé sur la période 1996-1998. La précision du modèle a été confirmée par le coefficient de détermination (R2 = 0,70) et le critère d’efficacité Nash-Sutcliffe (ENS = 0,80). Ce modèle a été utilisé pour générer les débits journaliers au niveau de chaque site sur la période 1990-1998 ce qui a permis de construire les courbes des débits classés. Un potentiel hydroélectrique total de 147 421, 14 229, et 1 859 kW disponibles 40, 50 et 60% respectivement sur l’ensemble des 35 sites a été évalué. Les résultats de cette étude constituent un outil de décision à l’intention des décideurs politiques et des investisseurs pour la sélection des sites appropriés et la mise en oeuvre des petites centrales hydroélectriques en vue de répondre aux besoins énergétiques dans les zones éloignées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Rifai, Nabil, Abdellatif Khattabi e Laila Rhazi. "Modélisation des crues des rivières pour la gestion intégrée du risque d’inondation : cas du bassin versant de Tahaddart (nord-ouest du Maroc)". Revue des sciences de l’eau 27, n.º 1 (29 de janeiro de 2014): 57–69. http://dx.doi.org/10.7202/1021982ar.

Texto completo da fonte
Resumo:
Résumé Dans la région méditerranéenne, l’ampleur des inondations passées ainsi que les prévisions d’une augmentation de leur fréquence imposent une prise en considération du risque d’inondation par les aménagistes et les décideurs locaux. Dans ce cadre, la détermination des zones susceptibles d’être affectées par les inondations est primordiale pour une meilleure gestion de ce risque. La méthodologie mise en place dans cet article permet de disposer d’un outil d’évaluation du risque d’inondation à l’échelle du bassin versant. Elle repose sur l’idée que le risque d’inondation est la résultante du facteur aléa (fréquence-intensité physique du phénomène naturel) et du facteur vulnérabilité (sensibilité d’un usage du sol aux dommages d’inondations). L’évaluation du facteur aléa repose sur la combinaison de deux notions : la récurrence d’une inondation et la submersion résultante. Une modélisation hydraulique permet de suivre l’évolution spatio-temporelle des caractéristiques d’une crue, tandis que l’évaluation de la vulnérabilité se réfère à l’occupation du sol : tout dommage économique direct ou indirect apparait lorsque l'eau inonde au moins une parcelle de terrain. Appliquée au bassin versant de Tahaddart (nord-ouest du Maroc), l’étude a montré la prédominance d’un aléa inondation élevé alors que la vulnérabilité, plus modérée, est de plus en plus ressentie avec l’expansion que connaît la région en matière d’urbanisme et d’infrastructures. Ainsi, environ 8 % de la superficie du bassin versant est sujette au risque d’inondation; presque la moitié est classée en risque élevé. Une carte de « risque d’inondation » a été produite afin de permettre aux aménagistes et aux autorités locales de proposer des mesures d’atténuation dans les zones susceptibles d’être affectées par les inondations et d’agir plus efficacement en cas de crue.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Verschraegen, Bea. "Austrian Report". European Review of Private Law 20, Issue 1 (1 de fevereiro de 2012): 51–80. http://dx.doi.org/10.54648/erpl2012003.

Texto completo da fonte
Resumo:
Abstract: This contribution focuses on issues of Private International Law, more specifically with international mandatory law and rules of conduct. International mandatory law is a tool of states to widen the geographical field of application and to limit party autonomy. This may lead to a clash of power between the states and the EU. The paper deals with the way how international mandatory law is conceived by the Austrian legislator and the courts. The notion of rules of conduct is blurred. Such rules can contribute to the ascertainment of the applicable law respective of the principles that will govern the case. Their application in national and cross-border cases lacks consistency. This is demonstrated throughout Private International Law cases. Résumé: La présente contribution traite de questions de droit international privé, plus spécialement de droit international impératif et des règles de conduite. Le droit international impératif est un outil pour les états permettant d'élargir le champ géographique d'application et de limiter l'autonomie des parties. Ceci peut conduire à un conflit de pouvoir entre les états et l' UE. Le présent article traite de la manière don't le droit international impératif est conçu par le législateur autrichien et les tribunaux. La notion de règles de conduite est floue. De telles règles peuvent contribuer à la détermination du droit applicable et aux principes auxquels l'affaire sera soumise. Leur application dans les affaires nationales et transnationales manque de consistence. Ceci est démontré au travers d'affaires de droit international privé. Zusammenfassung: Der vorliegende Beitrag konzentriert sich auf problematische Aspekte des internationalen Privatrechts, speziell im Bereich der international zwingenden Rechtsvorschriften und Verhaltensnormen. Für Staaten stellt dieses zwingende Recht ein Mittel dar, mit dem der geografische Anwendungsbereich von Normen ausgeweitet und die Vertragsfreiheit begrenzt wird. Dies könnte jedoch zu einem Machtkonflikt zwischen einzelnen Staaten und der EU führen. Der Beitrag behandelt die Art und Weise, wie international zwingendes Recht durch den österreichischen Gesetzgeber und österreichische Gerichte aufgefasst wird. Die genaue Bedeutung von Verhaltensnormen ist unklar. Solche Normen können zur Feststellung des anzuwendenden Rechts bzw. der Rechtsgrundsätze, die für den jeweiligen Fall bestimmend sind, beitragen. Ihrer Anwendung in nationalen und grenzüberschreitenden Fällen mangelt es jedoch an Einheitlichkeit. Dies zeigt sich durchweg in der Untersuchung internationaler Privatrechtsfälle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Patouma, Lewa, Elias Nchiwan Nukenine, Ibrahima Adamou e Champlain Djieto-Lordon. "Caractérisation de l’entomofaune de la tomate (Lycopersicon esculentum Mill) en champ dans la localité de Meskine, région de l’Extrême-nord, Cameroun". International Journal of Biological and Chemical Sciences 14, n.º 6 (6 de outubro de 2020): 2069–76. http://dx.doi.org/10.4314/ijbcs.v14i6.11.

Texto completo da fonte
Resumo:
La localité de Meskine à Maroua, longtemps considérée comme une zone céréalière de l’Extrême-nord du Cameroun, est devenue, de nos jours, une région de production de tomate par excellence. Les producteurs de cette culture font face à plusieurs contraintes parmi lesquelles les activités des insectes ravageurs. Dans le but de contribuer à l’amélioration de la production de cette culture, la présente étude a permis d’établir une liste des insectes ravageurs et utiles pullulant dans les champs de tomate. Les insectes, collectés par aspiration et par fauchage, ont été identifiés dans les laboratoires de Zoologie appliquée des universités de Ngaoundéré et Yaoundé I au Cameroun. L’inventaire a montré que les insectes inféodés à la culture de la tomate dans la localité de Meskine à Maroua sont représentés par huit (8) ordres, vingt-une (21) familles et vingt-deux (22) genres. Ces insectes. Bien que la majorité de ces insectes soit des ravageurs, on note la présence de quelques prédateurs et pollinisateurs. La détermination de l’entomofaune de la culture de tomate dans cette localité est un outil qui peut ainsi servir à la conception de stratégies de lutte contre les ravageurs. Mots clés: Lycopersicon esculentum, insectes ravageurs, insectes prédateurs, Maroua. English Title: Entomofauna associated to the tomato crops (Lycopersicon esculentum Mill) in the locality of Meskine, Far North region, Cameroon Meskine in the Far North region, Cameroon has long been considered as cereal zone production. This locality has become today a region of tomato production per excellence. Farmers in this locality are faced to many constrains among which activities of insect pests. In order to improve the production of this crop, the present study allows us to establish a list of potential insect pests and benefit insects of tomato crops. Insects collected using aspirator and sweep net were identified in the laboratories of applied Zoology at the Universities of Ngaoundéré and Yaoundé I, Cameroon. The results of our study showed that, insects associated to tomatoes in the locality of Meskine were from eight (8) orders, twenty-one (21) families and twenty-two (22) genera. Although the majority of these insects were represented by potential insect pests, some predators and pollinators were recorded. The establishment of the lists of harmful and benefits insects associated to the tomato crop in this locality can therefore be used to design strategies for the management of insect pests.Keywords: Lycopersicon esculentum, insect pests, predator insects, Maroua
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Shapiro, Jonathon. "Procédures cliniques : Un nouveau test pour examiner les différentes composantes de la réfraction monoculaire subjective". Canadian Journal of Optometry 85, n.º 4 (7 de dezembro de 2023): 49–66. http://dx.doi.org/10.15353/cjo.v85i4.5567.

Texto completo da fonte
Resumo:
Importance : La réfraction monoculaire subjective constitue l’examen de base pour déterminer la puissance d’une lentille ophtalmique. L’utilisation d’un seul outil d’examen pour déterminer la prescription finale, simultanément avec une méthode de contrôle des erreurs d’examen, simplifie la procédure, puisque le patient a maintenant une meilleure compréhension de l’objectif et se sent plus à l’aise avec l’examen. But L’objectif de cette étude était de mettre au point un tableau d’examen et une méthode d’examen permettant d’améliorer l’efficacité de la détermination de la correction des composantes astigmatiques et sphériques d’une prescription. La procédure de test utilise une comparaison immédiate et évite les tests séquentiels qui dépendent de la mémoire. Elle comporte une méthode permettant d’éviter les erreurs causées par le décentrement. Ceci est important dans le cas de prescriptions élevées. Cette méthode peut être utilisée par le personnel auxiliaire dans le cadre des tests préliminaires. Méthodes : Un tableau d’examen unique et non mobile indépendant du cercle de moindre confusion est présenté. La cible est basée sur la résolution simultanée d’une ligne dans quatre méridiens. Un deuxième tableau est intégré au tableau principal. Il utilise le déplacement chromatique, causé par l’observation décentrée d’un prisme, pour éviter les erreurs. Résultats : Il a été démontré que cette méthode d’essai, lorsqu’elle est utilisée à la clinique, est efficace et facile à comprendre. Un essai indépendant limité a montré que la méthode est aussi efficace que les méthodes traditionnelles et donne des résultats acceptables lorsqu’elle est utilisée par le personnel auxiliaire. Les résultats obtenus par des personnes sans expérience sont également présentés. Cela peut être utile dans les environnements où il n’y a pas de personnel professionnel disponible. Conclusion : La méthode décrite ici améliore l’examen de la réfraction subjective sans avoir à changer de cible. Il n’est pas nécessaire de tenir compte du cercle de moindre confusion. La cible comprend des tests pour l’axe, la puissance du cylindre, la puissance sphérique et le duochrome. Les patients préfèrent la comparaison simultanée au test séquentiel et la comprennent facilement. Le point final sphérique est défini, sauf en cas d’hyperacuité ou de spasme d’accommodation. Le test améliore la capacité du patient à comprendre la méthode d’examen et à se sentir à l’aise. L’équilibre binoculaire n’est pas pris en compte ici.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

CAMARA, El Hadji Alioune. "Modélisation macroéconométrique de l’économie sénégalaise". Revue d’Economie Théorique et Appliquée 7, n.º 2 (30 de dezembro de 2017): 105–30. https://doi.org/10.62519/reta.v7n2a1.

Texto completo da fonte
Resumo:
Résumé : Les chocs affectent la croissance économique, les exportations, le niveau du budget et la situation sociale des populations. La détermination de leur ampleur ainsi que la capacité du pays à faire dissiper cette onde de choc va dépendre des moyens dont dispose le pays en matière d’outils d’aide à la décision. L’objectif de ce modèle, est de proposer un outil qui devrait permettre une meilleure visibilité pour le choix de politiques économiques et de rendre compte de l’impact des chocs pour mieux anticiper l’avenir. Basé sur celui de Haque, Lahiri et Montiel (1990), le modèle prend en compte le caractère hétérogène de l’économie sénégalaise en combinant une logique d’offre (néoclassique) et une logique de demande (keynésien). C’est un modèle d’équilibre général représentant l’économie dans sa globalité par cinq blocs : Bloc offre demande globale, Bloc prix, Bloc revenu, Bloc finances publiques, Bloc monnaie et balance des paiements. Chaque bloc décrit les interactions qui existent à l’intérieur des marchés sous-jacents qui régissent les blocs. Les simulations dynamiques réalisées, attestent de la robustesse du modèle qui peut ainsi être utilisé dans le cadre de la conception et de l’évaluation ex ante des politiques économiques. Mots clés : Modélisation macroéconomique, Sénégal, Chocs, Simulation économétrique, Politiques Economiques Macroeconometric modeling of the Senegalese economy Abstract: Shocks affect economic growth, exports, the budget level and the social situation of the population. The determination of their magnitude and the ability of a country to dissipate this shock wave will depend on the means available to the latter in terms of decision support tools. The objective of this model is to propose a tool that should allow better visibility for the choice of economic policies and to account for the impact of shocks and better anticipate the future. Based on that of Haque, Lahiri and Montiel (1990), the model takes into account the heterogeneous nature of the Senegalese economy, combining a logic of supply (neoclassical) and a logic of demand (Keynesian). It is a general equilibrium model, where the economy as a whole is represented by five blocks: block supply global demand, block price, block income, block public finances, currency bloc and balance of payments, which interact with each other. The dynamic simulations carried out attest to the robustness of the model, which can thus be used in the context of the design and ex-ante evaluation of economic policies. Keywords: Macroeconomic modeling, Senegal, Shocks, Econometric simulation, Economic policy JEL Classification : E60 - H50 - H68- O55
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

CAHU, C., e H. POULIQUEN. "Troisième partie : Mesures de gestion du risque d’apparition des maladies infectieuses aquacoles". INRAE Productions Animales 20, n.º 3 (7 de setembro de 2007): 227. http://dx.doi.org/10.20870/productions-animales.2007.20.3.3461.

Texto completo da fonte
Resumo:
Les réseaux de surveillance des maladies infectieuses aquacoles constituent un excellent outil de gestion de ces maladies. Un premier article (Joly et al) présente la surveillance des maladies des mollusques par le biais de deux réseaux de surveillance, REPAMO (surveillance de l’apparition des maladies chez les coquillages des côtes françaises métropolitaines) et REPANUI (surveillance de l’apparition des maladies de l’huître perlière en Polynésie). De tels réseaux n’existent pas pour les poissons. Etant donné leur intérêt pour la gestion des élevages, l’Agence Française de Sécurité Sanitaire des Aliments (AFSSA) a décidé de mettre en place cette année un réseau de surveillance des maladies des poissons, qui bénéficiera de l’expérience des réseaux mollusques. Parmi les mesures de gestion des maladies infectieuses piscicoles, la vaccination est celle qui séduit le plus les professionnels de terrain. Un deuxième article (Quentel et al) dresse ainsi l’état des lieux des vaccins disponibles en pisciculture. La principale limite de la vaccination tient à la difficulté d'en garantir l'efficacité lors d'administration orale malgré des tentatives d'amélioration par microencapsulation. Par ailleurs, le nombre de vaccins disponibles est très limité en raison des investissements nécessaires pour obtenir une autorisation de mise sur le marché piscicole de taille réduite. Les autovaccins peuvent aussi être utilisés, notamment en situation d’urgence, même si leurs conditions de préparation sont réglementées. La sélection génétique d'animaux résistants est porteuse d'espoir, en particulier pour les animaux destinés à l'exportation. Un troisième article (Quillet et al) présente donc la génétique de la réponse aux pathogènes piscicoles. Néanmoins, cette sélection génétique soulève des questions, d’une part sur les éventuelles corrélations génétiques entre différentes maladies ou entre une maladie et d’autres caractères (par exemple, la résistance à la SHV montre une légère corrélation négative avec la croissance chez la truite), d’autre part sur la possibilité de mutation des agents pathogènes. Les probiotiques, les prébiotiques et les peptides antimicrobiens pourraient à terme et en partie se substituer aux antibiotiques, notamment pour des raisons d'image des élevages et des produits mais aussi par crainte de voir se développer des antibiorésistances dans les élevages. Un dernier article (Nicolas et al) souligne donc la nécessité de soutenir des études sur ce thème dans le double objectif, d’une part d'une meilleure compréhension de leurs effets sur le système immunitaire des animaux aquatiques, d’autre part de la détermination de leur innocuité pour les animaux cibles, le consommateur et l’environnement. Il faut également rappeler la nécessité de poursuivre des études sur l’utilisation raisonnée des antibiotiques, principal moyen thérapeutique à court et moyen terme contre certaines maladies infectieuses aquacoles, émergentes ou non.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Bouraoui, F., e M. L. Wolfe. "Évaluation d'un modèle des zones de pâturages et de prairies naturelles". Revue des sciences de l'eau 16, n.º 4 (12 de abril de 2005): 459–74. http://dx.doi.org/10.7202/705518ar.

Texto completo da fonte
Resumo:
Une grande quantité d'eau est perdue dans les zones de pâturage et prairies naturelles du fait de la présence dans ces régions de plantes à forte transpiration. La gestion du couvert végétal et des bassins versants a été proposée comme moyen pour augmenter la disponibilité des ressources en eau. Des efforts accrûs ont été consacrés au développement de pratiques de gestion et d'outils pour évaluer le potentiel d'augmentation de la ressource en eau. La modélisation hydrologique joue un rôle clé dans ces efforts. Un des outils les plus complets pour la modélisation dans les zones de pâturage et prairies naturelles est le modèle SPUR. Il s'agit d'un modèle de bassin versant, spatialement semi-distribué. Le modèle est constitué de cinq modules principaux qui incluent les aspects suivants: climat, hydrologie, plantes, animaux et économie. La composante hydrologique du modèle prend en compte à un pas de temps journalier les phénomènes de ruissellement, évapotranspiration, percolation et écoulement latéral. Le ruissellement est calculé à partir du numéro de courbe qui dépend du couvert végétal, des pratiques culturales, ainsi que des conditions hydrologiques. Cependant l'utilisation par le modèle de la méthode du numéro de courbe pour déterminer le ruissellement pose de sérieux problèmes quant à l'efficacité du modèle. Dans notre recherche, nous avons substitué la méthode des numéros de courbe par l'équation de Green et Ampt. Un avantage majeur de cette approche est l'utilisation de l'intensité de la pluie comme variable de forçage au lieu de la pluie journalière. De plus, cette équation d'infiltration utilise des paramètres physiques comme la conductivité hydraulique à saturation. L'objectif de cet article est de présenter les performances du modèle SPUR original et modifié sur trois types de couvert végétal : sol nu, sol enherbé et buissons. Trois années de mesures collectées sur le bassin versant de Throckmorton (Texas, Etats Unis d'Amérique) ont été utilisées pour la calibration et la validation des modèles. Les performances des modèles ont été évaluées en utilisant le coefficient d'efficience de Nash et Sutcliff. Le calage a porté sur la première année de mesure. Pour le modèle original, le calage a consisté à ajuster les numéros de courbe de manière à optimiser l'efficience. Pour le modèle modifié, il n'a été procédé à aucun calage. Les valeurs de conductivité hydraulique à saturation ont été estimées en utilisant des équations de pédotransfert en se basant sur les propriétés texturales et structurales des sols. L'introduction dans le modèle SPUR de l'équation de Green et Ampt a considérablement amélioré la performance du modèle pour la prévision du ruissellement sur tous les sites. L'efficience moyenne pour les prévisions du ruissellement mensuel sur sol nu est de 0.16, alors que celle ci est négative pour le modèle original (-0.11). Pour les sites enherbés l'efficience du modèle modifié est de 0.48 alors qu'elle est négative pour le modèle original. L'utilisation du numéro de courbe a résulté en une surestimation systématique du ruissellement sur tous les sites. De manière générale, le modèle original et le modèle modifié présentent de meilleures performances sur les sites non nus. Ceci est dû au fait que les deux modèles sous-estiment de manière significative l'évaporation sur les sols nus. Un des désavantages des deux modèles est en effet de limiter l'évaporation aux premiers 15 cm du sol. L'introduction de l'équation de Green et Ampt a amélioré les performances du modèle pour la prévision du ruissellement aussi bien à l'échelle mensuelle qu'annuelle. De plus, le modèle modifié est sensible au type d'occupation du sol et est donc adapté comme outil pour l'analyse de scénario en vue de préserver les ressources en eau. Une analyse de sensibilité a été conduite afin d'évaluer l'impact des paramètres d'entrée sur les sorties des deux modèles. L'analyse de sensibilité a consisté à modifier systématiquement les paramètres d'entrée de plus ou moins 10%. Pour le modèle original, l'analyse a porté sur l'influence du numéro de courbe, et pour le modèle modifié celle ci a porté sur l'étude de l'impact lié aux paramètres utilisés pour calculer la conductivité hydraulique à saturation. Concernant le modèle original, une augmentation du numéro de courbe de 10% entraîne une augmentation du ruissellement de 120% pour le sol nu, et aux alentours de 100% pour les autres sites. L'impact de ces variations sur l'évaporanspiration est minimal, avec une variation maximale de 16% pour le sol nu. Concernant le modèle modifié, la teneur du sol en sable est le paramètre ayant la plus grande influence sur la quantité d'eau ruisselée pour le sol nu. Par contre, pour les lysimètres ayant un couvert végétal, le pourcentage de sol couvert par la canopée est le factor majeur contrôlant la quantité d'eau ruisselée. Les paramètres liés au couvert végétal ont un plus grand impact sur le ruissellement que les paramètres liés aux propriétés intrinsèques du sol. Globalement l'introduction de l'équation de Green et Ampt a amélioré les capacités prédictives du modèle. Outre le fait que le modèle modifié ne nécessite pas un calage particulier pour la détermination des paramètres de transfert de l'eau dans le sol, il se base sur l'intensité de la pluie pour la détermination du ruissellement. Il a été montré que le modèle modifié est sensible aux changements de type d'occupation du sol. Il peut donc être donc utilisé comme outil pour évaluer l'impact de différents scénarios d'occupation du sol sur les ressources en eau dans les zones de pâturage et prairies naturelles. Toutefois, des améliorations, telles que l'introduction de l'impact du développement de fissures sur l'infiltration (écoulement préférentiel) ainsi que sur le phénomène d'évaporation devraient être prises en compte afin d'améliorer les prévisions du bilan hydrologiques, notamment sur sol nu.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Ivanouw, Jan. "The Rorschach Comprehensive System Scoring Conceptualized by a Phenomenological Metalanguage". Rorschachiana 24, n.º 1 (janeiro de 2000): 127–49. http://dx.doi.org/10.1027/1192-5604.24.1.127.

Texto completo da fonte
Resumo:
Le psychologue danois Edgar Rubin est bien connu pour ses expériences sur les rapports figure/fond. Son disciple Edgar Tranekjær Rasmussen a développé un métalangage phénoménologique applicable aux expériences sur la perception. Ce langage constitue aussi un outil d’intérêt général en psychologie et nous l’utilisons dans l’enseignement pour mieux comprendre les processus impliqués dans le Rorschach et résoudre les problèmes de la cotation. Le test du Rorschach nécessite de recueillir des informations sur l’expérience du sujet. Le recours au métalangage de Edgar Tranekjær Rasmussen nous aide dans ce processus. Le concept central de ce métalangage est celui de “phénomène.” Celui-ci désigne toute “chose” qui apparaît à une personne, y compris tous les aspects des autres phénomènes qui apparaissent, dont les relations entre phénomènes. Un phénomène apparaît à une personne à partir de traits médiateurs, ou formes apparentes qui changent selon le point de vue, tandis que le phénomène reste identique à lui-même. Un phénomène a un champ d’apparition dans la mesure où il apparaît en même temps que d’autres phénomènes, qui sont ses traits de champ. Parmi ces derniers, on distingue les traits propres, les traits étrangers et les traits périphériques. Lorsque l’on combine, d’une manière expérimentale, le phénomène A avec ses traits propres, le phénomène qui en résulte est identique à A. De même, lorsque l’on combine A avec ses traits étrangers, le phénomène qui en résulte est différent de A. Les traits périphériques sont indéterminés quant à leur qualité propre ou étrangère. Un phénomène comporte des traits déterminants. Pour qu’un phénomène garde son identité, certains traits déterminants doivent apparaître pour la personne dans différentes situations d’observation. Les traits propres du phénomène fonctionnent comme traits déterminants. Certains des traits étrangers peuvent aussi être des traits déterminants. Les traits périphériques peuvent changer, de telle sorte que le phénomène apparaît changé mais reste le même phénomène. Le concept d’identité tient donc une importance centrale dans le métalangage. Parfois, un phénomène apparaît comme un phénomène dont l’identité est encore à déterminer. Un phénomène peut apparaître d’une manière directe, immédiate, ou il peut apparaître d’une manière indirecte, médiate. Dans ce dernier cas, les traits médiateurs apparaissent d’une manière immédiate mais se réfèrent au phénomène qui est lui indirect. Il existe des phénomènes à différents niveaux. Au niveau supérieur, un phénomène possède tous les traits déterminants du niveau inférieur plus certains autres. Il est courant de confondre les différents niveaux de phénomènes lorsqu’ils portent le même nom. Un phénomène abstrait est formé à partir de certains traits déterminants d’un autre phénomène, mais pas de tous. La procédure d’identification intersubjective désigne ce qui se passe lorsque deux personnes utilisent le langage ou toute autre forme de communication (apparition anthropique) pour s’assurer que le phénomène qui leur apparaît est le même. Lorsqu’ils ont quelque doute, ils se réfèrent aux traits déterminants du phénomène, et s’ils doutent encore de ceux-ci, le processus continue jusqu’à ce qu’ils atteignent les phénomènes qui fonctionnent comme des bases de référence qui leur apparaissent à tous les deux comme identiques. Une relation peut apparaître comme un phénomène. Elle peut avoir comme champ d’apparition certains processus et quelques autres phénomènes qui participent à la relation. A l’inverse, le trait d’un phénomène peut être d’avoir une certaine relation avec d’autres phénomènes. Les phases de réponse et d’enquête au Rorschach sont caractérisées par ce métalangage. La nature même du Rorschach suscite beaucoup de phénomènes dont l’identité est encore à déterminer. Les caractéristiques des taches d’encre poussent le sujet à utiliser une identité de phénomène de manière moins stricte que ce qu’ils feraient dans la vie de tous les jours. Cela est dû au fait que les phénomènes apparaissant comme des réponses au test possèdent souvent beaucoup de traits périphériques, qui ne fonctionnent pas comme des traits déterminants mais qui permettent que les phénomènes apparaissent comme changés en comparaison avec leur apparence habituelle. Alors que, dans la phase de réponse, les phénomènes apparaissent souvent comme immédiats, dans la phase d’enquête ils apparaissent de manière plus indirecte, médiatisée par leurs formes d’apparition. A l’enquête, il va être important de formuler les traits déterminants des phénomènes qui ont apparus au sujet dans la phase de réponse de telle sorte que les phénomènes conservent l’identité et la forme d’apparition qu’ils avaient au départ. La procédure d’identification intersubjective peut être utile pour recueillir l’information pertinente. Le métalangage phénoménologique est utile pour éclairer les problèmes de détermination des localisations et pour distinguer entre une qualité de développement ordinaire ou de synthèse. Nous discutons dans cet article de la relation entre déterminants au Rorschach et le concept de “traits déterminants” propre au métalangage. Nous évoquons aussi le problème du type de causalité impliqué dans le concept de déterminant au Rorschach, c’est-à-dire ce qui “détermine” la réponse. Nous soulignons l’importance de recourir à l’équivalence phénoménologique dans la procédure d’extrapolation de la qualité formelle. Nous présentons les cotations spéciales critiques comme les produits d’une confusion entre traits propres et étrangers. Nous suggérons que différentes formes d’apparition des réponses dotées de cotations spéciales pourraient être interprétées de manières différentes. Il serait utile de poursuivre les recherches dans ce domaine, dans la mesure où la phase d’enquête a été peu étudiée. Quelques thèmes de recherche sont avancés en guise de conclusion.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Fiorito, Jack, Paul Jarley e John T. Delaney. "The Adoption of Information Technology by U.S. National Unions". Articles 55, n.º 3 (12 de abril de 2005): 451–76. http://dx.doi.org/10.7202/051328ar.

Texto completo da fonte
Resumo:
Les syndicats aussi ont été enveloppés par la vague de la révolution de l'information. Ils ont utilisés la technologie de l'information et des communications (TIC) pour effectuer des campagnes d'organisation syndicale sur l'internet, pour tenir informés leurs membres des développements spécifiques reliés tant aux négociations qu'aux grèves et, plus généralement, pour améliorer les communications avec les membres, pour épauler certains efforts d'ordre politique ou d'ordre des négociations et pour des campagnes d'organisation. Un journal en ligne, publié pas des conseillers syndicaux provenant de plusieurs syndicats, fait état d'une foule d'exemples d'innovation et de créativité dans l'emploi des TIC et, plus particulièrement, dans l'internet (Ad Hoc Committee on Labor and the Web 1999). Un article récent en première page de l'AFL-CIO's America® Work intitulé : « Campagne d'organisation virtuelle » décrit comment les organisateurs syndicaux à travers le pays s'emparent du pouvoir de l'internet pour atteindre et mobiliser les membres (Lazarovici 1999 : 9). Pourquoi s'en préoccuper ? Au delà du fait que l'information est critique pour les syndicats, il existe des notions théoriques bien établies qui laissent croire à une influence des TIC sur les résultats que peut obtenir un syndicat. Le concept de Barney (1997) d'organisation comme source d'un avantage concurrentiel durable, notion sensiblement identique à celle de Leibenstein (1966) connue antérieurement sous l'idée d'une X-efficacité conserve toute sa pertinence ici. Quoique les syndicats ne sont pas habituellement en concurrence les uns avec les autres, l'emploi efficace des TIC leurs offre une possibilité d'améliorer les services aux membres, de bonifier leurs efforts au plan des relations politiques et publiques, d'améliorer leur performance au plan des négociations et leur habileté à organiser les nouveaux membres. Ainsi, les TIC offrent une source potentielle d'avantage concurrentiel, lorsque des syndicats se retrouvent effectivement en compétition. D'une manière plus importante, elles présentent un levier potentiel lorsque les syndicats sont en compétition avec les employeurs sur la forme de gouvernement d'un lieu de travail (i.e. l'unilatéralisme de l'employeur versus la détermination conjointe syndicat-employeur des conditions de travail). Un modèle dont le syndicat se sert. On doit généralement s'attendre à ce que des modèles d'innovation s'appliquent à un cas particulier de l'emploi des TIC. L'usage des TIC par un syndicat constitue un phénomène relativement nouveau et, partant, se qualifie comme une innovation (Daft 1982). De plus, la méta-analyse de Damanpour (1991) porte à croire que l'innovation est un phénomène organisationnel général, en ce sens que les organisations qui innovent dans un secteur ou sous une forme en particulier ont tendance à le faire dans d'autres secteurs et sous d'autres formes. Ainsi, les effets anticipés sous forme d'hypothèses par Delaney, Jarley et Fiorito (1996) devraient s'avérer les mêmes dans le cas de l'usage des TIC. Ceci nous amène à croire que certaines variables organisationnelles et environnementales affecteront l'usage des TIC au fur et à mesure que les rapports coûts-bénéfices seront connus. Dans les termes de la théorie des organisations, cette situation reflète essentiellement l'approche de la contingence structurelle. Les données. Notre source principale de données provient du Survey of Union Information Technology (Suit), une enquête par la poste effectuée au cours de l'été et de l'automne 1997. Une lettre d'introduction personnalisée expliquait la nature de l'étude, en garantissait le caractère confidentiel, offrait de fournir les résultats et demandait la participation. Un échantillon de 120 syndicats nationaux menant des activités aux États-Unis a été constitué à l'aide de l'annuaire de Gifford des organisations syndicales (1997). (Plusieurs incluent le membership de grands syndicats canadiens, tels les Machinistes, les Routiers et les Travailleurs de l'acier.) Soixante-quinze syndicats retournèrent des questionnaires utilisables. Les résultats. La rationalisation s'avère un effet positif et significatif sur une échelle multi-énoncés comprenant diverses formes et usages des TIC. La décentralisation ne montre aucun effet si l'on s'en tient au modèle de base ; cependant, la présence de covariances pour l'usage des TIC dans l'industrie, d'une part, et pour l'usage des TIC associé à une innovation antérieure, d'autre part, fait apparaître un effet positif, à la hauteur des attentes. Une mesure d'envergure stratégique échoue constamment à fournir une conclusion significative au plan statistique. La taille présente un impact positif consistant et fort, sauf dans la situation d'innovation antérieure. Au départ, la mesure de l'emploi des TIC en industrie présente un impact positif très impressionnant, sauf que, comme la taille, l'effet s'évanouit devant la présence d'une mesure d'innovation antérieure. On ne décèle pas non plus d'appui à la prévision d'un effet négatif sur le changement au plan de l'effectif syndical. Enfin, l'innovation antérieure est suivie d'un effet positif fort sur l'emploi des TIC par un syndicat. Conclusion. Le changement et l'innovation constituent sans aucun doute des enjeux vitaux pour les syndicats, au moment où ils doivent faire face au déclin de leur status. Un leadership nouveau à la FAT-COI et dans les syndicats nationaux considère sérieusement l'innovation et se demande comment cette dernière peut conduire à un renouvellement du syndicalisme. Les TIC, en particulier, deviendront probablement un facteur clef au moment où les syndicats tentent de formuler des stratégies de renouvellement dans la tourmente de la révolution de l'information. Il ne faudrait pas non plus considérer les TIC comme un élixir magique. Le déclin du syndicalisme est plutôt attribuable à une combinaison de facteurs et il faudrait être naïf pour penser qu'un changement quelconque pourrait contrer de tels effets. De toute manière, les TIC contiennent la promesse d'un outil puissant pour bonifier l'effort d'organisation, les services aux membres, l'efficacité au plan politique, à la table des négociations, au plan d'une plus grande solidarité entre les membres et d'une meilleure communication entre les membres et leurs leaders. Elles peuvent également prendre une valeur symbolique importante en aidant les syndicats à laisser croire qu'ils sont dans le coup (Shostak 1997) ou bien en les aidant à surmonter leur image de « dinosaure » (Hurd 1998). Si le fait d'utiliser les TIC en association avec d'autres innovations constitue une transformation, cela ne permettrait pas pour autant de conclure à une nouvelle forme de syndicalisme (e.g. un Cybersyndicat). Au minimum, il serait plus sûr d'affirmer que l'adoption des TIC aura probablement des effets remarquables sur la manière dont les syndicats assument leurs rôles conventionnels et il se peut que les TIC deviennent un catalyseur en les incitant à jouer de nouveaux rôles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

FAVERDIN, P., e C. LEROUX. "Avant-propos". INRAE Productions Animales 26, n.º 2 (16 de abril de 2013): 71–76. http://dx.doi.org/10.20870/productions-animales.2013.26.2.3137.

Texto completo da fonte
Resumo:
Le lait n’est pas tout à fait un aliment comme les autres puisqu’il est aussi produit par l’Homme. Cet aliment est indispensable à l’alimentation de l’enfant, car sa richesse nutritionnelle combinée à sa forme liquide en font une ration « tout en un » du jeune pendant ses premières semaines de vie. L’homme a très tôt domestiqué d’autres mammifères pour produire cet aliment nécessaire pour le jeune et l’a aussi intégré dans l’alimentation de l’adulte sous forme native ou après transformation. De fait, le lait est un des rares produits animaux avec l’oeuf qui est produit régulièrement et qu’il est possible d’obtenir sans tuer l’animal. Sa production fait pleinement partie de la fonction de reproduction et son prélèvement doit être géré pour ne pas handicaper le développement du jeune animal qui est également un élément d’avenir dans l’élevage. Les vaches laitières ont longtemps bénéficié de noms très personnalisés, voire de prénoms, jusqu’à ce que la traçabilité ne vienne proposer des identifiants plus proches du matricule de la sécurité sociale que des petits noms affectueux utilisés jusqu’alors. La traite est un moment particulier où l’éleveur se substitue au jeune pour prélever le lait plusieurs fois par jour. Tout ceci fait traditionnellement de l’élevage laitier un élevage qui associe étroitement l’homme et l’animal. Au commencement de la domestication et pendant longtemps, le principal défaut du lait a résidé dans sa faible aptitude à la conservation, nécessitant une consommation plutôt locale, le temps entre production et consommation devant rester le plus court possible. De fait, le développement de sa consommation dans les villes est récent et ne s’est pas fait sans quelques soucis (Fanica 2008). Bien entendu, les évolutions de l’industrie laitière et des transports ont permis de franchir ce double cap de la conservation et des distances, faisant en quelques décennies d’un produit local du peuple d’un terroir, riche d’identité, d’histoire et de culture (Faye et al 2010), un produit générique du commerce mondial qui s’échange entre continents suivant les règles de l’organisation mondiale du commerce et dont la demande augmente régulièrement. Ce passage du local au mondial ne s’effectue pas sans des changements radicaux des modes de production et de l’organisation des filières, avec des conséquences parfois importantes sur les territoires. La production de lait en France, pays traditionnel d’élevage bovin laitier, illustre parfaitement cette évolution et se trouve aujourd’hui à une période charnière. Riche d’une grande diversité de terroirs et de produits, la production française présente un profil original dont on ne sait pas aujourd’hui si c’est une force ou une faiblesse dans cette évolution. Depuis 1984, le système des quotas laitiers liés à la terre et non commercialisables en France a ralenti, comparativement aux pays voisins, l’évolution vers une spécialisation et une intensification des systèmes de production laitiers, mais il disparaîtra en 2015. Le contexte économique des prix des matières premières et du prix du lait devient beaucoup plus instable que par le passé. Le métier d’éleveur laitier, avec sa complexité, sa charge de travail importante, ses astreintes et la diminution de sa rémunération, devient moins attractif. La nécessaire prise en compte de l’impact de l’élevage sur l’environnement et plus globalement de la durabilité, constitue un nouveau défi qui est souvent vécu comme une contrainte supplémentaire. Cependant, les connaissances scientifiques et technologiques ont beaucoup progressé et offrent de nouveaux outils à l’élevage laitier pour construire une trajectoire originale dans cette évolution. Ce numéro spécial d’INRA Productions Animales se propose donc en quelques articles de faire un état des lieux des connaissances concernant la production laitière, ainsi que des nouveaux défis et des nouveaux outils qui s’offrent à la filière pour construire son avenir. Ce panorama n’est volontairement pas exhaustif et traitera prioritairement des vaches laitières avec cependant, lorsqu’il est apparu nécessaire, quelques exemples tirés de travaux réalisés chez les caprins. De même, il ne s’agit pas ici d’aborder la transformation du lait et les évolutions des nombreux produits transformés. Mais nous avons cherché à présenter un point sur un certain nombre de sujets en mettant en avant les avancées récentes et les défis scientifiques, techniques, économiques et organisationnels qui concernent la production laitière, en quatre grandes parties. La première plantera tout d’abord le décor du secteur laitier français. La deuxième présentera les nouvelles avancées des travaux sur la femelle laitière, la lactation et le lait. La troisième analysera les différents leviers que constituent la sélection génétique, la gestion de la santé, l’alimentation et la traite, pour mieux maîtriser la production de lait en élevage. Enfin, la dernière partie abordera des questions plus spécifiques concernant les systèmes d’élevage et leur futur. Le premier article de V. Chatellier et al fournit une analyse à la fois du bilan et des perspectives du secteur laitier français. Après une analyse du marché des produits laitiers au travers de la demande et de l’offre et des grandes stratégies des acteurs de la filière, cet article présente les spécificités françaises des exploitations laitières liées en particulier à la diversité des systèmes de production et des territoires. Cette double diversité se traduit également dans les écarts de productivité et des résultats économiques des exploitations dont la main-d’oeuvre reste majoritairement familiale, avec la question de son renouvellement qui se pose différemment selon les territoires. Enfin, à l’aune des changements importants de contexte qui se préparent avec la fin des quotas et les nouvelles relations qui se mettent en place entre producteurs et transformateurs, les auteurs étudient les différents scénarios qui en découlent et qui conduiront à l’écriture du futur du secteur laitier français dans les territoires et le marché mondial. La série d’articles sur l’animal et le lait débute par une approche systémique de l’animal laitier. La vache laitière est d’abord perçue au travers de sa fonction de production, et les modèles de prévision de la lactation se sont longtemps focalisés sur cette seule fonction. La notion d’animaux plus robustes et d’élevages plus durables (cf. Dossier « Robustesse... », Sauvant et Perez 2010) amène à revisiter cet angle d’approche pour l’élargir à ensemble des fonctions physiologiques en prenant mieux en compte les interactions entre les génotypes animaux et leurs environnements. La modélisation aborde cette complexité de deux façons contrastées, l’une plutôt ascendante en partant des mécanismes élémentaires et en les agrégeant, l’autre plutôt descendante, en partant de grandes propriétés émergeantes des principales fonctions et de leurs interactions, voire de leur compétition dans l’accès aux ressources nutritionnelles. La revue de Friggens et al aborde ainsi la question de la dynamique de partition des nutriments entre fonction physiologiques chez les vaches laitières en fonction du génotype en présentant plusieurs approches de modélisation. Cette revue s’attache à montrer l’intérêt de partir des propriétés émergeantes pour arriver à modéliser les réponses complexes (production, reproduction, composition du lait, état corporel…) d’une vache soumise à différentes conduites d’élevage au cours de sa carrière. Les outils de demain qui permettront d’optimiser la conduited’élevage face aux aléas économiques et climatiques dépendront de l’avancée de ces modèles et des connaissances scientifiques qui les sous-tendent. La fonction de lactation est la conséquence de nombreux mécanismes à l’échelle de l’animal, tout particulièrement au niveau de la glande mammaire. Le développement et le fonctionnement de cet organe caractérisé par sa cyclicité ont fait l’objet de nombreux travaux à l’Inra et dans de nombreuses équipes de recherches internationales. Il ne s’agissait pas ici de relater l’ensemble de ces travaux mais de consacrer un article aux dernières connaissances acquises sur les mécanismes de biosynthèse et de sécrétion des constituants du lait. L’article de Leroux et al présente les travaux sur la régulation de l’expression génique dans la glande mammaire avec un intérêt particulier pour les données acquises avec les nouveaux outils d’études globales de génomique expressionnelle. Ceux-ci apportent de nouvelles connaissances sur les effets des facteurs génétiques sur la biosynthèse et la sécrétion du lait, sur leur régulation nutritionnelle et sur l’interaction de ces facteurs. Ce dernier point constitue un champ d’investigation supplémentaire pour décrypter les secrets du fonctionnement mammaire avec notamment l’intervention de nouveaux acteurs que sont les petits ARN non codants (ou microARN) qui vient encore accroître la complexité du fonctionnement mammaire dans son rôle prépondérant lors de la lactation. Après avoir fait cet état des lieux des connaissances sur la biosynthèse et la sécrétion des constituants du lait au niveau de la glande mammaire, l’article de Léonil et al présente la complexité des fractions protéique et lipidique du lait et de leur assemblage en structures supramoléculaires. Ces structures finales sont sous la dépendance de la nature et de la variabilité des constituants, ellesmêmes dues aux polymorphismes des gènes responsables de leur synthèse. Ainsi, les auteurs font un état des lieux des connaissances sur la structure et le polymorphisme des gènes spécifiant les protéines coagulables du lait que sont les caséines pour arriver à l’organisation de ces dernières en micelles. Le rôle nutritionnel de ces protéines majeures du lait et leur fonction biologique sont revisitées à la lumière des connaissances croissantes sur les peptides bioactifs qu’elles contiennent. La fraction lipidique n’est pas en reste avec la présentation de sa complexité et de son organisation sous forme de globule gras ainsi que de son impact nutritionnel sur le consommateur. Enfin, la découverte récente, dans le lait, de petites particules (ou exosomes) véhiculant des protéines et des ARN ouvre de nouvelle voies d’investigation de l’impact du lait sur la santé du consommateur. La série d’articles consacrée aux leviers d’action dont disposent les éleveurs pour moduler la production laitière ainsi que la composition du lait débute par l’article de Brochard et al, qui retrace l’impact de la sélection génétique pour arriver aux apports de la sélection génomique des races bovines laitières. Un bref historique de la sélection génétique présente les progrès réalisés sur les caractères de production laitière mais aussi sur des caractères de robustesse (fertilité, mammites…) et permet ainsi de dresser le décor génétique des élevages français. L’avènement des outils de génomique grâce au séquençage du génome bovin a conduit à renouveler les perspectives de sélection des bovins laitiers (cf. Numéro spécial, «amélioration génétique" Mulsant et al 2011). La présentation brève de ces outils permet de mieux appréhender les retombées attendues. Les opportunités offertes par la sélection génomique sur les caractères laitiers sensu stricto se complètent et permettent également de proposer une sélection sur de nouveaux caractères. En effet, la prise en compte progressive d’autres caractères oriente la sélection vers une complexité accrue notamment grâce à l’établissement de nouvelles mesures phénotypiques. L’évolution vers une meilleure robustesse, une efficacité alimentaire optimisée mais aussi une empreinte environnementale réduite, sera d’autant plus envisageable que la sélection pourra s’appuyer sur des capacités de phénotypage de plus en plus fin et à grande échelle. Un autre facteur prépondérant dans l’élevage laitier concerne la gestion de la santé animale qui affecte, notamment, la durabilité des élevages sous l’angle socio-économique. Cette gestion complexe doit prendre en compte de nombreux paramètres tel que le nombre des traitements nécessaires, le temps passé, les pertes économiques directes à court et long terme, etc. Les infections ne touchent pas toutes directement la glande mammaire, mais en affectant l’animal, elles impactent la lactation, l’efficacité de production du troupeau et donc l’élevage. L’article de Seegers et al passe en revue sept maladies majeures classées en trois groupes affectant les bovins laitiers. Il présente les connaissances récentes acquises sur ces maladies et les perspectives qu’elles ouvrent pour mieux les maîtriser. Ces maladies ont bien souvent un impact économique fort sur les élevages et/ou sont transmissibles à l’Homme constituant ainsi des questionnements de recherche forts et pour lesquels les moyens d’actions sont aussi multiples que variés. De plus, les attentes sociétales visent à diminuer, autant que faire se peut, les intrants médicamenteux. L’alimentation est un levier de maîtrise de la production et de la composition du lait qui présente l’avantage d’avoir des effets rapides et réversibles. Bien que ce levier puisse également moduler la composition protéique du lait, l’impact prépondérant de l’alimentation sur la composition en acides gras du lait, dans le but de fournir aux consommateurs une qualité nutritionnelle du lait la plus favorable possible, a été mis en exergue par de nombreuses études. La détermination de la composition en acides gras des laits est de plus en plus précise, notamment du fait des nouvelles techniques qui permettent une meilleure caractérisation de ces profils. Outre l’impact de l’alimentation, les effets des apports nutritionnels chez le ruminant sur les teneurs en composés vitaminiques du lait sont également à prendre en compte dans la perspective de l’utilisation du lait comme source complémentaire naturelle de vitamines chez les sujets présentant une efficacité d’absorption réduite (tel que les jeunes ou à l’inverse les personnes âgées). L’article de Ferlay et al recense les principaux facteurs alimentaires (nature de la ration de base, supplémentation oléagineuse, différents types de suppléments lipidiques et leurs interactions) influençant la composition en acides gras et en vitamines du lait de vache. Enfin, la traite constitue un outil supplémentaire de pilotage des troupeaux en termes de production laitière mais aussi de qualité sanitaire, technologique et nutritionnelle du lait. De plus, une meilleure connaissance des effets des différentes pratiques de traite est cruciale dans le contexte actuel de gestion du travail dans les exploitations laitières (cf. Numéro spécial, « Travail en élevage », Hostiou et al 2012). Les moyens mis en oeuvre se situent à différents niveaux allant de la fréquence de traite aux systèmes de stockage des laits en passant par les réglages possibles ou les types de machines à traire. L’article de Guinard-Flament et al fait le point des connaissances actuelles sur les effets et les conséquences de modifications de la conduite des animaux à la traite. Il présente les effets de la fréquence de traite sur le niveau de production laitière et sur la composition du lait. Le contexte de la traite, avec les effets mécaniques de la machine à traire et celui du système de stockage, est également présenté dans ses multiples facettes pour souligner leur rôle prépondérant sur la qualité microbienne des laits. La conduite des vaches à la traite est également un moyen de gestion de la carrière d’une vache laitière à travers le pilotage de certaines phases du cycle de production (effets sur la reproduction et sur la durée de la lactation et leurs conséquences sur la santé de l’animal...). La dimension des systèmes d’élevage est dominée ces dernières années par la question environnementale, notamment depuis la parution du rapport de la FAO « Livestock’s long shadow » (Steinfeld et al 2006). L’élevage laitier, très consommateur de ressources de qualité, est concerné au premier rang par ce défi environnemental. Mais ces enjeux, peu perceptibles à l’échelle de l’élevage pourtant à l’origine de ces risques, sont difficiles à intégrer dans les objectifs des systèmes de production. L’article de Dollé et al sur les impacts environnementaux des systèmes bovins laitiers français apporte de nombreux éléments quantifiés sur les émissions des éléments à risque pour l’environnement par les élevages laitiers. Ces risques concernent bien entendu la qualité de l’eau, notamment via les excrétions d’azote et de phosphore, ce qui est connu depuis longtemps avec leurs impacts sur l’eutrophisation des cours d’eau et des côtes. Les risques liés à la qualité de l’air ont été pris en compte beaucoup plus récemment et concernent principalement les émissions d’ammoniac pouvant affecter la santé humaine et des gaz à effet de serre responsables du réchauffement climatique (cf. Dossier, « Gaz à effet de serre en élevage bovin : le méthane », Doreau et al 2011). Ensuite, l’article aborde la question de la biodiversité, auxiliaire de l’agriculture et des paysages, où l’élevage joue un rôle central au sein des territoires agricoles. L’article aborde pour finir la question de la quantification de ces impacts afin d’améliorer objectivement les performances environnementales des élevages et montre que performances environnementales et économiques en élevage laitier ne sont pas antinomiques. En guise de conclusion de ce numéro, J.L. Peyraud et K. Duhem se sont prêtés à un exercice d’analyse prospective des élevages laitiers et du lait de demain en reprenant certains des constats de l’article introductif, notamment sur la diversité des systèmes et des territoires, la restructuration rapide de la filière et la reconstruction du métier d’éleveur. La filière devra demain affronter la tension entre l’amélioration de la compétitivité et celle de la durabilité de l’élevage en tirant profit des innovations. La meilleure prise en compte des qualités nutritionnelles des produits et de l’évolution des demandes tout en améliorant l’intégration de l’élevage au sein des territoires constitue un double défi pour résoudre cette tension. L’analyse des auteurs prône cependant un maintien de la diversité et la complémentarité des systèmes dans une diversité de territoires pour mieux répondre aux enjeux de la société et des éleveurs. Ce numéro spécial montre combien la filière laitière est aujourd’hui plus que jamais à la croisée des chemins avec des défis économiques et sociétaux difficiles à relever dans un climat de plus en plus incertain. Entre diversité d'une part, et spécialisation et standardisation d'autre part, le chemin de la filière française reste complexe à définir. Les nombreuses évolutions des connaissances scientifiques permettent de disposer à court ou moyen terme de nouveaux outils pour relever ces défis. La sélection génomique pour disposer des animaux les plus adaptés à leur système, les modèles de prévision pour anticiper les aléas et leurs conséquences, les outils d’évaluation environnementale pour maîtriser les risques, les outils de monitoring et d’information des troupeaux d’élevage pour améliorer les conditions de travail et l’efficience des troupeaux, les possibilités de piloter la qualité des produits par les conduites d’élevage et en particulier l’alimentation, une meilleure connaissance des mécanismes de régulation de la lactation, la découverte de la richesse des constituants du lait et de leurs propriétés nutritionnelles et fonctionnelles sont autant d’atouts pour la filière pour affronter ces défis. A travers les articles de ce numéro, nous avons voulu illustrer quelques un de ces défis et des perspectives offertes par la recherche. L’enjeu sera de les mobiliser à bon escient dans le cadre de stratégies cohérentes. Cela nécessitera la collaboration de tous les acteurs de la recherche, de la formation, du développement et de la filière. A leur niveau, les articles de ce numéro, par les nombreuses signatures communes entre chercheurs, enseignants-chercheurs et ingénieurs de recherche-développement, témoignent de la vitalité des unités mixtes de recherche et des unités mixtes thématiques impliquées dans l’élevage laitier. De même, bon nombre de travaux relatés dans les articles de ce numéro sont le fruit de programmes de recherche co-financés et menés en collaboration étroite entre la recherche, les instituts technique et la filière. Nous y voyons un fort signe positif pour l'avenir de l'élevage laitier en France Cet avant-propos ne saurait s’achever sans remercier René Baumont et le comité de rédaction d’Inra Productions Animales pour l’initiative judicieuse de ce numéro spécial, mais aussi pour nous avoir aidés à mener à bien ce projet comprenant de nombreux auteurs, qui ont bien voulu se prêter à l’exercice difficile de la rédaction d’un article de synthèse qui conjugue la rigueur de l’information scientifique avec l’exigence de la rendre accessible à un large public. Ce numéro doit beaucoup aussi aux relectures constructives de nombreux collègues que nous remercions ici anonymement. Enfin, cet ouvrage doit aussi sa qualité à un travail remarquable d’édition technique assuré par Pascale Béraudque nous associons à ces remerciements. Nous avons eu la primeur de ces articles et nous espérons que vous partagerez l’intérêt que nous avons eu à leur lecture à la fois instructive, enrichissante et propice à nourrir notre réflexion pour le futur de la recherche-développement dans le domaine de l’élevage bovin laitier.Philippe FAVERDIN, Christine LEROUX RéférencesDoreau M., Baumont R., Perez J.M., (Eds) 2011. Dossier, Gaz à effet de serre en élevage bovin : le méthane. INRA Prod. Anim., 24, 411-474. Fanica P.O., 2008. Le lait, la vache et le citadin. Du XVIIe au XXe siècle. Editions Quae, Paris, France,520p. Faye B., Bonnet P., Corniaux C., Duteurtre G., 2010. Peuples du lait. Editions Quae, Paris France, 160p. Hostiou N., Dedieu B., Baumont R., (Eds) 2012. Numéro spécial, Travail en élevage. INRA Prod. Anim., 25, 83-220. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M., (Eds) 2011. Numéro spécial, Amélioration génétique. INRA Prod. Anim., 24, 283-404. Sauvant D., Perez J.M., (Eds) 2010. Dossier, Robustesse, rusticité, flexibilité, plasticité, résilience… les nouveaux critères de qualité des animaux et des systèmes d'élevage. INRA Prod. Anim., 23, 1-102. Steinfeld H., Gerber P., Wassenaar T., Castel V., Rosales M., de Haan C., 2006. Livestock's long shadow: environmental issues and options. Food and Agriculture Organization of the United Nations,414p.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Sid Ahmed, Malek, Cheikh Sidi Ethmane Kane, Nahla Bouaziz, Mbarek Rhazi e Mounir Kouhila. "Evaluation par méthode inverse du coefficient de diffusion et du nombre de transfert Biot lors du séchage en système continu". Journal of Renewable Energies 12, n.º 4 (31 de dezembro de 2009). http://dx.doi.org/10.54966/jreen.v12i4.168.

Texto completo da fonte
Resumo:
Cet article présente la détermination par la méthode inverse du coefficient de diffusion et du nombre de transfert Biot à partir de l’équation de diffusion de Fick unidimensionnelle basée sur des essais de cinétiques de séchage de la feuille de menthe. On propose un modèle numérique pour décrire le processus de séchage d’une feuille de menthe en forme rectangulaire. La loi de Fick supposant, l’équation de diffusion pour la feuille de menthe a été employée. L’objectif de l’étude est de développer un modèle numérique basé sur MatLab pour déterminer la teneur en eau de la feuille de menthe lors du processus de séchage en fonction du temps et de l’évaluation du coefficient de diffusion à différente température. Une méthode d’optimisation qui consiste à réduire l’écart minimum entre les données théoriques et les résultats expérimentaux a été utilisée. Le modèle tient compte de la migration de l’eau par diffusion dans le produit et sa perte à l’interface. Les cinétiques de séchage de la feuille de menthe sont déterminées à 35 °C, 45 °C et à 55 °C. Le coefficient de diffusion a varié de 9,155 10-12 et 3,288 10-11 m2/s.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Simo-Tagne, Merlin, Romain Rémond, André Zoulalian, Yann Rogaume e Beguide Bonoma. "Détermination expérimentale des coefficients de transfert de masse globale des bois tropicaux afin de prédire les courbes de séchage à basse température". Journal of Renewable Energies 18, n.º 3 (18 de outubro de 2023). http://dx.doi.org/10.54966/jreen.v18i3.512.

Texto completo da fonte
Resumo:
Nous déterminons le coefficient de diffusion globale de masse de cinq bois tropicaux (ayous, iroko, lotofa, sapelli et fraké) venus du Cameroun. Pour cet effet, les cinétiques de séchage issues d’un séchoir solaire et d’un séchoir conventionnel sont utilisées. Une comparaison est ensuite faite entre les valeurs obtenues et celles provenant des bois tropicaux chiliens et tempérés. Il vient que pour les vitesses de séchage comprises entre 0.25 et 1.5 m/s, la température sèche de 33.5 °C et une température humide de 25 °C, les coefficients de diffusion globale de masse sont compris entre 2 × 10-5 et 4 × 10-5 kg/m2.s), le séchoir étant conventionnel. Ces valeurs sont conformes à celles trouvées sur les bois tropicaux chiliens et sont moins élevées que celles obtenus sur les bois tempérés. Dans le cas d’un séchoir solaire indirect fonctionnant entre Octobre et Décembre 2004 à Yaoundé, ce coefficient est multiplié presque par 0.1. Il est intéressant dans l’avenir de déterminer une corrélation spécifique aux bois tropicaux d’Afrique de ce coefficient qui tiendra compte des influences de l’humidité relative de l’air, de la température de l’air, de la vitesse de l’air et de l’épaisseur des planches de bois.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Viry, Matthieu, e Marlène Villanova-Oliver. "Ontologie d’Alerte Choucas : de la modélisation des connaissances à un outil support d’un raisonnement géovisuel". Geomatica, 3 de setembro de 2020, 1–17. http://dx.doi.org/10.1139/geomat-2020-0005.

Texto completo da fonte
Resumo:
Lorsqu’une intervention de secours est nécessaire, localiser précisément et rapidement le site sur lequel envoyer les équipes est primordial. La littérature montre que des outils de géovisualisation constituent des solutions pertinentes pour supporter des processus d’analyse d’informations dans des contextes variés. Nous nous intéressons ici au raisonnement du secouriste réceptionnant un appel à l’aide et visons des solutions conceptuelles et logicielles dédiées à la tâche de détermination de la localisation de la victime, plus particulièrement dans le contexte du secours en montagne. Nous avons formalisé le raisonnement du secouriste et les informations sur lesquelles il ou elle s’appuie à l’aide d’une ontologie. L’Ontologie d’Alerte Choucas structure les concepts exploités par le secouriste qui élabore des hypothèses de localisation probable de la victime à partir d’informations (telles qu’une position relative, un temps de marche, une direction) fournies lors d’un échange verbal. Dans notre approche, l’ontologie est en outre exploitée pour dériver les composants d’interface d’un prototype de géovisualisation facilitant le raisonnement du secouriste. Ces composants sont une aide à la saisie des informations, en fournissant une restitution cartographique adaptée, et contribuent à construire et à affiner la zone de localisation. Notre approche présente une chaine de traitements originale, menant de la représentation des connaissances à la génération automatisée d’une interface fonctionnelle d’aide au raisonnement visant à localiser des victimes en montagne.
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Gueye Aïda, Ndour. "Contribution à l’étude de la foresterie urbaine dans la commune de Saint-Louis, Sénégal." Revue Ecosystèmes et Paysages 4, n.º 1 (30 de junho de 2024). http://dx.doi.org/10.59384/recopays.tg4113.

Texto completo da fonte
Resumo:
De par le monde, l’installation de plantations urbaines a été l’une des réponses de certaines villes face à l’augmentation de la pollution de l’air, la diminution du couvert végétal et les risques de dégradation de la santé humaine. Cependant, au Sénégal, les rôles de l’arbres dans les paysages urbains sont peu connus. La présente étude est une contribution à l’évaluation de la foresterie urbaine dans la commune de Saint-Louis. Pour ce faire, des inventaires ont été menés au niveau des concessions, des zones boisées et des axes routiers. Ces inventaires ont été complétés par des enquêtes auprès des concessions et des services techniques. Les critères mesurés ont porté sur la perception des populations sur l’arbre, sur l’état du couvert arboré et sur la détermination des contraintes et opportunités de la foresterie urbaine. Les résutats montrent une forte diversité spécifique au niveau des concessions. Le peuplement de la commune est vieux avec de grands paramètres structuraux notés au niveau des cimetières. Il ressort des résultats que les espèces sont multi-usages (pharmacopée, alimentation et fourrage). Les espèces fruitières sont souhaitées dans les maisons, celles ombragées devant les concessions et les espaces verts et les légumineuses au niveau des champs. Cependant, ces espèces sont en diminution dans la commune à cause de la coupe abusive et la salinité. Les contraintes liées à leur mise en place sont principalement la divagation du bétail, le manque de moyen et d’espace. Toutefois, l’éducation environnementale et la création de forêt urbaine ont été enumerés comme opportunités phares de la foresterie urbaine dans ladite commune. Ces résultats devraient être un outil d’aide à la prise de décision quant au développement de la foresterie urbaine dans la commune. En perspectives, des études complémentaires devraient être réalisées sur la répartition des espèces selon les paramètres environnementaux notamment le sol, l’eau, le climat, la pluviométrie.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Bamaarouf, Meriem, Jamal Eddine Jellal e Abdelhamid Bouzidi. "Étude de la cinétique d’élimination de la matière organique dans un système intégré réacteur anaérobie-chenal algal à haut rendement". 23, n.º 2 (7 de junho de 2010): 181–94. http://dx.doi.org/10.7202/039909ar.

Texto completo da fonte
Resumo:
Cette étude a pour objectif d’élaborer un modèle empirique basé sur les cinétiques d’élimination de la matière organique dans un système intégré réacteur anaérobie-chenal algal à haut rendement (CAHR), et ce, pour disposer d’un outil de dimensionnement adapté au contexte marocain. Contrairement à l’approche d’Oswald, qui est basée sur le bilan énergétique des algues, ce modèle a été élaboré selon un concept d’ingénierie qui prend en considération les paramètres de conception des réacteurs (débit, charge, etc.). L’originalité de ce modèle consiste en l’introduction d’un paramètre γ qui traduit les phénomènes biologiques au sein du réacteur algal, notamment la symbiose entre les algues et les bactéries. En effet, l’approche de modélisation adoptée est basée sur l’étude de la croissance de la biomasse algo-bactérienne comme étant l’aspect majeur responsable de la dépollution au sein du chenal algal à haut rendement. Cette recherche reflète l’importance de l’inclusion des paramètres biologiques dans la conception d’un bioréacteur algal. À cet effet, nous avons déterminé le facteur γ qui traduit le rapport algues/bactéries en s’appuyant sur le suivi de l’activité algale et la mesure de la matière volatile en suspension au niveau de la station pilote de Rabat. Ce facteur a été évalué par ORON et al. à 1/100. Nous avons confirmé ce chiffre par les résultats expérimentaux. Ainsi, le modèle établi permet, en se fixant un rendement d’élimination dans le chenal algal à haut rendement et connaissant la charge organique entrante au système intégré, de déterminer le temps de séjour dans le chenal et, par la suite, de dimensionner le réacteur. Les limites de validité du modèle ont été vérifiées sur des données expérimentales obtenues dans la station pilote de Rabat et la station d’épuration de la ville d’Ouarzazate. Cette approche de modélisation se trouve vérifiée pour un temps de séjour de un jour et demi à deux jours dans le réacteur anaérobie et pour des charges organiques brutes entrantes au système de l’ordre de 650 mg•L-1. Les essais (deux jours - quatre jours) donnent une meilleure corrélation. Donc, nous pouvons considérer que la combinaison d’un temps de séjour de deux jours dans le réacteur anaérobie et quatre jours dans le chenal algal à haut rendement serait une bonne base de dimensionnement de ces systèmes au Maroc.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Sako, M., S. Kone, F. Yaro, A. Traore, A. Diallo, S. Sangare, F. Diakite et al. "Evaluation des risques sanitaires liés à l'alimentation de rue dans le District de Bamako". Mali Santé Publique, 30 de junho de 2014, 44–47. http://dx.doi.org/10.53318/msp.v4i01.1454.

Texto completo da fonte
Resumo:
Au Mali, l"alimentation de rue s"est fortement développée ces dernières années avec l"effet de l"exode rural, la croissance démographique dans les villes et surtout avec l"instauration par l"Etat de la journée continue intervenue à partir de 1992 qui maintient les travailleurs hors de leur foyer pour de très longues heures. La présente étude avait pour objectif d"évaluer les risques sanitaires liés à l"alimentation de rue dans le district de Bamako pour promouvoir la santé des consommateurs. L"étude a porté sur un échantillon de 138 établissements dans les 6 communes du District de Bamako. Il a été procédé à la détermination de la qualité sanitaire (microbiologique et chimique) des aliments de rue vendus dans le District de Bamako et à la classification des risques associés à l"alimentation de rue dans le district de Bamako, sous l"optique de la démarche du HACCP et de l"approche intégrée (vision FAO/OMS). Afin d"identifier les points critiques et de proposer des mesures de maitrise de la contamination microbienne 21 diagrammes de fabrication ont été élaborés et ont concerné tous les aliments contaminés. La classification des risques a été faite selon la procédure du Food and Drogue Administration des USA., outil internationalement reconnu et appliqué par le Codex Alimentatrus. Sur les 59 échantillons analysés, 31 sont contaminés sur le plan bactériologique. Sur les 24 échantillons soumis à l"analyse toxicologique, 8 présentent des niveaux de résidus de pesticides élevés. Les résultats montrent (i) la majorité des établissements de production/vente d"aliments de rue qui n"applique pas les mesures d"hygiène et de fabrication (BPH/BPF) appropriées et (ii) un niveau de contamination élevé (46 - 62 sur l"échelle Risk Ranking du FDA) qui fait de l"alimentation de rue dans le District de Bamako une préoccupation en matière de sécurité sanitaire des aliments. L"application des mesures correctives par le personnel des gargotes, a permis de maîtriser la contamination, ce qui est la preuve de la pertinence et l"efficacité de ces mesures.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Shakshuki, Ayah, Pollen Yeung e Remigius U. Agu. "Compounded Topical Amitriptyline for Neuropathic Pain: In Vitro Release from Compounding Bases and Potential Correlation with Clinical Efficacy". Canadian Journal of Hospital Pharmacy 73, n.º 2 (28 de abril de 2020). http://dx.doi.org/10.4212/cjhp.v73i2.2979.

Texto completo da fonte
Resumo:
ABSTRACTBackground: Topical amitriptyline has been described as having mixed clinical efficacy for neuropathic pain. A few case reports using higher concentrations of this compound found clinical benefit, but many of these studies did not describe the components used in formulating the amitriptyline preparations.Objective:To generate reproducible clinical measures of the characteristics of amitriptyline diffusion from selected compounding bases, to support a scientific approach to base selection when compounding this drug for neuropathic pain.Methods: Amitriptyline hydrochloride (1%, 5%, and 10%) was compounded with 3 proprietary compounding bases: Lipoderm base, Emollient Cream, and Mediflo 30 pluronic lecithin organogel (PLO) gel. In vitro release of the drug from each base and subsequent permeation across artificial human skin were investigated with the Franz diffusion system. Amitriptyline release mechanisms were determined with kinetic models. How quickly and to what extent the drug leaves each base to diffuse through the skin were characterized by determining steady-state flux, cumulative permeation, and lag times.Results: Release of amitriptyline was significantly higher from the Mediflo PLO gel than from the Lipoderm base or Emollient Cream (p < 0.05). Mean cumulative drug release after 24 h, from the 10% formulation, was 23.9% (standard deviation [SD] 4.1%) for Lipoderm base, 41.8% (SD 3.1%) for Emollient Cream, and 53.2% (SD 7.7%) for Mediflo PLO gel. A high percentage of amitriptyline was retained in all 3 bases. Although amitriptyline release was highest with Mediflo PLO gel, this base resulted in significantly lower cumulative permeation relative to Lipoderm base and Emollient Cream (p < 0.05). There was a strong overall correlation between amitriptyline concentration, lag time, and flux. Higher concentrations were associated with significantly lower lag times and increased flux. The highest lag time and flux were observed for Mediflo PLO gel.Conclusion: These data indicate that the therapeutic effectiveness of compounded amitriptyline for neuropathic pain depends on its diffusion out of the compounding bases and penetration through the skin. RÉSUMÉContexte : L’efficacité clinique de l’amitriptyline topique contre les douleurs neuropathiques a été décrite comme étant variable. Quelques rapports utilisant des concentrations plus élevées de cette base indiquent des avantages cliniques, mais bon nombre d’entre eux ne décrivent pas les composants des préparations d’amitriptyline.Objectif : Établir des mesures cliniques reproductibles des caractéristiques de la diffusion de l’amitriptyline selon une approche scientifique de la sélection des bases pour la préparation de ce médicament contre les douleurs neuropathiques.Méthodes : Le chlorohydrate d’amitriptyline (1 %, 5 % et 10 %) a été mélangé à trois bases de préparations magistrales brevetées : la base Lipoderm, la crème émolliente et le gel Mediflo PLO 30. La liberation in vitro du médicament de chaque base et la perméation qui s’en est suivie dans la peau humaine artificielle ont été étudiées à l’aide du système de diffusion Franz. La définition des mécanismes de libération de l’amitriptyline repose sur des modèles cinétiques. La rapidité et la durée de libération du médicament de chaque base pour se diffuser dans la peau ont été caractérisées par la détermination du flux constant, de la perméation cumulée et des temps de latence.Résultats : La libération de l’amitriptyline était sensiblement plus élevée quand le produit était mélangé au gel Mediflo PLO plutôt qu’à la base Lipoderm ou à la crème émolliente (p < 0,05). La libération cumulée du médicament, formule 10 %, après 24 h était de 23,9 % (écart type [É.T.] ± 4,1 %) avec la base Lipoderm; 41,8 % (É.T. ± 3,1 %) avec la crème émolliente et 53,2 % (É.T. ± 7,7 %) avec le gel Mediflo PLO. Les trois bases retenaient un pourcentage élevé d’amitriptyline. Bien que la libération d’amitriptyline était plus élevée en présence du gel Mediflo PLO, la perméation cumulée de cette base par rapport à celle de la base Lipoderm et de la crème émolliente était sensiblement moins élevée (p < 0,05). L’observation a révélé une forte corrélation générale entre la concentration d’amitriptyline, le temps de latence et le flux. Les concentrations plus élevées étaient associées à des temps de latence sensiblement moins élevés. C’est le gel Mediflo PLO qui a démontré une supériorité du temps de latence et du flux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Kan, Tiffany, Derrick Kwan, Thomas Chan, Pavani Das e Sumit Raybardhan. "Implementation of a Clinical Decision Support Tool to Improve Antibiotic IV-to-Oral Conversion Rates at a Community Academic Hospital". Canadian Journal of Hospital Pharmacy 72, n.º 6 (16 de dezembro de 2019). http://dx.doi.org/10.4212/cjhp.v72i6.2945.

Texto completo da fonte
Resumo:
ABSTRACTBackground: Antibiotic IV-to-oral (IV–PO) conversion is a key initiative of antimicrobial stewardship programs. Guidelines and education are commonly described interventions to promote IV–PO conversion; however, technological interventions may be more effective in changing practice. Objective: To determine the impact of a clinical decision support (CDS) tool on the adoption and sustainability of an antibiotic IV–PO conversion program at a community-academic hospital.Methods: A quasi-experimental study consisting of 3 phases was conducted. During phase 1, the pre-intervention antibiotic IV–PO conversion rate was determined. During phase 2, the IV–PO conversion policy was updated, education was provided to pharmacists and physicians, and a post-intervention evaluation was conducted. During phase 3, a CDS tool was developed to generate real-time electronic alerts prompting pharmacists to assess antibiotic therapy, and post-intervention audits were performed 1 month, 3 months, and 15 months after implementation of the tool. Pantoprazole IV–PO conversion was assessed during each phase as a non-equivalent dependent variable. The primary outcome was the proportion of patients eligible for IV–PO conversion who were switched to oral therapy. Results: Of 332 patients receiving targeted IV antibiotic therapy during the overall study period, 122 (37%) met the criteria for IV–PO conversion. The phase 2 IV–PO conversion rate of 35% (9/26) was comparable to the pre-intervention rate of 29% (10/35) (p = 0.61). Implementation of the CDS tool significantly increased the conversion rate to 78% (14/18), an increase that was sustained at 3 months (71% [17/24]) and 15 months (74% [14/19]) after implementation (p < 0.05 for all comparisons with phases 1 and 2). Pantoprazole conversion rates were similar across all phases.Conclusions: Implementation of the CDS tool was effective in improving and sustaining antibiotic IV–PO conversion rates and enhancing policy compliance beyond the effects of policy revision and education. Refinement of both the policy and the tool is warranted to maximize adoption of the IV–PO conversion program.RÉSUMÉContexte: Le passage de l’antibiothérapie par voie intraveineuse (IV) à la voie orale (PO) (IV-PO) est une initiative clé des programmes de gestion des antimicrobiens. On a communément recours à des formations et à des lignes directrices pour encourager le passage d’une voie à l’autre; cependant, les interventions technologiques sont parfois plus efficaces pour favoriser le changement de pratique. Objectif : Déterminer l’impact d’un outil d'aide à la décision clinique (ADC) sur l’adoption et la viabilité d’un programme de conversion IV-PO dans un hôpital universitaire.Méthodes : Une étude quasi expérimentale en trois phases a été menée. La première phase a permis la détermination du taux de conversion IV-PO avant l’intervention. La deuxième phase concernait l’actualisation de la politique de conversion IV-PO, la formation des pharmaciens et médecins et la conduite d’une évaluation après l’intervention. La troisième phase a vu le développement d’un outil ADC qui génère des alertes électroniques en temps réel pour inciter les pharmaciens à évaluer l’antibiothérapie. Des évaluations ont en outre été effectuées 1 mois, 3 mois et 15 mois après la mise en place de l’outil. Le passage de l’administration du pantoprazole par voie intraveineuse (IV) à voie orale (PO) a été évalué au cours de chaque phase comme une variable dépendante non équivalente. Le résultat principal fut la proportion de patients admissibles à la conversion IV–PO qui ont été orientés vers un traitement par voie orale.Résultats : Des 332 patients recevant une antibiothérapie ciblée par voie intraveineuse (IV) pendant l’étude, 122 (37 %) répondaient au critère de la conversion IV–PO. Le taux de conversion IV–PO de 35 % (9/26) de la phase 2 était comparable au taux avant l’intervention de 29 % (10/35)(p = 0,61). La mise en place de l’outil ADC a grandement augmenté le taux de conversion, qui est passé à 78 % (14/18) : une augmentation maintenue trois mois (71 % [17/24]) et 15 mois (74 % [14/19]) après la mise en place (p < 0,05 par rapport aux phases 1 et 2). Les taux de conversion du pantoprazole étaient similaires durant toutes les phases.Conclusions : La mise en place de l’outil ADC a permis d’améliorer et de maintenir les taux de conversion IV–PO et de renforcer le respect des politiques au-delà des effets de la révision des politiques et de la formation à celles-ci. Le perfectionnement de la politique et de l’outil se justifie pour maximiser l’adoption du programme de conversion IV–PO.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Muller, Bernard. "Scène". Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.057.

Texto completo da fonte
Resumo:
La notion de scène s’avère être un outil descriptif très utile pour l’anthropologie sociale ou culturelle, et cela malgré - ou grâce- au flou conceptuel qui l’entoure. La puissance heuristique de la « scène » (avec ou sans parenthèses), véritable levier méthodologique, va bien au-delà des questions inhérentes au spectacle auquel il serait regrettable de la restreindre. Le cheminement de la notion de scène dans le champ de l’anthropologie relate à ce titre le changement de cap méthodologique pris par les sciences sociales et humaines dans la première moitié du XXe siècle et plus systématiquement dans les années 1970 (Clifford 1985), suite aux secousses épistémologiques post-modernes dont les répliques se font toujours sentir aujourd’hui (Lyotard 1979 ;Latour et Woolgar 1979). Anthropologue avant l’heure, William Shakespeare (1623) fut le premier à donner le ton avec son plus que fameux « All the world’s a stage, And all the men and women merely players » (« Le monde entier est une scène, hommes et femmes, tous, n’y sont que des acteurs»), sensible déjà aux ressemblances entre le jeu (de scène) et le fait social, tous deux également traversés - mais depuis des angles différents – par la nature des sentiments et l’agilité symbolique de l’homme en société. D’emblée, ce propos nous invite aussi à une réflexion sur les rapports humains, les normes et les codes sociaux. La mission du dramaturge ou de l’écrivain serait alors précisément, à l’instar de l’anthropologue, de mettre au jour «une dimension sociale et humaine que la prose anthropologique escamote trop souvent sous les conventions narratives et conceptuelles. Salubre retour au terrain en ces temps de tout textuel » (Bensa et Pouillon 2003). Plus récemment, c’est le sociologue et linguiste Erving Goffman qui fut l’un des premiers à méthodiquement envisager la vie sociale par le prisme de la scène. Il contribua ainsi à sa diffusion initiale dans les sciences humaines et sociales, en ethnologie en particulier. Son ouvrage majeur à cet égard, La Présentation de soi publié en 1959 (paru en français seulement en 1973) (Goffman 1959), essaie de rendre compte des façons dont les individus tissent au quotidien des liens interpersonnels au travers de gestes, expressions, stratégies envisagées comme des agissements dramaturgiques, se déroulant sur une scène. Cet usage heuristique de la scène est indissociable de la métaphore théâtrale, et part de l’idée que la vie en société peut être décrite comme un spectacle. Dans ce monde social envisagé comme un théâtre, où l’action se déroule sur plusieurs scènes, les individus composent des rôles en fonction de l’effet qu’ils espèrent obtenir au cours de ces situations de communication toujours dynamiques, incertaines et travaillées par des enjeux complexes qui ne se laissent pas réduire à la détermination culturelle. Ainsi, pour décrire ces « nouvelles » situations, il convient de convoquer tout un vocabulaire issu du théâtre, le terme de « scène » appelant celui de « coulisse », de « décor », de « rôle », d’ « acteurs » ou de « personnage », de « composition », d’ « intention », de « simulation », de « drame », de « quiproquo », etc.. En leur temps, ces approches furent radicalement nouvelles. Elles impliquent des prises de position théoriques en rupture alors avec la vision jusque-là dominante dans les sciences humaines et sociales, ouvrant ainsi la voie au renouvellement des modes d’exploration des univers sociaux. En effet, en s’intéressant aux interactions plutôt qu’aux expressions culturelles, la focale analytique met désormais en lumière la situation sociale sous l’angle de sa spécificité historique et non plus en tant qu’expression d’un système de représentation abstrait et surplombant dans lequel les individus agiraient selon des programmes culturels. Ce faisant, se définissent les prémisses d’une nouvelle anthropologie. Soucieuse de se dégager des rapports de force qui régimentaient le paradigme positiviste conçu au XIXe siècle dans des sociétés verticales et très autoritaires, elle propose une méthode alternative permettant de se dégager de la dissymétrie (Spivak 1988 ; Saillant et al. 2013) des modes de productions dominants, notamment en contexte post-colonial. De fait, simultanément, dans des sillons parallèles et parfois croisés, émergent d’autres approches du social. Dans l’environnement immédiat des interactionnistes, il faut mentionner les tenants de l’ethnométhodologie qui, à l’initiative d’Harold Garfinkel, continuent à modifier les paramètres habituels de l’observation scientifique en admettant que le chercheur puisse produire un objet dont il est lui-même l’agent provocateur, rompant ainsi radicalement avec le principe d’observation non-interventionniste héritée des sciences naturelles. Il s’agit au contraire pour cet autre sociologue américain de produire de la connaissance en intervenant dans le monde social, faisant par le moyen des « actions disruptives » / « breaching experiments » (Garfinkel 1963) du terrain une mise en abîme anthropologique, et de la scène le théâtre des opérations (Müller 2013). Dès lors, la scène ne relève plus d’une simple métaphore mais elle devient le lieu même de la recherche anthropologique, un terrain conçu comme espace de communication dans lequel le chercheur va jusqu’à envisager son rôle comme celui d’un « ethnodramaturge ». Johannes Fabian (1999) écrit : « Ce qu’il nous est possible de savoir ou d’apprendre à propos d’une culture n’apparaît pas sous forme de réponses à nos questions, mais comme performance dans laquelle l’ethnologue agit, comme Victor Turner (1982) l’a formulé un jour, à la manière d’un ethnodramaturge, c’est à dire comme quelqu’un qui cherche à créer des occasions au cours desquelles se produisent des échanges significatifs ». Cette redéfinition du rôle du chercheur qui se trouve entrainé sur les « planches » fait écho aux idées de Victor Turner qui déclara : « J’ai longtemps pensé qu’enseigner l’anthropologie pourrait être plus amusant. Pour cela peut-être faudrait-il que nous ne nous contentions pas de lire ou de commenter des écrits ethnographiques mais de les mettre en scène (to perform)». L’efficacité descriptive du terme scène proviendrait in fine de la centralité de l’action entendue comme développement symbolique dans les comportements humains en général, voyant dans la mise en scène une caractéristique exclusive et universelle de l’espèce humaine. En ce sens tout comportement social et donc humain relèverait d’un jeu scénique, d’une mise en abîme, et impliquerait que l’anthropologie soit essentiellement une scénologie. On reconnait à cet endroit le projet des performance studies fondées par Richard Schechner (1997) en dialogue avec Victor Turner et il n’est pas innocent que cette proposition forte résulte justement d’une fréquentation assidue entre études théâtrales et anthropologie. Le projet d’une « scénologie générale » portée par les tenants de l’ethnoscénologie (Pradier : 2001) s’engage aussi dans cette brèche épistémologique. Dans cette même dynamique, et toujours en raison de cette efficacité descriptive qui résulte de l’engagement du chercheur dans les situations qu’il étudie, cette approche crée les conditions épistémologique de la recherche-action. Elle ouvre ensuite la voie à des approches plus assumées comme artistiques qui s’inspirent de ces travaux des sciences humaines pour construire puis pour interpréter leurs propres actions spectaculaires. Il en va ainsi de plusieurs artistes-chercheurs, à l’instar d’Augusto Boal (1997), de Richard Schechner (1997) ou de Mette Bovin (1988) dont les travaux ouvrent le champ à la recherche- action puis à la recherche-création (Gosselin et Le Coquiec 2006) ou à l’art relationnel (Bourriaud 1998 ; Manning 2016). C’est à ce point de déboitement disciplinaire que l’anthropologie en vient à s’ouvrir aux arts, et notamment aux arts de la scène, rendant possible d’envisager – dès lors du point de vue des études théâtrales - le « théâtre comme pensée » (Saccomano 2016). La notion de scène implique un retournement méthodologique faisant du terrain un moment de construction collective et négociée d’une forme de connaissance du social, une démarche relevant du dialogue et de la conversation plutôt que de l’observation à proprement parler. Bien qu’encore rejetée par elle, cette posture s’inscrit pourtant dans une filiation anthropologique, à partir des constats aporétiques du terrain et du désir d’en sortir. Pour conclure, il convient toutefois de poser une certaine limite. Si le concept de scène permet d’interroger sous divers angles la dimension spectaculaire des agissements humains, il convient toutefois de se demander dans quelle mesure le social se laisse réduire à cette dimension. Autrement dit, les divers spectacles que les hommes se font d’eux-mêmes, et donc les scènes sur lesquelles les personnes agissent comme des acteurs, ne sont-ils pas le seul angle depuis lequel la vie sociale est observable, puisque rendue explicitement visible, i.e. mis en scène ? Le jeu social ne se laisse-t-il appréhender que par ses manifestations spectaculaires ou alors la scène n’est-elle que le reflet de dynamiques culturelles ? Bref, qu’y a-t-il derrière la scène ?
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia