To see the other types of publications on this topic, follow the link: Méthodes de particules lagrangiennes.

Journal articles on the topic 'Méthodes de particules lagrangiennes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 24 journal articles for your research on the topic 'Méthodes de particules lagrangiennes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Dramais, Guillaume, Benoît Camenen, and Jérôme Le Coz. "Comparaison de methodes pour la mesure des matieres en suspension dans les cours d'eau, en présence de sable." La Houille Blanche, no. 5-6 (October 2018): 96–105. http://dx.doi.org/10.1051/lhb/2018056.

Full text
Abstract:
La mesure des concentrations de matières en suspension (MES) dans les cours d'eau est un sujet d'étude complexe. Des questions se posent sur la répartition spatiale des particules dans le cours d'eau, notamment celle du sable en suspension. La taille des particules et leurs propriétés, mais aussi la capacité de la rivière à mobiliser ces matières sont des sujets qui intéressent la recherche et les gestionnaires de cours d'eau. Dans cette étude, nous nous focaliserons sur la mesure de la concentration et de la distribution granulométrique des MES non-organiques dans un échantillon prélevé manuellement ou de manière automatique dans un cours d'eau. Plusieurs méthodes de dosage en laboratoire existent dont la norme NF EN 872 préconisée pour la mesure des concentrations en MES dans la plupart des types d'eau. Cependant cette méthode présente des limites importantes en cas de présence de particules de diamètre supérieur à 63µm (sables). Nous illustrons dans cette étude le problème du sous-échantillonnage en présence de sable, en testant différentes méthodes utilisées en France et ailleurs sur une centaine d'échantillons de concentrations variées prélevés dans une rivière alpine. Notre étude montre que la méthode ASTM D3977 est plus précise que les autres méthodes testées pour mesurer les concentrations en MES en présence de sable dans l'échantillon.
APA, Harvard, Vancouver, ISO, and other styles
2

Guegan, Hervé. "Méthodes d’analyses élémentaires : revue comparée des techniques utilisables à la caractérisation des poussières fines." Pollution atmosphérique, NS 2 (September 1, 2010): 83–89. http://dx.doi.org/10.54563/pollution-atmospherique.7084.

Full text
Abstract:
L’objectif de cet article est de présenter les principales techniques d’analyse élémentaire de particules fines utilisées à la problématique de la recherche des sources. Cette présentation s’attachera à décrire leurs fondements pour mieux comprendre leurs qualités intrinsèques et leurs limitations, afin de les replacer dans le foisonnement des méthodes d’analyse physico-chimique. On pourra être ainsi à même de saisir la pertinence de l’utilisation de l’une ou l’autre en fonction de la problématique posée.
APA, Harvard, Vancouver, ISO, and other styles
3

PICARD, M., C. LE FUR, J. P. MELCION, and C. BOUCHOT. "Caractéristiques granulométriques de l’aliment : le “point de vue” (et de toucher) des volailles." INRAE Productions Animales 13, no. 2 (April 18, 2000): 117–30. http://dx.doi.org/10.20870/productions-animales.2000.13.2.3773.

Full text
Abstract:
Grâce à une vision précise des détails et une perception tactile spécifique du bec, une volaille apprend, dès ses premières heures de vie, à associer les caractéristiques sensorielles des particules alimentaires à leurs effets nutritionnels. Le choix particulaire est très rapide et précis, mais il peut également changer avec l’expérience sensorielle que l’animal a de l’aliment. La taille et la dureté des particules déterminent une vitesse d’ingestion dont les conséquences zootechniques réelles dépendent de l’environnement. Exposées à des conditions d’élevage variées ou constantes, les volailles s’adaptent plus ou moins vite à un changement d’aliment. Le type d’élevage peut donc modifier sensiblement la perception et les conséquences de la granulométrie du régime. Cela rend difficile l’établissement de normes de besoin des animaux. La collaboration entre technologues et nutritionnistes permet la mise au point de nouvelles méthodes évaluant ce que les volailles perçoivent réellement de la texture et de la forme des particules. L’étude du comportement alimentaire est utile pour suivre, au laboratoire et directement en élevage, l’incidence d’ajustements technologiques, et pour développer de nouveaux modes de distribution des aliments. Nutrition et détection sensorielle interagissent sur les trois phases du comportement alimentaire : identification, préhension et ingestion de l’aliment. Une conception efficace de la technologie alimentaire intégrée à l’élevage devrait distinguer chacune de ces trois étapes.
APA, Harvard, Vancouver, ISO, and other styles
4

Servais, P., P. Laurent, and G. Randonl. "Mesure de la biomasse et de l'activité bactérienne dans l'eau de distribution." Revue des sciences de l'eau 5, no. 4 (April 12, 2005): 473–88. http://dx.doi.org/10.7202/705142ar.

Full text
Abstract:
Afin d'étudier la reviviscence bactérienne dans les réseaux de distribution, des méthodes de mesures de la biomasse et de l'activité bactérienne ont été investiguées sur des eaux provenant d'un réseau de distribution. Trois méthodes d'estimation de la biomasse bactérienne ont été comparées : le comptage sur gélose, selon la norme française d'examen bactériologique des eaux de consommation, le dosage de l'ADN contenu dans les particules retenues sur une membrane de porosité de 0.2 µm et le comptage direct au microscope à épifluorescence après coloration des bactéries à l'acridine orange. Les comptages sur gélose, tout comme en milieu aquatique naturel, sous-estiment très largement le nombre de bactéries; ceci semble principalement lié à la présence de bactéries viables mais non cultivables. Le dosage de l'ADN et les comptages directs corrèlent assez bien avec en moyenne un contenu en ADN par bactérie de 4,1 x 10-15 g d'ADN, mais la première méthode semble moins précise. Le comptage direct semble donc la méthode la plus adaptée à l'estimation du nombre total de bactéries dans ce type de milieu. Afin d'estimer l'activité bactérienne, les protocoles expérimentaux de deux méthodes utilisées en écologie bactérienne ont été adaptés aux conditions particulières de l'eau de distribution : l'incorporation de thymidine tritiée dans l'ADN bactérien et l'incorporation de leucine tritiée dans les protéines. La comparaison des deux méthodes sur une série d'échantillons montre une bonne corrélation, avec un rapport molaire entre incorporation de leucine et de thymidine compatible avec les facteurs de conversion des deux méthodes cités dans la littérature et établis pour les milieux aquatiques naturels. Les deux méthodes sont utilisables pour mesurer l'activité bactérienne dans l'eau potable, néanmoins l'incorporation de thymidine est plus aisée à mettre en oeuvre, car elle ne nécessite de travailler qu'à une seule concentration en traceur radioactif.
APA, Harvard, Vancouver, ISO, and other styles
5

BARBIER, J. S., R. DRIS, J. GASPERI, C. LECARPENTIER, K. DELABRE, S. THIBERT, and B. TASSIN. "État de l’art sur la présence de microplastiques dans les eaux destinées à la consommation humaine." 6 6, no. 6 (June 20, 2022): 93–123. http://dx.doi.org/10.36904/tsm/202206093.

Full text
Abstract:
Les microplastiques (MP) sont des particules polymérisées de taille inférieure à 5 mm. Ils ont été détectés dans toutes les matrices environnementales y compris récemment dans l’eau potable. Les concentrations en MP et le risque lié à ces particules sont aujourd’hui encore mal connus. Cet état de l’art se focalise sur la présence des MP dans l’eau du robinet et l’eau en bouteille ainsi que sur l’efficacité des filières de traitement. Il a pour objectifs d’exposer les techniques analytiques et approches expérimentales utilisées dans les études parues, d’en faire la critique, et de mettre en valeur les principaux résultats. Un premier constat est que les chercheurs emploient des méthodes différentes d’une étude à une autre, que cela soit pour le prélèvement, le traitement ou le comptage et la caractérisation des MP. La diversité des techniques analytiques, de la microscopie visuelle simple aux combinaisons de techniques spectroscopiques, conduit à des différences en termes de tailles de particules recherchées et à des biais analytiques différents selon les études. Cela a pour conséquence des divergences de plusieurs ordres de grandeur d’une étude à une autre, avec des concentrations rapportées allant de 0,007 MP/L à 5,4 107 MP/L. Ces différences inter-études s’appliquent également à la manière de rapporter les tailles, couleurs et composition des MP, la prise en compte des blancs, ainsi que le contrôle qualité au sein du laboratoire. Bien que la comparabilité soit limitée, les études tendent à montrer que les abattements en MP entre l’eau brute et l’eau du robinet sont de l’ordre de 80 %. Aussi, elles tendent à montrer que le taux d’abattement des MP est le plus élevé pour les MP 100 μm et décroît avec la taille des particules.
APA, Harvard, Vancouver, ISO, and other styles
6

HERNANDEZ-SHEK, M. A., P. PEULTIER, A. PAUSS, and T. RIBEIRO. "Une revue des instruments de caractérisation rhéologique de biomasses appliqués à la méthanisation en voie solide continue." Techniques Sciences Méthodes 5 (May 22, 2023): 48–81. http://dx.doi.org/10.36904/tsm/202305048.

Full text
Abstract:
Cet article propose un état des lieux des méthodes pour la détermination des paramètres rhéologiques des biomasses grossières appliquées à la méthanisation en voie solide. La méthanisation en voie solide est un procédé biologique permettant la valorisation sous forme de biogaz des sous-produits à forte teneur en matières sèches, en particulier les sous-produits agricoles, les déchets ménagers et les déchets alimentaires. Afin d’assurer le développement de plusieurs technologies de méthanisation, des connaissances précises sur les propriétés rhéologiques des substrats et du milieu réactionnel sont indispensables pour la conception, l’opération et la simulation de procédés. Malgré l’importance des propriétés rhéologiques, très peu de données du comportement rhéologique de la biomasse grossière sont présentes dans la littérature. Cela s’explique par le fait que les rhéomètres rotatifs conventionnels ne sont pas bien adaptés à la biomasse hétérogène comportant des particules grossières et de longues fibres. Jusqu’à présent, les équipements rotatifs conçus permettent de déterminer les propriétés rhéologiques de biomasse concentrée contenant des particules d’une taille maximale de 3 cm alors que les biomasses peuvent contenir des fibres lignocellulosiques ayant jusqu’à 25 cm de longueur. Compte tenu de cette limitation instrumentale, différents appareils alternatifs issus des domaines de l’analyse du béton, des sols ou des aliments ont été récemment adaptés pour accéder à des propriétés rhéologiques des biomasses agricoles. Dans cet article, ces différents outils ont été répertoriés en précisant des informations sur les facteurs d’influence, les principes physiques théoriques, le montage expérimental et leur gamme d’application pour la biomasse. Hélas, pour certains de ces appareils, les relations trouvées sont à ce jour plutôt qualitatives que quantitatives et les raisonnements mathématiques permettant d’intégrer complètement les phénomènes physiques observés avec les facteurs influençant la rhéologie de la biomasse doivent encore être investigués afin de mettre en place des méthodes normalisées spécifiques à une biomasse grossière.
APA, Harvard, Vancouver, ISO, and other styles
7

GILLOT, S., Y. FAYOLLE, and C. ROCHE. "Densification des boues activées par hydrocyclones – impact de la granulation partielle sur les performances de traitement." Techniques Sciences Méthodes 12 (January 20, 2023): 133–47. http://dx.doi.org/10.36904/202212133.

Full text
Abstract:
Pour traiter les eaux résiduaires, le procédé à boues activées conventionnel reste le plus utilisé dans les pays industrialisés. Ce procédé peut être intensifié en densifiant la biomasse épuratoire. L’installation d’hydrocyclones sur la boucle d’extraction des boues, créant une pression de sélection des particules les plus denses, est l’une des méthodes de densification employées. L’objectif de cet article est d’analyser le fonctionnement d’une file de traitement par boues activées de la station d’épuration de Dijon, équipée d’une batterie d’hydrocyclones. Les performances obtenues ont été comparées à celles d’une file témoin. Les résultats montrent la nette amélioration de la capacité des boues à décanter de la file densifiée, et le maintien d’un indice de boues inférieur à 100 mL/g, même en début de période hivernale habituellement accompagné d’un foisonnement filamenteux. Les performances de traitement sur les deux files sont similaires pour le traitement du carbone. La file densifiée montre un fléchissement du flux nitrifié, lié à une limitation de l’apport d’oxygène. Des mesures complémentaires sont requises pour imputer cette limitation à la taille des particules, significativement plus élevée dans la file densifiée, ou à une capacité de transfert d’oxygène différente, en lien avec les modifications de comportement rhéologique observées. Ces mesures permettront également de préciser le bilan énergétique du système, en prenant en compte l’ensemble des modifications induites (puissances d’agitation et de pompage requises, notamment).
APA, Harvard, Vancouver, ISO, and other styles
8

PICARD, M., J. P. MELCION, C. BOUCHOT, and J. M. FAURE. "Picorage et préhensibilité des particules alimentaires chez les volailles." INRAE Productions Animales 10, no. 5 (December 9, 1997): 403–14. http://dx.doi.org/10.20870/productions-animales.1997.10.5.4016.

Full text
Abstract:
Les conditions d’alimentation des volailles constituent un modèle extrême à la fois de simplification (un seul aliment) et de sophistication (caractéristiques nombreuses contrôlées avec rigueur). Spécifique des oiseaux, le picorage est une activité complexe dont l’analyse est nécessaire à la compréhension des méthodes de mesures de la préhensibilité. Le poussin sort de l’oeuf grâce à son bec. Sa première activité après la naissance est de picorer. Il acquiert, plus ou moins rapidement selon sa vitesse de croissance, une sélectivité pour les particules alimentaires qui induisent des renforcements sensoriels et métaboliques. Le picorage alimentaire est une activité discontinue, anticipée, hétérogène et sélective. Le rythme des accès à l’aliment est le résultat d’une adaptation de l’animal à son environnement plutôt que le reflet intangible d’une régulation interne de l’appétit. L’observation vidéo ralentie du picorage confirme que la tête est immobile pendant les deux tiers du temps, ce qui permet l’observation des particules. La particule touchée ou saisie est choisie avant le coup de bec qui s’effectue membrane nictitante fermée. La majorité des coups de bec ne saisissent pas d’aliment mais sont exploratoires et font partie d’un besoin global d’ "activités du bec". La force du coup de bec peut être mesurée sur une balance ultra-rapide. La force et le rythme du picorage varient selon la nature des particules consommées. Trois mesures permettent de caractériser rapidement la préhensibilité d’un aliment : la "vitesse" d’ingestion (quantité consommée / temps passé), le rythme de picorage (nombre de coups de bec / temps passé) et l’efficacité d’un coup de bec (quantité consommée / nombre de coups de bec). Ces mesures pourront par la suite être affinées en distinguant coups de becs exploratoires ou consommateurs et en mesurant la force d’un coup de bec. Au poulailler, le temps passé à consommer peut être évalué par comptage répété du nombre de volailles à la mangeoire sur un ou plusieurs sites du bâtiment. D’autres informations comme les interactions sociales pendant un accès à la mangeoire ou le picorage du sol rapidement après, sont de indicateurs potentiels de difficultés d’adaptation à l’aliment. Les mesures de préhensibilité chez les volailles contribueront à une caractérisation physique précise des particules alimentaires qui complétera les connaissances nutritionnelles actuelles qui sont surtout biochimiques.
APA, Harvard, Vancouver, ISO, and other styles
9

Banas, D., S. Capizzi, G. Masson, L. Leglize, P. Wagner, and J. C. Pihan. "Nouvelles trappes à sédiment destinées aux milieux peu profonds vidangeables." Revue des sciences de l'eau 15, no. 1 (April 12, 2005): 263–72. http://dx.doi.org/10.7202/705451ar.

Full text
Abstract:
Les mesures de taux de sédimentation en milieux aquatiques peu profonds sont rares et sont souvent réalisées à l'aide de méthodes inadaptées. Les trappes à sédiment utilisées ont au minimum 25 cm de haut. Par conséquent, pour beaucoup de milieux peu profonds, plus de 25 % de la colonne d'eau ne sont pas échantillonnés. Nous avons pallié ce problème en développant un réceptacle mis en place dans les sédiments et destiné à recevoir des trappes à sédiment cylindriques. Le sommet des trappes peut alors être situé à moins de 5 cm de la surface des sédiments. Ce système est utilisable pour des milieux de profondeur inférieure à cinq mètres. Nos résultats montrent que les trappes à sédiments généralement utilisées sous-estiment de 35 à 79 % du taux de sédimentation. Les particules négligées proviennent des flux sédimentaires primaire et secondaire.
APA, Harvard, Vancouver, ISO, and other styles
10

Launay, Marina, Jérôme Le Coz, Seydina Diouf, Benoît Camenen, Fabien Thollet, and Marina Coquery. "Réévaluation des apports moyens de matières en suspension de l'Arve au Rhône." La Houille Blanche, no. 2 (April 2019): 89–100. http://dx.doi.org/10.1051/lhb/2019019.

Full text
Abstract:
L'Arve est le principal contributeur au flux de matières en suspension (MES) du Rhône entre le lac Léman et Lyon. Une évaluation fiable des apports moyens de MES de l'Arve est cruciale pour la connaissance et la gestion des flux sédimentaires sur ce secteur du Rhône et à travers ses aménagements hydroélectriques. Cette étude vise à réévaluer les flux moyens de l'Arve en suspension fine, en croisant les données historiques avec les flux de MES de référence pour les années 2012 à 2017 issus du suivi turbidimétrique en continu à la station de Genève Bout-du-Monde de l'Observatoire des sédiments du Rhône. Ce jeu de données a permis d'évaluer les deux méthodes de calcul des flux mises en œuvre par le Service hydrologique national suisse pour les périodes avec des mesures discontinues des MES : la méthode des débits classés et la courbe de tarage sédimentaire à deux segments. En combinant au mieux ces méthodes, le flux moyen interannuel entre 1965 et 2017 est estimé à 0,68 Mt/an avec un écart-type de 0,29 Mt/an. Cette valeur est cohérente avec le flux moyen mesuré par la station turbidimétrique entre 2012 et 2017 (0,63 Mt) et avec un suivi historique pour l'année 1890 (0,71 Mt) ; en revanche, elle est nettement inférieure à l'estimation précédemment proposée par l'étude globale Rhône (2000), comprise entre 1,0 et 3,6 Mt/an, qui inclut sans doute la suspension graduée de sables et limons grossiers, très mal connue. À partir de relevés bathymétriques et granulométrique des dépôts, nous avons estimé que la retenue de Verbois intercepte approximativement 0,1 Mt/an de particules grossières issues de l'Arve et environ la moitié des apports de MES.
APA, Harvard, Vancouver, ISO, and other styles
11

Fiset, J. F., J. F. Blais, R. Ben Cheikh, and R. D. Tyagi. "Revue sur l'enlèvement des métaux des effluents par adsorption sur la sciure et les écorces de bois." Revue des sciences de l'eau 13, no. 3 (April 12, 2005): 325–49. http://dx.doi.org/10.7202/705397ar.

Full text
Abstract:
Les résidus de transformation du bois tels les écorces et la sciure de bois ont été largement étudiés depuis quelques années pour leur propriété d'adsorption et d'enlèvement des métaux toxiques contenus dans les effluents contaminés. En ce qui concerne la sciure de bois, les recherches répertoriées ont porté principalement sur l'utilisation du sapin rouge, du manga, du tilleul, de l'épinette, du pin, du cèdre, du teck, de l'akamatsu et du buna. Pour ce qui est des écorces de bois, plusieurs espèces ont été étudiées, notamment les écorces de pin, de chêne et d'épinette. La présente revue fait le point sur les performances de ces différents adsorbants peu coûteux pour l'adsorption des principaux métaux contaminants (Cd, Cr, Cu, Hg, Ni, Pb et Zn). Les points discutés portent sur les méthodes de préparation (lavage, séchage et tamisage) et de traitement chimique de l'adsorbant (traitement acide ou basique, traitement à la formaldéhyde, phosphatation, carboxylation, sulfoéthylation, carboxyméthylation, etc.), les conditions opératoires utilisées lors de l'adsorption, les modèles thermodynamiques, cinétiques et autres applicables au couple adsorbant-adsorbat, l'effet des principaux paramètres opératoires (temps de contact, pH de traitement, température, concentration d'adsorbant, taille des particules, etc.), les principes et les mécanismes impliqués dans l'élimination des contaminants métalliques par les adsorbants présentés.
APA, Harvard, Vancouver, ISO, and other styles
12

Paris, Jean-Daniel, Andreas Stohl, Philippe Ciais, Michel Ramonet, and Philippe Nedelec. "Relations source-récepteur transcontinentales identifiées avec un modèle Lagrangien de dispersion et une analyse en clusters." Pollution atmosphérique, NS 2 (September 1, 2010): 143–48. http://dx.doi.org/10.54563/pollution-atmospherique.7131.

Full text
Abstract:
Le transport des polluants à longue distance peut provoquer une dégradation de la qualité de l’air loin des sources d’émissions. Nous décrivons ici une technique récemment développée pour l’analyse des mesures de polluants, qui permet l’identification systématique de relations source-récepteur à travers un jeu d’observations. Cette technique utilise un modèle lagrangien de dispersion de particules (MLDP). Les MLDP calculent des rétropanaches qui représentent la sensibilité aux émissions potentielles (SEP) pour des mesures individuelles. Les SEP peuvent être regroupées selon leurs ressemblances en utilisant un algorithme de clustering. La classification des SEP peut informer sur l’impact de différents modes de transport à longue distance sur les mesures, et permet de déconvoluer le mélange atmosphérique de l’impact des émissions de surface. Nous appliquons notre méthode à des mesures au-dessus de la Sibérie, et constatons qu’un excès de ~ 20 ppb de monoxyde de carbone (CO) par rapport aux concentrations de fond est expliqué par le transport à longue distance d’émissions provenant de la combustion de biomasse au Kazakhstan, et que ~10 ppb d’excès de CO sont associés à des émissions européennes. Nous mettons en avant l’avantage de notre méthode par rapport aux méthodes traditionnelles pour l’établissement de relations source-récepteur dans les études du transport à longue distance.
APA, Harvard, Vancouver, ISO, and other styles
13

Marot, Didier, Bikram Oli, Rachel Gelet, and Fateh Bendahmane. "Nouveau dispositif pour l’étude de la suffusion suivant différents états mécaniques." Revue Française de Géotechnique, no. 178 (2024): 3. http://dx.doi.org/10.1051/geotech/2024006.

Full text
Abstract:
Les instabilités et les ruptures que peuvent subir les digues et les barrages en remblais sont très majoritairement dues aux processus d’érosion externe (surverse) et d’érosion interne (renard hydraulique, érosion régressive, érosion de contact ou suffusion). Cette étude porte sur la suffusion qui peut mobiliser la fraction fine de sols pulvérulents ou faiblement cohésifs. Ce processus complexe combine trois mécanismes : le détachement, le transport et l’éventuelle filtration des particules fines. De nombreux critères ont été proposés dans littérature, pour caractériser la susceptibilité à la suffusion, en considérant uniquement la distribution granulométrique et éventuellement la densité du sol. Toutefois, plusieurs études ont montré que l’initiation et le développement de la suffusion dépendent aussi du chemin de chargement hydraulique. Par ailleurs, chacun des trois mécanismes susmentionnés dépend du chargement mécanique subi par le sol. Dans ce contexte, un dispositif expérimental a été développé afin de caractériser la sensibilité vis-à-vis de la suffusion, de quatre sols pulvérulents à distribution lacunaire (composé de sable et de gravier), en contrôlant l’état mécanique et le chemin de chargement hydraulique. Les essais sont réalisés à l’aide du banc triaxial dédié qui permet d’appliquer à l’échantillon (diamètre : 100 mm ; hauteur : 200 mm) un écoulement vertical descendant. La charge hydraulique appliquée est augmentée automatiquement, par faibles incréments et suivant le même chemin pour tous les essais. Les échantillons sont tous consolidés sous une même contrainte effective moyenne, mais la valeur du déviateur de contrainte est propre à chaque essai. Enfin des essais sont menés en conditions œdométriques. L’interprétation des évolutions de conductivité hydraulique et de taux d’érosion permet tout d’abord d’identifier 4 étapes successives : initiation, filtration, débourrage et état permanent caractérisant la fin du processus de suffusion. Chacune de ces étapes est ensuite étudiée à l’aide de différentes méthodes interprétatives. À la fin de chaque essai, les échantillons sont découpés en 4 couches afin de mesurer les évolutions de distribution granulométrique. Les résultats obtenus soulignent la présence d’écoulements préférentiels circonférentiels pour l’essai réalisé en conditions œdométriques, ce qui conduit à une légère surestimation de la sensibilité à la suffusion. En conditions triaxiales, l’influence sur la suffusion du déviateur de contrainte apparaît limitée, notamment en regard de l’influence du pourcentage de sable. Enfin la confrontation de ces résultats montre que contrairement à l’approche énergétique, l’approche en conductivité hydraulique ne permet pas de détecter toutes les étapes pour tous les essais.
APA, Harvard, Vancouver, ISO, and other styles
14

Amy, G., J. F. Debroux, R. Arnold, and L. G. Wilson. "Emploi de la pré-ozonation pour augmenter la biodégradabilité d'un effluent secondaire dans un système de traitement par inflitration dans le sol." Revue des sciences de l'eau 9, no. 3 (April 12, 2005): 365–80. http://dx.doi.org/10.7202/705258ar.

Full text
Abstract:
La réutilisation des eaux usées est reconnue comme une technique importante dans les régions arides et /ou grandes consommatrices d'eau. L'une des méthodes actuellement très employée consiste à recharger la nappe phréatique avec des effluents secondaires via des bassins d'infiltration. L'épuration biologique et / ou chimique à travers la zone non-saturée représente une caractéristique importante de cette technologie. Les procédés de ce type sont connus sous l'appellation de Soil Aquifer Treatment (SAT) ou géofiltration. Dans ce travail, le procédé a été étudié comme méthode de réhabilitation d'un effluent secondaire d'eaux usées jusqu'au stade d'eau potable. Cette recherche a été principalement axée sur le comportement, le transport des matières organiques (MO) de l'effluent et particulièrement sur leur rôle de précurseurs potentiels de sous-produits de désinfection lors de la réutilisation de la nappe. Dans la zone vadose, la matière organique est principalement éliminée par biodégradation, et à un degré moindre, par adsorption. Les simulations du procédé, en laboratoire, ont été réalisées en réacteurs recirculés aérobies, en mode cuvée, avec un biofilm acclimaté sur des particules de sable siliceux, afin de déterminer la fraction biodégradable des MO. L'évaluation de celle-ci est essentielle pour prédire leur potentiel de dégradation par la biomasse de la zone vadose. L'effluent mis en oeuvre est issu d'une station d'épuration de l'Arizona (États-Unis) avec biofiltre (lit filtrant à support plastique); sa concentration en carbone organique dissous (COD) se situe entre 10 et 15 mg/L. L'effluent mis 5 jours durant en contact avec le biofilm acclimaté du réacteur montre un abattement de 50-60 % du COD. Il a ainsi été déterminé qu'environ 80 % de l'élimination des MO de l'effluent survient dans les premières 24 heures d'expérimentation, alors que le reste, près de 20 %, est éliminé durant les 48 heures suivantes. Dans ces conditions, le délai de 5 jours apparait suffisant pour dégrader les MO présentes dans ces effluents. Les rendements observés augurent bien de la dégradation dans la zone vadose si l'on tient compte de la combinaison des taux et de la hauteur d'infiltration avec des temps de résidence de 2 à 14 jours ainsi qu'il est proposé dans le procédé. Afin d'accroître la biodégradabilité des MO, une ozonation a été effectuée, en amont du bio-traitement, avec un générateur d'ozone à l'échelle du banc d'essai fonctionnant en mode semi-continu (admission continue de gaz, volume stable de liquide). La pré-ozonation a permis d'accroître la biodégradation de 60-70 %. Bien qu'un fort pourcentage de MO soit éliminé dans ce schéma, il ressort que l'ozone n'a qu'un effet modeste sur la transformation des MO dissoutes non-biodégradables en matières biodégradables par rapport à des expériences similaires effectuées avec des matières organiques naturelles (MON) des eaux de surface. L'eau usée ainsi traitée présente des niveaux de COD comparables à ceux d'une eau de surface employée à des fins de consommation. Les caractéristiques des MO de l'effluent ont été comparées à celles des MON. Une ultrafiltration de l'effluent pour déterminer le poids moléculaire apparent des MO, donne une distribution bimodale de leur poids moléculaire par rapport à une distribution logarithmique normale observée avec des MON typiques. En utilisant des résines non- ioniques pour séparer les fractions hydrophobes et hydrophiles des MO, il ressort que l'ozonation ne transforme pas de façon significative la fraction hydrophobe des MO de l'effluent en fraction hydrophile, tel que cela a été observé durant l'ozonation des MON. Ces eaux ont été chlorées en pilote, selon des conditions similaires à celles des réseaux de distribution (CI2:COD=1:1mg/mg, période d'incubation=24 heures) afin de simuler la post-désinfection après récupération. Les sous-produits réglementés (Trihalométhanes THM) et ceux proposés (Acides holoacétiques, HAA6) ont été formés à des taux inférieurs ou proches des normes en vigueur (ou de celles proposées pour HAA6) pour l'eau potable aux États-Unis. Cependant, une nitrification significative a été observée dans nos simulations de traitement par le sol avec un effluent non-nitrifié, conduisant à des teneurs en nitrates supérieures à la norme américaine pour l'eau potable (10 mg/L).
APA, Harvard, Vancouver, ISO, and other styles
15

Medugu, N., B. Adegboro, M. S. Babazhitsu, M. Kadiri, and E. A. Abanida. "A review of the recent advances on Lassa fever with special reference to molecular epidemiology and progress in vaccine development." African Journal of Clinical and Experimental Microbiology 24, no. 2 (April 18, 2023): 130–46. http://dx.doi.org/10.4314/ajcem.v24i2.3.

Full text
Abstract:
Lassa fever, a viral hemorrhagic fever caused by the Lassa virus (LASV), is endemic in West Africa and is associated with high morbidity and mortality. At least three of the four proposed seven lineages of LASV are found in Nigeria, where the multimammate rat, Mastomys natalensis, serves as the primary reservoir. Endemic countries report approximately 200,000 infections and 5,000 deaths annually, with Nigeria experiencing thousands of infections and hundreds of deaths including healthcare workers. The aim of this review is to provide scientific information for better understanding of the evolutionary biology, molecular epidemiology, pathogenesis, diagnosis, and prevention of Lassa fever in Nigeria and other endemic regions worldwide, which can lead to improved control efforts and reduce morbidity and mortality from recurrent epidemics. To achieve this aim, observational studies such as case series, cross-sectional and cohort studies published between December 2017 and September 2022 were searched for on various online databases including Google Scholar, Africa Journals Online (AJOL), Research Gates, PubMed, PMIC, NCDC, and WHO websites. Although the origin and evolutionary history, and the transmission dynamics of Lassa virus have been revealed through recent molecular epidemiological studies, the factors that drive the evolution of the virus remain unclear. Genetic changes in the viral genome may have enabled the virus to adapt to humans. Diagnosis of Lassa fever has also advanced from basic serological tests to more sophisticated methods such as quantitative real time polymerase chain reaction (qRT-PCR) and sequencing, which are particularly useful for identifying outbreak strains. Several vaccines, including recombinant vesicular stomatitis virus (rVSV), virus- like particle (VLP), and DNA-based vaccines, have shown promise in animal models and some have progressed to phase 2 clinical trials. Preventingand controlling Lassa fever is critical to safeguard the health and well-being of affected communities. Effective measures such as rodent control, improved sanitation, and early detection and isolation of infected individuals are essential for reducing transmission. Ongoing research into the genetic and ecological factors that drive the evolution of Lassa virus is necessary to reduce the impacts of Lassa fever. French title:Une revue des avancées récentes sur la fièvre de la Lassa avec une référence particulière à l'épidémiologie moléculaire et aux progrès du développement des vaccins La fièvre de Lassa, une fièvre hémorragique virale causée par le virus de Lassa (LASV), est endémique en Afrique de l'Ouest et est associée à une morbidité et une mortalité élevées. Au moins trois des quatre lignées proposées de LASV se trouvent au Nigeria, où le rat multimammaire, Mastomys natalensis, sert de réservoir principal. Les pays endémiques signalent environ 200,000 infections et 5,000 décès par an, le Nigéria connaissant des milliers d'infections et des centaines de décès, y compris des travailleurs de la santé. L'objectif de cette revue est de fournir des informations scientifiques pour une meilleure compréhension de la biologie évolutive, de l'épidémiologie moléculaire, de la pathogenèse, du diagnostic et de la prévention de la fièvre de Lassa au Nigeria et dans d'autres régions endémiques du monde, ce qui peut conduire à des efforts de contrôle améliorés et réduire la morbidité et la mortalité des épidémies récurrentes. Pour atteindre cet objectif, des études observationnelles telles que des séries de cas, des études transversales et de cohorte publiées entre décembre 2017 et septembre 2022 ont été recherchées sur diverses bases de données en ligne, notamment Google Scholar, Africa Journals Online (AJOL), Research Gate, PubMed, PMIC, Sites Web du NCDC et de l'OMS. Bien que l'origine et l'histoire évolutive, ainsi que la dynamique de transmission du virus de Lassa aient été révélées par des études épidémiologiques moléculaires récentes, les facteurs qui déterminent l'évolution du virus restent flous. Des modifications génétiques du génome viral pourraient avoir permis au virus de s'adapter à l'homme. Le diagnostic de la fièvre de Lassa est également passé des tests sérologiques de base à des méthodes plus sophistiquées telles que la réaction quantitative en chaîne par polymérase en temps réel (qRTPCR) et le séquençage, qui sont particulièrement utiles pour identifier les souches épidémiques. Plusieurs vaccins, y compris le virus recombinant de la stomatite vésiculeuse (rVSV), les particules pseudo-virales (VLP) et les vaccins à base d'ADN, se sont révélés prometteurs dans des modèles animaux et certains ont progressé vers des essais cliniques de phase 2. La prévention et le contrôle de la fièvre de Lassa sont essentiels pour préserver la santé et le bien-être des communautés touchées. Des mesures efficaces telles que le contrôle des rongeurs, l'amélioration de l'assainissement et la détection et l'isolement précoces des personnes infectées sont essentielles pour réduire la transmission. Des recherches continues sur les facteurs génétiques et écologiques qui déterminent l'évolution du virus de Lassa sont nécessaires pour réduire les impacts de la fièvre de Lassa.
APA, Harvard, Vancouver, ISO, and other styles
16

Nyobe, Samuel, Fabien Campillo, Serge Moto, and Vivien Rossi. "The one step fixed-lag particle smoother as a strategy to improve the prediction step of particle filtering." Revue Africaine de Recherche en Informatique et Mathématiques Appliquées Volume 39 - 2023 (December 14, 2023). http://dx.doi.org/10.46298/arima.10784.

Full text
Abstract:
Sequential Monte Carlo methods have been a major breakthrough in the field of numerical signal processing for stochastic dynamical state-space systems with partial and noisy observations. However, these methods still present certain weaknesses. One of the most fundamental is the degeneracy of the filter due to the impoverishment of the particles: the prediction step allows the particles to explore the state-space and can lead to the impoverishment of the particles if this exploration is poorly conducted or when it conflicts with the following observation that will be used in the evaluation of the likelihood of each particle. In this article, in order to improve this last step within the framework of the classic bootstrap particle filter, we propose a simple approximation of the one step fixed- lag smoother. At each time iteration, we propose to perform additional simulations during the prediction step in order to improve the likelihood of the selected particles. Les méthodes de Monte Carlo séquentielles ont constitué une percée majeure dans le domaine du traitement numérique du signal pour les systèmes dynamiques stochastiques à espace d'état avec observations partielles et bruitées. Cependant, ces méthodes présentent encore certaines faiblesses. L'une des plus fondamentales est la dégénérescence du filtre due à l'appauvrissement des particules : l'étape de prédiction permet aux particules d'explorer l'espace d'état et peut conduire à l'appauvrissement des particules si cette exploration est mal menée ou lorsqu'elle entre en conflit avec l'observation suivante qui sera utilisée dans l'évaluation de la vraisemblance de chaque particule. Dans cet article, afin d'améliorer cette dernière étape dans le cadre du filtre particulaire bootstrap classique, nous proposons une approximation simple du lisseur à retard fixe à un pas. A chaque itération temporelle, nous proposons d'effectuer des simulations supplémentaires pendant l'étape de prédiction afin d'améliorer la vraisemblance des particules sélectionnées.
APA, Harvard, Vancouver, ISO, and other styles
17

ANY- GRAH, Sandrine Armelle AKA, Nakognon Awa TUO-KOUASSI, Koffi Victor Kouakou, Kakwokpo Clémence N’GUESSAN-GNAMAN, Rosine Désirée N’KUITCHOU-CHOUGUO, Gnahoré José Arthur LIA, Alain N’GUESSAN, Ismael DALLY, and Armand KOFFI. "Etude comparative de microparticules à base de pectine de Mangifera indica L. (Anacardiaceae) versus la pectine synthétique." Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, no. 3 (December 20, 2023). http://dx.doi.org/10.57220/jatpb.v2i3.126.

Full text
Abstract:
Introduction : La pectine est un polysaccharide retrouvé dans la paroi de nombreuses cellules végétales, notamment dans les fruits mûrs. Elle possède d’excellentes propriétés gélifiantes qui en font un ingrédient particulier dans l’industrie alimentaire et pharmaceutique. Elle est obtenue également par synthèse, donnant lieu à la pectine synthétique. Dès lors, les propriétés de ces deux sources de pectine seraient-elles identiques ? L’objectif de notre travail était de comparer des formulations de microparticules d’acide salicylique à partir de pectine naturelle de Mangifera indica L. et de pectine synthétique. Méthodes : La gélification ionique a été utilisée pour la fabrication des microparticules. Pour la préparation 3% de pectine naturelle contre 2% de pectine synthétique ont été utilisé dans du tampon citrate à pH 5 avec du chlorure de calcium (CaCl2) à 0,2%. La solution de réticulation était du CaCl2 à 10%. Les microparticules obtenues ont été caractérisées sur le plan macroscopique par la vérification de la couleur et de la forme. La taille des particules a été déterminée au microscope optique permettant de calculer les déciles. Enfin les différents taux d’encapsulation ainsi que les rendements d’encapsulation ont été déterminés. Résultats : Les microparticules obtenues avec la pectine naturelle étaient de couleur brune et de forme aplaties, celles avec la pectine synthétique étaient de couleur blanche plus ou moins arrondies. La pectine naturelle donnait des particules de taille variant de 87 à 190 mm avec une moyenne de 137,70 mm et un rapport interdecile de 1,66. Quant à la pectine synthétique, les tailles des particules étaient comprises entre 58 et 116 mm avec une moyenne de 85,19 mm et un rapport interdecile de 1,55. Le taux d’encapsulation avec la pectine naturelle de Mangifera indica L. était de 6,08% avec un rendement d’encapsulation de 78,5%. En ce qui concerne la pectine synthétique, elle a donné un taux d’encapsulation de 17,72% et un rendement d’encapsulation de 88%. Conclusion : Des microparticules ont pu être formulées avec la pectine naturelle de Mangifera indica L. Cependant, la pectine synthétique a donné de meilleurs résultats de formulation et a pu encapsuler plus de principe actif par rapport à la pectine naturelle.
APA, Harvard, Vancouver, ISO, and other styles
18

YOUAN, Bi-Botti Celestin. "Systèmes nanoparticulaires : Applications phytopharmaceutiques et cosmétiques." Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, no. 3 (December 20, 2023). http://dx.doi.org/10.57220/jatpb.v2i3.116.

Full text
Abstract:
Cette présentation se focalise sur les principes de synthèse des vecteurs nanoparticulaires suivie de leur application en pharmacie et en cosmétologie. La nanotechnologie est une technologie multidisciplinaire pour la manipulation des objets (atomes et molécules) de taille inférieure à 100 nanomètres. Les nanoparticules peuvent être synthétisées par la méthode de top down (du haut en bas) dessous) et bottom up (du bas en haut). Dans cette présentation nous nous intéresserons aux méthodes de bottom up utilisant soit des polymères préformés ou formés in situ pendant la synthèse. Les méthodes de synthèse sont l’émulsification/évaporation de solvant, l’émulsification/déplacement de solvant, la polymérisation interfaciale, l’utilisation de polymères naturels, des fluides supercritiques et la production en milieu non aqueux (e.g. PRINT). Ces techniques permettent d’obtenir diverses classes de nanoparticules organiques (exemple des liposomes) ou inorganiques (exemple des particules d’argent ou d’or). La nanotechnologie améliore les propriétés physicochimiques (stabilité, solubilité et dissolution), biopharmaceutiques (pharmacocinétiques/libération contrôlée), thérapeutiques et toxicologiques des principes actifs utilises. L’application de la nanotechnologie en pharmacie a déjà abouti depuis 1995 a l’enregistrement de plus de 70 nouveaux produits approuvés par la US FDA (Food and Drug Administration) dont la plupart sont utilisés dans le traitement amélioré du cancer et des maladies infectieuses. En phytomedicine, la nanotechnologie améliore non seulement la production agricole/vétérinaire et la synthèse verte sans solvants organiques nocifs, mais elle permet aussi de concrétiser le concept émergent d’économie circulaire (par exemple l’utilisation des écorces de noix de coco pour faire du charbon actif de grande utilité en pharmacie, la purification de l’eau et des minéraux précieux). Ces méthodes aident aussi à optimiser l’incorporation des huiles essentielles (naturellement hydrophobes) dans les milieux aqueux dans toute formulation galénique ou cosmétique. L'application de la nanotechnologie en cosmétique est aussi en demande croissante et utilise notamment les nanoémulsions pour une meilleure pénétration transcutanée et les lipides solides pour leurs effets occlusifs. En conclusion, la nanotechnologie offre d’énormes potentiels pour l’émergence de la pharmacie industrielle en Afrique si les grands challenges ou défis des étapes clés du procédé de l’industrialisation (R&D, formulation, production, contrôle de qualité, emballage, régulation) peuvent être maitrisés
APA, Harvard, Vancouver, ISO, and other styles
19

Kassehin, Urbain C., Gabin A. Assanhou, Habib Ganfon, Achille Yemoa, Joelle Quetin Leclercq, Brigitte Evrard, Fernand A. Gbaguidi, and Jacques H. Poupaert. "Comparaison de l’interaction moléculaire entre le Taxol@ et les nanoparticules à base de poly (alkyl méthylidène malonate) PMM 2.1.2 et à base de poly (alkylcynoacrylate)(PACA." Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, no. 3 (December 20, 2023). http://dx.doi.org/10.57220/jatpb.v2i3.167.

Full text
Abstract:
L’administration et le ciblage contrôlés de médicaments représentent un défi passionnant pour améliorer l’efficacité thérapeutique et/ou prophylactique des molécules biologiquement actives tout en réduisant leurs effets secondaires. Ainsi, différents systèmes tels que les supports macromoléculaires solubles, les liposomes et les particules polymériques ont été intensivement décrits et testés cliniquement. Pour cette étude, le taxol@ (TX, paclitaxel) a été choisi comme médicament hôte modèle pour comparer son encapsulation dans des nanoparticules à base de poly- alkylcynamoacrylates (PACA) et de poly-alkylmethylidenemalonate (PAMM en particulier le PMM 2.1.2). Une trajectoire de dynamique moléculaire pour chaque espèce a été générée à 300 K et étendue sur 1000 ps par pas de 1 fs. Les conformères échantillonnés toutes les 10 ps ont ensuite été minimisés en énergie en utilisant d'abord la méthode MM2 d'Allinger et la méthode Newton-Raphson bloc-diagonal jusqu'à ce que le gradient obtenu soit inférieur à 0,01 kcal/mol. Nous avons aussi utilisé les méthodes AMI et PM3, COSMO ainsi que les calculs théoriques et enfin les méthodes semi-empiriques SCF-MO AMI et PM3, telles qu'elles sont mises en œuvre dans l'ensemble CS MOPAC trouvé dans CS Chem3DPro 7.0.0. Nous avons adopté une approche tout à fait différente par rapport à celle précédemment combinant la dynamique moléculaire et la mécanique semi-quantique (AMI, PM3 et PM3 COSMO). Les oligomères de PAMM ont tendance à adopter une forme en U, contrairement à ceux de PACA qui adoptent préférentiellement des conformations hélicoïdales avec une disposition radiale des chaînes latérales. Ce résultat a été confirmé par plusieurs publications qui rapportent que, pendant la polymérisation anionique du monomère MM 2.1.2, un processus important de cyclotrimérisation a lieu, produisant un mélange de 4 diastéréo-isomères racémiques de cyclohexanone, c'est-à-dire 2S,4R,6R et 2S,4S,6S, et leurs contreparties énantiomériques. Ces études donnent un aperçu de l'architecture et de la dynamique des nanoparticules. L'approche in silico utilisée ici permet de prédire que le Taxol serait piégé plus efficacement dans le PAAM que dans le PACA, ce qui est en accord avec les résultats expérimentaux.
APA, Harvard, Vancouver, ISO, and other styles
20

Ngolsou, Françis, Eya’ane Meva François, Mésodé Nnangé Akweh, Patrick Hervé Bétoté Diboué, Nko’o Julien Moise Henri, Fifen Rodrigue, Tchangou Njiemou Armel Florian, et al. "Évaluation in vivo de l’effet anti-inflammatoire des nanoparticules d'argent obtenues par biosynthèse in situ à partir des feuilles de Psychotria calceata." Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, no. 3 (December 20, 2023). http://dx.doi.org/10.57220/jatpb.v2i3.119.

Full text
Abstract:
Introduction : Les nanotechnologies sont de nos jours une science qui prend une grande importance en raison de leur simplicité, de leur nature écologique et économique. L’objectif de ce travail consistait à évaluer l’effet anti-inflammatoire des nanoparticules obtenues par biosynthèse in situ à partir de la poudre des feuilles de Psychotria calceata. Matériel et méthodes : La synthèse des nanomatériaux s’est faite à partir d’un infusé de la poudre des feuilles de Psychotria calceata auquel a été ajouté une solution de nitrate d’argent. Les nanoparticules obtenues ont été caractérisées après changement de coloration visuel, au spectrophotomètre d’absorption UV-Vis entre 380 et 550nm. Cette caractérisation consistait à observer la formation des nanoparticules à partir de l'apparition de la résonance plasmonique de surface et d’apprécier leur stabilité. La toxicité orale aiguë des nanoparticules a été réalisée sur des rats Wistar selon le protocole décrit par la ligne directrice 423 (2001) de l'Organisation de Coopération et de Développement économique (OCDE). Un modèle d'œdème plantaire de la patte de rat induit par la carraghénine a été utilisé pour évaluer l’activité anti-inflammatoire de ces nanoparticules et des coupes histologiques ont été réalisées sur le foie, la rate, le cœur et les reins. Résultats et Discussion : Le criblage phytochimique de l'extrait aqueux de Psychotria calceata a révélé la présence d'alcaloïdes, phénols, polyphénols, tanins, saponines, flavonoïdes, triterpènes et stéroïdes. Le pic de résonance plasmonique de surface dans le spectre UV-Vis montre des spectres d'absorption compris entre 380 et 500 nm caractéristique de la présence des particules de taille nanométrique. Leur profil toxicologique a montré une DL50 > 2000mg/kg. A la dose de 400µg, les nanoparticules ont montré une diminution significative à p<0,01, trois heures après l'administration des nanoparticules. Conclusion : Les nanoparticules d'argent peuvent agir comme agents réducteurs/inhibiteurs de la libération des médiateurs inflammatoires aigus. Par conséquent, ce travail a clairement démontré que les nanoparticules d'argent de Psychotria calceata pourraient être considérées comme une source potentielle de médicaments anti-inflammatoires.
APA, Harvard, Vancouver, ISO, and other styles
21

Friciu, M. Mihaela, Anaëlle Monfort, Pierre-André Dubé, and Grégoire Leclair. "Stability of N-Acetylcysteine 60 mg/mL in Extemporaneously Compounded Injectable Solutions." Canadian Journal of Hospital Pharmacy 74, no. 4 (September 28, 2021). http://dx.doi.org/10.4212/cjhp.v74i4.3082.

Full text
Abstract:
Background: N-Acetylcysteine (NAC) administered by the IV route is the current treatment of choice for acetaminophen overdose. However, the protocol approved by health authorities in most countries has a complex dosing regimen, which leads to dosage errors in one-third of cases. Therefore, the Canadian Antidote Guide in Acute Care Toxicology and individual poison centres have begun to recommend a simplified regimen using continuous IV infusion. Unfortunately, no study has demonstrated the stability of IV solutions of NAC at concentrations above 30 mg/mL or in solutions other than 5% dextrose. Objective: To evaluate the stability of solutions of NAC 60 mg/mL in 0.9% sodium chloride, 0.45% sodium chloride, or 5% dextrose, stored for up to 72 hours in polyvinyl chloride (PVC) bags at 25°C. Methods: Solutions of the desired concentration were prepared from a commercial solution of NAC 200 mg/mL, with dilution in 0.9% sodium chloride, 0.45% sodium chloride, or 5% dextrose, and were then stored at room temperature in PVC bags for up to 72 hours. At predetermined time points (0, 16, 24, 40, 48 and 72 h), samples were collected and analyzed using a stability-indicating high-performance liquid chromatography method. A solution was considered stable if it maintained at least 90.0% of its initial concentration. Particulate matter count was also evaluated to confirm chemical stability. Finally, organoleptic properties, such as odour and colour, were evaluated to assess the stability of the solutions. Results: All solutions maintained at least 98.7% of their initial concentration. No obvious changes in odour or colour were observed. Moreover, particle counts remained acceptable throughout the study, according to the criteria specified in United States Pharmacopeia (USP) General Chapter <788>. Conclusions: NAC 60 mg/mL, diluted in 0.9% sodium chloride, 0.45% sodium chloride, or 5% dextrose and stored in PVC bags at 25°C, was chemically and physically stable for a period of at least 72 hours. RÉSUMÉ Contexte : La N-acétylcystéine (NAC) administrée par IV est actuellement le traitement de choix en cas de surdose d’acétaminophène. Cependant, le protocole approuvé par les autorités sanitaires de la plupart des pays s’accompagne d’un schéma posologique complexe qui entraîne des erreurs de dosage dans un tiers des cas. C’est pourquoi, le Guide canadien des antidotes en toxicologie d’urgence et les centres antipoison ont commencé à recommander un schéma simplifié utilisant des perfusions IV. Malheureusement, aucune étude n’a permis de démontrer la stabilité des solutions IV de NAC à des concentrations supérieures à 30 mg/mL ou dans des solutions autres que 5 % de dextrose. Objectif : Évaluer la stabilité des solutions de 60 mg/mL de NAC dans 0,9 % de chlorure de sodium, 0,45 % de chlorure de sodium ou 5 % de dextrose, stockées jusqu’à 72 heures dans des pochettes de chlorure de polyvinyle (PVC) à 25 °C. Méthodes : Les solutions ont été préparées à partir d’une solution commerciale de 200 mg/mL de NAC, avec une dilution dans 0,9 % de chlorure de sodium, dans 0,45 % de chlorure de sodium ou dans 5 % de dextrose. Elles ont ensuite été stockées à température ambiante dans des pochettes en PVC pendant une période allant jusqu’à 72 h. À des instants prédéterminés (0, 16, 24, 40, 48 et 72 h), des échantillons étaient recueillis et analysés à l’aide d’une méthode de chromatographie en phase liquide à haute performance indiquant la stabilité. Si la solution préservait au moins 90 % de sa concentration initiale, elle était jugée stable. Un comptage de particules a aussi permis de confirmer la stabilité chimique. Finalement, les propriétés organoleptiques, comme l’odeur et la couleur, ont été examinées pour évaluer la stabilité des solutions de NAC. Résultats : Toutes les solutions préservaient au moins 98,7 % de leur concentration initiale. Aucun changement manifeste d’odeur ou de couleur n’a été observé. De plus, le nombre de particules est resté acceptable pendant toute la durée de l’étude selon les critères indiqués dans le chapitre général de la Pharmacopée américaine (USP) <788>. Conclusions : La solution de 60 mg/mL de NAC, diluée dans 0,9 % de chlorure de sodium, dans 0,45 % de chlorure de sodium ou dans 5 % de dextrose et stockée dans des pochettes en PVC à 25 °C était chimiquement et physiquement stable pendant au moins 72 h.
APA, Harvard, Vancouver, ISO, and other styles
22

Mac Dougall, W., H. Affes, Y. Ouchrif, and O. Crisan. "Étude comparative sur l’intérêt de l’arthroscopie dans le traitement conservateur de l’hallux rigidus : à propos de 39 cas." Médecine et Chirurgie du Pied, 2022. http://dx.doi.org/10.3166/mcp-2022-0080.

Full text
Abstract:
Introduction : L'hallux rigidus (HR) est une atteinte dégénérative douloureuse de la première articulation métatarsophalangienne avec diminution de la mobilité. Plusieurs techniques chirurgicales ont été décrites dans la littérature. L'arthroscopie de la première articulation métatarsophalangienne (MTP1), utilisée seule ou en association avec des ostéotomies, a fait l'objet de nombreuses descriptions techniques, mais de peu d'études comparatives. Le but de cette étude est de montrer l'intérêt de l'arthroscopie dans le traitement de l'HR. Matériels et méthodes : Dans une étude rétrospective de 35 patients (39 HR) traités entre 2014 et 2017, nous avons comparé les résultats du traitement par arthroscopie versus technique percutanée en analysant les résultats sur la fonction du pied. L'âge, le sexe, les signes cliniques ainsi que la mobilité de la MTP1 ont été recueillis. La classification de Coughlin et Shurnas a été utilisée pour déterminer la sévérité de l'HR. Les résultats cliniques ont été évalués par le score de l'AOFAS. Résultats : Notre population a été répartie sur deux groupes : 21 HR traités par arthroscopie et gestes percutanés (G1) et 18 HR opérés par chirurgie percutanée (G2) sans arthroscopie. Les deux groupes étaient homogènes. En préopératoire, la mobilité moyenne de la MTP1 dans le groupe 1 était de 38,9° pour la flexion dorsale (FD) et 12,7° pour la flexion plantaire (FP). La mobilité moyenne préopératoire de la MTP1 dans le groupe 2 était de 34° pour la FD et de 10,5° pour la FP. Au dernier recul (17,7 mois pour G1, 37,5 mois pour G2), les mobilités actives étaient de 78° de FD pour le groupe 1 contre 65° pour le groupe 2. Les mobilités moyennes passives étaient de 87° FD et 73° FD respectivement pour G1 et G2. La FP était plus importante chez le G1 avec 17° contre seulement 11° pour le G2. L'amélioration maximale a été notée dans les trois mois pour le groupe G1, entre trois et six mois pour le groupe G2. Le score AOFAS moyen en préopératoire était de 42 et 45° respectivement pour les groupes 1et 2. Au dernier recul le score était de 88 pour le groupe 1 contre 75 pour le groupe 2. Discussion : L'HR peut être pris en charge par chirurgie à ciel ouvert, percutanée ou arthroscopique. Pour permettre une récupération rapide et minimiser les complications de la chirurgie à ciel ouvert, la chirurgie percutanée et la chirurgie assistée par arthroscopie sont de plus en plus utilisées. Le but de l'arthroscopie est de faire un débridement, une synovectomie, un émondage ou une chéilectomie, d'enlever les particules, mais surtout d'évaluer et traiter les anomalies ostéochondrales. Les stades I et II sont les meilleures indications. Le stade III peut être une indication de l'arthroscopie s'il existe quelques degrés de mobilité. Dans notre série, le traitement par arthroscopie a été combiné à un traitement percutané dans le but de corriger les anomalies osseuses constatées cliniquement et sur le bilan radiologique préopératoire comme le metatarsus elevatus. Ce traitement combiné permet aussi de récupérer une meilleure FD. Concernant la satisfaction des patients, nous avons comparé les scores de l'AOFAS publiés selon différentes techniques. Le traitement par simple arthroscopie semble donner les meilleurs scores d'AOFAS. Conclusion : Nos résultats confirment la supériorité du traitement par arthroscopie. Les suites postopératoires, le taux de récupération et les scores fonctionnels sont meilleurs à court et moyen termes. Il s'agit d'une pathologie évolutive, et les données de la littérature ne disposent pas suffisamment de recul pour évaluer et comparer les résultats des différentes techniques.
APA, Harvard, Vancouver, ISO, and other styles
23

Kilani-schoch, Marianne. "Langue et culture." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.017.

Full text
Abstract:
La vaste littérature (linguistique, psycholinguistique, ethnolinguistique, etc.) des XXe et XXIe siècles sur la relation entre langue et culture montre d'importantes variations dans la conception et l'approche de la problématique. Au cours des années 1930, la question du relativisme linguistique a été stimulée par l'hypothèse Sapir-Whorf (Carroll 1956) selon laquelle les structures et catégories linguistiques d'une langue influent sur la pensée et la culture de ses locuteurs, voire même les structurent ou les déterminent. Comme la conception structuraliste dominante de l'époque ne réservait guère de place aux pratiques culturelles, la réflexion autour du relativisme linguistique a d'abord impliqué principalement les systèmes: système linguistique, et plus précisément grammatical et sémantique, d'une part, et système cognitif comme ensemble de concepts ou représentations mentales, d'autre part (voir par exemple plus récemment Wierzbicka 1991 et la critique de Kristiansen et Geeraerts 2007 parmi d'autres, cf. aussi Jackendoff 2007), délaissant ainsi un aspect important de la perspective de Whorf sur la culture (Bickel 2000: 161-163). A partir des années 60, l'importance accordée à la recherche sur les universaux linguistiques et cognitifs a éloigné une bonne partie de la linguistique de toute préoccupation impliquant la diversité sociale et culturelle, et par là même, de l'hypothèse du relativisme linguistique. Par exemple, une étude célèbre de Berlin et Kay (1969) a argué que le lexique des couleurs dans les langues était déterminé par des contraintes universelles sur la perception visuelle. Cette étude a largement contribué à discréditer l'hypothèse Sapir-Whorf. Ces vingt-cinq dernières années cependant, les recherches linguistiques se sont réorientées dans le sens de l'empirie (cf. Sidnell et Enfield 2012) et la question whorfienne a été reprise. Toute une série de travaux linguistiques et psycholinguistiques ont développé des méthodes expérimentales pour évaluer les conséquences cognitives de la diversité linguistique. Par ex. Choi et Bowerman (1991) et Lucy (1992), pour ne citer qu'eux, ont mis en évidence de façon spectaculaire des différences de perception et de catégorisation d'actions et d'objets chez de très jeunes enfants et chez des adultes selon les langues. D'autres travaux, dont l'orientation est plus directement anthropologique, s'intéressent, au-delà des systèmes, aux affinités entre les usages langagiers et les formes culturelles des pratiques sociales (Bickel 2000: 161 ; Hanks 1990 ; Gumperz et Levinson 1996). Une partie importante d'entre eux ont porté sur les manières différentes dont les catégories grammaticales des langues encodent certains aspects des relations et contextes sociaux et culturels. Par exemple, dans de nombreuses langues du monde, la deixis spatiale correspond à la grammaticalisation de coordonnées géographiques, c'est-à-dire est définie par une orientation absolue (personnes et objets sont obligatoirement localisés aux points cardinaux ou en haut, en bas ou au-delà de la colline où les locuteurs vivent, Bickel 2000), et non par une orientation relative comme dans la plupart des langues indo-européennes (ex. Paris rive droite). Or, comme Bickel (2000: 178-9) l'a montré avec l'exemple du belhare (langue tibéto-birmane du Népal), cette grammaire de l'espace est associée à l'expérience directe de l'espace social dans les interactions. En s'attachant aussi à expliciter le rôle de la culture, plus précisément des pratiques culturelles (au sens d'habitus de Bourdieu) dans le relativisme linguistique, Bickel recentre la perspective: il montre qu'entre pratiques culturelles, pratiques linguistiques et cognition, l'influence est réciproque et non unidirectionnelle. Les opérations de schématisation auxquelles les pratiques sociales sont nécessairement sujettes influencent directement la cognition. En retour les principes universels de la cognition peuvent influer sur les formes linguistiques et culturelles. Sidnell et Enfield (2012) ouvrent un autre domaine d'application du relativisme linguistique avec les différentes ressources conversationnelles que les langues mettent à disposition des locuteurs pour effectuer un même type d'action sociale dans l'interaction, tel manifester son accord ou son désaccord avec l'interlocuteur. Ils montrent que les propriétés structurales (ordre des mots, particules, etc.) constitutives de ces ressources ont des implications différentes sur la suite de l'interaction elle-même, et, selon la langue, entraînent notamment la clôture de l'échange ou au contraire sa continuation par un développement thématique. De telles différences induites par la réalisation d'actions langagières identiques sont considérées comme des "effets collatéraux" inévitables de la diversité dans les possibilités structurales offertes aux locuteurs par chaque langue pour réaliser leurs rôles d'agents sociaux. Ces effets collatéraux de moyens linguistiques sur les actions sociales (mais néanmoins linguistiques, voir le commentaire de Duranti 2012 qui suit l'article cité) relèveraient aussi du relativisme linguistique Notons ici que le projet de l'ethnographie de la communication, dès 1960, avait déjà fait de la diversité culturelle dans les formes de communication et la manière dont ces formes de communication interfèrent avec les systèmes et pratiques culturels son objet d'étude (Gumperz et Hymes 1964). La contribution pionnière de Gumperz (1989) dans l'intégration de la culture à l'analyse de l'interprétation en conversation, consiste notamment à avoir mis en évidence les conventions culturelles des indices linguistiques à l'aide desquels les locuteurs signalent au cours de l'interaction le type d'activité sociale dans lequel ils sont engagés, ainsi que l'interprétation à donner à leurs énoncés. Par exemple, les indices prosodiques (direction de la courbe intonative, accentuation) pour marquer la fin ou la continuation d'un tour de parole, une requête polie, etc. varient selon les langues. Le dernier aspect à évoquer dans la reprise de l'hypothèse Sapir-Whorf est la complexification et différenciation de la notion même de pensée, selon que le locuteur est engagé ou non dans des activités langagières. Slobin (2003) distingue le processus "en ligne" consistant à "penser pour parler" (thinking for speaking). Ce mode de pensée ou activité du locuteur sélectionnant les caractéristiques des objets et événements codables dans sa langue, manifeste comment les exigences des langues conduisent les locuteurs à prêter attention à des aspects différents et particuliers de la réalité. La schématisation qui préside aux énoncés est ainsi spécifiée par chaque langue et guidée par elle. Slobin illustre le concept de "penser pour parler" avec l'expression linguistique du mouvement qui en anglais, par exemple, encode la notion de mode de déplacement dans le verbe principal (the dog ran into the house), à la différence du français qui n'encode cette notion que secondairement ou accessoirement (le chien est entré dans la maison [en courant]) et lui préfère celle de direction du déplacement. En résumé, la diversité culturelle et sociale, préoccupation principale de l'anthropologie, a retrouvé une place de choix dans la réflexion linguistique contemporaine et l'hypothèse du relativisme linguistique connaît un renouveau. Mais cette diversité n'est pas pensée comme sans contraintes, la nature précise des éléments universaux ou communs restant cependant à établir (voir par ex. Malt et Majid 2013).
APA, Harvard, Vancouver, ISO, and other styles
24

Vinck, Dominique. "Science(s)." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.025.

Full text
Abstract:
Les sciences désignent à la fois une série d'activités productrices de connaissances, plus ou moins différenciées d'autres activités sociales, et le résultat de ces activités (descriptions et énoncés de découvertes ou de lois décrivant ou prédisant des phénomènes, théories, méthodes de travail, savoir-faire incorporés, normes de comportement des scientifiques). Pour l'anthropologue, elles sont à la fois un objet de recherche et un cadrage (institutionnel, méthodologique et cognitif) de son travail, ce qui l'engage aussi dans une inévitable réflexivité. Du point de vue des sciences sociales, la science a été appréhendée (tradition mertonienne) comme une institution sociale distincte et exemplaire, dont la finalité est la production de connaissances rationnelles certifiées par les pairs. L'institution se caractérise par une structure normative qui régit le comportement des scientifiques telles que : universalisme, communalisme, désintéressement et scepticisme organisé. Les scientifiques qui agissent conformément à ces normes sont rationnels et humbles, capables de soumettre leurs productions à l’évaluation critique de leurs pairs, d’évaluer sans à priori le travail d’autrui et de s’auto-contrôler. Le respect de ces normes dépend de systèmes de communication (publication dans les revues scientifiques en particulier) et de gratification (nomination, distinction, obtention de fonds) dont l'analyse permet d'expliquer certains phénomènes de stratification au sein de la "communauté" scientifique. Cette approche a toutefois suscité de nombreux débats notamment quant à ce que représentent vraiment ces normes. Des contre-normes (p.ex. « garder le secret ») seraient aussi explicatives des comportements des scientifiques que les normes identifiées par Merton. Par ailleurs, dans leurs discussions internes, les scientifiques mobilisent autant les normes que les contre-normes pour défendre leur position ou affaiblir celle d’un collègue. Et surtout, ces normes seraient de nature idéologique et politique, utilisées par les scientifiques pour légitimer l’autonomie des sciences vis-à-vis du reste de la société, en particulier dans un contexte de montée en puissance de régimes autoritaires menaçant les scientifiques dans différentes régions du monde, comme ce fut le cas au cours du XXe siècle. Dans ce contexte, Merton (1973) a traité l'institution scientifique comme un modèle de démocratie des esprits, à l’abri des influences politiques. Toutefois, mobilisées au profit du développement technico-économique et de l’action publique (parfois militaire), les sciences constituent des sources de pouvoir, notamment en faisant autorité. Les questions de l'orientation et de la mobilisation des sciences fait dès lors l'objet de débats politiques récurrents. Elles soulèvent des questions de légitimité dans la société (sciences au service du progrès, de l'industrie, du prestige des Nations, de l'exploitation de la nature vs de projets de libération ou de résolution des problèmes auxquels le monde est confronté) tandis que leur spécificité a fait l’objet de nombreux débats chez les philosophes. Dans les relations Nords-Suds, elle est parfois traitée comme un enjeu des relations entre pays hégémoniques et non-hégémoniques ou en terme de centre-périphérie. Plus généralement, sa légitimité est questionnée vis-à-vis d'autres savoirs, locaux et indigènes notamment. De même, la fragmentation interne des sciences (prolifération de sous-spécialisations) a conduit les Nations Unies (convention de Rio de 1992) à demander qu'un effort d'intégration soit accompli car les problèmes auxquels sont confrontées les sociétés ont besoin d'une approche globale et non émiettée. Les dynamiques internes des sciences ont également été analysées de diverses autres façons : comme système d’échange de dons (Hagstrom 1965), comme système d’échange capitaliste et de lutte compétitive pour l’accumulation d’un capital symbolique (Bourdieu 1976), comme système politique où chacun tend à développer son domaine en gagnant de la crédibilité, convertible en ressources permettant de poursuivre (Latour, Woolgar 1988). Les relations entre scientifiques, voir aussi avec des non-scientifiques (industriels, médias, gouvernements, mouvements citoyens, communautés paysannes, etc.), constituent des réseaux sociaux dont les caractéristiques (taille, homogénéité / hétérogénéité, structure) expliquent les sciences en tant que phénomène social plus ou moins articulé à d'autres activités des sociétés. Depuis les années 1970, des chercheurs en sciences sociales (anthropologie, sociologie, histoire) ont investi l’étude des sciences en s’inspirant notamment des travaux de l’historien Kuhn (1957) (paradigme) et de l'anthropologie avec pour prétention de rendre compte des contenus (Sociology of Scientific Knowledge, SSK) et des pratiques scientifiques. Les sciences apparurent alors sous un nouveau jour. Les sciences sociales ne se cantonnent dès lors plus à l’examen des conditions sociales de possibilité de la science mais tentent d'expliquer aussi les productions scientifiques (données, théories, concepts) à partir de facteurs sociaux ou à partir des pratiques sociotechniques concrètes. Elles mettent en évidence la flexibilité interprétative des énoncés scientifiques (ni la nature, ni la méthode, ni la logique n’impose de vérité unique aux chercheurs) qui conduit à prendre en compte aussi d'autres facteurs explicatifs, notamment les rapports de forces, les mouvements de société, les traditions de pensée, les savoirs tacites, la nature du rapport au monde et à la nature, et les savoir-faire hérités. Du côté de la sociologie et de l'histoire, des auteurs vont rendre compte de l’action scientifique comme d'une rivalité entre scientifiques pour produire des énoncés de connaissances et les imposer aux autres. Ces scientifiques étant liés à des groupes sociaux, les intérêts de ces derniers orienteraient en partie le choix des objets de recherche, des approches et, par conséquent, les productions scientifiques. Les controverses entre chercheurs conduiraient ceux-ci à renforcer la robustesse de leurs affirmations et constitueraient ainsi un moteur des dynamiques scientifiques. Ces approches conduisent aussi à symétriser les analyses portant sur la constitution des savoirs scientifiques et celles portant sur les autres formes de savoirs, de systèmes de pensées ou de croyances. Des chercheurs britanniques (Bloor 1976 ; Collins 1985) prônent alors des principes de causalité, d'impartialité, de symétrie et de réflexivité dans l'étude des sciences. “Connaissances vraies” et “croyances fausses” devraient être expliquées par les mêmes registres de causalité (relations causales entre des variables sociologiques et contenus de connaissance, production négociée de connaissances consensuelles et clôture des controverses, analyse du discours). A la fin des années 1970, des chercheurs commencent à s’intéresser aux pratiques scientifiques concrètes. Ils observent les processus d’ajustement locaux et contingents et décodent les savoirs tacites incorporés dans les individus, instruments et formes d’organisation. Leurs études rendent compte de la production des faits, des données, des énoncés et des accords entre chercheurs, de l’articulation entre éléments hétérogènes, de la construction collective et négociée des publications. Adoptant des postures héritées de l'anthropologie, ils décrivent les processus de fabrication et de stabilisation des énoncés scientifiques en séjournant longuement au sein de laboratoires où se produisent des savoirs scientifiques. Ainsi, Latour, de retour d'une enquête en Afrique, débarque dans un laboratoire de biochimie réputé ; il cherche à y étudier “la pensée scientifique” en train de se faire et rend compte de l'importance des pratiques d'inscription. Il publie Laboratory Life. The Social Construction of Scientific Facts en 1979 (Latour, Woolgar, 1988). Knorr-Cetina (1981), en Allemagne, Lynch (1985), aux États-Unis, mobilisent l’ethnométhodologie et montrent les productions scientifiques comme des accomplissements pratiques situés. D’autres chercheurs héritiers de l’école pragmatique américaine et de l’interactionnisme symbolique de Chicago rendent aussi compte des productions scientifiques en rendant compte des perspectives des acteurs en présence. L’anthropologue Traweek (1988) étudie le monde des physiciens des particules, de même que d'autres le feront d'autres laboratoires (p.ex. Houdart 2013) ou de lieux de fabrication de connaissances technologiques (Downey 1998 ; Vinck 1999). Soucieux de rendre compte de l'intrication des sciences dans la société, notamment via les processus d'innovation, des chercheurs (Callon 1986 ; Latour 1989) conçoivent une approche (théorie de l’acteur-réseau, analyse des processus de traduction et de construction de réseaux sociotechniques) devant permettre de rendre compte des sciences et techniques en évitant les dichotomies héritées (nature/culture, sujet/objet, notamment). Ils ouvrent ainsi la réflexion sur une nouvelle anthropologie des connaissances.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography