Siga este enlace para ver otros tipos de publicaciones sobre el tema: Détection du volume du couvert.

Artículos de revistas sobre el tema "Détection du volume du couvert"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 33 mejores artículos de revistas para su investigación sobre el tema "Détection du volume du couvert".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore artículos de revistas sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Chokmani, Karem, Monique Bernier y Michel Slivitzky. "Suivi spatio-temporel du couvert nival du Québec à l’aide des données NOAA-AVHRR". Revue des sciences de l'eau 19, n.º 3 (13 de septiembre de 2006): 163–79. http://dx.doi.org/10.7202/013536ar.

Texto completo
Resumen
Résumé L’imagerie satellitaire dans le visible et l’infrarouge permet de cartographier le couvert nival à grande échelle, ce qui n’est pas facilement réalisable à partir des observations locales conventionnelles. Cependant, en raison de leur résolution spatiale inadéquate ou de la faible durée de leurs séries d’observations, les produits satellitaires actuellement disponibles sont inutilisables pour l’étude à long terme du couvert nival. Par conséquent, l’objectif de la présente étude a été de développer un algorithme opérationnel de cartographie de la neige à l’aide des données du capteur AVHRR (Advanced Very High Resolution Radiometer) embarqué à bord du satellite NOAA. Cette procédure doit permettre de suivre l’évolution spatio-temporelle de la neige au sol sur une longue période de temps et avec une bonne résolution spatiale. Les résultats de la cartographie ont été validés par rapport aux observations de l’occurrence et de l’épaisseur de la neige au sol. L’algorithme a été appliqué au territoire du Québec sur trois périodes spécifiques : 1998-1999, 1991-1992 et 1986-1987. L’algorithme a réussi à identifier la catégorie de surface (neige/non-neige) avec un taux de succès global moyen de 87 %. Les performances de l’algorithme ont été supérieures dans la détection de la neige (90 %) qu’elles l’ont été pour les surfaces sans neige (82 %). Également, l’algorithme a permis de situer le début des périodes de formation et de fonte de la neige, et ce tant au niveau local qu’à l’échelle du bassin versant.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

GUERFI, Mokhtar y Atef Alaadine Amriche. "L'approche détection des changements pour estimer l'humidité du sol en milieu semi-aride à partir des images ASAR. Cas des hautes plaines de l'Est de l'Algérie". Revue Française de Photogrammétrie et de Télédétection, n.º 210 (7 de abril de 2015): 51–62. http://dx.doi.org/10.52638/rfpt.2015.271.

Texto completo
Resumen
C'est avec la télédétection radar que les résultats les plus prometteurs pour estimer et cartographier l'humidité du sol ont été obtenus. Les travaux de ces dernières années ont donné lieu à de nombreuses approches et algorithmes. Dans ce papier, nous évaluons l'approche détection des changements, qui offre le potentiel d'une utilisation opérationnelle, qui est moins complexe, minimise le rôle de la rugosité de surface et de la végétation. Quatre images du capteur ASAR/ENVISAT avec la même configuration ont été acquises, sur un secteur des hautes plaines semi-arides de l'Est de l'Algérie ; 67 échantillons sont prélevés à chaque passage du satellite sur cinq parcelles test et l'humidité mesurée. L'étude des régressions linéaires associée à l'approche détection du changement a permis l'expression du coefficient de rétrodiffusion comme fonction de l'humidité volumique du sol (σ0 = a*θ + b). Les coefficients “a” et “b” de l'équation diffèrent d'un site à l'autre et d'une saison à l'autre. Cette différence est due aux variations saisonnières de la rugosité et du couvert végétal. La comparaison entre l'humidité de surface mesurée et celle estimée montre la pertinence des modèles d'inversion utilisés, avec une erreur moyenne de plus ou moins 4%. Finalement, une carte de la distribution de l'humidité de surface de la région a été obtenue à partir des images acquises.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Wassong, Rémy y Bruno Gavazzi. "Apport des prospections magnétiques haute résolution à la compréhension d’un habitat protohistorique : l’exemple du site de hauteur fortifié du Maimont". Archimède. Archéologie et histoire ancienne 7 (9 de junio de 2020): 283–93. http://dx.doi.org/10.47245/archimede.0007.act.15.

Texto completo
Resumen
Dans le cadre des recherches archéologiques sur le site du Maimont, situé à cheval sur les communes de Niedersteinbach (Bas-Rhin, France) et Schönau (Rheinland Pfalz, Allemagne), plusieurs campagnes de mesures magnétiques ont eu lieu. Ces dernières avaient plusieurs objectifs : 1 - l’identification des aménagements anthropiques anciens (présence de fosses, résidus d'activités liées au feu, terrasses aménagées pour les activités artisanales, traces et plans de bâtiments) ; 2 - l’identification de zones perturbées par une intense activité durant le dernier conflit mondial. Pour cela, une technique de relevé et d’analyse magnétique à haute résolution et adaptée à un environnement accidenté de moyenne montagne et sous couvert forestier a été mise en place. Ainsi, à travers une approche interdisciplinaire et une confrontation des résultats magnétiques aux données archéologiques ont pu être mis en évidence des structures archéologiques souvent réputées peu détectables (trous de poteaux, terrasses) et dans des conditions de mesures difficiles, validant ainsi une nouvelle approche innovante de détection et d’analyse géophysique haute résolution pour l’archéologie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Estève, Jean. "DESTRUCTION OF FOREST AREAS AS A RESULT OF LOGGING AND HARVESTING IN AFRICAN OR AMERICAN DENSE TROPICAL RAINFORESTS". BOIS & FORETS DES TROPIQUES 328, n.º 328 (20 de julio de 2017): 5. http://dx.doi.org/10.19182/bft2016.328.a31298.

Texto completo
Resumen
Il est devenu habituel de lire dans les médias des articles accusant l’exploitation fores- tière d’être le moteur principal de la dispari- tion des forêts tropicales. Ce raccourci trom- peur est imputable à une méconnaissance des réalités forestières, d’une part, et à un amalgame entre l’exploitation forestière et le défrichement agricole, d’autre part. L’ob- jet de cet article rédigé par un praticien fami- lier du contexte forestier tropical était d’éva- luer l’impact de l’exploitation forestière sur les forêts denses tropicales humides, dans les deux continents africain et améri- cain. Par souci d’exactitude, les phases de l’exploitation ont été distinguées : installa- tion de la base vie, constitution du réseau routier de vidange des bois, réalisation des opérations d’exploitation proprement dites. Des scénarios ont été distingués en fonction de la richesse de la forêt, dont le volume ré- colté varie de 3 à 15 m3/ha. Ces estimations confirment que la destruction du couvert fo- restier demeure si faible qu’à l’exception de situations radicales l’exploitation forestière ne constitue pas une menace pour le main- tien durable des forêts tropicales. La mise en place des réseaux routiers et de pistes de débardage affecte de 4,5 à 5,5 % du couvert forestier. Les surfaces des trouées consé- cutives à l’abattage ne dépassent jamais 4 % du couvert, et restent inférieures à 2 % pour les forêts riches ou de richesse moyenne. L’exploitation forestière n’est donc direc- tement responsable que de la destruction de 5,5 à 8,5 % du couvert forestier. Dans le cas de forêts riches, des exploitations fores- tières successives peuvent certes atteindre 12 à 16 % du couvert forestier. Mais c’est alors sans compter sur la dynamique de reconstitution de la biomasse opérant natu- rellement entre deux séquences d’exploi- tation. En Asie du Sud-Est où l’exploitation est plus intensive en raison d’un potentiel commercial très élevé, la reconstitution du couvert est acquise en 20 ans. Si la valeur économique d’une forêt dense tropicale humide diminue avec l’exploitation, ses va- leurs biologique et écologique restent quant à elles sensiblement intactes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

RAKOTOMALALA, Fety Abel. "Mesure et suivi de la dynamique du couvert forestier : cas de l'écorégion des forêts humides de l’Est de Madagascar". BOIS & FORETS DES TROPIQUES 348 (9 de julio de 2021): 107–8. http://dx.doi.org/10.19182/bft2021.348.a36756.

Texto completo
Resumen
La quantification fine et à large échelle des dynamiques du couvert forestier est indispensable dans la gestion des ressources naturelles. Elle fournit les connaissances pour lutter contre la perte de la biodiversité et réduire les émissions de gaz à effet de serre. À Madagascar, plusieurs études récentes ont montré l’importance de la déforestation, principalement liée à l’agriculture par abattis-brûlis. Cependant, la définition nationale des forêts n’a jamais été prise en compte dans leur processus de traitement des données. Par ailleurs, il n’existe pas ou peu d’informations sur l’étendue et l’importance des processus de dégradation et de régénération forestières. Ainsi, l’objectif de la présente thèse consiste à quantifier la déforestation, la dégradation et la régénération forestières dans l’écorégion des forêts humides de l’Est de Madagascar entre 2000 et 2015. Une approche basée sur la détection de changements d’images multidates a été appliquée pour estimer et analyser le niveau de déforestation. L’estimation de la dégradation et de la régénération a principalement été effectuée en faisant simultanément l’analyse de l’évolution du couvert et du stock de carbone forestier. La déforestation a été estimée à 90 171 ha/an entre 2000 et 2005, à 27 103 ha/an entre 2005 et 2010, à 33 978 ha/an entre 2010 et 2013 et à 80 626 ha/an entre 2013 et 2015. La dégradation forestière a été estimée à 20 327 ha/an et la régénération à 7 997 ha/an entre 2000 et 2015. La validation de ces résultats a été réalisée par inspection visuelle des points sur des images de haute résolution spatiale. La précision globale de la carte de déforestation a été évaluée à 90 % tandis que, pour la dégradation et la régénération, elle a été estimée à 88,5 %. La présente thèse propose ainsi des éléments méthodologiques innovants associant l’analyse des données de télédétection spatiale et des données de terrain pour le suivi de la déforestation, la dégradation et la régénération forestières à Madagascar. Elle contribue également à fournir les informations statistiques nécessaires à la mise en place du système national de suivi du couvert forestier.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

KONKO, Yawo, Bareremna AFELU y Kouami KOKOU. "Potentialité des données satellitaires Sentinel-2 pour la cartographie de l’impact des feux de végétation en Afrique tropicale : application au Togo". BOIS & FORETS DES TROPIQUES 347 (31 de marzo de 2021): 59–73. http://dx.doi.org/10.19182/bft2021.347.a36349.

Texto completo
Resumen
Le réchauffement climatique est un phénomène d’envergure mondiale qui se répercute sur le système climatique. Une des conséquences du réchauffement climatique est l'extension de la période de sécheresse, favorisant ainsi l’augmentation des fréquences du phénomène des feux de végétation. Les feux incontrôlés perturbent l’écologie et la fonctionnalité des écosystèmes, entraînant parfois leur érosion. La présente étude est une contribution pour la gestion des feux de végétation au Togo et porte sur le suivi spatial pour la saison des feux 2018-2019. Elle explore la potentialité des nouvelles données satellitaires Sentinel-2 (S-2) en accès libre dans la gamme de la télédétection optique pour la détection des surfaces brûlées, la cartographie des feux utilitaires et des feux incontrôlés. Elle teste également la performance de la méthode de cartographie des feux de végétation à partir de l’indice NBR (Normalized Burn Ratio) initialement conçue pour les images Landsat et évalue la biomasse végétale brûlée. Les résultats révèlent que les images S-2 présentent du potentiel dans la restitution des surfaces brûlées. La performance de la méthode de l’indice NBR sur les images S-2 est satisfaisante. La cartographie des feux de végétation montre que les feux utilitaires représentent 21,75 % contre 78,25 % pour les feux incontrôlés. L’ensemble des feux de végétation enregistrés a occasionné l’incendie de 5 878 km2 du couvert végétal, soit 10,39 % du territoire national. Le couvert végétal brûlé est composé majoritairement de savanes (33,12 %), de cultures et jachères (24,48 %), de plantations (14,59 %), de forêts claires (14,43 %) et de forêts riveraines (13,02 %). Les résultats obtenus constituent des éléments tangibles pour le suivi, la sensibilisation, l’élaboration des plans d’aménagement, de prévention et de gestion des feux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Jolly, Anne, Edouard Dapoigny, Jean-Pierre Renaud y Mehdi Ladjal. "Evaluation de dégâts de tempête à l'échelle infra-parcellaire à partir d'une image Pléiades à très haute résolution spatiale sur un massif forestier feuillu en France". Revue Française de Photogrammétrie et de Télédétection, n.º 209 (21 de enero de 2015): 157–63. http://dx.doi.org/10.52638/rfpt.2015.223.

Texto completo
Resumen
Les tempêtes constituent la source majeure de perturbation des peuplements forestiers et l'évaluation rapide des dégâts est un défi important pour les gestionnaires forestiers. Nous avons étudié le potentiel d'une image Pléiades pour évaluer et cartographier les dégâts causés par une tempête sur un massif forestier de plaine en juin 2012. La méthode mise en œuvre repose sur la comparaison de deux segmentations et classifications indépendantes, avant et après tempête, pour détecter la perte de couvert forestier. La référence avant tempête est constituée par l'orthophotoplan départemental BDOrtho® de l'institut Géographique National, l'image après tempête étant une image Pléiades. La carte des dégâts obtenue est globalement satisfaisante (précision globale 70%, kappa 62.5%), avec une bonne détection des dégâts massifs. Les dégâts diffus sont moins bien détectés et on observe des confusions entre les zones de dégâts et les peuplements résineux indemnes. Malgré ces limitations, une telle carte, sous réserve que l'image puisse être obtenue et traitée rapidement peut constituer une aide efficace pour la gestion de la crise.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Dionne, Jean-Claude. "Données préliminaires sur la charge sédimentaire du couvert de glace dans la baie de Montmagny, Québec". Géographie physique et Quaternaire 35, n.º 2 (1 de febrero de 2011): 277–82. http://dx.doi.org/10.7202/1000445ar.

Texto completo
Resumen
Des mesures faites au printemps 1981 pour connaître le volume et le poids des sédiments fins contenus dans le couvert de glace de la baie de Montmagny, côte sud du moyen estuaire du Saint-Laurent, révèlent le rôle important des glaces comme agent de transport des sédiments fins. La superficie du couvert de glace étant de 20 km2 et l’épaisseur moyenne des sédiments fins dans la glace de 10 cm, la charge totale serait de 4 millions de tonnes. On estime qu’environ 10 à 15% de cette charge est restituée directement à la zone intertidale durant le déglacement. Des 85 à 90% qui reste, près de la moitié serait restituée à la zone de turbidité du moyen estuaire alors que l’autre moitié serait effectivement exportée par les glaces vers l’estuaire maritime.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Ferraz, Antonio. "DÉTECTION À HAUTE RÉSOLUTION SPATIALE DE LA DESSERTE FORESTIÈRE EN MILIEU MONTAGNEUX". Revue Française de Photogrammétrie et de Télédétection 1, n.º 211-212 (6 de diciembre de 2015): 103–17. http://dx.doi.org/10.52638/rfpt.2015.549.

Texto completo
Resumen
En milieu montagneux et forestier, la localisation de la route et ses caractéristiques géométriques sont des informations cruciale pour de nombreuses applications écologiques et liées à la gestion forestière. Par ailleurs, le lidar aéroporté topographique est devenu une technique de télédétection reconnue pour la caractérisation fine de la surface terrestre : les Modèles Numériques de Terrain (MNT) en sont le produit standard.Cet article aborde le problème de la détection de routes sur de grandes surfaces (>1000 km2) dans de tels environnements. Pour cela, nous avons proposé une méthode fondée sur l’hypothèse que les routes peuvent être modélisées par des objets planaires suivant une direction privilégiée et avec de fortes variations du relief dans la direction orthogonale. La connaissance seule du MNT lidar à 1 m de résolution est suffisante dans notre processus, qui ne requiert donc pas le traitement supplémentaire des nuages de points 3D lidar ni de données à retour d’onde complète. L’intégralité de l’analyse se fait donc en deux dimensions. Tout d’abord, trois attributs morphologiques sont extraits du MNT et introduits dans une classification supervisée par Forêts Aléatoires des zones potentiellement "routes". Ensuite, un graphe est créé à partir de ce masque de focalisation afin de combler les éventuels manques et occlusions dus principalement à la végétation. En particulier, les noeuds sont sélectionnés avec un Processus Ponctuel, puis le graphe est élagué en suivant le modèle de route initial. Enfin, la largeur et la pente des routes sont estimées grâce au MNT avec une analyse orientée-objet. D’une part, on obtient une qualité de détection convaincante, tant au niveau de l’exhaustivité (>80%) que de la précision géométrique, supérieure à celle des bases de données topographiques 2D existantes. De plus, de nouvelles routes sont détectées grâce à la capacité du lidar à restituer le terrain sous le couvert végétal. Cependant, en présence d’un trop faible nombre de mesures lidar au niveau du sol, des routes peuvent ne pas être restituées. Enfin, nous montrons que notre méthode est adaptée à une analyse sur de grandes surfaces puisqu’elle permet des rendements de moins de 2 minutes par km2.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Mouissa, Habib, Richard A. Fournier, El-Hadi Oldache y Mohammed Bellatreche. "Détection des changements au niveau d’un couvert forestier en milieu semi-aride entre 1984–2009: Cas de la forêt de Senalba Chergui de Djelfa (Algérie)". Canadian Journal of Remote Sensing 44, n.º 2 (4 de marzo de 2018): 113–30. http://dx.doi.org/10.1080/07038992.2018.1461556.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Diakite, Issa, Pape Ibrahima Djighaly, Amsatou Thiam, Dioumacor Fall y Nathalie Diagne. "Caractérisation de la Dynamique des Peuplements Ligneux du Centre Nationale de Recherches Agronomiques de Bambey (Diourbel/Sénégal)". European Scientific Journal, ESJ 20, n.º 6 (29 de febrero de 2024): 177. http://dx.doi.org/10.19044/esj.2024.v20n6p177.

Texto completo
Resumen
Le Sénégal, à l’instar des autres pays sahéliens, est confronté à la dégradation de ses espaces forestiers due à un ensemble de facteurs tels que : les défrichements agricoles, les feux tardifs, l’exploitation anarchique, etc. Ce phénomène est plus accentué dans la région de Diourbel où l’un des très rares poumons verts se trouve dans le site du Centre National de Recherches Agronomiques de Bambey (CNRA). Cette étude avait comme objectifs de caractériser et d’estimer le potentiel des ligneux dans cette formation forestière dans le but de donner formuler des recommandations. Un inventaire systématique sur 103 placettes de 50 X 50 m a été réalisé en 2018. Les paramètres recherchés ont été : la richesse spécifique, la densité du peuplement, la surface terrière, le volume de bois, le couvert aérien, la régénération, la structure horizontale et verticale, les observations sur l’émondage, le vieillissement, etc. Ainsi, 28 espèces appartenants à 13 familles ont été recensées. Les familles des Mimosaceae (28,57%) et des Combretaceae (17,86%) dominent la végétation. Pour les individus adultes, la densité est de 98 individus/ha, dominée par Acacia seyal, tandis que la régénération s’élève à 581 plantules/ha, dominée par Combretum aculeatum. La surface terrière du peuplement est estimée à 2,12 m2/ha, le couvert aérien (3223,08 m2/ha) et le volume (13,83 m3/ha). La distribution du peuplement par classe de diamètre et de hauteur révèle la prédominance de la strate arbustive. Les observations ont montré la présence de pratiques anthropiques qui pourraient contribuer à la régression de la dynamique du peuplement par la diminution du couvert végétal et la disparition de certaines espèces (Deterium microcarpum, Pterocarpus erinaceus et Sterculia setigera) constatée dans cette formation. Ces résultats montrent l’urgence de mettre en place une stratégie de gestion en étroite collaboration avec les communautés pour la conservation et la restauration du couvert végétale de cette formation boisée de 149 ha. Senegal, like other Sahelian countries, is faced with the degradation of its forest areas due to a combination of factors such as agricultural clearing, late fires, uncontrolled logging, etc. This phenomenon is more pronounced in the Diourbel region, where one of the very few green lungs is located on the site of the Centre National de Recherches Agronomiques Bambey (CNRA). This phenomenon is more pronounced in the Diourbel region, where one of the very few green lungs can be found on the site of the “Centre National de Recherches Agronomiques de Bambey” (CNRA). The objectives of this study were to characterize and estimate the potential of woody species in this forest formation, to formulate recommendations. A systematic inventory of 103 50 x 50 m plots was carried out in 2018. The parameters investigated were: species richness, stand density, basal area, wood volume, aerial cover, regeneration, horizontal and vertical structure, observations on pruning, aging, etc. A total of 28 species belonging to 13 families were inventoried. Among these families, Mimosaceae (28,57%) and Combretaceae (17,86%) dominate the vegetation. The density of adult trees is 98 individuals/ha, dominated by Acacia seyal, while regeneration amounts to 581 seedlings/ha, dominated by Combretum aculeatum. The basal area of the stand is estimated at 2.12 m2/ha, the aerial cover (3223.08 m2/ha), and the volume (13.83 m3/ha). The distribution of the stand-by diameter and height class reveals the predominance of the shrub layer. Observations revealed the presence of human practices that could be contributing to the decline in stand dynamics through the reduction in plant cover and the disappearance of certain species (Deterium microcarpum, Pterocarpus erinaceus, and Sterculia setigera) observed in this formation. These results show the urgent need to implement a management strategy in close collaboration with the communities to conserve and restore the plant cover of this 149 ha woodland formation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Germain, A. y C. Langlois. "Contamination des eaux et des sédiments en suspension du fleuve Saint-Laurent par les pesticides organochlores, les biphényles polychlores et d’autres contaminants organiques prioritaires". Water Quality Research Journal 23, n.º 4 (1 de noviembre de 1988): 602–14. http://dx.doi.org/10.2166/wqrj.1988.047.

Texto completo
Resumen
RÉSUMÉ Entre 1981 et 1987, la Direction des eaux intérieures a recueilli dans le fleuve Saint-Laurent 357 échantillons d’un litre au moyen de la technique conventionnelle et 23 échantillons composés d’une fraction dissoute (50 L) et d’une fraction particulaire (10 g base sèche) au moyen de l’échantillonnage à grand volume (SEASTAR et APLE). La fréquence de détection pour l’ensemble des produits organochlorés augmente de 13 à 38% en passant de la technique conventionnelle à celle à grand volume et la diversité des produits augmente avec l’échantillonnage à grand volume, passant de 7 à 18 composés détectés. Les BPC, présents dans 27% des échantillons conventionnels, sont présents dans tous les échantillons à grand volume. En 1987, trois échantillons d’eau provenant de SEASTAR et du APLE ont été analysés pour des polluants prioritaires appartenant à la catégorie “bases/neutres”. Nous avons mesuré des phtalates dans les fractions dissoute et particulaire et quelques HAP et chlorobenzènes majoritairement associés à la fraction dissoute. Les teneurs de contaminants dans l’eau sont en deçà des lignes directrices pour l’alimentation en eau potable alors qu’un certain nombre d’entre eux excèdent les critères pour la protection de la vie aquatique. Dans les sédiments en suspension, seules les concentrations de BPC et DDT total excèdent parfois les critères de qualité pour le dragage et l’immersion en mer.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Fresnel, Emeline, Meryl Vedrenne-Cloquet, Marius Lebret, Lucie Griffon, Brigitte Fauroux y Sonia Khirani. "Détection de la respiration pédiatrique sous PPC et VNI : le volume courant minimum, une alternative au poids minimal recommandé ?" Médecine du Sommeil 21, n.º 1 (marzo de 2024): 31. http://dx.doi.org/10.1016/j.msom.2023.12.078.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Nguimalet, Cyriaque-Rufin y Didier Orange. "Caractérisation de la baisse hydrologique actuelle de la rivière Oubangui à Bangui, République Centrafricaine". La Houille Blanche, n.º 1 (febrero de 2019): 78–84. http://dx.doi.org/10.1051/lhb/2019010.

Texto completo
Resumen
Ce papier revisite l'évolution hydroclimatique de l'Oubangui à Bangui à la faveur d'une nouvelle série hydropluviométrique de 1935 à 2015. Pour cela, les données annuelles pluviométriques et hydrologiques de l'Oubangui à Bangui ont été analysées avec différents tests statistiques (indices pluviométrique et d'écoulement, recherches de ruptures, coefficients de tarissement). La série pluviométrique n'indique toujours qu'une seule cassure en 1970, ce qui confirme l'exceptionnalité de cette rupture climatique en Afrique Centrale. Par contre, la série hydrologique permet d'identifier quatre périodes hydrologiques différentes : 1935-1959, 1960-1970, 1971-1982 et 1982-2013. La dernière période montre un déficit moyen de -22 % (2 893 m3/s) par rapport au débit moyen annuel sur toute la période étudiée (3 700 m3/s.). Les relations moyennes pluie/débit n'ont pas évolué au cours de ces périodes hydroclimatiques, semblant indiquer que le fonctionnement hydrologique de l'Oubangui n'a pas changé du fait de la rupture climatique de 1970. Cela est attribué à la faible anthropisation de ce bassin et la faible évolution de son couvert végétal. Cependant la comparaison de l'évolution annelle du coefficient de tarissement avec le volume mobilisé par l'aquifère pour soutenir les écoulements de l'Oubangui indique clairement un changement de contribution de la nappe avant et après 1970, puis après 2000.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Tran, Man Van, Nicolas Sarrut y Patrick Ozil. "MICRO-EXTRACTEUR POUR CONCENTRATION AND DETERMINATION DES IONS DANS L’EAU". Science and Technology Development Journal 14, n.º 2 (30 de junio de 2011): 96–106. http://dx.doi.org/10.32508/stdj.v14i2.1949.

Texto completo
Resumen
Ce travail concerne le développement des laboratoires sur une puce (Lab-on-achip) qui permettent de réaliser les nombreuses étapes de l'analyse sur un échantillon de micro-volume et qui fait l'objet du défi scientifique et industriel. Nous présentons la mise en oeuvre un microextracteur qui effectue l'extraction en ligne de concentration de détection de molécules cibles circulant dans un véhicule liquide. Le système comprend un microcanal primaire contenant un liquide porteur circulant aqueuse et un fluide secondaire non miscibles de stockage organique circulant dans un canal adjacent. L'interface biphasique est stabilisée par modification de micro-piliers verticaux dans le silicium. Nous présentons (i) l’analyse physique des phénomènes qui se produisent sur l'interface des fluides non miscibles; (ii) la fabrication du micro-extracteur et les processus chimiques utilisés pour traiter la surface des canaux ; (iii) la démonstration du système avec une approche intégrée Spectrophotomètre UV-VIS.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Zwitter Vitez, Ana. "Présentation du volume". Linguistica 52, n.º 1 (31 de diciembre de 2012): 7–8. http://dx.doi.org/10.4312/linguistica.52.1.7-8.

Texto completo
Resumen
Dans de nombreuses disciplines scientifiques, le discours parlé représente depuis quelques décennies un objet de recherche proéminent. Ce fait s’explique probablement par deux caractéristiques principales du discours parlé: la structure complexe de sa matérialité et les fonctions variées de différentes pratiques langagières. C’est pourquoi le présent numéro réunit les articles basés sur les approches actuelles du discours parlé et sur les pratiques langagières spécifiques.Le volume est introduit par deux articles interdisciplinaires: Peter Garrard et Ahmed Samrah présentent le domaine de la pathologie du langage en donnant une revue fouillée sur les approches actuelles de l’analyse linguistique lors de la détection de la maladie d’Alzheimer, tandis que Harry Hollien donne un aperçu structuré sur le domaine de la phonétique judiciaire destiné à dévoiler l’identité des locuteurs et de détecter la déception dans le discours parlé. Les analyses explorant l’acquisition du langage commencent par l’article de Katharina Zipser qui examine la progression de structures grammaticales en les mettant en comparaison avec la compétence des apprenants et continuent par l’étude de Meta Lah proposant une évaluation des documents audiovisuels proposés aux apprenants de langue étrangère. Vesna Požgaj Hadži, Damir Horga et Tatjana Balažic Bulc remettent en question la corrélation entre la compétence linguistique et la fluence linguistique auprès de locuteurs non-maternels et l'analyse de Gemma Santiago Alonso aborde l'acquisition de l'article défini dans le langage enfantin. Les articles suivants se réunissent autour du domaine de l'interprétation: Jana Zidar Forte présente une approche actuelle dans l'entrainement d'interprètes, Lea Burjan analyse les phénomènes issus de la pratique de l'interprétation juridique et Simona Šumrada traite de la reformulation dans le discours de la traduction et de l'interprétation. Le domaine des technologies du langage est exploré par la contribution de Jana Volk qui, se fondant sur les enregistrements authentiques de la parole spontanée, propose une évaluation du système de transcription ToBi.L'analyse des interfaces entre l'oral et l'écrit est introduit par l'étude de Gregory Bennet qui analyse la représentation du rire sur le réseau Twitter et continue par l'analyse de Nives Lenassi examine les éléments du discours parlé dans la correspondance d'affaire. Jacqueline Oven analyse le fonctionnement des particules à l'écrit et à l'oral tandis que l'étude de Mojca Schlamberger Brezar se fonde autour de l'hypothèse que les marqueurs discursifs indiquent le degré de spontanéité dans différentes situations d'énonciation. Les études qui s'articulent autour de l'analyse pragmatique essaient d'intercepter des phénomènes du discours parlé dans des contextes variés : Elenmari Pletikos Olof et Jagoda Poropat Darrer analysent la perception de paroles cérémonielles, Golnaz Nanbakhsh remet en question l'emploi des pronoms de tutoiement et de vouvoiement lors de l'expression de pouvoir, Darinka Verdonik et Zdravko Kačič examinent le rôle des expressions chrétiennes dans les conversations quotidiennes. Tamara Mikolič Južnič aborde le phénomène de la nominalisation et Mojca Smolej présente les spécificités du discours rapporté dans l'échange oral spontané. L'analyse d'Iztok Kosem et de Darinka Verdonik propose les résultats concernant le vocabulaire typique dans le discours public et privé, et l'étude de Juliano Desiderato Antonio et Fernanda Trombini Rahmen Cassim présente certains éléments intrinsèques de l’oral à travers l’optique des relations de cohérence entre les différentes unités textuelles. La relation entre les pratiques langagières et la norme linguistique est étudiée par l’article de Hotimir Tivadar qui remet en question l’établissement de la langue standard sur les fondements du langage régional ou central, tandis que la contribution de Tjaša Jakop aborde l’emploi du duel en slovène standard et dans différents dialectes. Sabina Zorčič étudie l’emploi des mots d’origine étrangère dans le discours politique et la contribution de Tomaž Petek propose un système de critères pour l’évaluation de présentations orales en public. Le volume clôt par le texte épistémologique de Primož Vitez qui propose une réflexion sur le rôle du linguiste qui ne peut exercer ses recherches sur le langage qu’à l’aide de son propre objet de l’analyse. La question de l’objectivité et du souci éthique du chercheur envers son objet d’analyse peut ainsi être appliquée à un cadre universel de disciplines scientifiques.Avec ses pistes de recherche proposées pour saisir l’insaisissable discours parlé, le présent numéro de Linguistica révèle une forte motivation à explorer ce champ scientifique, car, chaque progrès dans la compréhension du discours parlé peut contribuer à des résultats d’une grande utilité pour les sept milliards de ses utilisateurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Meunier, Quentin, Sylvie Boldrini, Carl Moumbogou, Amélie Morin, Sostène Ibinga y Cédric Vermeulen. "Place de l'agriculture itinérante familiale dans la foresterie communautaire au Gabon". BOIS & FORETS DES TROPIQUES 319, n.º 319 (1 de enero de 2014): 65. http://dx.doi.org/10.19182/bft2014.319.a20553.

Texto completo
Resumen
L'agriculture itinérante reste un système de production partagé par une grande majorité de groupes ethnolinguistiques, et appelé à se maintenir au Gabon. Elle s'exprime généralement dans un rayon de cinq kilomètres autour de l'unité de résidence. Au Gabon, cette zone est précisément celle destinée à accueillir depuis fin 2013 les premières forêts communautaires. Les préceptes de durabilité qui sous-tendent la notion de forêt communautaire impliquent le maintien d'un couvert forestier et pourraient entrer en contradiction avec la pratique de cette agriculture itinérante. Celle-ci prélève en effet, à chaque saison, un volume de bois soustrait au potentiel du massif concerné. Les plans simples de gestion des forêts communautaires prévoient une série agricole pour ne pas mettre en concurrence deux activités sur un même espace. Cela permet également de reconnaître la place socio-économique importante de l'agriculture en milieu rural. L'agroforesterie est une des clés pour articuler l'agriculture familiale et l'exploitation de la forêt communautaire. Conserver sur pied des arbres d'intérêt économique, social ou environnemental, d'une part, épargne de pénibles travaux d'abattage et, d'autre part, limite quantitativement l'impact de la coupe et du brûlis qui n'est plus systématique. L'introduction d'essences utiles, rares, protégées ou encore de bois d'oeuvre permet également d'élever la valeur économique et patrimoniale des parcelles agricoles tout en répondant aux exigences en matière de conservation et de durabilité du plan simple de gestion de la forêt communautaire. Par ce biais, l'agriculture familiale coutumière est pérennisée et sécurisée dans l'enceinte d'une portion de forêt légalement reconnue tandis que les techniques culturales y sont optimisées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Gond, Valery, Emilien Dubiez, Marine Boulogne, Morgan Gigaud, Adrien Péroches, Alexandre Pennec, Nicolas Fauvet y Régis Peltier. "DYNAMICS OF FOREST COVER AND CARBON STOCK CHANGE IN THE DEMOCRATIC REPUBLIC OF CONGO: CASE OF WOOD-FUEL SUPPLY BASIN FOR KINSHASA". BOIS & FORETS DES TROPIQUES 327, n.º 327 (19 de diciembre de 2015): 19. http://dx.doi.org/10.19182/bft2016.327.a31293.

Texto completo
Resumen
Afin de contribuer à la mise au point de mé- thodes de gestion durable des écosystèmes forestiers en Afrique centrale, la question de recherche suivante a été posée : l’analyse de l’évolution de la couverture végétale per- met-elle de comprendre et de documenter l’organisation spatiale et les mécanismes de la dégradation des forêts tropicales ? Pour cela, en République démocratique du Congo, le projet Makala a cartographié les arbres et les ressources forestières du bas- sin d’approvisionnement en bois-énergie de Kinshasa et a essayé de prédire son évolu- tion future. La carte a été réalisée à quatre périodes (1984, 2001, 2006 et 2012) avec une mosaïque de quatre images Landsat. L’estimation de la biomasse aérienne a été faite en 2012, par l’inventaire forestier de 317 parcelles (4 337 arbres de 44 espèces) dans les quatre types de couverture végétale, sur le plateau Batéké. Entre 2000 et 2012, le volume moyen de bois-énergie a chuté de plus de 50 % et les stocks de carbone de 75 % en 28 ans. La réduction drastique du couvert forestier, la baisse significative des périodes de jachère, l’augmentation des surfaces de savane, le déclin des stocks de biomasse et de carbone, constituent des signaux particulièrement forts. Mais ces premières estimations sont dérivées des données d’un petit échantillon, extrapolées au bassin d’approvisionnement. Il serait très utile d’augmenter l’échantillonnage, pour approcher des valeurs plus justes et concrètes. L’expérience du projet Makala montre clairement que l’analyse de l’évo- lution de la couverture végétale permet de comprendre et de documenter l’organisa- tion spatiale et les mécanismes de la dégra- dation des forêts. Mais seules une politique consciente et une gestion durable des terres des communautés, combinées avec une réintroduction des arbres dans les terres agricoles, peuvent initier un processus de restauration durable.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

REBOUD, Apolline, Liboum MBONAYEM y Guillaume LESCUYER. "Adopter des inventaires forestiers à dire d’acteurs pour les forêts communautaires camerounaises". BOIS & FORETS DES TROPIQUES 359 (29 de febrero de 2024): 55–68. http://dx.doi.org/10.19182/bft2024.359.a37194.

Texto completo
Resumen
La procédure officielle d’inventaire des ressources ligneuses pour les forêts communautaires camerounaises constitue un obstacle technique et financier majeur. Plusieurs études ont testé des démarches simplifiées mais sans jamais pouvoir proposer une alternative satisfaisante à la méthode standard d’inventaire, à savoir plus abordable financièrement et techniquement pour les populations locales, tout en étant statistiquement robuste. L‘article récapitule la démarche et les résultats d’un inventaire forestier à dire d’acteurs, qui a été expérimenté dans une forêt communautaire de 4 800 ha, au couvert forestier dégradé. Cet inventaire repose sur cinq simplifications (1) les seules espèces inventoriées sont celles vendues sur le marché domestique ; (2) les arbres inventoriés sont ceux situés à une distance inférieure à deux kilomètres d’une piste ou d’une rivière d’évacuation ; (3) seuls les arbres ayant un diamètre supérieur ou égal au diamètre minimum d’exploitabilité sont relevés ; (4) l’inventaire n’est réalisé qu’avec les propriétaires coutumiers volontaires ; (5) leur droit de possession coutumière sur les arbres est reconnu. Cet inventaire à dire d’acteurs a permis de recenser 3 885 arbres pour un volume de 19 297 m3 dans la forêt communautaire. La quasi-totalité (93 %) de ces arbres sont situés en cacaoyères. La démarche est techniquement robuste puisque le taux de sondage est estimé au minimum à 35 %, et est donc largement supérieur à celui de l’inventaire forestier standard de 2 %. Cet inventaire est également économique puisque son coût revient à moins de 0,5 €/ha, c’est-à-dire moins de la moitié du coût d’un inventaire classique. Il est enfin socialement acceptable puisqu’il valorise les savoirs traditionnels et permet d’élaborer un mode d’exploitation des arbres favorable aux propriétaires coutumiers. Il incite ces derniers à la durabilité en leur permettant de devenir les principaux bénéficiaires de cette activité. Cette méthode paraît adaptée au contexte des forêts communautaires dégradées, mais son application à des forêts plus densément boisées mériterait d’être considérée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Roten, Claude-Alain, Serge Nicollerat, Lionel Pousaz y Guy Genilloud. "Détecter par stylométrie la fraude académique utilisant ChatGPT". Cahiers IRAFPA 1, n.º 1 (14 de julio de 2023): 1–11. http://dx.doi.org/10.56240/irafpa.cm.v1n1/rot.

Texto completo
Resumen
Depuis la fin de l’année 2022, ChatGPT rend possible la rédaction de textes par Intelligence Artificielle. Cette IA faible est un agent conversationnel qui ne comprend ni les textes qu’il produit, ni ceux de son corpus d’entraînement. Car, pour écrire des textes crédibles, le chatbot construit des séquences de mots en choisissant les termes voisins les plus probables d’après les textes d’entraînement utilisés pour son modèle de langage GPT-3.5. Donc, par nature, ChatGPT rédige sans créativité un contenu plausible, mais pas nécessairement conforme à la réalité. Les textes ChatGPT peuvent servir à frauder dans un cadre académique : l’IA est capable de répondre à la place d’un candidat aux questions d’un examen, de rédiger un document certifiant (master, thèse…) ou d’augmenter déraisonnablement le volume des contributions d’un hyper-publiant. L’article décrit deux approches stylométriques capables de détecter la fraude académique générée par chatbot. La rédaction d’un texte par une IA peut d’abord être mise en évidence par la comparaison de son style avec des documents authentiquement rédigés par l’auteur présumé, selon l’approche Machine Learning que nous avons développée pour détecter le ghostwriting : l’IA est soumise au même type de détection qu’un ghostwriter. Ensuite, ChatGPT peut également être détecté comme IA indépendamment de son modèle de langage par notre approche originale Machine Learning, qui mesure le choix des mots et de leurs proches voisins : dans un texte chatbot qui préfère les voisins les plus probables, le choix est sensiblement plus restreint que dans un texte généré par un rédacteur humain. L’article discute les conséquences de la rédaction par IA pour l’enseignement et la recherche et propose des moyens pour la détecter.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Onyeabor, A., E. C. Uwalaka, D. N. Onunkwor y H. A. Chimezia. "Physiological and Coprological Changes Associated with Single and conjunct experimental infections of trypanosoma brucei and haemonchus contortus in west African dwarf goats". Nigerian Journal of Animal Production 49, n.º 4 (10 de febrero de 2023): 176–93. http://dx.doi.org/10.51791/njap.v49i4.3714.

Texto completo
Resumen
An experimental study on the interaction between Trypanosoma brucei and Haemonchus contortus infections was conducted on 36 male West African Dwarf Goats (WADG) of 8–9 months old. Coprological and physiological observations were made on these animals in different groups of 6 groups of 6 animals each. In this study, experimental single infections of either T. brucei or H. contortus and conjunct infection of both parasites produced an acute infection in WADG with initial parasitaemia occurring 7- 14 days post-infection and initial detection of egg in faeces occurring 14 days post-infection. The pre-patent period of infection of T. brucei and H. contortus were influenced by conjunct infections resulting in the early detection of nematode egg in the faeces and trypanosome in the blood of the infected conjunct groups. A high level of parasitaemia was observed more in group 3 compared to other groups. The faecal egg count and worm burden were more in groups 3, 4, and 5 than group 2. Judging from the degree of clinical manifestation, animals in the conjunct group appeared to be more severely affected. Haematological parameter changes were particularly more marked in conjunct infected groups (3 and 5). These observations may not be unconnected with the stress of the conjunct infections and immunosuppressive effects of trypanosomosis. This was very evident in the significant sustained decrease in the levels of packed cell volume, mean haemoglobin concentration and total red blood cell counts following the onset of parasitaemia and patency in the infected goats. The above observation confirmed the long-held view that both parasites precipitate anaemia and immunosuppression in infected animals. Une étude expérimentale sur l'interaction entre les infections à Trypanosoma brucei et à Haemonchus contortus a été menée sur 36 West African Dwarf Goat (WADG) mâles âgées de 8 à 9 mois. Des observations coprologiques et physiologiques ont été faites sur ces animaux dans différents groupes de 6 groupes de 6 animaux chacun. Dans cette étude, des infections expérimentales uniques de T. brucei ou de H. contortus et une infection conjointe des deux parasites ont produit une infection aiguë dans le WADG avec une parasitémie initiale survenant 7 à 14 jours après l'infection et une détection initiale d'œufs dans les fèces survenant 14 jours après. -infection. La période d'infection pré-patente de T. brucei et H. contortus était influencée par des infections conjointes résultant en la détection précoced'œufs de nématodes dans les fèces et de trypanosomes dans le sang des groupes conjointsm infectés. Un niveau élevé de parasitémie a été observé davantage dans le groupe 3 par rapport aux autres groupes. Le nombre d'œufs fécaux et la charge de vers étaient plus élevés dans les groupes 3, 4 et 5 que dans le groupe 2. À en juger par le degré de manifestation clinique, les animaux du groupe conjoint semblaient être plus gravement touchés. Les modifications des paramètres hématologiques étaient particulièrement plus marquées dans les groupes infectés conjointement (3 et 5). Ces observations ne sont peut-être pas sans lien avec le stress des infections conjointes et les effets immunosuppresseurs de la trypanosomose. Cela était très évident dans la diminution significative et soutenue des niveaux d'hématocrite, de la concentration moyenne d'hémoglobine et du nombre total de globules rouges après l'apparition de la parasitémie et de la perméabilité chez les chèvres infectées. L'observation ci-dessus a confirmé l'opinion de longue date selon laquelle les deux parasites précipitent l'anémie et l'immunosuppression chez les animaux infectés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Jradi, Mohamed Amine, Mohamed Dridi, Mourad Teyeb, Mokhtar Ould Sidi Mohamed, Ramzi Khiary, Samir Ghozzi y Nawfel Ben Rais. "The 20-core prostate biopsy as an initial strategy: impact on the detection of prostatic cancer". Canadian Urological Association Journal 4, n.º 2 (16 de abril de 2013): 100. http://dx.doi.org/10.5489/cuaj.800.

Texto completo
Resumen
Introduction: To increase the detection rate of prostate cancer inrecent years, we examined the increase in the number of corestaken at initial prostate biopsy. We hypothesized that an increasingnumber of cores may undermine the accuracy of models predictingthe presence of prostate cancer at initial biopsy in patientssubmitted to 20-core initial biopsy.Methods: A total of 232 consecutive patients with prostatespecificantigen (PSA) between 4 and 20 ng/mL and/or abnormaldigital rectal examination (DRE) underwent 12-core prostate biopsyprotocol (group 1) or 20-core prostate biopsy protocol (group 2).The patients were divided into subgroups according to the resultsof their serum PSA and prostate volume. We evaluated the cancerdetection rate overall and in each subgroup. Clinical datawere analyzed using chi-square analysis and the unpaired t-testor 1-way ANOVA with significance considered at 0.05.Results: The 2 groups of patients were not significantly different withregard to parameters (age, abnormal DRE and serum PSA), althoughmedian prostate volume in group 1 (57.76 ± 26.94 cc) were slightergreater than in group 2. Cancer detection rate for patients submittedto 20 prostate biopsy was higher than patients submitted to 12prostate biopsy (35.2% vs. 25%, p = 0.095). Breakdown to PSAlevel showed a benefit to 20 prostate biopsy for PSA <6 ng/mL (37.1%vs. 12.9%, p = 0.005). Stratifying results by prostate volume, wefound that the improvement of cancer detection rate with 20 prostatebiopsy was significant in patients with a prostate volume greaterthan 60 cc (55% in 20 prostate biopsy vs. 11.3% p < 0.05). Morbidityrates were identical in groups 1 and 2 with no statistically significantdifference. There appeared to be no greater risk of infectionand bleeding with 20 prostate biopsy protocol.Conclusion: The 20-core biopsy protocol was more efficient thanthe 12-core biopsy protocol, especially in patients with prostatespecific antigen <6 ng/mL and prostate volume greater than 60 cc.Introduction : Pour augmenter le taux de détection du cancer de laprostate dans un avenir rapproché, nous avons examiné l’incidenced’une hausse du nombre de carottes prélevées lors de la biopsieprostatique initiale. Notre hypothèse était qu’en raison du nombreaccru de prélèvements, la biopsie à 20 carottes pouvait réduirel’exactitude des modèles de dépistage du cancer de la prostate à labiopsie initiale.Méthodologie : Au total, 232 patients consécutifs avec des tauxd’antigène prostatique spécifique (APS) situés entre 4 et 20 ng/mLet/ou des anomalies au toucher rectal ont subi une biopsie prostatiqueà 12 (groupe 1) ou à 20 carottes (groupe 2). Les patients ontété répartis en sous-groupes en fonction de leurs taux sériques d’APSet de leur volume prostatique. Nous avons évalué le taux de dépistagedu cancer de façon globale et par sous-groupes. Les données cli -niques ont été analysées par la méthode du chi carré et du test tpour échantillons non appariés ou par analyse unilatérale de lavariance (ANOVA), avec un seuil de signification de 0,05.Résultats : On n’a noté aucune différence significative entre lesdeux groupes quant aux paramètres (âge, anomalie au toucher rectalet taux sériques d’APS), malgré que le volume prostatique médianait été légèrement supérieur dans le groupe 1 (57,76 ± 26,94 mL)par rapport au groupe 2. Le taux de dépistage du cancer avec labiopsie prostatique à 20 carottes était plus élevé que le taux obtenuavec la biopsie à 12 carottes (35,2 % vs 25 %, p = 0,095). La répartitiondes patients en fonction des taux d’APS a fait ressortir unavantage pour la biopsie à 20 carottes lorsque les taux d’APS étaientinférieurs à 6 ng/mL (37,1 % vs 12,9 %, p = 0,005). La stratificationdes données selon le volume de la prostate a montré que lahausse des taux de dépistage du cancer associée à la biopsie prostatiqueà 20 carottes était significative lorsque le volume prostatiquedépassait 60 mL (55 % pour la biopsie à 20 carottes vs 11,3 %,p < 0,05). Les taux de morbidité étaient semblables dans les deuxgroupes, la différence n’étant pas significative sur le plan statistique.La biopsie prostatique à 20 carottes ne semblait pas associéeà un risque plus élevé d’infection et d’hémorragie.Conclusion : La biopsie à 20 carottes était plus efficace que la biopsieà 12 carottes, surtout chez les patients dont le taux d’APS était
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Galéa, G., B. Vasquez-Paulus, B. Renard y P. Breil. "L'impact des prélèvements d'eau pour l'irrigation sur les régimes hydrologiques des sous-bassins du Tescou et de la Séoune (bassin Adour-Garonne, France)". Revue des sciences de l'eau 18, n.º 3 (12 de abril de 2005): 273–305. http://dx.doi.org/10.7202/705560ar.

Texto completo
Resumen
Les besoins en eau pour l'irrigation des cultures des sous-bassins du Tescou et de la Séoune (Bassin Adour-Garonne) se sont considérablement accrus ces trente dernières années. Cela s'est manifesté, entre autres, par la création de très nombreuses retenues collinaires. Pour le sous-bassin du Tescou, aux crues rapides et peu volumineuses, on totalise 184 retenues individuelles dont le volume théorique cumulé s'élève à 4,3 Mm3 et qui interceptent environ un tiers (92 km2) de sa superficie (287 km2). Pour la Séoune, la pression due à l'usage de l'eau pour l'irrigation est un peu moins forte, compte tenu de sa taille (463 km2) et d'une ressource relativement abondante en hautes eaux. Près de 160 retenues collinaires sont dénombrées, elle représentent un volume de stockage théorique de 6,5 Mm3 pour une superficie interceptée d'environ un quart du sous-bassin (122 km2). Le suivi hydrométrique des sous-bassins permet de disposer pour chacun d'eux d'une chronique de débit influencée Q(t) sur une période d'observation d'environ 30 ans. A partir des débits observés, notre objectif a été d'identifier et de quantifier l'impact anthropique pour trois composantes du régime hydrologique : crue, module et étiage. L'approche saisonnière des crues et modules a permis une différenciation de l'impact anthropique selon les saisons "hiver" (mois 12 à 6) et "été" (mois 7 à 11). Cette saisonnalisation hydrologique reflète bien le mode de gestion actuel de la ressource en eau de ces sous-bassins agricoles : stockage l'hiver et irrigation à partir des retenues collinaires durant les premiers mois d'été. Pour identifier l'impact, nous avons fait usage de tests de détection de rupture de stationnarité des chroniques hydrologiques : de LANG (2004) pour les crues et d'une adaptation du test de BOIS (1986) pour les modules et étiages des sous-bassins. Pour ce qui concerne les crues d'été et les modules d'été les tests montrent que les chroniques sont stationnaires sur l'ensemble de la période d'observation. Pour les crues et les modules d'hiver par contre, les tests relèvent des ruptures de stationnarité des chroniques qui vont nous permettre de définir des sous-périodes stationnaires. Ces sous-périodes sont sensiblement cohérentes avec l'évolution des prélèvements théoriques cumulés de ces trente dernières années. L'analyse des ruptures de stationnarité menée sur les débits a été de même effectuée sur les pluies pour consolider nos résultats. La stationnarité des chroniques de pluie observées montre qu'il n'y a pas de composante climatique, autrement dit que la tendance détectée sur les débits est essentiellement d'origine anthropique. Il ne semble pas y avoir d'impact des éventuels pompages sur les débits d'étiage et tout particulièrement pour ce qui concerne la norme VCN30 "débit moyen minimum annuel sur 30 jours consécutifs" des deux sous-bassins. Finalement, l'usage de l'eau pour l'irrigation affecte essentiellement les crues et les modules de la saison hiver. Un essai de quantification de cette tendance a été menée à partir d'une analyse statistique associant les observations des sous-périodes stationnaires et les débits simulés pour une même référence pluviométrique. A partir des modélisations statistiques réalisées et des courbes de pression des besoins théoriques de l'irrigation, nous en avons déduit une tendance vraisemblable sur les quantiles de crue et les modules d'hiver. De manière générale, les crues de la saison hiver des deux sous-bassins sont fortement réduites en pointe et volume par l'ensemble des petites retenues. L'impact observé sur les quantiles de crue reste cohérent par rapport aux volumes théoriques prélevés dernièrement référencés. Les retenues collinaires sont sans action significative sur le temps de transfert (19j environ) du sous-bassin de la Séoune dont les crues sont volumineuses. Pour le Tescou par contre, aux crues rapides et peu volumineuses, le temps de transfert augmente sensiblement de 8h entre l'état de prélèvement zéro ("naturel" : 1,73j) et l'état actuel proche de 6 Mm3 (2,07j). Pour ce qui concerne les modules d'hiver des sous-bassins de la Séoune et du Tescou le coefficient d'écoulement moyen d'hiver diminue respectivement de 31% en moyenne et de 42% en moyenne entre l'état "naturel" et l'état anthropisé actuel. Cette diminution des coefficients d'écoulement est sans commune mesure avec les volumes théoriques stockés à partir des retenues collinaires. Autrement dit, les volumes théoriques des retenues collinaires ne peuvent expliquer à eux seuls la forte diminution des coefficients d'écoulement observés. Cependant, la cohérence des divers contrôles effectués, tant sur les chroniques observées que sur les modélisations effectuées, nous incitent à valider ces résultats. Ceux-ci devraient être retenus pour des objectifs de gestion immédiats ou ultérieurs de la ressource, si les conditions climatiques et d'occupation du sol n'évoluent guère.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Diakite, Issa, Pape Ibrahima Djighaly, Amsatou Thiam, Nathalie Diagne y Dioumacor Fall. "Caractérisation et Evolution du Peuplement Ligneux du Bois de Boulogne du Centre Nationale de Recherches Agronomiques (CNRA) de Bambey (Diourbel/Sénégal)". European Scientific Journal ESJ 25 (31 de enero de 2024). http://dx.doi.org/10.19044/esipreprint.1.2024.p391.

Texto completo
Resumen
Le Sénégal à l’instar des autres pays sahéliens, est confronté à la dégradation de ses espaces forestiers dû à un ensemble de facteurs tels que : les défrichements agricoles, les feux tardifs, l’exploitation anarchique, etc. Des travaux d’inventaires ont été réalisés dans la formation boisée (Bois de Boulogne) du Centre National de Recherches Agronomiques de Bambey. L’étude vise à évaluer le potentiel ligneux du Bois soumis à forte pression anthropique dans le but de donner des recommandations. Un inventaire systématique sur 103 placettes de 50 X 50 m est réalisé en 2018. Les paramètres recherchés sont : la richesse spécifique, la densité, la surface terrière, le volume, le couvert aérien, la régénération, la structure horizontale et verticale, les observations sur l’émondage, le vieillissement, etc. Ainsi, 28 espèces de 13 familles ont été recensées. Mimosaceae et Combretaceae domine la végétation. Pour les individus adultes, la densité est de 98 individus/ha, dominée par Acacia seyal, tandis que la régénération s’élève à 581 plantules/ha, dominée par Combretum aculeatum. La surface terrière du peuplement est estimée à 2,12 m2/ha, le couvert aérien (3223,08 m2/ha) et le volume (13,83 m3/ha). La distribution du peuplement par classe de diamètre et de hauteur révèle la prédominance de la strate arbustive. Les observations ont montré la présence de pratiques anthropiques. Cette étude a permis de recenser la flore du Bois, d’évaluer le potentiel ligneux et de remarquer l’anthropisation, d’où la nécessité de mettre en place une stratégie de gestion pour la conservation et la restauration du couvert végétale. Senegal, like other Sahelian countries, is faced forest degradation due to a combination of factors such as: agricultural clearings, late fires, uncontrolled logging, etc. Inventory work has been carried out in the woodland formation (Bois de Boulogne) of the Centre National de Recherches Agronomiques de Bambey. The aim of the study was to assess the woody potential of the Bois, which is under heavy human pressure, with a view to making recommendations. A systematic inventory on 103 plots of 50 X 50 m is carried out in 2018. The parameters sought are: species richness, density, basal area, volume, aerial cover, regeneration, horizontal and vertical structure, observations on pruning, ageing, etc. A total of 28 species from 13 families were recorded. Mimosaceae and Combretaceae dominate the vegetation. Adult density is 98 individuals/ha, dominated by Acacia seyal, while regeneration is 581 seedlings/ha, dominated by Combretum aculeatum. Stand basal area is estimated at 2.12 m2/ha, aerial cover (3223.08 m2/ha) and volume (13.83 m3/ha). Stand distribution by diameter and height class reveals the predominance of the shrub layer. Observations revealed the presence of anthropogenic practices. This study enabled us to survey the flora of the wood, assess its woody potential and note its anthropization, hence the need to implement a management strategy for the conservation and restoration of the plant cover.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Mossoro-Kpindé, CD, SM Camengo Police, E. Gbangba-Ngai, HD Mossoro-Kpinde, CG Kamalo, G. Nembi, LF Kamandji, B. Koffi y NP Komas. "Évaluation de deux tests rapides de détection de l’antigène Hbs à Bangui". La Revue Médicale de Madagascar 5, n.º 3 (2015). http://dx.doi.org/10.62606/rmmao00165.

Texto completo
Resumen
Viral hepatitis B is a widespread disease in the world. The reference method for diagnostic is not available in all laboratories. The objective of this study was to assess two rapid tests for HBsAg detection: MINITEST® and ACUMEN®. It appears from this study that the two tests have 100% of sensitivity, 100% of specificity, 100% of predictive positive value and 100% of negative predictive value. The 2 tests respond well to all 6 criteria for evaluation released by the WHO: the quick results that appear within 5 minutes; the validity and accuracy with the sensitivity and specificity that are 100%; the minimum volume of sample required is 50 μl; the nature of the sample which can be serum, plasma or whole blood; tests are easy to use in one step without the need for specialized equipment; reagents are stable, can be stored at + 2° to + 30° C. The two tests are reliable, easy to use but a study with a large number of samples is needed.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Foucher, Fabrice, Sébastien Lonné, Philippe Dubois, Stéphane Leberre, Pierre Calmon, Michael Enright y Yasin Zaman. "Apports d’une cosimulation “END – Tolérance aux dommages” dans la réduction des risques de rupture". e-journal of nondestructive testing 28, n.º 9 (septiembre de 2023). http://dx.doi.org/10.58286/28527.

Texto completo
Resumen
Dans l’approche par tolérance aux dommages utilisée notamment en aéronautique, il est essentiel de démontrer la fiabilité des inspections END pour la détection de potentiels défauts structurels, particulièrement dans le cas de pièces obtenues par fabrication additive car ce procédé introduit d’avantages d’anomalies. Les courbes de Probabilité de Détection (POD), qui relient la probabilité de détecter un défaut à sa taille, constituent un indicateur clé en évaluant une taille maximale de défaut que le procédé END peut manquer à un certain niveau de probabilité et avec un certain taux de confiance. Cette information est utilisée, conjointement à d’autres données telles que la géométrie de la pièce, les propriétés mécaniques, les contraintes ou encore les cinétiques d’évolution des défauts, pour adapter la stratégie de maintenance et de contrôle de la pièce afin d’optimiser la sureté et sa durée de vie en service. La fiabilité d’un END et l’évaluation du risque sont basées sur des indicateurs statistiques qui nécessitent un volume de données important si l’on veut que ces indicateurs soient fiables. Ainsi, il est difficile d’obtenir un bon niveau de confiance sur la base d’une approche purement basée sur des essais expérimentaux compte-tenu du volume de maquettes et des coûts engendrés. Les outils de simulation peuvent atteindre cet objectif s’ils ont la capacité de prendre en compte et piloter précisément les paramètres pertinents et grâce aux capacités de calcul intensif maintenant disponibles. Le travail présenté dans cet article met en oeuvre des cosimulations réalisées entre les logiciels DARWIN®, en modélisation probabiliste de la tolérance au dommage, et CIVA, en modélisation END. DARWIN calcule des niveaux de risque de rupture par zone dans une pièce donnée, quand CIVA permet d’obtenir des courbes de probabilité de détection pour différentes méthodes END. L’application présentée illustre le cas d’une pièce de rotor en titane impliquant un contrôle par ultrasons. Il apparait très pertinent de relier la simulation des END et celle de la mécanique de la rupture, deux disciplines assez compartimentées par ailleurs. En effet, DARWIN permet de connaitre les défauts et les tailles critiques associées qui sont les données d’entrées essentielles pour développer une méthode d’inspection pertinente. CIVA permet d’obtenir des courbes POD permettant ensuite à DARWIN de quantifier le niveau de réduction de risque apporté par cet END. Cela souligne l’importance des END pour la sureté de fonctionnement et permet d’adapter la sensibilité du procédé d’inspection afin de trouver le meilleur compromis entre la performance nécessaire et les coûts
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Fisher, Clément, Arnaud Recoquillay, Olivier Mesnil y Oscar d'Almeida. "Détection de défauts par ondes guidées robuste et auto-référencée : application aux pièces en composite tissé de forme complexe". e-journal of nondestructive testing 28, n.º 9 (septiembre de 2023). http://dx.doi.org/10.58286/28509.

Texto completo
Resumen
L’utilisation d’un état de référence, c’est-à-dire d’une baseline, pour l’analyse des données dans le cadre du contrôle santé des intégré (Structural Health Monitoring, SHM) par ondes guidées limite le champ d’application de ces approches. Cela a largement été démontré dans la littérature en présence de changement de température, mais c’est également vrai en présence de variations d’autres conditions environnementales et opérationnelles, ainsi que des effets du vieillissement. Cet article présente une nouvelle méthodologie auto-référencée, conçue pour être intrinsèquement robuste à l’influence des effets externes, y compris ceux qui n’ont pas été identifiés lors de la conception du système. La méthode repose sur le concept de baseline instantanée, c’est-à-dire la comparaison de plusieurs mesures acquises sur des mesures présentant un degré élevé de similitude du point de vue des ondes guidées. La subtilité de l'approche réside dans la détection de défauts ayant une faible influence sur les mesures en présence de variabilités extrinsèques et intrinsèques ayant une influence comparativement plus importante sur plusieurs échantillons similaires. La méthode comprend également une réduction de la dimension par l'extraction de quantités d'intérêt à partir des signaux acquis, permettant potentiellement l'analyse de plusieurs échantillons avec un volume de données limitées. La méthode proposée est validée avec succès sur 12 plaques d'aluminium, chacune présentant une fissure traversante de 1 à 30mm de longueur, dans un environnement de laboratoire avec des paramètres externes limités. Ensuite, l'approche est testée sur 2 échantillons composites tissés de forme complexe avec jusqu'à 7 trajectoires similaires du point de vue des ondes guidées. La détection d'une masse ajoutée est réussie sur toute la plage de températures considérée (-30◦C à 30◦C) pour toutes les fréquences d'interrogation étudiées (50, 100 et 150 kHz). La méthodologie proposée est nettement plus performante qu'un algorithme d'imagerie de l’état de l’art avec compensation de température appliqué aux mêmes données.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Nyangono, Martin Ndongo, Maguemfo Yvanove Fouelefack, Charloppe Vanessa Soppo Lobe y Nga Nnanga. "Contrôle des paramètres qualité de l’hydroquinone, l’hydrocortisone et du clobétasol propionate par Chromatographie Liquide Haute Performance (HPLC) pour des produits cosmétiques éclaircissants commercialisés dans la ville de Yaoundé." Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, n.º 3 (20 de diciembre de 2023). http://dx.doi.org/10.57220/jatpb.v2i3.139.

Texto completo
Resumen
Introduction : Les produits cosmétiques éclaircissants aussi connus sous l’appellation de produits dépigmentant, blanchissant, décapants contiennent des substances actives dont le mécanisme d'action concours à inhiber ou bloquer la synthèse de mélanine. Malheureusement des études cliniques ont mis en évidence de nombreux effets indésirables de ces agents. Ces complications seront d'autant plus graves en fonction de la composition et de la concentration des substances dans le produit cosmétique fini. Les laits et les crèmes figurent parmi les formulations de produits éclaircissants les plus sollicités par les populations pour cette pratique. L’usage de corticostéroïdes dans des produits cosmétiques est prohibé, l’hydroquinone est interdite par le règlement CE 1223/2009 et tolérée à un maxima de 2% par la FDA. Ainsi l'identification d'un de ces composés illicites délibérément introduits dans ces types de cosmétiques suffit pour une surveillance du marché. Méthodologie : Cet article présente une méthode de HPLC Agilent tchcouplé à un détecteur UV-visible pour l'identification et le dosage de l'hydroquinone et de 02 dermocorticoides (hydrocortisone et clobetasol propionate). Nous avons utilisé un Agilent Analytical HPLC Systems 1200 Infinity Series. La séparation a été obtenue sur une colonne XTerra MS C8, 2.1X250mm, 5µm en mode isocratique pendant 5 min. La phase mobile était composée de l'acetonitrile et d'eau. Le traitement des échantillons de produits cosmétiques s'est fait dans 100% d'acetonitrile et l'analyse a été faite en triplicate. Le volume d’injection était de 04µL, le débit de 0.4mL/min avec une pression de 126bars. La température de la colonne était à 25°C et la détection s’est faites à 240nm. Résultats : Il ressort que 90% des produits cosmétiques éclaircissants contiennent de l'hydroquinone ; 83,3% de ces derniers sont à des taux > à 2%. 5% des produits cosmétiques éclaircissants contiennent un corticoïde et 68.3% des produits contiennent plus de 3 agents dépimentants actifs dans la même formulation. Discussions : Malgré les multiples restrictions des pays et les normes visant à mettre à la disposition des populations des produits sûrs, le marché des produits blanchissants pour la peau reste bondé de produits illégaux et non conforme au Cameroun.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Antonini, Thierry. "Contrôle automatisé de matériaux hétérogènes par imagerie TeraHertz". e-journal of nondestructive testing 28, n.º 9 (septiembre de 2023). http://dx.doi.org/10.58286/28524.

Texto completo
Resumen
Les matériaux hétérogènes sont utilisés dans l’industrie notamment pour alléger les structures ou renforcer certaines propriétés mécaniques ou chimiques propres à chacun des matériaux combinés tout en visant l’optimisation des cycles de production. Ils peuvent être déclinés sous la forme d’assemblages collés ou soudés ou sous forme de composites. Ils répondent à des enjeux de plus en plus élevés dans des secteurs exigeants comme l’aérospatial, la défense, les transports ou l’énergie. En raison de la complexité de leurs procédés de fabrication et d’un retour d’expérience limité sur ces matériaux en exploitation, ces derniers nécessitent des moyens de contrôle avancés permettant de détecter leurs défauts internes ou d’évaluer les propriétés internes qui pourraient notamment affecter leurs performances que ce soit au stade de la production ou en cours d’exploitation. Les matériaux assemblés peuvent être affectés par différents types de défaut, cohésif ou adhésif, tels que des porosités dans la colle, des défauts de polymérisation, des mauvaises transformations de la matière chauffée ou encore des décollements. Pour les matériaux composites, dans le cadre de leur production, il s’agit notamment de défauts d’imprégnation, de défauts d’alignement ou d’orientation des fibres alors qu’en cours d’exploitation, plutôt de délaminations ou de perte d’épaisseur. De ce fait, la possibilité d’apporter des garanties supplémentaires sur les performances de ces matériaux en s’appuyant sur un contrôle de leur volume intérieur, suscite un intérêt grandissant pour les techniques de contrôle non destructif et rapide pour qualifier 100% des produits en production et de suivre le vieillissement de ces matériaux en exploitation. Dans ce cadre, la technologie d’imagerie THz, méthode de contrôle non destructif rapide, sans contact et portative, est une solution prometteuse. Basée sur de nouvelles ondes électromagnétiques, appelées THz, elle associe une capacité de pénétration importante dans la plupart des matériaux diélectriques (i.e. non conducteurs), comme les polymères, élastomères et céramiques, avec une forte sensibilité de détection des hétérogénéités de la matière et de leur anisotropie en proposant une capacité de résolution d’imagerie compatible avec la taille des défauts courants recherchés par le monde industriel. Une technique d’imagerie THz innovante en mode réflexion ou transmission permet notamment de réaliser des cartographies 2D de leurs hétérogénéités en temps réel, compatible avec du contrôle à haute cadence sur ligne de production ou pour des pièces de grandes dimensions. Lors de cette communication, TERAKALIS, société spécialisée dans la fabrication d’équipements THz, présentera le domaine des ondes THz, les principales techniques de mesure, un état de la maturité des systèmes THz actuels avec leurs niveaux de performance et limites pour le contrôle de la qualité des assemblages collés ou soudés et aussi des matériaux composites. Elle s’appuiera sur des cas applicatifs automatisés en guise d’illustration dans le cadre de production ou d’exploitation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Administrateur- JAIM, MOUSSA ISSOUFOU Djibrillou, SEYDOU SADOU M. Hanatou, DAOU Mamane, SOLI Adamou Idrissa, MALAM ABARI Moustapha, ARZIKA Magagi, ISSA ADO Aichatou y ADA ALI. "Dépistage de l’ischémie myocardique silencieuse par la scintigraphie myocardique au Tc99m-Sestamibi chez les patients diabétiques asymptomatiques". Journal Africain d'Imagerie Médicale (J Afr Imag Méd). Journal Officiel de la Société de Radiologie d’Afrique Noire Francophone (SRANF). 14, n.º 1 (10 de julio de 2022). http://dx.doi.org/10.55715/jaim.v14i1.337.

Texto completo
Resumen
Introduction: The general objective of this study is to detect silent myocardial ischemia into asymptomatic diabetic patients by myocardial perfusion imaging. Method: 138 asymptomatic diabetic patients were collected over a 16 months period. All patients had a first post stress acquisition after injection of 10mCi 99m Tc-Sestamibi on an Anyscan® dual-head gamma camera equipped with a low-energy, high-resolution collimator (LEHR). The acquisition matrix was 128×128 associated with a zoom of 1,2. A second acquisition, at rest, was performed 3 hours later after injection of 30mCi of 99m Tc-Sestamibi. Synchronization to the electrocardiogram was done both during the stress and rest test. Image processing was done by the iterative MOSEM method. Image analysis was visual and quantitative using the software Emory Cardiac Toolbox. Informed consent was obtained from each patient. The study received approval from the national ethics committee. Results: The mean age of the patients was 52± 9 years with extremes ranging from 29 to 73 years, sex ratio 0.60, and mean duration of diabetes progression was 7 ± 4 years. The most common risk factors in our patients were hypertension, which was the main risk factor (45, 5%), followed by obesity in 31%, dyslipidemia in 13, 6%, physical inactivity and smoking in 6,1% and 3,8% respectively. The exercise stress test was positive in only 14 patients (10.1%) and negative in 124 patients (89,9%). The frequency of myocardial perfusion abnormalities was 60%. Perfusion abnormalities were ischemia in 57 patients (69%), necrosis in 17 (20%) and mixed (necrosis and ischemia) in 9 patients (11%). Left ventricular ejection fraction was abnormal (<50%) in 17.3%. Post-stress telesystolic volume was normal (˂70ml) in 94.2% of cases. Conclusion: myocardial perfusion imaging showed high sensitivity in detecting silent myocardial ischemia in asymptomatic diabetics. However, given its high cost, its place in the diagnostic strategy of diabetic coronary disease in our context remains to be defined. RESUME Objectif : dépister l’ischémie myocardique silencieuse par la tomoscintigraphie myocardique de perfusion chez les patients diabétiques asymptomatiques Patients et méthodes : 138 patients diabétiques asymptomatiques ont été colligés sur une période de 16 mois. Tous ont bénéficié d’une première acquisition d’image post effort après injection de 10mCi de Tc99m-Sestamibi sur une gamma caméra double tête Anyscan® munie d’un collimateur basse énergie et haute résolution (LEHR). La matrice d’acquisition était de 128×128 associée à un zoom de 1,2. Une deuxième acquisition, au repos était réalisée trois heures de temps après si l’examen scintigraphique post stress était anormal. La synchronisation à l’électrocardiogramme (ECG) a été faite à l’effort et au repos. Les images ont été reconstruites par la méthode itérative MOSEM. L’analyse des images a été qualitative visuelle et quantitative grâce au logiciel Emory Cardiac Toolbox. Le consentement éclairé de chaque patient était obtenu. L’étude a reçu l’autorisation du comité national d’éthique. Résultats : L’âge moyen des patients était de 52 ± 9 ans avec des extrêmes allant de 29 à 73 ans, le sex ratio de 0,60. la durée moyenne de l’évolution du diabète était de 7±4ans. Les facteurs de risque associés les plus retrouvés chez nos patients étaient l’HTA qui constituait le principal facteur de risque (45,5%), suivie de l’obésité dans 31% des cas, de la dyslipidémie dans 13,7% des cas, la sédentarité et le tabagisme dans respectivement 6,1% et 3,8% des cas. L’épreuve d’effort était positive chez seulement 14 patients (10,1%) et négative chez 124 patients (89,9%). La fréquence des anomalies de perfusion était de 60%. L’ischémie était majoritaire chez 57 patients (69%), suivie de la nécrose chez 17 patients (20%) et de type mixte (nécrose et ischémie) chez 9 patients (11%). La fraction d’éjection ventriculaire gauche était anormale (<50%) dans 17,3% des cas. Le volume télésystolique post-stress était normal (˂70ml) dans 94,2 % des cas. Conclusion : la tomoscintigraphie myocardique a montré une grande sensibilité dans la détection de l’ischémie myocardique silencieuse chez le diabétique asymptomatique. Cependant compte tenu de son cout élevé, sa place dans la stratégie diagnostique de la maladie coronaire du diabétique dans notre contexte reste à définir.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Tematio Nague, Lionel, Emmanuel Mpondo Mpondo, Emmanuel Nnanga Nga, J. S. N. Foumane Maniepi, V. Soppo Lobe, J. A. Metego Ntsama, A. Minyem et al. "Formulation et fabrication des suppositoires antipaludiques d’Artémisia annua d’Ouest Cameroun en utilisant le beurre de karité comme excipient". Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, n.º 3 (20 de diciembre de 2023). http://dx.doi.org/10.57220/jatpb.v2i3.156.

Texto completo
Resumen
Introduction : Le but de la présente étude est de formuler et fabriquer des suppositoires antipaludiques à base des matières premières locales (poudre de feuilles et de tiges de Artemisia annua comme principe actif et beurre de karité amélioré utilisé comme excipient) afin d’améliorer la prise en charge du paludisme chez les enfants de moins de 5 ans. Méthodologie : Les plantules d’Artemisia annua utilisées ont été identifiées à l’HNC (Herbier National du Cameroun) sous le numéro Voucher 67472/HNC. Après transformation du matériel végétal (feuilles et tiges) en poudre, une série de contrôles a été effectué et exploité dans la suite. L’essai organoleptique consiste en la détermination du caractère macroscopique de la poudre des feuilles et tiges d’Artemisia annua. La mesure du volume en fonction du tassement a été effectuée à l’aide d’un voluménomètre. La compressibilité de la poudre a été évaluée à partir de divers indices tels que l’indice de Carr (ICarr), l’indice de Hausner (IHausner) et la quantité V10-V500. Le dosage de l’artémisinine s’est fait par la chromatographie sur couche mince (CCM)-densitométrie. En vue de la formulation galénique, connaissant le facteur de déplacement et la quantité de poudre de feuilles et tiges d’Artemisia annua par suppositoire, la masse exacte d’excipient à utiliser a été déterminé. M(g) de beurre de karité +4% de silice colloïdale et S(g) de poudre de feuilles et tiges d’Artemisia annua, quantités majorées à 10% pour couvrir les pertes, ont été utilisé pour préparer 6 suppositoires pesant chacun 2g selon le mode opératoire décrit dans la pharmacopée. Un contrôle de la qualité des suppositoires obtenus a également été effectués selon les prescriptions de la pharmacopée. Résultats : La poudre des feuilles et tiges d’Artemisia annua utilisée est de couleur grisâtre, de saveur amère et très odorante. L’humidité résiduelle moyenne de la poudre d’Artemisia annua est 12,69 % par séchage à l’infrarouge. Le chromatogramme de l’extrait d’Artemisia annua correspondant à six dépôts de concentration croissante. Le calcul du Rf de l’Artémisinine a donné la valeur de 0,35. Afin d’apprécier les résultats obtenus et par conséquent de valider la technique de dosage, nous avons procédé tour à tour à la vérification de la linéarité, de la répétabilité et à la détermination de la limite de détection et de quantification selon qu’indiqué dans le mode opératoire. Compte tenu des caractéristiques de la substance active (artemisinine), le beurre de karité additionné de 4% de silice colloïdale anhydre a été utilisé comme excipient. La formule obtenue pour un suppositoire consiste à additionner X mg de poudre de feuilles et tiges d’Artemisia annua à Y mg de beurre de karité. Le contrôle de la qualité des suppositoires obtenus a montré des résultats (organoleptiques, masse, point de fusion, temps de désagrégation, dosage principe actif) satisfaisants en accord avec la pharmacopée Européenne 11 e Edition. Conclusion : L’analyse granulométrique a montré que la poudre de feuilles et tiges d’Artémisia annua a une granulométrie allant de très fine à fine et un taux d’artemisinine conforme. La formule retenue dans le cadre de cette étude a consisté à additionner X mg de poudre de feuilles et tiges d’Artemisia annua à Y mg de beurre de karité additionné de 4% de silice colloïdale anhydre pour un suppositoire de 2 g. La forme galénique issue de cette formule pourrait présenter d’énormes avantages pour la qualité de prise en charge des enfants atteints de paludisme. Toutefois, des essais cliniques sont nécessaires en vue de déterminer la toxicité liée à leur utilisation
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Tematio Nague, Lionel, Emmanuel Mpondo Mpondo, Emmanuel Nnanga Nga, J. S. N. Foumane Maniepi, V. Soppo Lobe, J. A. Metogo Ntsama, A. Minyem et al. "Formulation et fabrication des suppositoires antipaludiques d’Artémisia annua d’Ouest Cameroun en utilisant le beurre de karité comme excipient". Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, n.º 3 (20 de diciembre de 2023). http://dx.doi.org/10.57220/jatpb.v2i3.61.

Texto completo
Resumen
Introduction : Le but de la présente étude est de formuler et fabriquer des suppositoires antipaludiques à base des matières premières locales (poudre de feuilles et de tiges de Artemisia annua comme principe actif et beurre de karité amélioré utilisé comme excipient) afin d’améliorer la prise en charge du paludisme chez les enfants de moins de 5 ans. Méthodologie : Les plantules d’Artemisia annua utilisées ont été identifiées à l’HNC (Herbier National du Cameroun) sous le numéro Voucher 67472/HNC. Après transformation du matériel végétal (feuilles et tiges) en poudre, une série de contrôles a été effectué et exploité dans la suite. L’essai organoleptique consiste en la détermination du caractère macroscopique de la poudre des feuilles et tiges d’Artemisia annua. Il s’agit essentiellement d’apprécier la couleur, la texture, la saveur et l’odeur de la poudre obtenue après avoir séché et écrasé au moulin Pour ce qui est du taux d’humidité, nous avons utilisé la méthode indiquée dans la pharmacopée .La mesure du volume en fonction du tassement a été effectuée à l’aide d’un voluménomètre La compressibilité de la poudre a été évaluée à partir de divers indices tels que l’indice de Carr (ICarr) , l’indice de Hausner (IHausner) et la quantité V10-V500 .Le dosage de l’artémisinine s’est fait par la chromatographie sur couche mince (CCM)-densitométrie. En vue de la formulation galénique, connaissant le facteur de déplacement et la quantité de poudre de feuilles et tiges d’Artemisia annua par suppositoire, la masse exacte d’excipient à utiliser a été déterminé. M(g) de beurre de karité +4% de silice colloïdale et S(g) de poudre de feuilles et tiges d’Artemisia annua, quantités majorées à 10% pour couvrir les pertes, ont été utilisé pour préparer 6 suppositoires pesant chacun 2g selon le mode opératoire décrit dans la pharmacopée. Un contrôle de la qualité des suppositoires obtenus a également été effectués selon les prescription de la pharmacopée. Résultats : La poudre des feuilles et tiges d’Artemisia annua utilisée est de couleur grisâtre, de saveur amère et très odorante. L’humidité résiduelle moyenne de la poudre d’Artemisia annua est 12,69 % par séchage à l’infrarouge. Le chromatogramme de l’extrait d’Artemisia annua correspondant à six dépôts de concentration croissante. Le calcul du Rf de l’Artémisinine a donné la valeur de 0,35. Afin d’apprécier les résultats obtenus et par conséquent de valider la technique de dosage, nous avons procédé tour à tour à la vérification de la linéarité, de la répétabilité et à la détermination de la limite de détection et de quantification selon qu’indiqué dans le mode opératoire. Compte tenu des caractéristiques de la substance active (artemisinine), le beurre de karité additionné de 4% de silice colloïdale anhydre a été utilisé comme excipient. La formule obtenue pour un suppositoire consiste à additionner X mg de poudre de feuilles et tiges d’Artemisia annua à Y mg de beurre de karité. Le contrôle de la qualité des suppositoires obtenus a montré des résultats (organoleptiques, masse, point de fusion, temps de désagrégation, dosage principe actif) satisfaisants en accord avec la pharmacopée Européenne 11 e Edition. Conclusion : L’analyse granulométrique a montré que la poudre de feuilles et tiges d’Artémisia annua a une granulométrie allant de très fine à fine et un taux d’artemisinine conforme. La formule retenue dans le cadre de cette étude a consisté à additionner X mg de poudre de feuilles et tiges d’Artemisia annua à Y mg de beurre de karité additionné de 4% de silice colloïdale anhydre pour un suppositoire de 2 g. La forme galénique issue de cette formule pourrait présenter d’énormes avantages pour la qualité de prise en charge des enfants atteints de paludisme. Toutefois, des essais cliniques sont nécessaires en vue de déterminer la toxicité liée à leur utilisation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Mac Con Iomaire, Máirtín. "Towards a Structured Approach to Reading Historic Cookbooks". M/C Journal 16, n.º 3 (23 de junio de 2013). http://dx.doi.org/10.5204/mcj.649.

Texto completo
Resumen
Introduction Cookbooks are an exceptional written record of what is largely an oral tradition. They have been described as “magician’s hats” due to their ability to reveal much more than they seem to contain (Wheaton, “Finding”). The first book printed in Germany was the Guttenberg Bible in 1456 but, by 1490, printing was introduced into almost every European country (Tierney). The spread of literacy between 1500 and 1800, and the rise in silent reading, helped to create a new private sphere into which the individual could retreat, seeking refuge from the community (Chartier). This new technology had its effects in the world of cookery as in so many spheres of culture (Mennell, All Manners). Trubek notes that cookbooks are the texts most often used by culinary historians, since they usually contain all the requisite materials for analysing a cuisine: ingredients, method, technique, and presentation. Printed cookbooks, beginning in the early modern period, provide culinary historians with sources of evidence of the culinary past. Historians have argued that social differences can be expressed by the way and type of food we consume. Cookbooks are now widely accepted as valid socio-cultural and historic documents (Folch, Sherman), and indeed the link between literacy levels and the protestant tradition has been expressed through the study of Danish cookbooks (Gold). From Apicius, Taillevent, La Varenne, and Menon to Bradley, Smith, Raffald, Acton, and Beeton, how can both manuscript and printed cookbooks be analysed as historic documents? What is the difference between a manuscript and a printed cookbook? Barbara Ketchum Wheaton, who has been studying cookbooks for over half a century and is honorary curator of the culinary collection in Harvard’s Schlesinger Library, has developed a methodology to read historic cookbooks using a structured approach. For a number of years she has been giving seminars to scholars from multidisciplinary fields on how to read historic cookbooks. This paper draws on the author’s experiences attending Wheaton’s seminar in Harvard, and on supervising the use of this methodology at both Masters and Doctoral level (Cashman; Mac Con Iomaire, and Cashman). Manuscripts versus Printed Cookbooks A fundamental difference exists between manuscript and printed cookbooks in their relationship with the public and private domain. Manuscript cookbooks are by their very essence intimate, relatively unedited and written with an eye to private circulation. Culinary manuscripts follow the diurnal and annual tasks of the household. They contain recipes for cures and restoratives, recipes for cleansing products for the house and the body, as well as the expected recipes for cooking and preserving all manners of food. Whether manuscript or printed cookbook, the recipes contained within often act as a reminder of how laborious the production of food could be in the pre-industrialised world (White). Printed cookbooks draw oxygen from the very fact of being public. They assume a “literate population with sufficient discretionary income to invest in texts that commodify knowledge” (Folch). This process of commoditisation brings knowledge from the private to the public sphere. There exists a subset of cookbooks that straddle this divide, for example, Mrs. Rundell’s A New System of Domestic Cookery (1806), which brought to the public domain her distillation of a lifetime of domestic experience. Originally intended for her daughters alone, Rundell’s book was reprinted regularly during the nineteenth century with the last edition printed in 1893, when Mrs. Beeton had been enormously popular for over thirty years (Mac Con Iomaire, and Cashman). Barbara Ketchum Wheaton’s Structured Approach Cookbooks can be rewarding, surprising and illuminating when read carefully with due effort in understanding them as cultural artefacts. However, Wheaton notes that: “One may read a single old cookbook and find it immensely entertaining. One may read two and begin to find intriguing similarities and differences. When the third cookbook is read, one’s mind begins to blur, and one begins to sense the need for some sort of method in approaching these documents” (“Finding”). Following decades of studying cookbooks from both sides of the Atlantic and writing a seminal text on the French at table from 1300-1789 (Wheaton, Savouring the Past), this combined experience negotiating cookbooks as historical documents was codified, and a structured approach gradually articulated and shared within a week long seminar format. In studying any cookbook, regardless of era or country of origin, the text is broken down into five different groupings, to wit: ingredients; equipment or facilities; the meal; the book as a whole; and, finally, the worldview. A particular strength of Wheaton’s seminars is the multidisciplinary nature of the approaches of students who attend, which throws the study of cookbooks open to wide ranging techniques. Students with a purely scientific training unearth interesting patterns by developing databases of the frequency of ingredients or techniques, and cross referencing them with other books from similar or different timelines or geographical regions. Patterns are displayed in graphs or charts. Linguists offer their own unique lens to study cookbooks, whereas anthropologists and historians ask what these objects can tell us about how our ancestors lived and drew meaning from life. This process is continuously refined, and each grouping is discussed below. Ingredients The geographic origins of the ingredients are of interest, as is the seasonality and the cost of the foodstuffs within the scope of each cookbook, as well as the sensory quality both separately and combined within different recipes. In the medieval period, the use of spices and large joints of butchers meat and game were symbols of wealth and status. However, when the discovery of sea routes to the New World and to the Far East made spices more available and affordable to the middle classes, the upper classes spurned them. Evidence from culinary manuscripts in Georgian Ireland, for example, suggests that galangal was more easily available in Dublin during the eighteenth century than in the mid-twentieth century. A new aesthetic, articulated by La Varenne in his Le Cuisinier Francois (1651), heralded that food should taste of itself, and so exotic ingredients such as cinnamon, nutmeg, and ginger were replaced by the local bouquet garni, and stocks and sauces became the foundations of French haute cuisine (Mac Con Iomaire). Some combinations of flavours and ingredients were based on humoral physiology, a long held belief system based on the writings of Hippocrates and Galen, now discredited by modern scientific understanding. The four humors are blood, yellow bile, black bile, and phlegm. It was believed that each of these humors would wax and wane in the body, depending on diet and activity. Galen (131-201 AD) believed that warm food produced yellow bile and that cold food produced phlegm. It is difficult to fathom some combinations of ingredients or the manner of service without comprehending the contemporary context within they were consumeSome ingredients found in Roman cookbooks, such as “garum” or “silphium” are no longer available. It is suggested that the nearest substitute for garum also known as “liquamen”—a fermented fish sauce—would be Naam Plaa, or Thai fish sauce (Grainger). Ingredients such as tea and white bread, moved from the prerogative of the wealthy over time to become the staple of the urban poor. These ingredients, therefore, symbolise radically differing contexts during the seventeenth century than in the early twentieth century. Indeed, there are other ingredients such as hominy (dried maize kernel treated with alkali) or grahams (crackers made from graham flour) found in American cookbooks that require translation to the unacquainted non-American reader. There has been a growing number of food encyclopaedias published in recent years that assist scholars in identifying such commodities (Smith, Katz, Davidson). The Cook’s Workplace, Techniques, and Equipment It is important to be aware of the type of kitchen equipment used, the management of heat and cold within the kitchen, and also the gradual spread of the industrial revolution into the domestic sphere. Visits to historic castles such as Hampton Court Palace where nowadays archaeologists re-enact life below stairs in Tudor times give a glimpse as to how difficult and labour intensive food production was. Meat was spit-roasted in front of huge fires by spit boys. Forcemeats and purees were manually pulped using mortar and pestles. Various technological developments including spit-dogs, and mechanised pulleys, replaced the spit boys, the most up to date being the mechanised rotisserie. The technological advancements of two hundred years can be seen in the Royal Pavilion in Brighton where Marie-Antoinin Carême worked for the Prince Regent in 1816 (Brighton Pavilion), but despite the gleaming copper pans and high ceilings for ventilation, the work was still back breaking. Carême died aged forty-nine, “burnt out by the flame of his genius and the fumes of his ovens” (Ackerman 90). Mennell points out that his fame outlived him, resting on his books: Le Pâtissier Royal Parisien (1815); Le Pâtissier Pittoresque (1815); Le Maître d’Hôtel Français (1822); Le Cuisinier Parisien (1828); and, finally, L’Art de la Cuisine Française au Dix-Neuvième Siècle (1833–5), which was finished posthumously by his student Pluméry (All Manners). Mennell suggests that these books embody the first paradigm of professional French cuisine (in Kuhn’s terminology), pointing out that “no previous work had so comprehensively codified the field nor established its dominance as a point of reference for the whole profession in the way that Carême did” (All Manners 149). The most dramatic technological changes came after the industrial revolution. Although there were built up ovens available in bakeries and in large Norman households, the period of general acceptance of new cooking equipment that enclosed fire (such as the Aga stove) is from c.1860 to 1910, with gas ovens following in c.1910 to the 1920s) and Electricity from c.1930. New food processing techniques dates are as follows: canning (1860s), cooling and freezing (1880s), freeze drying (1950s), and motorised delivery vans with cooking (1920s–1950s) (den Hartog). It must also be noted that the supply of fresh food, and fish particularly, radically improved following the birth, and expansion of, the railways. To understand the context of the cookbook, one needs to be aware of the limits of the technology available to the users of those cookbooks. For many lower to middle class families during the twentieth century, the first cookbook they would possess came with their gas or electrical oven. Meals One can follow cooked dishes from the kitchen to the eating place, observing food presentation, carving, sequencing, and serving of the meal and table etiquette. Meal times and structure changed over time. During the Middle Ages, people usually ate two meals a day: a substantial dinner around noon and a light supper in the evening (Adamson). Some of the most important factors to consider are the manner in which meals were served: either à la française or à la russe. One of the main changes that occurred during the nineteenth century was the slow but gradual transfer from service à la française to service à la russe. From medieval times to the middle of the nineteenth century the structure of a formal meal was not by “courses”—as the term is now understood—but by “services”. Each service could comprise of a choice of dishes—both sweet and savoury—from which each guest could select what appealed to him or her most (Davidson). The philosophy behind this form of service was the forementioned humoral physiology— where each diner chose food based on the four humours of blood, yellow bile, black bile, or phlegm. Also known as le grand couvert, the à la française method made it impossible for the diners to eat anything that was beyond arm’s length (Blake, and Crewe). Smooth service, however, was the key to an effective à la russe dinner since servants controlled the flow of food (Eatwell). The taste and temperature of food took centre stage with the à la russe dinner as each course came in sequence. Many historic cookbooks offer table plans illustrating the suggested arrangement of dishes on a table for the à la française style of service. Many of these dishes might be re-used in later meals, and some dishes such as hashes and rissoles often utilised left over components of previous meals. There is a whole genre of cookbooks informing the middle class cooks how to be frugal and also how to emulate haute cuisine using cheaper or ersatz ingredients. The number dining and the manner in which they dined also changed dramatically over time. From medieval to Tudor times, there might be hundreds dining in large banqueting halls. By the Elizabethan age, a small intimate room where master and family dined alone replaced the old dining hall where master, servants, guests, and travellers had previously dined together (Spencer). Dining tables remained portable until the 1780s when tables with removable leaves were devised. By this time, the bread trencher had been replaced by one made of wood, or plate of pewter or precious metal in wealthier houses. Hosts began providing knives and spoons for their guests by the seventeenth century, with forks also appearing but not fully accepted until the eighteenth century (Mason). These silver utensils were usually marked with the owner’s initials to prevent their theft (Flandrin). Cookbooks as Objects and the World of Publishing A thorough examination of the manuscript or printed cookbook can reveal their physical qualities, including indications of post-publication history, the recipes and other matter in them, as well as the language, organization, and other individual qualities. What can the quality of the paper tell us about the book? Is there a frontispiece? Is the book dedicated to an employer or a patron? Does the author note previous employment history in the introduction? In his Court Cookery, Robert Smith, for example, not only mentions a number of his previous employers, but also outlines that he was eight years working with Patrick Lamb in the Court of King William, before revealing that several dishes published in Lamb’s Royal Cookery (1710) “were never made or practis’d (sic) by him and others are extreme defective and imperfect and made up of dishes unknown to him; and several of them more calculated at the purses than the Gôut of the guests”. Both Lamb and Smith worked for the English monarchy, nobility, and gentry, but produced French cuisine. Not all Britons were enamoured with France, however, with, for example Hannah Glasse asserting “if gentlemen will have French cooks, they must pay for French tricks” (4), and “So much is the blind folly of this age, that they would rather be imposed on by a French Booby, than give encouragement to an good English cook” (ctd. in Trubek 60). Spencer contextualises Glasse’s culinary Francophobia, explaining that whilst she was writing the book, the Jacobite army were only a few days march from London, threatening to cut short the Hanoverian lineage. However, Lehmann points out that whilst Glasse was overtly hostile to French cuisine, she simultaneously plagiarised its receipts. Based on this trickling down of French influences, Mennell argues that “there is really no such thing as a pure-bred English cookery book” (All Manners 98), but that within the assimilation and simplification, a recognisable English style was discernable. Mennell also asserts that Glasse and her fellow women writers had an enormous role in the social history of cooking despite their lack of technical originality (“Plagiarism”). It is also important to consider the place of cookbooks within the history of publishing. Albala provides an overview of the immense outpouring of dietary literature from the printing presses from the 1470s. He divides the Renaissance into three periods: Period I Courtly Dietaries (1470–1530)—targeted at the courtiers with advice to those attending banquets with many courses and lots of wine; Period II The Galenic Revival (1530–1570)—with a deeper appreciation, and sometimes adulation, of Galen, and when scholarship took centre stage over practical use. Finally Period III The Breakdown of Orthodoxy (1570–1650)—when, due to the ambiguities and disagreements within and between authoritative texts, authors were freer to pick the ideas that best suited their own. Nutrition guides were consistent bestsellers, and ranged from small handbooks written in the vernacular for lay audiences, to massive Latin tomes intended for practicing physicians. Albala adds that “anyone with an interest in food appears to have felt qualified to pen his own nutritional guide” (1). Would we have heard about Mrs. Beeton if her husband had not been a publisher? How could a twenty-five year old amass such a wealth of experience in household management? What role has plagiarism played in the history of cookbooks? It is interesting to note that a well worn copy of her book (Beeton) was found in the studio of Francis Bacon and it is suggested that he drew inspiration for a number of his paintings from the colour plates of animal carcasses and butcher’s meat (Dawson). Analysing the post-publication usage of cookbooks is valuable to see the most popular recipes, the annotations left by the owner(s) or user(s), and also if any letters, handwritten recipes, or newspaper clippings are stored within the leaves of the cookbook. The Reader, the Cook, the Eater The physical and inner lives and needs and skills of the individuals who used cookbooks and who ate their meals merit consideration. Books by their nature imply literacy. Who is the book’s audience? Is it the cook or is it the lady of the house who will dictate instructions to the cook? Numeracy and measurement is also important. Where clocks or pocket watches were not widely available, authors such as seventeenth century recipe writer Sir Kenelm Digby would time his cooking by the recitation of the Lord’s Prayer. Literacy amongst protestant women to enable them to read the Bible, also enabled them to read cookbooks (Gold). How did the reader or eater’s religion affect the food practices? Were there fast days? Were there substitute foods for fast days? What about special occasions? Do historic cookbooks only tell us about the food of the middle and upper classes? It is widely accepted today that certain cookbook authors appeal to confident cooks, while others appeal to competent cooks, and others still to more cautious cooks (Bilton). This has always been the case, as has the differentiation between the cookbook aimed at the professional cook rather than the amateur. Historically, male cookbook authors such as Patrick Lamb (1650–1709) and Robert Smith targeted the professional cook market and the nobility and gentry, whereas female authors such as Eliza Acton (1799–1859) and Isabella Beeton (1836–1865) often targeted the middle class market that aspired to emulate their superiors’ fashions in food and dining. How about Tavern or Restaurant cooks? When did they start to put pen to paper, and did what they wrote reflect the food they produced in public eateries? Conclusions This paper has offered an overview of Barbara Ketchum Wheaton’s methodology for reading historic cookbooks using a structured approach. It has highlighted some of the questions scholars and researchers might ask when faced with an old cookbook, regardless of era or geographical location. By systematically examining the book under the headings of ingredients; the cook’s workplace, techniques and equipment; the meals; cookbooks as objects and the world of publishing; and reader, cook and eater, the scholar can perform magic and extract much more from the cookbook than seems to be there on first appearance. References Ackerman, Roy. The Chef's Apprentice. London: Headline, 1988. Adamson, Melitta Weiss. Food in Medieval Times. Westport, Connecticut: Greenwood P, 2004. Albala, Ken. Eating Right in the Renaissance. Ed. Darra Goldstein. Berkeley: U of California P, 2002. Beeton, Isabella. Beeton's Book of Household Management. London: S. Beeton, 1861. Bilton, Samantha. “The Influence of Cookbooks on Domestic Cooks, 1900-2010.” Petit Propos Culinaires 94 (2011): 30–7. Blake, Anthony, and Quentin Crewe. Great Chefs of France. London: Mitchell Beazley/ Artists House, 1978. Brighton Pavilion. 12 Jun. 2013 ‹http://www.guardian.co.uk/artanddesign/interactive/2011/sep/09/brighton-pavilion-360-interactive-panoramic›. Cashman, Dorothy. “An Exploratory Study of Irish Cookbooks.” Unpublished Master's Thesis. M.Sc. Dublin: Dublin Institute of Technology, 2009. Chartier, Roger. “The Practical Impact of Writing.” Trans. Arthur Goldhammer. A History of Private Lives: Volume III: Passions of the Renaissance. Ed. Roger Chartier. Cambridge, Massachusetts: Belknap P of Harvard U, 1989. 111-59. Davidson, Alan. The Oxford Companion to Food. New York: Oxford U P, 1999. Dawson, Barbara. “Francis Bacon and the Art of Food.” The Irish Times 6 April 2013. den Hartog, Adel P. “Technological Innovations and Eating out as a Mass Phenomenon in Europe: A Preamble.” Eating out in Europe: Picnics, Gourmet Dining and Snacks since the Late Eighteenth Century. Eds. Mark Jacobs and Peter Scholliers. Oxford: Berg, 2003. 263–80. Eatwell, Ann. “Á La Française to À La Russe, 1680-1930.” Elegant Eating: Four Hundred Years of Dining in Style. Eds. Philippa Glanville and Hilary Young. London: V&A, 2002. 48–52. Flandrin, Jean-Louis. “Distinction through Taste.” Trans. Arthur Goldhammer. A History of Private Lives: Volume III : Passions of the Renaissance. Ed. Roger Chartier. Cambridge, Massachusetts: Belknap P of Harvard U, 1989. 265–307. Folch, Christine. “Fine Dining: Race in Pre-revolution Cuban Cookbooks.” Latin American Research Review 43.2 (2008): 205–23. Glasse, Hannah. The Art of Cookery Made Plain and Easy; Which Far Exceeds Anything of the Kind Ever Published. 4th Ed. London: The Author, 1745. Gold, Carol. Danish Cookbooks: Domesticity and National Identity, 1616-1901. Seattle: U of Washington P, 2007. Grainger, Sally. Cooking Apicius: Roman Recipes for Today. Totnes, Devon: Prospect, 2006. Hampton Court Palace. “The Tudor Kitchens.” 12 Jun 2013 ‹http://www.hrp.org.uk/HamptonCourtPalace/stories/thetudorkitchens› Katz, Solomon H. Ed. Encyclopedia of Food and Culture (3 Vols). New York: Charles Scribner’s Sons, 2003. Kuhn, T. S. The Structure of Scientific Revolutions. Chicago: U of Chicago P, 1962. Lamb, Patrick. Royal Cookery:Or. The Complete Court-Cook. London: Abel Roper, 1710. Lehmann, Gilly. “English Cookery Books in the 18th Century.” The Oxford Companion to Food. Ed. Alan Davidson. Oxford: Oxford U P, 1999. 277–9. Mac Con Iomaire, Máirtín. “The Changing Geography and Fortunes of Dublin’s Haute Cuisine Restaurants 1958–2008.” Food, Culture & Society 14.4 (2011): 525–45. Mac Con Iomaire, Máirtín, and Dorothy Cashman. “Irish Culinary Manuscripts and Printed Cookbooks: A Discussion.” Petit Propos Culinaires 94 (2011): 81–101. Mason, Laura. Food Culture in Great Britain. Ed. Ken Albala. Westport CT.: Greenwood P, 2004. Mennell, Stephen. All Manners of Food. 2nd ed. Chicago: U of Illinois P, 1996. ---. “Plagiarism and Originality: Diffusionism in the Study of the History of Cookery.” Petits Propos Culinaires 68 (2001): 29–38. Sherman, Sandra. “‘The Whole Art and Mystery of Cooking’: What Cookbooks Taught Readers in the Eighteenth Century.” Eighteenth Century Life 28.1 (2004): 115–35. Smith, Andrew F. Ed. The Oxford Companion to American Food and Drink. New York: Oxford U P, 2007. Spencer, Colin. British Food: An Extraordinary Thousand Years of History. London: Grub Street, 2004. Tierney, Mark. Europe and the World 1300-1763. Dublin: Gill and Macmillan, 1970. Trubek, Amy B. Haute Cuisine: How the French Invented the Culinary Profession. Philadelphia: U of Pennsylvania P, 2000. Wheaton, Barbara. “Finding Real Life in Cookbooks: The Adventures of a Culinary Historian”. 2006. Humanities Research Group Working Paper. 9 Sep. 2009 ‹http://www.phaenex.uwindsor.ca/ojs/leddy/index.php/HRG/article/view/22/27›. Wheaton, Barbara Ketcham. Savouring the Past: The French Kitchen and Table from 1300-1789. London: Chatto & Windus, 1983. White, Eileen, ed. The English Cookery Book: Historical Essays. Proceedings of the 16th Leeds Symposium on Food History 2001. Devon: Prospect, 2001.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía