Articles de revues sur le sujet « Précision de calcul »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Précision de calcul.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Précision de calcul ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.

1

Van-Wierts, Stéfanie, Pascal Bernatchez et Christian Larouche. « Suivi topographique côtier au moyen d’un système LiDAR mobile terrestre : exemple d’une recharge sédimentaire de plage ». GEOMATICA 71, no 4 (décembre 2017) : 194–212. http://dx.doi.org/10.5623/cig2017-402.

Texte intégral
Résumé :
L’évolution côtière est complexe, notamment par la migration de la ligne de rivage et l’apparition successive de zones d’érosion ou d’accumulation. Les suivis quantitatifs des systèmes côtiers sont largement utilisés afin de comprendre leurs évolutions temporelle et spatiale. Plusieurs méthodes d’acquisition topographiques ont été utilisées (GNSS RTK, LiDAR aéroporté et LiDAR terrestre statique ou mobile) où chaque méthode présente des avantages et des inconvénients lors de suivis d’environnements côtiers. L’objectif de cet article est de quantifier la précision d’un système LiDAR mobile (SLM) terrestre et d’évaluer s’il peut répondre aux principaux défis des levés topographiques en milieu côtier qui consistent à réaliser des levés à une haute résolution temporelle, à moindre coût, tout en assurant une bonne précision altimétrique et une bonne résolution spatiale. Les résultats montrent que la résolution spatiale est centimétrique et que la précision altimétrique est de 0,039 m (RMS calculé sur 124 points de contrôle). La haute précision altimétrique et la haute résolution spatiale permettent de maximiser la précision des calculs de volume sédimentaire et ainsi diminuer les coûts associés à l’erreur de calcul, notamment lors de projets de recharge sédimentaire de plage. Cela permet aussi d’assurer le positionnement exact de limites marégraphiques et géomorphologiques. En comparaison à des profils topographiques obtenus par méthodes clas siques, la forte densité des nuages de points observés avec un SLM permet de cartographier des formes morphologiques de faible amplitude diminuant ainsi l’erreur due à l’interpolation.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Hassnaoui, Yonas. « Les codes de calcul de haute précision : quand le nucléaire met au pot commun ». Revue Générale Nucléaire, no 6 (novembre 2020) : 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Texte intégral
Résumé :
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Duget, Anne, Thierry Roux, Pierre Noire et Olivier Lapierre. « Hexapodes de positionnement de précision ». Photoniques, no 115 (8 août 2022) : 51–56. http://dx.doi.org/10.1051/photon/202211257.

Texte intégral
Résumé :
L’hexapode est un robot parallèle permettant la mise en position d’objets suivant les six degrés de liberté (trois translations Tx, Ty, Tz et trois rotations Rx, Ry, Rz). Au milieu du xxe siècle, les premiers hexapodes ont servi à tester des pneus ou comme simulateurs de vol. Dans les années 1990, grâce à l’évolution des composants électroniques et à l’augmentation des capacités de calcul, l’arrivée de contrôleurs abordables et performants a permis leur essor. Nous verrons dans cet article comment un hexapode est constitué et étudierons les critères de sélection les plus pertinents avant de décrire quelques exemples d’applications.
Styles APA, Harvard, Vancouver, ISO, etc.
4

POMAR, C., F. DUBEAU et J. VAN MILGEN. « La détermination des besoins nutritionnels, la formulation multicritère et l’ajustement progressif des apports de nutriments aux besoins des porcs ». INRAE Productions Animales 22, no 1 (14 février 2009) : 49–54. http://dx.doi.org/10.20870/productions-animales.2009.22.1.3333.

Texte intégral
Résumé :
Dans un contexte dans lequel le coût élevé des matières premières et l’utilisation de sources non renouvelables de phosphates sont des enjeux majeurs pour les productions animales, l’alimentation de précision est proposée comme une démarche essentielle à l’accroissement de l’efficacité d’utilisation de l’azote et du phosphore alimentaire, et par conséquent, une réduction de leur excrétion. Une alimentation de précision requiert de bien caractériser le potentiel nutritif des aliments, de déterminer avec précision les besoins nutritionnels des animaux, de prédire la réponse animale aux apports nutritionnels, de formuler d’aliments avec des contraintes environnementales, et d’ajuster progressivement les apports aux besoins décroissants des animaux. La mise en place d’une telle stratégie d’alimentation demande cependant d’accroître nos connaissances et d’améliorer nos méthodes de calcul afin de s’assurer que les formules alimentaires proposées soient celles qui optimiseront nos systèmes de production tant d’un point de vue animal, économique qu’environnemental.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Hireche, Omar, Miloud Abidat, Leila Merahi et Abbes Azzi. « Etude de l’Ecoulement Tridimensionnel dans un Rotor d’une Turbine Semi-axiale ». Journal of Renewable Energies 2, no 1 (30 juin 1999) : 51–60. http://dx.doi.org/10.54966/jreen.v2i1.929.

Texte intégral
Résumé :
Cet article fait le point d’une étude pour la simulation numérique d’un écoulement tridimensionnel dans le rotor d’une turbine semi-axiale par la résolution numérique des équations d’Euler (en fluide parfait) exprimées en coordonnées cylindriques. La méthode de calcul qui se caractérise par l’utilisation d’une technique de résolution par stationnarisation associée à un schéma explicite à viscosité corrigée et une approche par volumes finis, présente de bonnes propriétés de convergence et de précision.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Guiñon, J. L., et M. Belanche. « Application de la résonance magnétique nucléaire du proton au dosage de l'éthanol dans les boissons alcoolisées ». OENO One 23, no 4 (31 décembre 1989) : 215. http://dx.doi.org/10.20870/oeno-one.1989.23.4.1245.

Texte intégral
Résumé :
<p style="text-align: justify;">Une équation pour le calcul de la teneur en éthanol basée sur les surfaces d'un spectre (H1-RMN) (Résonance magnétique du proton) est décrite. Les résultats obtenus par application de cette équation dans le vin et dans les boissons alcoolisées sont discutés. La méthode peut être retenue comme un dosage rapide de l'éthanol avec une précision de ± 6 p. 100 dans la gamme de 0 - 50 p. 100 vol. d'éthanol.</p>
Styles APA, Harvard, Vancouver, ISO, etc.
7

Knönagel et Müntener. « Urolithiasis und Ultraschalldiagnostik ». Praxis 91, no 14 (1 avril 2002) : 603–9. http://dx.doi.org/10.1024/0369-8394.91.14.603.

Texte intégral
Résumé :
L'urolithiase est une maladie très répandue en Europe et aux Etats-Unis. Grâce à sa grande précision, son application non invasive et sa disponibilité rapide et peu coûteuse, elle joue un rôle primordial pour le diagnostic et le suivi de l'urolithiase. La sonographie en Color-Mode est populaire, mais de moindre importance pour le patient atteint d'un calcul de l'uretère. En plus de la thérapie conservatrice, la lithotripsie extracorporelle (LEOC) est la méthode la plus adéquate. Après le traitement conservateur et interventionnel, il faut faire des contrôles sonographiques.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Bellel, Nadir, et Abla Chaker. « Etude et Optimisation du Réseau de Circulation du Fluide Caloporteur d’un Convertisseur Thermique ». Journal of Renewable Energies 7, no 2 (31 décembre 2004) : 85–94. http://dx.doi.org/10.54966/jreen.v7i2.869.

Texte intégral
Résumé :
La comparaison de deux géométries du réseau du caloporteur d'un capteur plan classique, nous oblige à mettre en évidence l'influence des pertes par convection sur le bilan optothermique de ce capteur. Partant des caractéristiques optiques et géométriques du capteur, des caractéristiques hydrauliques du fluide caloporteur, nous évaluons avec le maximum de précision les différentes composantes du bilan thermique en tenant compte notamment des gradients de température dans l'absorbeur. Ce travail a été mené avec de l'eau pressurisée comme fluide caloporteur. Notre étude théorique a été menée en utilisant un programme de calcul développé au laboratoire se basant sur la méthode des différences finies. Ce programme a été validé par les résultats expérimentaux dans les mêmes conditions météorologiques. Le convertisseur type serpentin a été choisi.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ben Hamouda, M., et M. Rekik. « contrôle de croissance des ovins allaitants en Tunisie. ii. Perte de précision sur le calcul des performances à âge type selon un protocole simplifié alternatif au protocole officiel ». Revue d’élevage et de médecine vétérinaire des pays tropicaux 65, no 1-2 (1 janvier 2012) : 41. http://dx.doi.org/10.19182/remvt.10131.

Texte intégral
Résumé :
Les performances à âge type P10 (poids à 10 jours), P30, P70, GMQ10/30 (gains moyens quotidiens entre 10 et 30 jours) et GMQ30/70 de 9 642 agneaux de race Barbarine ont été calculées selon le protocole conventionnel « F2 », ou un protocole simplifié, basé sur l’ajustement de la fonction von Bertalanffy à deux pesées à 42 jours d’intervalle, la première ayant lieu entre 2 et 60 jours après la naissance de l’agneau, et un poids à la naissance réel (PNR : contrôlé à la naissance), fixé, le même pour tous les agneaux (PNF = 3,4 kg) ou estimé en fonction de la première pesée (P) et l’intervalle entre la naissance et la première pesée (D) [PNE = 2,71009 + 0,208313 P – 0,00578 P (60 – D) + 0,00016 P (60 – D)2]. La perte de précision moyenne associée au calcul des poids à âge type a été élevée pour P10 (40 à 45 p. 100), modérée pour P30 (6 à 7 p. 100) et faible pour P70 (2 à 3 p. 100). La perte de précision associée au GMQ10/30 a été inférieure à celle déjà admise par le protocole conventionnel pour un intervalle entre la naissance et le premier contrôle compris entre 15 et 45 jours (15 p. 100 au maximum), et du même ordre entre 7 et 15 jours d’intervalle (20 p. 100 au maximum). Ces résultats ont permis de proposer la simplification du protocole F2 à deux ou trois pesées et un poids à la naissance. La première pesée devrait être retardée jusqu’à 46 jours après la naissance alors que l’intervalle entre contrôles successifs peut varier entre 30 et 40 jours, en fonction de la perte de précision pouvant être tolérée sur l’estimation des performances à âge type.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Nameche, T., et J. L. Vassel. « Bilan thermique sous climat tempéré des lagunes aérées et naturelles ». Revue des sciences de l'eau 12, no 1 (12 avril 2005) : 65–91. http://dx.doi.org/10.7202/705344ar.

Texte intégral
Résumé :
Un modèle décrivant la température d'équilibre des lagunes a été développé, tenant compte des différents flux de chaleur que celles-ci échangent avec l'air et le sol environnant. Six composantes différentes ont été inclues dans le calcul de ce bilan thermique: radiation solaire, évaporation, convection, rayonnement atmosphérique, rayonnement de la surface du plan d'eau, échange via les parois en contact avec le sol. Le modèle ainsi obtenu a été testé avec efficacité sur deux lagunes aérées et une lagune naturelle situées sous climat tempéré ; sa précision sur l'estimation des températures d'équilibre étant de l'ordre de 0.7 °C. Des simulations en continu ont également pu être effectuées au moyen d'une variante dynamique, tenant compte de l'inertie thermique qu'entraîne le volume des bassins. Quelle que soit la saison envisagée, la principale forme d'apport de chaleur est représentée par la radiation solaire tandis que la dissipation d'énergie se partage entre les flux d'évaporation et la balance des deux flux de rayonnement. Les bassins échangeraient en moyenne plus de 250 W/m2 ; le maximum de transfert de chaleur correspondant au printemps et à la période estivale. Enfin, l'analyse de sensibilité du modèle nous a permis de mettre en évidence la contribution de chacun des termes intervenant dans le calcul de ce bilan thermique et de révéler sa dépendance vis-à-vis principalement de la température d'entrée, du rayonnement solaire et de la température de l'air.
Styles APA, Harvard, Vancouver, ISO, etc.
11

EL GAROUANI, Abdelkader, et Kamal AHARIK. « Apport des images LANDSAT à l’étude de l’évolution de l’occupation du sol dans la plaine de SAÏSS au MAROC, pour la période 1987-2018 ». Revue Française de Photogrammétrie et de Télédétection 223 (13 décembre 2021) : 173–88. http://dx.doi.org/10.52638/rfpt.2021.490.

Texte intégral
Résumé :
Cet article concerne la plaine de Saïss au Maroc et porte sur l’évolution de l’occupation et de l'utilisation des sols pour la période allant de 1987 à 2018. Cette plaine s’avère très importante au niveau économique pour le pays. La méthodologie adoptée comporte successivement le calcul d’indices spectraux à partir d’images Landsat (NDVI : Normalized Difference Vegetation Index, NDWI : Normalized Difference Water Index et NDBI : Normalized Difference Built-up Index), puis l’utilisation de l’algorithme de vraisemblance afin de réaliser quatre classifications thématiques pour les années 1987, 2003, 2014 et 2018. La précision globale de ces classifications est déterminée à partir de la matrice de confusion, et varie entre 83 et 87% ; le coefficient kappa est, pour les quatre années, supérieur à 0,80. Entre 1987 et 2018, les surfaces correspondant aux terres irriguées, aux oliviers et au milieu urbain, ont progressé respectivement de 123%, 136% et 115%. À l’inverse, les forêts, les parcours et les terres arables ont vu leur surface diminuer respectivement de 10%, 6% et 29%.
Styles APA, Harvard, Vancouver, ISO, etc.
12

TOUDERT, OUIZA, FRANÇIS AUGER, AZEDDINE HOUARI et MOURAD LAGHROUCHE. « NOUVELLE EXTRACTION DE POSITION DU ROTOR BASÉE SUR L'INJECTION DE TENSION À HAUTE FRÉQUENCE TOURNANTE POUR LES ENTRAÎNEMENTS DE MACHINES SYNCHRONES À AIMANTS PERMANENTS À VITESSE BASSE OU NULLE ». REVUE ROUMAINE DES SCIENCES TECHNIQUES — SÉRIE ÉLECTROTECHNIQUE ET ÉNERGÉTIQUE 68, no 2 (3 juillet 2023) : 188–93. http://dx.doi.org/10.59277/rrst-ee.2023.68.2.12.

Texte intégral
Résumé :
Une nouvelle procédure pour l'extraction de la position du rotor des moteurs synchrones à aimants permanents à pôles saillants (PMSM) est présentée dans cet article. Un signal de rotation de porteur est injecté dans la machine pour mesurer son déplacement à l'aide d'un courant haute fréquence. Cette méthode réduit le temps de calcul, simplifie le modèle d'extraction et améliore l'erreur d'évaluation du déplacement. Cette méthode est efficace pour les moteurs synchrones à aimants permanents montés en surface (SPMSM) présentant de petites saillances magnétiques avec un enroulement de stator distribué de manière sinusoïdale alimenté par un onduleur de source de tension à modulation d'impulsions vectorielles spatiales (SVPWM). Les résultats expérimentaux ont prouvé que la méthode de compensation de déphasage en ligne pouvait évaluer le déplacement du rotor, la vitesse et le fonctionnement du contrôle vectoriel PMSM sans capteur avec une grande précision. Cette méthode a montré son efficacité pour les performances statiques et dynamiques dans diverses conditions de charge de fonctionnement.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Lebègue, Laurent, Daniel Greslou, Gwendoline Blanchet, Françoise De Lussy, Sébastien Fourest, Vincent Martin, Christophe Latry et al. « Pléiades-HR satellites image quality commissioning ». Revue Française de Photogrammétrie et de Télédétection, no 209 (11 janvier 2015) : 5–10. http://dx.doi.org/10.52638/rfpt.2015.137.

Texte intégral
Résumé :
Pleiades est le système d'observation de la Terre civil le mieux résolu développé en Europe. Ce programme d'imagerie est conduit par le Centre National d'Etude Spatial français (CNES). Le premier satellite a été lancé le 17/12/2011 et le second le 02/12/2012. Chaque satellite est conçu pour fournir des images optiques aux utilisateurs civils et défense. Les images sont acquises simultanément en Panchromatique (PA) et multi-spectral (XS), ce qui permet en condition d'acquisition nadir d'obtenir des scènes de 20 km de large, en couleurs naturelles ou fausses couleurs, avec une résolution de 70 cm sur les produits PA+XS fusionnés. La couverture est quasi-mondiale avec une période de revisite de 24h avec les 2 satellites.L'évaluation de la Qualité Image et les opérations d'étalonnage ont été réalisées par l'équipe Qualité Image du CNES pendant les recettes en vol de 6 mois qui ont suivi le lancement de chacun des satellites. Ces activités couvrent plusieurs thèmes comme l'étalonnage absolu, le calcul des coefficients d'égalisation, les opérations de refocalisation, l'estimation de la FTM, l'étalonnage du modèle géométrique, l'estimation de la précision de localisation, la registration multi-spectrale, les stabilités statiques et dynamiques, les précisions planimétriques et altimétriques. Ces opérations nécessitent des réglages spécifiques de la charge utile ainsi que des guidages particuliers de la plateforme du satellite. Les nouvelles capacités offertes par l'agilité des satellites Pleiades nous ont autorisées à imaginer de nouvelles méthodes d'étalonnage et de mesures des performances.Après quelques rappels sur les caractéristiques principales des satellites, la présentation décrit les opérations d'étalonnage qui ont été menées pendant les recettes en vol et fournit les principaux résultats de Qualité Image.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Ben Hamouda, M. « contrôle de croissance des ovins allaitants en Tunisie. i. ajustement d’une courbe globale et analyse critique du protocole officiel ». Revue d’élevage et de médecine vétérinaire des pays tropicaux 65, no 1-2 (1 janvier 2012) : 31. http://dx.doi.org/10.19182/remvt.10130.

Texte intégral
Résumé :
Les données de contrôle de croissance de deux troupeaux expérimentaux de race ovine Barbarine, collectées durant 31 années, concernant 9 642 agneaux contrôlés à la naissance et pesés ensuite à six reprises à 21 jours d’intervalle, ont été analysées. Les estimations obtenues grâce à l’ajustement d’une courbe de croissance globale ont été comparées aux évaluations faites dans le cadre du protocole conventionnel de contrôle de croissance « F2 ». Les fonctions de Brody, logistique, de Gompertz et de von Bertalanffy se sont convenablement ajustées à la série des sept contrôles. Les critères d’ajustement, coefficients de détermination (R²) et sommes des carrés des écarts résiduels ont été estimés à 0,997 et 2,9, 0,997 et 3,0, 0,996 et 3,8, et 0,996 et 3,8 respectivement pour les fonctions de von Bertalanffy, Gompertz, Logistique et Brody. Les poids moyens à âge type, estimés par la méthode officielle, ont été de 3,4, 5,5, 9,1, 15,5, 18,2 et 22,2 kg respectivement à la naissance, à 10, 30, 70, 90 et 120 jours d’âge. Le calcul des performances à âge type par la méthode conventionnelle s’est accompagné d’une faible perte de précision sur les poids de l’ordre de 5, 2, 0,8 et 0,5 p. 100 respectivement à 30, 70, 90 et 120 jours, et d’une baisse assez importante de 25, 19, 12 et 10 p. 100 respectivement des GMQ10/30 (gains moyens quotidiens entre 10 et 30 jours), GMQ30/70, GMQ30/90 et GMQ30/120. La perte de précision associée au GMQ10/30 a dépassé 50 p. 100 pour l’intervalle naissance -premier contrôle à 21 jours à cause d’une extrapolation inférieure, peu précise, du poids à 10 jours.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Bencherif, Kada, et Houari Tadj. « Approche d'estimation du volume-tige de peuplements forestiers par combinaison de données Landsat et données terrain Application à la pineraie de Tlemcen-Algérie ». Revue Française de Photogrammétrie et de Télédétection, no 215 (16 août 2017) : 3–11. http://dx.doi.org/10.52638/rfpt.2017.360.

Texte intégral
Résumé :
Une approche méthodologique s'appuyant sur la combinaison de données satellitaires et données de terrain est proposée pour l’estimation du volume-tige de peuplements forestiers hétérogènes ou peu homogènes. L'objectif est d'évaluer la disponibilité forestière, en inventoriant moins de 1% de la surface étudiée et avec une erreur max. de 15%. L'approche consiste en la réalisation de trois étapes principales : i) Analyse de la variance sur le volume-tige, ii) classification des données satellitaires et iii) Désignation et inventaire des pixels-échantillons. L'analyse et le calcul de la variance permet d'orienter les calculs du volume en fonction de sa variabilité dans les différentes strates de la forêt alors que la classification des données satellitaires vise à obtenir une stratification de la forêt. La troisième étape consiste en la sélection de pixels-échantillons sur l'image classifiée puis la géolocalisation, l'installation et le cubage des placettes-terrain correspondantes (même dimension spatiale que le pixel de l'image utilisée). Appliquée sur une futaie peu homogène de pin d'Alep (forêt de Tlemcen, Nord-Ouest algérien), l'approche a permis d'estimer un volume global sur pied du peuplement égal à 30 595 m3 m3±15.6% et ce en inventoriant 0.4% seulement de la surface totale. L'analyse de variance sur 12 placettes-échantillons a mis en évidence le caractère peu homogène de la forêt et la faible variabilité du volume-tige. Cependant, Elle fait apparaître aussi que la stratification apporte une légère amélioration à la précision (15.6%) contre 17.6% sans stratification. La classification supervisée d'une image Landsat (Mai 2002) par la méthode du maximum de vraisemblance (précision moyenne de 96%) a permis de stratifier la zone étudiée en six classes (forêt très dense, forêt dense, forêt claire, matorral, herbacées, autres). Pour chaque strate de forêt, le cubage complet de 4 placettes-échantillons comparables en dimension au pixel (30m—30m), a fourni le volume-tige moyen par pixel alors que la généralisation de celui-ci à l'ensemble des pixels a permis de déterminer le volume total de chaque strate. Vu les confusions générées par la classification supervisée au profit des objets pistes, routes et matorral, le volume global a été revu à la baisse (taux de réduction de 10%) et la valeur du volume total corrigé était de 27 535 m3±15.6%, une erreur, bien que non conforme à celle exigée par l'aménagement forestier (max ±10%), s'approche de celle généralement admise (une moyenne de ±15%) pour certains inventaires simplifiés.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Perret, Christian, P. Marchand, Arnaud Belleville, Rémy Garcon, Damien Sevrez, Stéphanie Poligot-Pitsch, Rachel Puechberty et Gwen Glaziou. « La variabilité en fonction du temps des relations hauteur débit. Sa prise en compte dans l'estimation des incertitudes des données hydrométriques par une méthode tabulée ». La Houille Blanche, no 4 (août 2018) : 65–72. http://dx.doi.org/10.1051/lhb/2018043.

Texte intégral
Résumé :
La démarche engagée depuis plusieurs années par la communauté des hydromètres pour quantifier les incertitudes associées au processus d'élaboration des données de débit mériterait de trouver des applications opérationnelles. La présente étude incite notamment les gestionnaires des stations hydrométriques à mieux valoriser les jaugeages effectués en systématisant la démarche de précision du modèle de courbe de tarage. Les auteurs proposent ensuite une démarche simplifiée de quantification de l'incertitude associée à une valeur de débit prédite par une courbe de tarage à partir du calcul de l'écart type des écarts en pour cent des jaugeages à la courbe de tarage et d'une tabulation en fonction des quantiles de débits observés. Elle s'appuie sur une démarche classique d'identification des sources d'incertitude et de leur propagation. Cette méthode permet de proposer une estimation de l'incertitude observée en moyenne sur les stations françaises pour la médiane des débits observés. On propose la formulation suivante : pour 45 à 55 % des stations françaises, la valeur la plus probable de l'incertitude au seuil de confiance de 95 % pour le quantile 50 % des débits observés en France est inférieure à 22 %.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Cléry, Isabelle, et Marc Pierrot-Deseilligny. « Une interface ergonomique de calcul de modèles 3D par photogrammétrie ». Revue Française de Photogrammétrie et de Télédétection, no 196 (15 avril 2014) : 40–51. http://dx.doi.org/10.52638/rfpt.2011.36.

Texte intégral
Résumé :
De nombreux logiciels du commerce proposent de créer des modélisations en 3D d'objets ou de scènes à partir uniquement de photographies. Cependant les professionnels, notamment les archéologues et les architectes, ont un certain nombre de contraintes qui restreignent fortement le choix du logiciel, telles que des ressources financières limitées, des connaissances peu approfondies en photogrammétrie et en informatique, des impératifs qui limitent le temps d'acquisition et de traitement, et enfin des attentes précises en terme de qualité, de précision et de complétude de la modélisation. Le laboratoire MATIS a développé un ensemble d'outils libres, open source, qui permettent d'effectuer l'ensemble des étapes du traitement d'un chantier photogrammétrique et qui fournissent des modèles 3D très denses et précis grâce à la rigueur de l'approche photogrammétrique ; ils représentent donc une solution intéressante pour ces professionnels du point de vue algorithmique.Cependant ils ont été développés pour des applications de recherche et sont donc peu ergonomiques pour le public non photogrammètre et non informaticien. C'est pourquoi une interface graphique est en cours de développement afin de fournir un accès simplifié et unifié à ces outils, notamment aux architectes et aux archéologues. Grâce à l'interface, l'utilisateur peut manipuler les images d'un même chantier et contrôler chaque étape du traitement qui comprend : le calcul automatique de points homologues entre les images, l'estimation des poses de la caméra et le calcul des modèles 3D. Les résultats peuvent être convertis en cartes de profondeur ombrées ou en nuages denses de points 3D (au format standard ply), et peuvent être affichés directement par l'interface. Pour offrir la possibilité de traiter des chantiers suffisamment variés, tout en masquant la complexité du paramétrage, la démarche retenue est de présenter à l'utilisateur un accès par grande famille de prises de vue, par exemple : chantier convergent, relevé de façades, chantier aérien sub-vertical, modélisation d'intérieur. . . Une attention particulière est apportée à la qualité de la documentation et à la portabilité du produit sur les principaux types d'ordinateur grand public (Linux, Mac et Windows). Cette interface, bien que non finalisée, permet déjà d'effectuer l'intégralité du traitement de chantiers de type convergent et est disponible en ligne. Des utilisateurs issus des différentes communautés de professionnels ciblées (archéologie, architecture, géologie, photogrammétrie architecturale) l'ont déjà testée et l'interface est régulièrement mise à jour afin de l'adapter aux remarques et demandes de ces testeurs.
Styles APA, Harvard, Vancouver, ISO, etc.
18

BENOIT, Marc, et Patrick VEYSSET. « Calcul des Unités Gros Bétails : proposition d’une méthode basée sur les besoins énergétiques pour affiner l'étude des systèmes d'élevage ». INRAE Productions Animales 34, no 2 (18 octobre 2021) : 139–60. http://dx.doi.org/10.20870/productions-animales.2021.34.2.4855.

Texte intégral
Résumé :
Originellement basé sur l’ingestion de fourrages par les herbivores et par extension sur leurs besoins énergétiques, le concept d'Unité de Gros Bétail (UGB) est largement utilisé, sans être toujours précisément défini, pour décrire et évaluer les systèmes d'élevage ou pour calculer des statistiques. Cependant, le calcul de la valeur UGB d'un animal donné peut être considéré comme très frustre dans la mesure où il ne tient compte ni de sa taille, ni de son niveau de production, ni de ses conditions d'élevage, dont dépendent ses besoins énergétiques et donc alimentaires. Nous proposons une méthode de calcul de l'UGB adaptée aux espèces bovines, ovines et caprines basée sur les besoins énergétiques nets des animaux, en utilisant les équations et paramètres fournis par le GIEC (« Groupe d'experts Intergouvernemental sur l'Évolution du Climat »). Grâce à une analyse de sensibilité vis-à-vis des variables utilisées, nous confirmons que le poids des animaux et leur niveau de production sont déterminants de ces besoins. En intégrant ces deux paramètres, nous proposons deux types d'équations qui diffèrent par leur niveau de précision et par la disponibilité des données requises. Sur la base d'une équivalence de 29 000 MJ pour une UGB correspondant à une vache laitière de 600 kg produisant 3 000 kg de lait par an à un taux butyreux de 4 %, nous conservons la notion d'animal de référence pour une UGB. La méthode proposée permet d’approcher, à travers la taille des animaux, leur niveau de production et leur génotype, la variabilité des besoins alimentaires des animaux. Les coefficients UGB ainsi calculés peuvent très significativement différer des coefficients historiques et ainsi modifier les conclusions de comparaisons de systèmes de production entre eux ou dans le temps.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Philippe, Pierre. « Fécondité, fécondabilité et consanguinité à l'Isle-aux-Coudres ». Articles 14, no 1 (12 avril 2005) : 117–23. http://dx.doi.org/10.7202/055604ar.

Texte intégral
Résumé :
On a souvent dénoncé la carence d'études strictement démographiques au Canada français. Or, les populations canadiennes-françaises constituent un véritable laboratoire qui place les chercheurs dans une situation presqu'expérimentale. À cet effet, insistons sur la qualité de notre état civil grâce auquel des analyses de démographie historique peuvent être achevées avec une rare précision. De plus, l'union de cette discipline à la génétique des populations peut donner lieu à des travaux extrêmement féconds. Depuis quelques années, la génétique démographique a connu un essor rapide au Canada français. Le présent travail se propose de présenter, dans une première étape, les taux de fécondité des couples fertiles de la population de l'Isle-aux-Coudres depuis la colonisation jusqu'à 1960. L'évaluation des taux de fécondité a été réalisée par la compilation des durées d'intervalles intergénésiques des cinq premiers rangs de naissance, ce qui correspond approximativement à la fécondité des couples dont la femme est âgée de vingt à trente ans. En second lieu, nous avons estimé la fécondabilité des femmes par le calcul de l'intervalle protogénésique. Pour les détails concernant le matériel et les méthodes, le lecteur est prié de se référer à un autre article. Finalement, nous soulignerons la possibilité d'incidence de la consanguinité sur la fécondité.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Salagnac, Jean-Michel. « Intérêt diagnostique et thérapeutique de l’étude du nez en orthopédie dento-maxillo-faciale ». L'Orthodontie Française 89, no 2 (juin 2018) : 169–80. http://dx.doi.org/10.1051/orthodfr/2018014.

Texte intégral
Résumé :
Introduction : Prévoir la croissance faciale chez un sujet en période de croissance est l’un des souhaits les plus chers des orthodontistes, mais aussi l’un des objectifs les plus difficiles à obtenir avec précision malgré les différentes méthodes proposées de prévision de croissance. Une méthode simple basée sur la lecture clinique et radiologique du nez et du prémaxillaire permet sans aucun calcul de se faire une idée valable de la croissance maxillaire à venir et d’en déduire les indications thérapeutiques en orthopédie dento-faciale. L’étude morphologique du nez constitue également un élément important dans le diagnostic des syndromes malformatifs cranio-faciaux. Matériels et méthodes : À partir d’une étude sémiologique clinique détaillée et de l’étude radiologique des structures nasales et prémaxillaires, cet article présente une méthode d’évaluation et de prévision de croissance de l’étage supérieur de la face. Résultats : Basée sur l’expérience de très nombreuses observations, et sur des bases embryologiques actuelles, la détection précoce des troubles de la croissance de l’entité ethmoïdo-naso-prémaxillaire fournit à l’orthodontiste de précieuses indications thérapeutiques. Discussion : L’étude de la morphologie nasale, clinique et radiologique associée à l’étude du prémaxillaire constitue un bon indicateur de la direction et du potentiel de croissance de l’étage supérieur de la face, ainsi qu’un indice de dépistage de syndrome malformatif. Conclusion : Cette étude devrait être intégrée systématiquement dans le diagnostic en orthopédie dento-maxillo-faciale.
Styles APA, Harvard, Vancouver, ISO, etc.
21

LEPELLETIER, T., H. CHIÈZE, M. BERTRAND, T. BIENVENU, M. COUET, A. LISTER, J. GEORGES, A. SAINT-GERMAIN, P. KERHERVE et L. HASSIG. « Étude hydraulique de vulnérabilité du système d’assainissement francilien face à une crue majeure ». Techniques Sciences Méthodes 12 (20 janvier 2023) : 105–19. http://dx.doi.org/10.36904/202212105.

Texte intégral
Résumé :
Cet article présente une étude de cas pour évaluer les interactions entre un grand système d’assainissement et une crue entraînant des débordements, sur la base d’une modélisation hydraulique. L’étude de cas présentée ici est réalisée sur le réseau d’assainissement de la zone centrale de l’Île-de-France, confrontée à une inondation majeure le long du bassin de la Seine et de la Marne. Ce réseau joue un rôle majeur de protection contre les inondations en évacuant les flux excédentaires des précipitations, de l’aquifère et des débordements directs des rivières. Il peut néanmoins également induire une aggravation des inondations en cas de saturation des postes de pompage ou de défaillance d’équipements. Le présent document décrit les étapes de construction et de calage du modèle sur la base des données disponibles pour les crues de janvier 2018 et de juin 2016. Ce modèle repose sur l’utilisation de la plateforme logicielle Hydra/Qgis. L’accent est mis sur l’ajustement des apports supplémentaires du fleuve et de l’aquifère dans le système d’assainissement, ainsi que sur la précision et les performances de calcul du modèle. L’objectif final de ce projet est d’évaluer la résilience des réseaux d’assainissement sur la zone de collecte étudiée et de produire un outil d’aide à la décision pour améliorer la gestion du système d’assainissement en période de crue, en considérant les dommages potentiels en fonction du niveau d’inondation.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Sergent, Philippe, Jean-Michel Tanguy et Hassan Smaoui. « Calcul analytique et numérique des seiches et des oscillations portuaires pour des bassins de forme rectangulaire et de profondeur constante avec des digues semi-infinies parfaitement réfléchissantes ». La Houille Blanche, no 3-4 (octobre 2019) : 117–29. http://dx.doi.org/10.1051/lhb/2019049.

Texte intégral
Résumé :
À l'aide de l'équation intégrale de Kirchhoff–Helmholtz appliquée aux ondes de gravité et en prenant en compte les modes évanescents à l'intérieur du résonateur, nous établissons une nouvelle approximation de la période fondamentale de seiche et d'oscillation portuaire des bassins de forme rectangulaire et de profondeur constante en présence d'ouvrages extérieurs semi-infinis parfaitement réfléchissants. Cette approximation généralise la formule analytique utilisée par Rabinovich. La formule présentée par Rabinovich corrige elle-même la période classiquement utilisée pour les résonateurs quart d'onde. Nous comparons ensuite cette approximation avec les résultats de l'équation de pente douce de Berkhoff résolue par la méthode des éléments finis. Il est observé que la formule analytique présentée par Rabinovich sous-estime la période de résonance. Pour le calcul par éléments finis, une densité du maillage d'environ 10 nœuds par longueur d'onde suffit pour atteindre une bonne précision mais il est nécessaire de respecter aussi un critère sur le nombre de nœuds par unité de largeur. En ce qui concerne le facteur d'amplification, nous retrouvons comme Rabinovich que ce dernier est proportionnel au rapport longueur sur largeur et qu'il ne dépend pas de la profondeur. Nous montrons également que la composition des ouvrages extérieurs peut être déterminante pour le facteur d'amplification. Un test expérimental dans une cuve à houle montre cependant que, dans certains cas, une dissipation importante se produit qui a pour conséquence d'une part de réduire la période de seiche et d'autre part de réduire sensiblement le facteur d'amplification.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Puig, Céline. « Réalisation du RGE Alti en zone de montagnes à partir d'images Pléiades ». Revue Française de Photogrammétrie et de Télédétection, no 208 (5 septembre 2014) : 149–54. http://dx.doi.org/10.52638/rfpt.2014.98.

Texte intégral
Résumé :
La référence altimétrique nationale, nommée RGE Alti, est actuellement composée de données issues de traitements Radar sur les zones de montagne qui ne satisfont pas pleinement les spécifications. Dans le même temps, les caractéristiques d'acquisitions des satellites imageurs se sont considérablement améliorées permettant aux satellites comme Pléiades de devenir une alternative intéressante à l'aérien dans les zones où les prises de vues sont coûteuses et complexes à organiser tels que les massifs montagneux.Quatre acquisitions Pléiades réparties sur deux zones d'études, le col de Bavella en Corse et le massif du Mont-Blanc, ont servi à réaliser des Modèles Numériques de Surface (MNS) par corrélation. Des Modèles Numériques de Terrain (MNT) ont ensuite été calculés à l'aide d'une méthode développée à l'Institut National de l'Information Géographique et Forestière (IGN) qui se base sur une interpolation de points sols extraits des MNS. Ces MNT obtenus avec les acquisitions Pléiades possèdent une précision altimétrique de 3m à 4m et des résultats homogènes quel que soit le type de terrain ce qui est indispensable pour la réalisation d'une référence nationale. L'étude montre aussi une forte corrélation entre la qualité du MNT final et les caractéristiques de prise de vue, ce qui entraîne des contraintes d'acquisition particulières et la mise en place d'étapes supplémentaires dans le calcul du MNT. Moyennant ces adaptations, l'utilisation d'images Pléiades pour compléter le RGE Alti dans les zones de montagne est envisageable et les utilisateurs du RGE Alti ont d'ores et déjà montré leur intérêt pour ces MNT Pléiades.
Styles APA, Harvard, Vancouver, ISO, etc.
24

MOSSÉ, J. « Acides aminés de 16 céréales et protéagineux : variations et clés du calcul de la composition en fonction du taux d’azote des grain(e)s. Conséquences nutritionnelles ». INRAE Productions Animales 3, no 2 (3 février 1990) : 103–19. http://dx.doi.org/10.20870/productions-animales.1990.3.2.4365.

Texte intégral
Résumé :
Les changements parfois importants de composition en acides aminés des grain(e)s sont toujours en corrélation avec ceux de leurs taux d’azote. Ils sont décrits par des relations linéaires entre la teneur en chaque acide aminé et le taux d’azote mises en évidence chez 16 espèces cultivées pour leurs grain(e)s. Quelques rappels sont d’abord faits sur les grain(e)s, leurs réserves, la protéosynthèse dont elles sont le siège jusqu’à maturité, ainsi que sur les problèmes soulevés par l’analyse des acides aminés et l’expression des compositions. Les caractéristiques des variations de ces compositions sont discutées, sur le plan tant fondamental que pratique : qu’elles soient dues aux facteurs de l’environnement, à la fumure ou aux conditions culturales ou bien qu’elles soient d’origine variétale, ces variations obéissent strictement aux mêmes types de relations linéaires qui sont donc définies par deux coefficients déterminables expérimentalement pour tout couple correspondant à une espèce et un acide aminé donnés. Le tableau de ces coefficients est donné pour chacune des 16 espèces et pour chacun des 19 acides aminés analysables. Un certain nombre de conséquences nutritionnelles qui en découlent sont discutées, en particulier l’ampleur des variations intraspécifiques des acides aminés dans les protéines des grain(e)s, les variations comparées, en fonction du taux d’azote, des scores nutritionnels par espèce et entre espèces, celle du rapport leucine/isoleucine, ainsi que les changements éventuels dans l’ordre des acides aminés limitants et aussi ceux des coefficients de conversion de l’azote total en protéines réelles. En toute occasion, la connaissance de la composition en acides aminés des lots de grains utilisés dans les rations animales est désormais beaucoup plus simple à établir avec une précision et une sécurité accrues.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Lucie, Xavier, Sylvie Durrieu, Anne Jolly, Sylvain Labbé et Jean-Pierre Renaud. « Comparaison de Modèles Numériques de Surface photogrammétriques de différentes résolutions en forêt mixte. estimation d'une variable dendrométrique simple : la hauteur dominante ». Revue Française de Photogrammétrie et de Télédétection, no 213 (26 avril 2017) : 143–51. http://dx.doi.org/10.52638/rfpt.2017.197.

Texte intégral
Résumé :
Le renouveau de la photogrammétrie et le développement de moyens aéroportés légers tels que les drones permettent de nouvelles applications dans le domaine de l'aménagement et la gestion forestière.L'estimation de variables forestières se fait dans le cadre de processus longs et fastidieux sur le terrain. Dans l'idée d'automatiser l'extraction de variables dendrométriques, nous mettons en place une méthodologie pour générer les modèles numériques de surfaces (MNS) par photogrammétrie multi-vues les plus précis possibles compte-tenu des limites imposées par les algorithmes de calcul. Nous utilisons pour ce faire la suite photogrammétrique libre de l'IGN MicMac.Notre zone d'étude se situe dans la forêt domaniale du Ventouret (région PACA) qui est une forêt mixte de moyenne montagne. Pour qualifier la précision de ces MNS, nous disposons de relevés dendrométriques sur des placettes d'analyse de 700 m² représentatives des peuplements les plus fréquents à l'échelle de la forêt. Ces zones ont été survolées par un drone multi-rotors équipé d'un appareil photo numérique à focale fixe. Les clichés ont une résolution spatiale de 2,5 cm contre 25 cm pour les prises de vues standardisées de l'IGN.Afin d'étudier l'impact de la résolution sur la qualité des MNS générés, nous dégradons la résolution des prises de vues du drone jusqu'à obtenir un pixel terrain d'une quarantaine de centimètres. Nous comparons ensuite les altitudes de chaque MNS avec des pointés stéréoscopiques de référence réalisés manuellement sur les prises de vues originales.En soustrayant à chaque MNS un modèle numérique de terrain (MNT) LiDAR, nous calculons ensuite un modèle de hauteur de couvert (MHC). L'étude de la distribution des hauteurs sur chaque placette et d'un modèle statistique de hauteur dominante (H0) nous permettent de conclure sur l'intérêt de l'approche photogrammétrique et de déterminer des résolutions spatiales optimales pour appuyer le travail des gestionnaires et aménagistes forestiers.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Benhattab, Karima, Christophe Bouvier et Mohamed Meddi. « Analyse fréquentielle régionale des précipitations journalières maximales annuelles dans le bassin hydrographique - Chéliff, Algérie ». Revue des sciences de l’eau 27, no 3 (15 décembre 2014) : 189–203. http://dx.doi.org/10.7202/1027805ar.

Texte intégral
Résumé :
L’estimation locale des pluies extrêmes et de leur période de retour est souvent peu précise du fait de données peu nombreuses. Le regroupement de données d’une même région permet souvent d’améliorer la précision de cette estimation. Cet article propose une approche régionale pour l’estimation des pluies journalières de fréquence rare, pour le bassin hydrographique du Cheliff (nord-ouest de l´Algérie). La première étape consiste à définir et à valider les régions homogènes de la zone d’étude. Le test d'homogénéité est basé sur la statistique H, qui compare les rapports des L-moments calculés localement à chaque station à leur moyenne sur la région considérée. La deuxième étape consiste à identifier la distribution régionale et à estimer ses paramètres par analyse du diagramme des L-moments et/ou calcul de la statistique Zdist, qui compare les rapports des L-moments régionaux à ceux de la distribution candidate. La loi GEV (« General Extreme Value »), qui a été utilisée dans plusieurs études antérieures de régionalisation des précipitations extrêmes, a été identifiée comme distribution régionale adéquate. Les paramètres de la GEV ont été calculés à l’aide de la définition des L-CV, L-CS et L-CK régionaux. La troisième étape consiste à déterminer localement les quantiles de pluie associés aux différentes périodes de retour, par multiplication du L-coefficient de variation régionale L-CV par la moyenne des précipitations journalières maximales annuelles observées au site considéré. Les pluies calculées par cette méthode, qui peut être appliquée à toute station de la zone étudiée, peuvent être significativement différentes de celles calculées par ajustement local. Les valeurs de l’erreur quadratique moyenne entre les quantiles calculés par approche régionale ou locale sont égales à 10 % pour la pluie journalière maximale annuelle décennale, et à 35 % pour la pluie journalière maximale annuelle centennale. Cette erreur diminue quand la longueur de la série locale augmente, ce qui suggère que l’approche régionale consolide effectivement l’estimation des quantiles de pluie.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Reguin, Olivier. « Résolution numérique d'un problème métrologique : Le pied, la perche et l'acre d'Angleterre ». Florilegium 29, no 1 (janvier 2012) : 229–46. http://dx.doi.org/10.3138/flor.29.009.

Texte intégral
Résumé :
Les mesures du pied, de la perche et de l’acre statutaires sont encore très employées dans le monde aujourd’hui et l’acre reste officielle aux États-Unis. Pourtant, les explications avancées jusqu’ici à propos de leurs origines, de leur raison d’être et de leurs dimensions n’ont que partiellement abouti, pour n’avoir pas été reliées assez solidement à la métrologie agraire de l’Europe occidentale, elle-même à revoir dans une perspective globale. L’hypothèse que je propose ici résulte d’une recherche visant à intégrer en un système cohérent l’ensemble si divers et si déroutant des anciennes unités de mesures agraires issues du Moyen Âge en Occident et qui s’utilisent encore de nos jours — en l’espèce : les unités de mesure britanniques. Ce travail m’a amené à considérer que des mesures très peu nombreuses, créées à l’époque carolingienne, se sont par la suite multipliées, mais en procédant les unes des autres par des conversions numériques rationnelles, calculées et d’une grande précision. Cette position va à l’encontre d’explications voulant que les mesures agraires se soient fixées petit à petit, localement, suivant les pratiques culturales (le temps de travail, l’ensemencement), d’après la nature du terrain, etc. ; elle s’oppose aussi à l’idée que les anciennes unités de mesure sont particulières à chaque nation. L’idée directrice est plutôt que les mesures agraires, dont dépendent les mesures linéaires des différents pieds, ont été établies pour des raisons fiscales à partir de règles édictées par le pouvoir impérial. Il s’agit alors de comprendre, à partir des indications des sources anciennes, des travaux de la métrologie historique proprement dite, et au moyen d’opérations simples, de quelle façon les mesures communes à tout l’Occident ont été interprétées localement, mais sans changer fondamentalement. Les mesures apportent précisément l’assurance de la structuration en profondeur de la civilisation médiévale dans sa continuité, en dépit de ses éclipses les plus graves. La métrologie historique dont il s’agit ici, et qui reprend un courant délaissé, ne fait donc pas que recenser l’infinité des anciennes mesures : elle en propose une explication appuyée sur le calcul. Cette « archéologie mathématique » peut s’appliquer au cas des mesures anglaises.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Ziani, El Mostafa, Mustapha Bennouna et Raymond Boissier. « Une technique ultrasonore pour la supervision des canaux d’irrigation ouverts ». Revue des sciences de l'eau 20, no 3 (1 octobre 2007) : 287–97. http://dx.doi.org/10.7202/016503ar.

Texte intégral
Résumé :
Résumé Cet article présente un débitmètre à ultrasons conçu en tant que capteur intelligent pour la mesure des écoulements en surface libre ou en conduites fermées. Ce type de débitmètre peut être utilisé pour des applications industrielles ou de gestion de l’eau. Il répond à la forte demande des autorités de supervision des ressources en eau dans les régions semi-arides d’agriculture irriguée. Un état de l’art et les principes généraux des mesures de débits de liquide par ultrasons sont donnés. Le débitmètre original proposé utilise le principe de la mesure des délais entre les impulsions envoyées vers l’amont et vers l’aval dans le fluide. L’approche repose sur la mesure de la différence du temps de transit des ondes acoustiques sur une ou plusieurs cordes de mesure, réparties sur un intervalle suffisant, de manière à assurer la précision requise. Cette méthode permet une véritable intégration du profil des vitesses, ce qui assure une meilleure précision. La vitesse du son dans le fluide est éliminée des calculs grâce à l’utilisation des temps de transmission réciproques. Les calculs de débit sont assurés par un micro-contrôleur. Les calculs théoriques et les technologies proposées ont donné lieu à la réalisation d’un prototype expérimental. Une première application de ce débitmètre à ultrason est réalisée en laboratoire en conduite fermée dans une installation d’essai comportant une seule paire de transducteurs à ultrason. Une seconde application expérimentale est menée sur un banc d’essai comprenant un canal artificiel de forme trapézoïdale de dimensions géométriques bien déterminées avec une pente variable. Ces tests ont permis de vérifier la précision de l’appareil et de valider les techniques et les principes mis en oeuvre dans la conception du débitmètre.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Tidiane Dia, Amadou. « Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-Versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence ». European Scientific Journal, ESJ 19, no 6 (28 février 2023) : 222. http://dx.doi.org/10.19044/esj.2023.v19n6p222.

Texte intégral
Résumé :
Le bassin versant de Ogo connait des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé pour mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traitées, stockées et analysées dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, ce que l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire confirme. Les classes de susceptibilité sont reparties ainsi qu’il suit : très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45 % de surface de susceptibilité tandis que la classe très forte occupe 20,28 % par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89 %. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60 % signifie l’échec de la méthodologie par la non précision des résultats obtenue ; par contre, un taux supérieur ou égale à 70 % signifie un niveau de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat. The Ogo watershed is subject to strong and changing climatic and ecological constraints. The current degradation dynamics are increasingly marked by an intensification of water erosion. It is in this perspective that the present work was carried out with the aim of measuring the vulnerability of the Ogo watershed to this morphodynamic. In order to do so, we adopted among many methodologies available in scientific journals such as the evidence theory, logistic regression, the hierarchical analysis process (AHP), the bivariate method whose frequency ratio and informative value act as reference method in the present study. In the application of this method, we proceeded by listing the different input parameters including the different causative factors of water erosion and the inventory mapping of the different forms of erosion identified in the Ogo catchment. These data were processed, stored and analysed in a Geographic Information System software to make the application flexible enough. The susceptibility to water erosion in the Ogo catchment area having been apprehended by the information value method showed that : the Ogo catchment area is very vulnerable to water erosion, a fact confirmed by the descriptive approach of the different forms of erosion by inventory mapping. The susceptibility classes are divided into very low, low, medium, high and very high. The strong class occupies 30.45% of the susceptibility area, while the very strong class occupies 20.28% of the entire study area and the medium class occupies 27.89%. The results obtained by mapping the susceptibility of the said basin to water erosion were subjected to validation by ROC curve analysis. Following the cross-referencing of the inventory data with the susceptibility map, the weighted pixel areas obtained are determined by calculating the Area under curver, which provides information on the success or failure rate of the method. A rate of less than or equal to 60% means the failure of the methodology due to the non-precision of the results obtained, whereas a rate of more than or equal to 70% means a successful precision rate of the method. The rate obtained is 78%, thus revealing a good result.
Styles APA, Harvard, Vancouver, ISO, etc.
30

de Guibert-Lantoine, Catherine. « Estimations de population par département en France entre deux recensements ». Population Vol. 42, no 6 (1 juin 1987) : 881–909. http://dx.doi.org/10.3917/popu.p1987.42n6.0909.

Texte intégral
Résumé :
Résumé De Guibfrt-Lantoine Catherine. — Estimations de population par département en France entre deux recensements. Entre les recensements, les populations des départements français sont évaluées chaque année a partir des données sur le mouvement naturel, connues avec précision, et des soldes migratoires par département, estimés par prolongation des tendances migratoires antérieures. Cette méthode approximative donne des résultats de qualité variable la comparaison des estimations ainsi obtenues avec les populations recensées, en 1982, a en effet fait apparaitre des erreurs importantes dans certains départements, en particulier en Ile-de-France Le propos de cet article est donc, après un constat sur la précision des estimations en France, d'étudier les méthodes utilisées aux Etats-Unis, puis d'évaluer les améliorations à attendre de l'application de l'une d'entre elles en France La méthode retenue consiste à évaluer la migration totale à partir de la migration scolaire on suppose en effet que la relation observée dans chaque département entre les deux taux correspondants, pour la période intercensitaire précédente, reste constante dans le temps; on calcule alors le taux de migration scolaire de la période étudiée pour en déduire la migration totale de chaque département Cette méthode a été appliquée a l'ensemble des départements français pour la période 1975-1982, et donne, dans l'ensemble, une meilleure précision La définition de conditions préalables a son application, ainsi que la limitation à certains départements améliorent encore sensiblement la qualité des résultats bile peut constituer alors un complément utile aux méthodes d'évaluation de l'INbbb.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Hoang, Kim Huong, Monique Bernier, Sophie Duchesne et Minh Y Tran. « Renforcement de la qualité d’information de l’occupation du sol par l’intégration de données satellitaires optiques et radar en support à la modélisation hydrologique ». Revue des sciences de l’eau 31, no 3 (10 décembre 2018) : 177–99. http://dx.doi.org/10.7202/1054302ar.

Texte intégral
Résumé :
Afin de suivre l’évolution de l’occupation du sol du bassin versant de la rivière Cau (nord du Vietnam), des images HRVIR 2 du satellite SPOT-4 ont été acquises fin novembre 2007 et début janvier 2008. Dans un premier temps, l’approche de classification hiérarchique avec le mode de classification « avec caractéristiques liées aux classes (class-related features) » a été développée et appliquée afin d’extraire sept classes d’occupation du sol pertinentes à la modélisation hydrologique, sans distinguer les rizières des autres types de culture. Cette approche a montré son efficacité, la précision globale de la classification étant de 91 %. Une diminution significative de la confusion entre les milieux urbains, les terres agricoles et les plantations a été remarquée par rapport à une classification antérieure d’une image LANDSAT-7 de 2003, dont la précision globale était de 78 %. Par la suite, afin de distinguer les rizières des autres types de culture, deux séries d’images du satellite RADARSAT-2 en bande-C (double polarisation et polarimétriques) ont été utilisées. Ces images ont été acquises de mai 2009 à mai 2010 et couvrent deux périodes de croissance du riz, soit la période de la principale récolte (saison traditionnelle du riz) et celle du printemps. Pour les images double polarisation, en mode standard (S5), une méthode de seuillage a été appliquée sur la variation temporelle du signal entre les images acquises en début de saison et celles à la mi-saison. Cette méthode a permis de détecter 74 % des rizières de la saison traditionnelle du riz et 63 % des rizières de la saison de riz du printemps, selon une comparaison avec des données statistiques de la province de Thai Nguyen. La précision globale de la classification obtenue, pour toutes les classes d’occupation du sol, est de 71 % pour la saison traditionnelle de riz et de 67 % pour la saison de riz du printemps. Pour les images polarimétriques, en mode fin (FQ21), la matrice de cohérence a été choisie pour identifier les rizières d’une zone hétérogène. La classification a été réalisée à l’aide de l’algorithme SVM (Support Vector Machine). Ces dernières informations ont ensuite été intégrées à la carte thématique dérivée d’images SPOT-4 pour obtenir la carte finale. Cette carte sert directement à la modélisation hydrologique. Les calculs des besoins en eau pour la culture du riz ont montré que les rizières prennent une grande proportion du débit total dans les deux sous-bassins versants utilisés en exemple. Ces calculs montrent l’importance de détecter les rizières si l’on souhaite réaliser des simulations hydrologiques réalistes sur le bassin versant de la rivière Cau et confirment une des hypothèses de nos travaux, qui est que l’identification des rizières sur la carte d’occupation du sol améliore les évaluations et prédictions liées au cycle hydrologique.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Martin, Rémy, Yannick Robert, Pierre Dupire, Olivier Fayard et Simon Carladous. « Histoire de l’usage des modèles de propagation de blocs dans un organisme gérant des problématiques de risques naturels en montagne ». Revue Française de Géotechnique, no 170 (2022) : 4. http://dx.doi.org/10.1051/geotech/2021031.

Texte intégral
Résumé :
Le service de Restauration des Terrains en Montagne de l’Office National des Forêts est un acteur historique de la prévention contre les chutes de blocs en montagne. Pour les besoins de la cartographie des aléas et du dimensionnement d’ouvrages de protection, il a suivi l’évolution des moyens techniques depuis les années 1980 jusqu’à aujourd’hui. Ces dernières années, des réflexions se poursuivent sur l’aléa rocheux dans différents groupes de travail mandatés par l’État ou fédérant les experts privés et publics du domaine. Le développement des moyens informatiques et l’augmentation de la précision des données topographiques ont rendu la réalisation de calculs trajectographiques de plus en plus accessible et ont permis de mener des campagnes de simulations de grande envergure. Cet article présente l’histoire de l’utilisation des outils trajectographiques par le service de Restauration des Terrains en Montagne. L’objectif est d’aider à la compréhension de certains choix méthodologiques qui perdurent encore aujourd’hui pour éclairer les réflexions en cours. Il s’inscrit en parallèle des rapports publics établis pour le compte du Ministère de la Transition Écologique avec d’autres organismes d’État.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Casadebaig, F., et N. Quemada. « Mortalité des malades mentaux hospitalisés (lère partie) ». Psychiatry and Psychobiology 2, no 5 (1987) : 344–49. http://dx.doi.org/10.1017/s0767399x00001024.

Texte intégral
Résumé :
RésuméLes statistiques sur les décès dans les hôpitaux psychiatriques existant actuellement en France ne permettent pas de calculer avec précision la mortalité des malades mentaux hospitalisés car on ne dispose pas du nombre de sujets pris en charge au cours d’une année.Toutefois, à partir des durées de séjour, à l’aide de la méthode des personnes-années, on peut reconstituer une estimation satisfaisante de la population prise en charge, soit 96 750 patients. L’effectif théorique de population ainsi calculé est réparti selon la distribution observée par sexe et par âge des malades existants au 31 décembre.Le nombre des décès observés par sexe et groupe d’âge est comparé aux décès que l’on aurait eus si les taux de mortalité de la population générale française de 1982 (milieu de l’année) avaient été appliqués aux effectifs de patients hospitalisés du même sexe et du même groupe d’âge. Il ressort de cette comparaison que la mortalité des malades hospitalisés est globalement trois fois plus élevée que celle de la population générale. Cette surmortalité est plus accentuée encore pour les groupes d’âges jeunes, surtout chez les femmes.
Styles APA, Harvard, Vancouver, ISO, etc.
34

AGABRIEL, J. « Avant-propos ». INRAE Productions Animales 20, no 2 (7 juin 2007) : 107–8. http://dx.doi.org/10.20870/productions-animales.2007.20.2.3442.

Texte intégral
Résumé :
L’alimentation des ruminants : un problème d’actualitéDans la conduite et la réussite d’un système de production de Ruminants, l’alimentation du troupeau reste un domaine très important qui continue de poser de nombreuses questions à la fois pratiques et théoriques. Pour l’éleveur, les postes récolte des fourrages et des céréales, achats d’aliments et entretien des surfaces fourragères représentent plus de 50 % des charges opérationnelles de son exploitation. Nourrir quotidiennement son troupeau lui impose de faire des choix de types de rations et en amont des choix stratégiques de long terme, sur la conduite de son système fourrager en considérant ses contraintes de milieu naturel, de bâtiments ou de stockage. La gestion de l’alimentation est directement liée à tous les autres choix stratégiques de l’activité d’élevage, le niveau de croissance des jeunes animaux, la reproduction, l’allotement la quantité et la qualité de la production. Pour le chercheur en nutrition animale, les enjeux sont devenus multiples et son positionnement a évolué : la recherche de la production maximale soutenue par l’alimentation a fait place à la volonté d’atteindre un optimum à la fois biologique, technique et économique selon les milieux dans lequel l’élevage est conduit. Il doit faire en sorte que la ration calculée par ses modèles satisfasse les besoins de l’animal selon les objectifs de production de l’éleveur, mais qu’elle participe également au bon état sanitaire et de bien-être du troupeau, qu’elle garantisse la qualité des produits et minimise l’impact défavorable des rejets sur l’environnement. La recherche en nutrition et alimentation des ruminants porte à la fois sur les fourrages, la physiologie digestive et métabolique de l’animal et son comportement alimentaire. En tenant compte de la complexité des mécanismes biologiques, les modèles nutritionnels doivent pouvoir simuler avec le maximum de précisions les flux de matières à travers le tube digestif et les organes sur des pas de temps variables, à la fois de court et de long terme. Cela reste un sujet perpétuellement en évolution qui exige aussi de synthétiser les connaissances sous forme d’outils d’aide à la décision et qui soit capable de présenter la qualité de ces outils et leurs limites d’usage. Une recherche qui se développe avec l’INRALes recherches pour aider à déterminer les choix d’alimentation des animaux en condition de production se sont concrétisées au cours du 20ème siècle. Les systèmes d’alimentation en énergie, azote et minéraux ont été développés en France après 1945. A l’INRA, le département Elevage des Ruminants sous l’impulsion de R. Jarrige avait initié une révision majeure des principes et des unités pratiques de terrain en 1978 en proposant un système énergétique construit sur la base de deux unités fourragères, lait et viande (UFL, UFV), un système des Protéines Digestibles dans l’Intestin (PDI) et des Tables complètes à la fois des besoins des animaux et de la valeur alimentaire des aliments. C’est notamment dans le domaine de la valeur nutritionnelle des fourrages que ces travaux étaient particulièrement riches. Ces «systèmes INRA» avaient alors été complétés par la première ébauche d’un modèle complètement nouveau de prévision de l’ingestion (système des Unités d’Encombrements UE) qui sera fortement remanié et amélioré dix ans plus tard lors de la révision de 1988. Ce nouvel ensemble, prévision de l’ingestion, estimation des besoins nutritionnels, a également permis d’accroître l’offre d’outils pratiques de terrain. En complèment des Tables imprimées, un outil informatique d’accompagnement et de rationnement «INRAtion» a été proposé dès 1992. Celui-ci s’est ensuite enrichi de l’outil de calcul de la prévision de la valeur des aliments «Prevalim;» et tous deux sont devenus des réceptacles appliqués des nouveautés scientifiques concernant les systèmes INRA. Mais, près de vingt ans après le dernier «Livre Rouge de l’Alimentation des bovins, ovins et caprins», une mise à niveau des ouvrages écrits s’imposait également et il est apparu nécessaire de proposer une actualisation des connaissances des principes du rationnement des ruminants. Les travaux des équipes de recherches ont permis de progresser aussi bien sur la caractérisation de la valeur des fourrages et des matières premières, que sur l’estimation des besoins des animaux et des apports nutritionnels recommandés dans des situations très diverses. Au delà des recommandations statiques, focalisées sur l’objectif de satisfaire les besoins, les lois de réponses dynamiques des pratiques alimentaires sont mieux connues et quantifiées. Elles permettent de mieux simuler les conséquences de la diversité des situations. L’objectif de l’ouvrage «Alimentation des bovins, ovins et caprins - Tables INRA 2007», sorti en février aux éditions Quæ, est ainsi de remettre sous la forme connue et largement adoptée par tous les acteurs des filières de l’élevage ruminant ces nouveaux résultats. Des documents complémentairesCependant le niveau scientifique choisi de l’ouvrage récemment paru et sa taille volontairement réduite pour en faire un ouvrage facilement accessible ont contraint les auteurs à aller à l’essentiel, les frustrant sans aucun doute d’une description et d’une discussion de fond de leurs résultats.En reprenant l’exemple de 1987 où le «livre rouge» publié par INRA Editions était complété par un numéro détaillé du Bulletin CRZVde Theix, nous avons donc décidé de publier un dossier dans la Revue INRA Productions Animales qui complète l’ouvrage de février. Ce dossier regroupe majoritairement des présentations et les explications des choix qui ont prévalu au développement des nouveaux modèles sous-tendus dans les recommandations. Il comporte 5 articles qui éclairent des points clés des innovations introduites en 2007, et qui correspondent soit à des nouveaux modèles mécanistes des fonctions de l’animal, soit à des méthodes de prévision de la valeur des fourrages, soit à des remises en cause plus profondes de l’ensemble apports, besoins comme c’est le cas pour la nutrition minérale.Toutefois, ce dossier n’est pas exhaustif des «nouveautés» du livre 2007. Certaines avaient été déjà publiées, soit dans des revues scientifiques, soit dans des sessions des «Rencontres Recherches Ruminants». Sans aucun doute d’autres viendront encore les compléter par la suite.Ainsi sont étudiés successivement des apports scientifiques sur la valeur des aliments et sur les besoins des animaux :1 - La dégradabilité des protéines dans le rumen (DT) et la digestibilité réelle des protéines alimentaires dans l’intestin grêle (dr). La valeur azotée des fourrages repose sur la bonne estimation de ces deux paramètres, qui sont la clé du calcul du système des protéines digestibles dans l’intestin PDI (article de M.-O. Nozières et al).2 - Les nouvelles valeurs minérales et vitaminiques des aliments. La possibilité de raisonner en éléments phosphore et calcium absorbables apporte de nouvelles précisions et modifie considérablement les quantités recommandées. L’article précise et actualise les Apports Journaliers Recommandés (AJR) d’éléments minéraux majeurs. Les autres minéraux, oligo-éléments et vitamines sont également revus de façon systématique et approfondie (article de F. Meschy et al).3 - De nouvelles équations statistiques de prévision de la digestibilité de la Matière Organique (dMO) des fourrages par la méthode pepsine-cellulase établies sur une banque de données couvrant une gamme plus importante de fourrages et de modes de conservation. La valeur énergétique des fourrages dépend en effet étroitement de la digestibilité de leur matière organique. Son estimation sur le terrain peut se faire à partir de méthodes de laboratoire comme la digestibilité pepsine-cellulase, utilisée en France depuis plus de vingt ans. Cette méthode est proposée pour sa bonne précision (article de J. Aufrère et al).4 - La composition du gain de poids chez des femelles adultes en période de finition qui permet de calculer ensuite directement le besoin en énergie et en protéines de l’animal. Ce modèle est suffisamment souple pour proposer un besoin face à un objectif de croissance donné, mais il propose aussi un niveau de croissance pour une ration d’un niveau énergétique donné. Ce nouveau modèle a été spécifiquement développé pour tenir compte de la très grande variabilité des situations pratiques rencontrées : la race, l’âge, le format, l’état d’engraissement initial et la vitesse du gain attendu (article de F. Garcia et J. Agabriel).5 - La capacité d’ingestion d’aliments par les vaches laitières au cours de leur lactation complète. Ce tout nouveau modèle s’adapte à tous types de vaches primipares, multipares et propose le nouveau concept de «lait potentiel» pour mieux décrire cette capacité d’ingestion. Ce concept est nécessaire pour répondre aux diverses stratégies des éleveurs dans la conduite de leurs animaux et qui ne souhaitent pas nécessairement les mener à leur maximum de production. Le modèle tient en effet compte de l’état initial de la vache au vêlage et des modifications d’état corporel qui accompagnent obligatoirement la conduite de la lactation (article de P. Faverdin et al).La Rédaction de la Revue a estimé judicieux de publier dans ce même numéro d’INRA Productions Animales, un travail très récent sur la teneur en matière grasse du lait de vache et sa prévision, qui pourra dans les années à venir se traduire concrètement dans les outils d’accompagnement de nos recommandations (article de Rulquin et al).A l’occasion de la publication de ce dossier, nous voulons plus particulièrement remercier tous les participants des Unités et Installations Expérimentales de l’INRA sans qui ces résultats ne seraient pas, ainsi que tout le personnel des Unités de Recherches qui ont participé dans les laboratoires ou derrière leurs écrans : l’Unité de Recherches sur les Herbivores (URH) de Clermont-Ferrand-Theix, l’Unité Mixte de Recherches sur la Production Laitière (UMR PL) de Rennes, l’Unité Mixte de Recherches Physiologie et Nutrition Animale (UMR PNA) de Paris, l’Unité Mixte de Recherches sur les Ruminants en Région Chaude (UMR ERRC) de Montpellier.
Styles APA, Harvard, Vancouver, ISO, etc.
35

SACRAMENTO, Isabelle Tèniola, Guy Apollinaire MENSAH et Jean-Marc ATEGBO. « Détermination de l’âge de l’aulacode par le poids du cristallin de l’œil ». Journal of Applied Biosciences 181 (31 janvier 2023) : 18917–24. http://dx.doi.org/10.35759/jabs.181.4.

Texte intégral
Résumé :
Objectifs : Conscient que la qualité de la viande varie en fonction de l’âge, la détermination de l’âge de l’aulacode gibier dans le but de comparer la qualité organoleptique, microbiologique et technologique de sa viande à celle de l’aulacode d’élevage est indispensable ce qui justifie la présente étude. Méthodologie et résultats : L’âge de 24, 36 et 48 semaines respectivement des 150 aulacodes tous sexes confondus (50 aulacodes par tranche d’âge) étudiés était connu avec précision au moment du prélèvement du cristallin. Un total de 60 aulacodes sauvages ou aulacodes gibiers dont 30 aulacodins et 30 aulacodines, avec des âges estimés à 7, 8 et 12 mois, abattus par des chasseurs a été utilisé dans cette étude. La technique de Lord (1959) modifiée par Martinet (1966) a été employée. Dès leur abattage, les aulacodes âgés de 24, 36 et 48 semaines ont été mesurés, pesés pleins et vidés au kg puis sexés. Les deux yeux ont été prélevés entiers et intacts et mis dans un flacon d’eau formolée à 10%. Les yeux ont été conservés dans un flacon étanche à large ouverture en polyéthylène de PROLABO et n’ont pas été congelés. Le flacon a été muni d’une étiquette autocollante renseignée de façon indélébile où a été mentionnée la date de l’abattage, le sexe et le poids exact pesé plein et vide. Un séjour de 30 jours minimum dans une solution de formol a été nécessaire pour permettre la stabilisation du cristallin et sa manipulation sans risque de l’abimer. Les cristallins ont été alors extraits du globe oculaire, nettoyés et mis à dessiccation complète dans une étuve ventilée à 100° C pendant 24 heures. Ils ont été ensuite pesés au milligramme près (0,000). Enfin le poids moyen des cristallins a été calculé pour chaque tranche d’âge. Conclusion et application des résultats: La courbe établie permettra de déterminer avec précision l’âge des aulacodes d’élevage sans fiche de suivi, des aulacodes gibiers et des rongeurs apparentés à l’aulacode chaque fois que le processus de prélèvement du cristallin utilisé dans cette étude sera respecté. Mots-clés : Aulacodes, Bénin, détermination de l’âge, équation de prédiction, pesée de cristallin.
Styles APA, Harvard, Vancouver, ISO, etc.
36

LE ROY, P., H. CHAPUIS et D. GUÉMENÉ. « Sélection génomique : quelles perspectives pour les filières avicoles ? » INRAE Productions Animales 27, no 5 (12 décembre 2014) : 331–36. http://dx.doi.org/10.20870/productions-animales.2014.27.5.3080.

Texte intégral
Résumé :
La sélection génomique repose sur l’évaluation des valeurs génétiques des candidats à la sélection par un « score moléculaire » calculé d’après leurs génotypes en un très grand nombre de marqueurs de l’ADN. Dans une première étape, les effets des marqueurs sont estimés sur une population de référence génotypée et phénotypée pour les caractères à améliorer. La table des valeurs génotypiques ainsi établie est utilisée pour calculer les valeurs génétiques des candidats au cours des générations suivantes, qui peuvent alors n’être que génotypées. En quelques années, cette stratégie a été mise en place chez les bovins laitiers. Les opérateurs de la sélection dans les autres filières animales ont assisté à cette révolution et se posent légitimement la question de l’intérêt pour eux d’entrer dans cette démarche. La disponibilité d’une puce « poule » de 600k SNP permet d’ores et déjà d’appliquer une sélection génomique dans les filières poule pondeuse et poulet de chair. Pour les autres espèces avicoles, les outils de génotypage à haut débit sont en cours de développement. Quelle que soit l’espèce, trois composantes du progrès génétique peuvent être améliorées. L’intensité de sélection peut être augmentée pour les caractères non mesurables en routine (qualités des produits, efficacité alimentaire, résistance aux maladies). La précision des valeurs génétiques peut être augmentée, notamment pour les mâles dans le cas des caractères exprimés uniquement par les femelles. Enfin, l’intervalle de génération peut être diminué grâce à une évaluation précoce des candidats, notamment en sélection des poules pondeuses. Par ailleurs, l’évaluation génomique offre pour la première fois la possibilité de sélectionner des individus de race pure de l’étage de sélection pour leur valeur en croisement et dans le milieu de production. Les coûts de mise en oeuvre de la sélection génomique sont élevés, en raison de la taille de la population de référence nécessaire à une évaluation précise, du nombre élevé de candidats à génotyper et de la variété des populations à sélectionner. Toutefois, chez les volailles, l’énorme diffusion des reproducteurs pourrait permettre de compenser ces coûts.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Légaré, Jacques. « Les religieuses du Canada : leur évolution numérique entre 1965 et 1980 ». Articles 10, no 1 (12 avril 2005) : 7–21. http://dx.doi.org/10.7202/055437ar.

Texte intégral
Résumé :
L'enquête réalisée en 1965 par la Conférence religieuse canadienne (section féminine) auprès des communautés religieuses du pays a apporté des précisions sur une situation de fait que l'on soupçonnait déjà, mais dont l'ampleur et le rythme d'évolution donnaient lieu à une marge considérable de spéculations. L'analyse de ce recensement des religieuses tentait de définir leur situation actuelle à partir de divers critères tels que l'âge, les origines familiales, les qualifications académiques, etc. . . . De plus, à l'aide de quelques questions rétrospectives, il fut possible d'estimer l'évolution qu'a subie cette population au cours de la période 1940-1964, ainsi que les tendances qui se dessinent en ce qui concerne son renouvellement et sa structure future. Les deux phénomènes les plus caractéristiques de la situation actuelle chez les religieuses se sont révélés être le vieillissement incontestable de cette population et la baisse générale du recrutement, baisse qui se manifeste depuis 1940, mais qui s'est accentuée entre 1960 et 1965.2 À preuve ce commentaire des analystes : « Nous n'avons pu établir de projections scientifiques — pour le problème du recrutement cela est d'ailleurs difficile — mais la diminution très forte entre 1960 (1,981 entrées au noviciat) et 1964 (1,377) donne tout lieu de croire que ce phénomène de baisse continuera quelques années avant de se stabiliser ». Devant de telles conclusions, il nous a semblé intéressant de tenter de tracer, à partir des données rassemblées par cette enquête, un schéma de l'évolution démographique future des religieuses canadiennes. L'entreprise n'est pas simple. Tout un ensemble de facteurs sociaux complexes et difficilement prévisibles peuvent venir bouleverser nos projections, si méticuleusement eussent-elles été préparées : c'est là un risque qui menace fort souvent le démographe qui ose prétendre soulever le voile de l'avenir. Dans le cas présent, nous croyons ce risque raisonnable et comme pouvant être utile. En effet le souci de ceux qui ordonnent ces enquêtes auprès des membres de communautés religieuses est en général de vouloir connaître non seulement le présent mais aussi un peu l'avenir. L'analyse de l'enquête faite au Canada n'a pas été très explicite sur ce sujet. Il en est d'ailleurs de même pour l'analyse de l'enquête qui avait été demandée par la Commission épiscopale du clergé et des séminaires de France. Pour ce faire, il faut la connaissance de certaines techniques de prévisions démographiques et, il faut l'admettre, un peu d'audace. Ceci dit, nous croyons valables les calculs que nous avons effectués, calculs qui nous permettent, à partir de l'évolution passée et de certaines hypothèses, d'entrevoir comment évoluera la situation au cours des quinze prochaines années. Notre but est donc d'établir les effectifs globaux et les distributions par groupe d'âges des religieuses canadiennes en 1970, 1975 et 1980, compte tenu de l'évolution récente qui s'est manifestée dans ce groupe. En analyse démographique, toute perspective repose évidemment sur l'analyse des phénomènes de fécondité, de mortalité et de migration de la population concernée. Le lecteur comprendra facilement que l'on doive effectuer pour le cas présent quelques transpositions d'ordre technique: entrée en religion, mortalité et non-persévérance dans les ordres constitueront donc les trois phénomènes à la base de nos perspectives. Avant d'analyser l'évolution passée et future par rapport aux trois phénomènes décrits ci-haut, nous passerons en revue quelques-uns des résultats de l'enquête de 1965, lesquels nous permettront de connaître la situation en l'année de base de nos perspectives.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Mahdi, Haddad. « Contribution Au Calcul Simplifié De La Correction Orthométrique En Nivellement De Précision ». مجلة الواحات للبحوث والدراسات, 2017, 121. http://dx.doi.org/10.54246/1548-010-001-002.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Guellal, Amar, Chérif Larbès et Linda Hassaine. « Une nouvelle approche MLI basée sur le principe des réseaux de neurone pour la commande des onduleurs ». Journal of Renewable Energies 15, no 1 (23 octobre 2023). http://dx.doi.org/10.54966/jreen.v15i1.300.

Texte intégral
Résumé :
Les onduleurs sont des convertisseurs statiques continu/alternatif qui assurent des échanges d’énergie entre une source et une charge. Ces onduleurs sont utilisés pratiquement dans toutes les applications photovoltaïques (autonomes, hybrides et connectées au réseau). Les techniques de modulation de largeur d'impulsion (MLI) sont primordiales aux bonnes performances des onduleurs. Le but de ce travail est de démontrer un nouvel algorithme MLI en temps réel basé sur le principe des réseaux de neurone qui présente une précision de calcul pratiquement égale à celle de la technique de Patel et al., permettant ainsi une élimination des premiers harmoniques sélectionnés et un asservissement du fondamental.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Bencherif, Kada, et Houari Tadj. « Approche d'estimation du volume-tige de peuplements forestiers par combinaison de données Landsat et données terrain ». Revue Française de Photogrammétrie et de Télédétection, no 215 (10 novembre 2020). http://dx.doi.org/10.52638/rfpt.2017.343.

Texte intégral
Résumé :
Une approche méthodologique s'appuyant sur la combinaison de données satellitaires et données de terrain est proposée pour l’estimation du volume-tige de peuplements forestiers hétérogènes ou peu homogènes. L'objectif est d'évaluer la disponibilité forestière, en inventoriant moins de 1% de la surface étudiée et avec une précision max de 15%. L'approche consiste en la réalisation de trois étapes principales : i) Analyse de la variance sur le volume-tige, ii) classification des données satellitaires et iii) Désignation et inventaire des pixels-échantillons. L'analyse et le calcul de la variance permet d'orienter les calculs du volume en fonction de sa variabilité dans les différentes strates de la forêt alors que la classification des données satellitaires vise à obtenir une stratification de la forêt. La troisième étape consiste en la sélection de pixels-échantillons sur l'image classifiée puis la géolocalisation, l'installation et le cubage des placettes-terrain correspondantes (même dimension spatiale que le pixel de l'image utilisée). Appliquée sur une futaie peu homogène de pin d'Alep (forêt de Tlemcen, Nord-Ouest algérien), l'approche a permis d'estimer un volume global sur pied du peuplement égal à 30 595 m3 m3±15.6% et ce en inventoriant 0.4% seulement de la surface totale. L'analyse de variance sur 12 placettes-échantillons a mis en évidence le caractère peu homogène de la forêt et la faible variabilité du volume-tige. Cependant, Elle fait apparaître aussi qu'une stratification apporte une légère amélioration à la précision (15.6%) contre 17.6% sans stratification. La classification supervisée d'une image Landsat (Mai 2002) par la méthode du maximum de vraisemblance (précision moyenne de 96%) a permis de stratifier la zone étudiée en six classes (forêt très dense, forêt dense, forêt claire, matorral, herbacées, autres). Pour chaque strate de forêt, le cubage complet de 4 placettes-échantillons comparables en dimension au pixel (30m—30m), a fourni le volume-tige moyen par pixel alors que la généralisation de celui-ci à l'ensemble des pixels a permis de déterminer le volume total de chaque strate. Vu les confusions générées par la classification supervisée au profit des objets pistes, routes et matorral, le volume global a été revu à la baisse (taux de réduction de 10%) et la valeur du volume total corrigé était de 27 535 m3±15.6%, une précision, bien que non conforme à celle exigée par l'aménagement forestier (max ±10%), s'approche de celle généralement admise (une moyenne de ±15%) pour certains inventaires simplifiés.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Ke, Wang, Weina Ke, Celia Chevallier et Michel Cence. « Recherche d’endommagement par corrosion au droit de zones sous supportages complexes ». e-journal of nondestructive testing 28, no 9 (septembre 2023). http://dx.doi.org/10.58286/28460.

Texte intégral
Résumé :
Avec le vieillissement des installations industrielles, la recherche d’endommagements par corrosion au droit de zones inaccessibles (notamment sous supportages de tuyauterie) par les méthodes conventionnelles de CND attire de plus en plus l'attention. L'objectif principal étant d'évaluer la conformité de l'épaisseur résiduelle en regard de l'épaisseur de calcul des composants contrôlés. Les solutions actuelles sont apportées principalement par des techniques d’examen ultrasonores conventionnelles, multiéléments ou EMAT, à moyenne et longue portée, telles que la technique Multibonds, la technique CHIME et les techniques d’ondes guidées, avec une incertitude significative sur la précision d'évaluation de l’extension en profondeur des zones de corrosion détectées. ONET Technologies a réalisé nombreuses prestations de contrôle de zones sous supportage de tuyauteries à géométries complexes en milieux hostiles. Plus de 10 années d’expériences sur le terrain nous ont permis de développer une solution de contrôle novatrice, intégrant notamment, le développement d’un scanner motorisé dédié, l’amélioration des performances de détection et de quantification par l’utilisation combinée de différentes techniques ultrasonores, l’étude de nouveaux algorithmes d'analyse et le développement d’un outil informatique permettant d’accroitre la précision de mesure et de réduire l’impact du facteur humain. Ce nouveau produit développé par ONET dans le cadre d’un projet de R&D subventionné par France Relance permet une quantification et un suivi en service beaucoup plus précis de l'épaisseur résiduelle minimale des zones de corrosion détectées sous la forme d’une profilométrie de la perte d’épaisseur en zone affectée avec ses incertitudes associées. Dans cet article nous allons présenter les résultats de nos développements.
Styles APA, Harvard, Vancouver, ISO, etc.
42

ASTRUC, J. M., G. BALOCHE, D. BUISSON, J. LABATUT, G. LAGRIFFOUL, H. LARROQUE, C. ROBERT-GRANIÉ, A. LEGARRA et F. BARILLET. « La sélection génomique des ovins laitiers en France ». INRA Productions Animales 29, no 1 (5 juillet 2019). http://dx.doi.org/10.20870/productions-animales.2016.29.1.2515.

Texte intégral
Résumé :
Après une présentation du contexte de la sélection ovine laitière française et de la stratégie de sélection génomique qui en découle, cet article retrace l’ensemble des travaux de recherche et développement entrepris depuis 2009 pour mettre en oeuvre cette stratégie et qui débouchent sur le déploiement de la sélection génomique en 2015. Sont abordés successivement la constitution des populations de référence, les investissements en méthodes et stratégies de calcul d’index génomique, les résultats de précision des index génomiques en ovins laitiers, l’expérimentation génomique originale mise en oeuvre en race Lacaune, la conception, la modélisation et l’optimisation de schémas de sélection génomique adaptés aux spécificités des races ovines laitières, les choix opérés par les entreprises et organismes de sélection et leurs conséquences organisationnelles et contractuelles. Les perspectives ouvertes par la sélection génomique sont évoquées : inclusion de nouveaux caractères, plus grande flexibilité, meilleure gestion de la variabilité génétique. La sélection génomique est effective depuis 2015 en race Lacaune et devrait être déployée en 2017 dans les races Pyrénéennes.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Dia, Amadou Tidiane. « Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence ». European Scientific Journal ESJ 1 (30 janvier 2023). http://dx.doi.org/10.19044/esipreprint.1.2023p435.

Texte intégral
Résumé :
Le bassin versant de Ogo connait par des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé dans le but de mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traiter, stocker et analyser dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, chose confirmer par l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire. Les classes de susceptibilité sont reparties de très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45% de surface de susceptibilité tandis que la classe très forte occupe 20,28% par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89%. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60% signifie l’échec de la méthodologie par la non précision des résultats obtenue par contre un taux supérieur ou égale à 70% signifie un taux de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Dia, Amadou Tidiane. « Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence ». European Scientific Journal ESJ 1 (21 janvier 2023). http://dx.doi.org/10.19044/esipreprint.1.2023.435.

Texte intégral
Résumé :
Le bassin versant de Ogo connait par des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé dans le but de mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traiter, stocker et analyser dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, chose confirmer par l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire. Les classes de susceptibilité sont reparties de très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45% de surface de susceptibilité tandis que la classe très forte occupe 20,28% par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89%. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60% signifie l’échec de la méthodologie par la non précision des résultats obtenue par contre un taux supérieur ou égale à 70% signifie un taux de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Bascoulergue, Adrien. « Précisions sur le calcul du préjudice économique du conjoint survivant ». Actualité juridique du dommage corporel, no 6 (30 janvier 2016). http://dx.doi.org/10.35562/ajdc.714.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
46

Pouteau, Sylvie. « Intelligences végétales, entre agro-écologie et agriculture numérique ». Le design de l’« intelligence artificielle » à l’épreuve du vivant 9, no 1 (2 juin 2020). http://dx.doi.org/10.25965/interfaces-numeriques.4149.

Texte intégral
Résumé :
L’intelligence des plantes met l’intelligence artificielle au défi de répondre de façon adaptée aux enjeux de la transition écologique et du changement climatique. L’approche éthico-biologique adoptée ici considère la portée d’une redéfinition de la vie végétale entre « dignification » subjective et conditionnement numérique. L’intelligence des plantes suppose qu’on leur reconnaisse une capacité à poursuivre leurs propres fins, et donc une entéléchie. Elle en appelle à notre propre intelligence pour interpréter avec précision la cohérence organisée et orientée des mouvements morphiques de métamorphose. Ce qui ne peut être calculé exige notre participation dans de nouvelles pratiques éthico-esthétiques où la relation avec les plantes représente une forme d’écosophie indispensable au déploiement de l’agro-écologie.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Hilger, Geoffroy. « Précisions sur le calcul de l’indemnité réparant le préjudice économique de l’ayant droit d’une victime de l’amiante ». Actualité juridique du dommage corporel, no 21 (1 juillet 2020). http://dx.doi.org/10.35562/ajdc.1455.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
48

Tabet-Helal, Fouzi, Brahim Sarh et Iskender Gökalp. « Etude par simulation numérique des caractéristiques d’une flamme de diffusion turbulente avec co-courant d’air d’un mélange de CH4 - H2 ». Journal of Renewable Energies 10, no 2 (12 novembre 2023). http://dx.doi.org/10.54966/jreen.v10i2.780.

Texte intégral
Résumé :
Ce travail est consacré à la mise en évidence par simulation numérique des caractéristiques d’une flamme de diffusion turbulente avec co-courant d’air de méthane enrichie avec de l’hydrogène. La configuration adoptée est constituée d’un mélange de méthane et d’hydrogène dilué dans de l’azote. Elle est caractérisée par des rapports de densité et de vitesses élevés à l’injection. Pour les calculs, la turbulence est modélisée avec l’approche RSM (Reynolds Stress Model) et l’interaction chimie turbulence est représentée par le modèle EDC (Eddy Dissipation Concept). Les caractéristiques de la flamme (longueur, épaisseur, maximum de température, quantités de CO et CO2 produites) sont prédites avec une bonne précision. Dans la première section radiale de la zone proche de l’injection, les maximums de température et de la fraction massique de H2O sont calculés correctement. Par ailleurs, du fait de la présence de forts gradients de densité et de vitesses à l’injection, l’entraînement est sous-estimé et l’épanouissement radial des profils de température et des espèces chimiques est surestimé. Dans les autres sections, les résultats sont en bon accord avec les mesures.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Djanna, Francis, Nicolas Rouger, Didier Saury, Patrice Joubert et François Penot. « Sensibilité de la stratification thermique de l’air à des conditions aux limites radiatives et à des variations géométriques dans une cavité en convection naturelle à haut nombre de Rayleigh ». Journal of Renewable Energies 13, no 3 (25 octobre 2023). http://dx.doi.org/10.54966/jreen.v13i3.207.

Texte intégral
Résumé :
Dans le cadre du programme de recherche COCORACOPHA (COnduction COnvection Rayonnement COndensation Pour l’HAbitat), soutenu par le PIE2 du CNRS, une expérience de convection naturelle a été mise en place pour aider à la connaissance des écoulements et à la maîtrise des transferts thermiques aux grandes valeurs du nombre de Rayleigh, de l’ordre de 1,2 × 1011. Ceci doit se faire pour des écarts de température de l’ordre de la dizaine de degrés pour rester dans le cadre de l’hypothèse du fluide de Boussinesq et des applications aux habitacles. Il en résulte la réalisation d’une cavité remplie d’air (H = 3,84 m; L = 1m; l = 0,86 m). Deux parois verticales en vis-à-vis différentiellement chauffées sont maintenues à température constante grâce à des bains thermostatés, régulés avec précision. Les quatre autres faces sont constituées d’isolant thermique, pouvant être recouvert intérieurement d’un mince film de faible émissivité. La stratification thermique, dans le coeur notamment, est comparée à celles déjà obtenues dans des cavités de plus petites tailles et dans des cavités carrées (de rapport de forme vertical égal à 1). L’influence de l’émissivité des parois est examinée et une comparaison est effectuée avec les calculs numériques DNS-3D publiés par [Trias et al., 2010].
Styles APA, Harvard, Vancouver, ISO, etc.
50

Wade-Cummings, Molly, Jonathan F Mailman, Michelle L. Degelman, Casey Phillips et Jason R. Vanstone. « Identification of Staphylococci by Polymerase Chain Reaction Directly from a Positive Blood Culture and Effect on Patient Care ». Canadian Journal of Hospital Pharmacy 74, no 1 (20 janvier 2021). http://dx.doi.org/10.4212/cjhp.v74i1.3039.

Texte intégral
Résumé :
Background: As one of the most common bloodstream infections worldwide, Staphylococcus aureus bacteremia places a major burden on health care. Implementation of a rapid, genetic-based diagnostic test may have important implications in the clinical management of patients with S. aureus bacteremia. Objectives: The primary objective was to assess concordance between testing based on polymerase chain reaction (PCR) and the current gold standard, culture and sensitivity testing; the secondary objective was to assess the impact of this technology on patient care. Methods: A pre–post intervention retrospective chart review was used to document the hospital course of patients with a diagnosis of S. aureus bacteremia before and after implementation of the PCR-based diagnostic system. Laboratory results from all patient samples subjected to PCR-based analysis following implementation of this system were compared with culture and sensitivity data for the same samples to determine accuracy of the new system. In addition, time to optimal therapy for each patient was calculated as the interval between the initiation of empiric and terminal therapies. The appropriateness of antimicrobial treatment was characterized as guideline-concordant, nonconcordant with the guidelines, or nonconcordant yet still clinically appropriate. Results: In total, 98 and 99 patients met the inclusion criteria before and after implementation of the PCR-based diagnostic system, respectively. PCR-based results displayed 99.8% concordance (440/441 total samples) with results from culture and sensitivity testing. The time to optimal therapy was significantly shorter after implementation, by a mean of 22.8 h (p < 0.001). Overall, 97% of empiric and 99% of terminal antimicrobial regimens were either guideline-concordant or clinically appropriate for treatment of S. aureus bacteremia; 3% of empiric and 1% of terminal antimicrobial regimens were nonconcordant with clinical guidelines without any explanation based on other clinical considerations. Conclusions: The study findings support the utility of using a direct-from-positive-blood-culture PCR-based diagnostic tool as the primary method of identifying S. aureus bacteremia in patients, as well as the acceptance of and acting upon the new assay’s results by our local clinicians. PCR-based assays can help reduce the time to optimal terminal therapy for patients with bacteremia. RÉSUMÉ Contexte : La bactériémie à Staphylococcus aureus (BAC-SA), qui est l’une des infections du sang les plus répandues dans le monde, fait peser une lourde charge sur les soins de santé. La mise en place d’un test diagnostique génétique rapide pourrait avoir des retombées importantes sur la gestion clinique des patients présentant une BAC-SA. Objectifs : L’objectif principal consistait à évaluer la concordance entre les tests basés sur la réaction en chaîne par polymérase (PCR) et le test de sensibilité et de culture, qui est la référence absolue actuelle; l’objectif secondaire consistait à évaluer l’impact de cette technologie sur les soins des patients. Méthodes : Un examen rétrospectif des dossiers pré- et post-intervention a servi à décrire le séjour à l’hôpital des patients ayant reçu un diagnostic de BAC-SA avant et après la mise en place du système de diagnostic de la PCR. Les résultats de laboratoire de tous les échantillons des patients soumis à une analyse de la PCR à la suite de la mise en place de ce système ont été comparés avec les données relatives à la culture et à la sensibilité de ces mêmes échantillons afin de déterminer la précision du nouveau système. De plus, l’évaluation du délai d’atteinte du traitement optimal de chaque patient repose sur le calcul de l’intervalle entre le début des thérapies empiriques et terminales. La pertinence du traitement antimicrobien était caractérisée comme suit : concordance avec les lignes directrices, non-concordance avec les lignes directrices ou non-concordance mais encore approprié d’un point de vue clinique. Résultats : Au total, 98 et 99 patients ont satisfait au critère d’inclusion respectivement avant et après la mise en place du système de diagnostic de la PCR. Les résultats basés sur la PCR affichaient une concordance de 99,8 % (440/441 échantillons au total) avec les résultats des tests de sensibilité et de culture. La diminution du délai d’atteinte du traitement optimal était importante après la mise en place du système, puisqu’elle atteignait en moyenne 22,8 h (p < 0,001). De manière générale, 97 % des régimes antimicrobiens empiriques et 99 % des régimes antimicrobiens terminaux concordaient avec les lignes directrices ou étaient cliniquement appropriés pour le traitement de la BAC-SA; 3 % des régimes antimicrobiens empiriques et 1 % des régimes antimicrobiens terminaux n’étaient pas conformes aux lignes directrices cliniques sans qu’aucune explication basée sur d’autres considérations cliniques n’ait été donnée. Conclusions : Les résultats de l’étude confirment la nécessité d’utiliser un outil diagnostique basé sur la PCR directement de l’hémoculture positive en guise de méthode principale pour déterminer la présence de BAC-SA chez les patients ainsi que l’acceptation et l’utilisation des nouveaux résultats du test par nos cliniciens locaux. Les tests basés sur la PCR peuvent aider à réduire le délai d’attente du traitement optimal pour les patients atteints de BAC-SA.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie