Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Précision de prédiction.

Zeitschriftenartikel zum Thema „Précision de prédiction“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-47 Zeitschriftenartikel für die Forschung zum Thema "Précision de prédiction" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

DABILGOU, Téré, Oumar SANOGO, S. Augustin Zongo, Tizane Daho, Belkacem Zeghmati, Jean KOULIDIATI und Antoine BERE. „Modélisation thermodynamique de combustion mono-zone de biodiesels dans un moteur diesel et estimation théorique des émissions potentielles“. Journal de Physique de la SOAPHYS 2, Nr. 1a (13.02.2021): C20A10–1—C20A10–10. http://dx.doi.org/10.46411/jpsoaphys.2020.01.10.

Der volle Inhalt der Quelle
Annotation:
Dans le présent travail, un modèle thermodynamique de combustion à zone unique pour le carburant diesel et le biodiesel a été mis en oeuvre pour prédire la pression du cylindre afin de mieux comprendre la combustion caractéristique des différents carburants testés dans un moteur diesel et d’analyser les performances caractéristiques d'un même moteur fonctionnant avec différents types de carburants. Il s’est agi également d’évaluer les émissions potentielles de ces carburants lors de leurs combustions dans le moteur diesel. L'évaluation du modèle est faite en fonction de la complexité temporelle, de la complexité spatiale et de la précision de la prédiction à l'aide du programme informatique développé sous MATLAB. Les résultats du présent modèle montrent que les évolutions de la pression du cylindre ainsi que la température du cylindre ont été reproduites avec une bonne précision. En outre, la comparaison entre les paramètres de performance simulés et expérimentaux du moteur a montré une bonne concordance. Les resultatas montrent également des réductions des émissions polluantes avec l’utilisation des carburants alternatifs comparés au diesel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Barrier-Battut, Isabelle. „Évaluation de la qualité du sperme de l’étalon“. Le Nouveau Praticien Vétérinaire équine 12, Nr. 44 (2017): 29–35. https://doi.org/10.1051/npvequi/44029.

Der volle Inhalt der Quelle
Annotation:
Les analyses classiques effectuées sur les spermatozoïdes d’étalon permettent de prédire la fertilité dans une certaine mesure. Leurs limites sont bien connues : pour le sperme frais, environ 24 p. cent des chevaux à qualité de sperme jugée “insuffisante” sont pourtant fertiles, et environ 20 p. cent des chevaux à qualité de sperme jugée “acceptable” sont cependant infertiles. Des analyses approfondies des différents compartiments cellulaires, notamment grâce à la cytométrie, peuvent apporter des informations complémentaires. De plus, pour prédire la fertilité, il n’est pas suffisant d’analyser individuellement les différents critères de qualité des spermatozoïdes par rapport à des “seuils d’acceptabilité” pour chaque critère. Il est nécessaire d’évaluer la qualité du sperme dans son ensemble, car des mécanismes compensatoires sont possibles. Aucun test ne permet à lui seul, de prédire la fertilité avec suffisamment de précision. Aucun test ne permet à lui seul, de prédire la fertilité avec suffisamment de précision. La Jumenterie du Pin a développé une technique d’examen et un modèle statistique qui permet de prédire la fertilité du sperme, frais ou congelé, d’un étalon, à partir l’analyse globale de plusieurs critères de qualité des spermatozoïdes. Les examens incluent notamment l’analyse automatisée de mobilité et la cytométrie. Cette technique disponible dès maintenant améliore considérablement la prédiction de la fertilité, par rapport aux analyses classiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Munoz, Alain. „EVALUATION PAR VALIDATION INDEPENDANTE DES PREDICTIONS DES PARAMETRES FORESTIERS REALISEES A PARTIR DE DONNEES LIDAR AEROPORTE“. Revue Française de Photogrammétrie et de Télédétection 1, Nr. 211-212 (06.12.2015): 81–92. http://dx.doi.org/10.52638/rfpt.2015.547.

Der volle Inhalt der Quelle
Annotation:
L’utilisation des données LiDAR aéroporté pour modéliser, caractériser et cartographier la ressource forestière esteffective depuis une dizaine d’années dans les pays d’Amérique du Nord ou d’Europe du Nord. Néanmoins, en France, il existe peu d’exemples d’applications forestières du LiDAR sur de grandes surfaces, dans des contextes forestiers souvent plus complexes et hétérogènes que les forêts boréales et les grandes pinèdes du nord de l’Europe. Dans cette étude, la méthode dite « surfacique », qui consiste à calibrer des modèles empiriques de régression mettant en relation des paramètres dendrométriques mesurés sur le terrain avec des métriques dérivées des données LiDAR, est évaluée sur trois sites forestiers français. Les modèles de prédiction se basent sur les métriques usuelles dérivées du nuage de points LiDAR, ainsi que sur des métriques calculées à partir d'une individualisation préalable des houppiers des arbres dominants. Une validation indépendante, à l’échelle du peuplement, a permis d’évaluer la fiabilité des modèles de prédiction sur des surfaces de l'ordre d’un hectare, pertinentes pour le gestionnaire. Les résultats montrent qu’il est possible de caractériser la ressource forestière dans différents peuplements, allant des hêtraies ou pinèdes régulières de plaine aux sapinières-pessières hétérogènes de montagne. L'erreur des modèles (RMSE) estimée par validation croisée à l'échelle de la placette est de 14 à 22 % (R² de 0,75 à 0,90) pour la surface terrière, de 7 à 8 % (R² de 0,76 à 0,96) pour le diamètre dominant et de 17 à 32 % (R² de 0,50 à 0,88) pour la densité de tiges. La validation indépendante à l’échelle du peuplement montre une bonne fiabilité des modèles quel que soit le paramètre forestier étudié, et tant qu’ils sont utilisés dans leur domaine de validité. Les écarts entre les moyennes des prédictions et les mesures de référence terrain sont de l’ordre de 10 à 15 % pour la surface terrière, de 6 à 8% pour le diamètre dominant et de 10 à 33% pour la densité de tiges. Ces résultats démontrent, sur des surfaces unitaires d’environ un hectare, que l'inventaire par LiDAR aérien peut atteindre une précision équivalente à celle des méthodes traditionnelles de terrain, y compris pour des forêts complexes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

PEREZ, J. M. „Prévision de l’energie digestible des aliments pour le porc : intérêt du dosage des parois végétales par voie enzymatique“. INRAE Productions Animales 3, Nr. 3 (03.07.1990): 171–79. http://dx.doi.org/10.20870/productions-animales.1990.3.3.4371.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre d’un programme général de recherches sur la prévision de la valeur énergétique des aliments composés destinés au Porc, cette étude avait pour objet d’évaluer l’intérêt d’une nouvelle méthode rapide de dosage des parois végétales par voie enzymatique mise au point par l’INRA (PAR : Parois insolubles dans l’eau). L’expérimentation portait sur un ensemble de 43 régimes complexes, dont on a cherché en particulier à diversifier la nature des sources de fibres alimentaires. Les mesures de valeur énergétique (ED) ont été réalisées sur des porcs mâles castrés appartenant à la même gamme de poids (40 kg environ), à raison de quatre animaux par régime (172 bilans digestifs au total). Pour accroître la précision des résultats analytiques et la portée des équations de prédiction, les aliments expérimentaux ont fait l’objet de dosages répétés dans plusieurs laboratoires. Sur la base des critères classiques de sélection des équations (écart-type résiduel, R2), les modèles de prédiction mettant en jeu la variable PAR apparaissent dans l’ensemble les plus précis. Cependant, ils ne présentent pas d’avantage décisif par rapport aux modèles de prévision incluant la cellulose brute ou les résidus pariétaux selon Van Soest. Si on combine les erreurs liées aux modèles (ETR) et les erreurs associées aux analyses (SLAB), les équations avec PAR s’avèrent toujours préférables à celles utilisant les autres indicateurs de parois. Les meilleurs modèles faisant intervenir PAR aboutissent à des équations de prévision de l’énergie digestible dont l’incertitude totale (équation + analyses) n’excède pas 75 kcal par kg de matière sèche. L’équation 25 (Lipides, PAR, Cendres, MAT) s’avère la plus intéressante.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Ricard, Anne. „Les marqueurs génétiques pour les aptitudes“. Le Nouveau Praticien Vétérinaire équine 17, Nr. 59 (2023): 20–25. http://dx.doi.org/10.1051/npvequi/2024010.

Der volle Inhalt der Quelle
Annotation:
Les marqueurs génétiques sont des différences entre chevaux dans la séquence de l’ADN. L’outil puce SNP (Single Nucleotid Polymorphism) permet de génotyper 60 000 différences ponctuelles d’une base de l’ADN pour un coût inférieur à 50 € (hors brevets). La chaîne de traitement de l’information génomique sera opérationnelle en France en 2025 pour tout cheval soumis au contrôle de filiation. Pour les caractères mono- ou oligo-géniques tels que les robes ou certaines pathologies, ce génotypage permet de déduire directement le phénotype du cheval et de gérer les accouplements à risque. Certains caractères complexes sont sous l’influence de gènes à effet majeur : la qualification et l’absence de faute aux allures pour le Trotteur Français, la distance en course pour le Pur-Sang anglais, la taille pour beaucoup de chevaux de selle. Dans ce cas, la connaissance du génotype augmente les probabilités de réalisation du caractère concerné, mais le résultat n’est pas binaire. Enfin, pour les caractères complexes, une évaluation incluant toutes les données génomiques permet une augmentation de la précision et une meilleure prédiction des performances des produits.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Nichelli, Lucia, Mehdi Touat, Bertrand Mathon, Franck Bielle, Marc Sanson, Magorzata Marjanska, Stephane Lehericy und Francesca Branzoli. „Précision diagnostique de la spectroscopie mega-press dans la prédiction de la mutation IDH: nos premiers résultats en clinique“. Journal of Neuroradiology 50, Nr. 2 (März 2023): 143. http://dx.doi.org/10.1016/j.neurad.2023.01.062.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Corniaux, Christian, Hubert Guérin und H. Steingass. „Composition chimique et dégradabilité enzymatique et in vitro d'espèces ligneuses arbustives utilisables par les ruminants dans les parcours extensifs de la Nouvelle-Calédonie. II. Equation de prédiction de la dégradabilité enzymatique et in vitro de la m“. Revue d’élevage et de médecine vétérinaire des pays tropicaux 49, Nr. 2 (01.02.1996): 158–66. http://dx.doi.org/10.19182/remvt.9534.

Der volle Inhalt der Quelle
Annotation:
En Nouvelle-Calédonie, comme dans de nombreux autres pays, il n'est pas envisageable à court terme de mettre en oeuvre toutes les méthodes d'évaluation des fourrages. Par ailleurs, la valeur alimentaire des arbustes fourragers est relativement méconnue comparativement à celle des herbacées. Aussi cette étude établit-elle des équations de prédiction de quelques facteurs liés à la valeur nutritive des ligneux tropicaux récoltés sur les zones de parcours néo-calédoniens. II s'agit, d'une part de critères déterminés par les méthodes enzymatiques: dégradabilité enzymatique de la matière organique (SMO) et des matières azotées dégradées par la pronase (MApro); et, d'autre part, par la méthode in vitro: dégradabilité in vitro de la matière organique (dMOgt) et des matières azotées (MAgt) par la méthode de production des gaz. Cette étude montre notamment la difficulté de déterminer ces équations à partir de critères chimiques simples (MAT, NDF, ADF) couramment utilisés pour les espèces herbacées. Leur teneur généralement élevée en lignines, la distribution de leurs matières azotées partiellement bloquées au niveau des parois indigestibles et la présence de tanins rendent nécessaire l'emploi de critères chimiques tels qu'ADL, MAadf et MAnadf (matières azotées liées ou non à l'ADF) dans le cas des arbres et arbustes fourragers. La précision des équations est néanmoins acceptable notamment pour la dMOgt et pour la famille des Fabacées. En revanche, les équations ne sont pas applicables pour MApro (sauf pour les Fabacées).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Robert, C., O. Banton, P. Lafrance und J. P. Villeneuve. „Analyse de sensibilité paramétrique d'un modèle simulant le transport de pesticide dans le sol“. Revue des sciences de l'eau 5, Nr. 2 (12.04.2005): 197–210. http://dx.doi.org/10.7202/705128ar.

Der volle Inhalt der Quelle
Annotation:
Afin de protéger l'eau souterraine des pesticides épandus à la surface des sols agricoles, on doit être capable de prédire et d'évaluer a priori les risques de contamination. La modélisation mathématique, qui est basée sur la représentation des processus, s'avère être un outil à privilégier pour une telle prédiction. Cependant, la fiabilité des résultats de ces modèles est fonction de la précision et de la représentativité des différents paramètres d'entrée. A l'aide d'une analyse de sensibilité, il est possible d'évaluer l'impact de la variabilité de ces paramètres sur les résultats de la modélisation. Une étude de sensibilité menée avec le modèle Pesticide Rosit Zone Model (PRZM) a permis d'identifier les paramètres physiques d'entrée dont la variation apporte le plus de changements au niveau des principaux résultats, c'est-à-dire les paramètres d'entrée auxquels le modèle est le plus sensible. L'utilisation du coefficient de sensibilité relatif s'avère être à cet égard un outil de comparaison fort efficace dans le cadre d'une telle étude. Les paramètres d'apport en eau (précipitations) et en pesticide (taux d'application) sont ceux dont les variations provoquent le plus d'impact au niveau des résultais de la simulation. Egalement, les résultats des simulations sont aussi sensibles aux variations de la capacité au champ et de la densité du sol. La température, le point de flétrissement, ta profondeur d'évaporation et la dispersion sont des paramètres auxquels la modélisation est peu sensible.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gilliot, Jean-Marc, Emmanuelle Vaudour, Joël Michelin und Sabine Houot. „Estimation des teneurs en carbone organique des sols agricoles par télédétection par drone“. Revue Française de Photogrammétrie et de Télédétection, Nr. 213 (26.04.2017): 105–15. http://dx.doi.org/10.52638/rfpt.2017.193.

Der volle Inhalt der Quelle
Annotation:
La matière organique (MO) est un élément important de la fertilité des sols cultivés. Les mesures de réflectance ont déjàété utilisées avec succès pour prédire la teneur en carbone organique (CO) des sols agricoles, soit au laboratoire surdes échantillons de sols séchés, soit directement au champ à l'aide de spectro-radiomètres de terrain ou grâce à desimages satellitaires. Cette étude propose une méthode de prédiction spatialisée du CO des sols, à partir d'imageriedrone. Une parcelle agricole de 13 ha « la Grande Borne », située dans la plaine de Versailles (78), a été suivie en avril2013, peu avant le semis alors qu'elle était encore en sol nu. Le drone AIRINOV® utilisé était équipé de la caméramultispectrale quadri-bande multiSPEC 4C® (550nm, 660nm, 735 nm et 790 nm) et évoluait à une altitude de 150 m.Vingt-trois placettes de contrôle au sol, réparties dans la parcelle, ont été délimitées par des cibles géolocaliséescentimétriquement par DGPS et ont fait l'objet de mesures synchrones au vol drone : mesures spectrales de terrain(ASD FieldSpec 3®), mesures de rugosité par une méthode photogrammétrique, prélèvements d'échantillons de solpour analyse de la composition chimique et de la teneur en eau. Les images obtenues d'une résolution de 15cm ont étégéoréférencées avec une précision infra-pixellaire. Les spectres de terrain ont été agrégés sur les bandes spectrales de2la multiSPEC® 4C afin de valider par régression linéaire la qualité des données de réflectance du drone. Les Robtenus, entre 0,8 et 0,9 selon les bandes, ainsi que l'erreur comprise entre 1 et 3% en réflectance, ont montrés lafiabilité du capteur multiSPEC 4C®. La teneur en CO a ensuite été estimée par régression des moindres carrés partiels(PLSR) à partir des mesures spectrales sur les 23 placettes. L'erreur quadratique moyenne de validation croisée(RMSECV) par la méthode LOO (Leave One Out) était de 1,97 g de CO par kg de sol. Un second modèle intégrant lacorrection des effets de l'humidité et de la rugosité sur la réflectance, a permis d'améliorer la qualité de la prédiction de18% avec une RMSECV de 1,61 g/kg. Le modèle a enfin été spatialisé sous SIG et comparé à de simples interpolationsspatiales des analyses de sol.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

SACRAMENTO, Isabelle Tèniola, Guy Apollinaire MENSAH und Jean-Marc ATEGBO. „Détermination de l’âge de l’aulacode par le poids du cristallin de l’œil“. Journal of Applied Biosciences 181 (31.01.2023): 18917–24. http://dx.doi.org/10.35759/jabs.181.4.

Der volle Inhalt der Quelle
Annotation:
Objectifs : Conscient que la qualité de la viande varie en fonction de l’âge, la détermination de l’âge de l’aulacode gibier dans le but de comparer la qualité organoleptique, microbiologique et technologique de sa viande à celle de l’aulacode d’élevage est indispensable ce qui justifie la présente étude. Méthodologie et résultats : L’âge de 24, 36 et 48 semaines respectivement des 150 aulacodes tous sexes confondus (50 aulacodes par tranche d’âge) étudiés était connu avec précision au moment du prélèvement du cristallin. Un total de 60 aulacodes sauvages ou aulacodes gibiers dont 30 aulacodins et 30 aulacodines, avec des âges estimés à 7, 8 et 12 mois, abattus par des chasseurs a été utilisé dans cette étude. La technique de Lord (1959) modifiée par Martinet (1966) a été employée. Dès leur abattage, les aulacodes âgés de 24, 36 et 48 semaines ont été mesurés, pesés pleins et vidés au kg puis sexés. Les deux yeux ont été prélevés entiers et intacts et mis dans un flacon d’eau formolée à 10%. Les yeux ont été conservés dans un flacon étanche à large ouverture en polyéthylène de PROLABO et n’ont pas été congelés. Le flacon a été muni d’une étiquette autocollante renseignée de façon indélébile où a été mentionnée la date de l’abattage, le sexe et le poids exact pesé plein et vide. Un séjour de 30 jours minimum dans une solution de formol a été nécessaire pour permettre la stabilisation du cristallin et sa manipulation sans risque de l’abimer. Les cristallins ont été alors extraits du globe oculaire, nettoyés et mis à dessiccation complète dans une étuve ventilée à 100° C pendant 24 heures. Ils ont été ensuite pesés au milligramme près (0,000). Enfin le poids moyen des cristallins a été calculé pour chaque tranche d’âge. Conclusion et application des résultats: La courbe établie permettra de déterminer avec précision l’âge des aulacodes d’élevage sans fiche de suivi, des aulacodes gibiers et des rongeurs apparentés à l’aulacode chaque fois que le processus de prélèvement du cristallin utilisé dans cette étude sera respecté. Mots-clés : Aulacodes, Bénin, détermination de l’âge, équation de prédiction, pesée de cristallin.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

VUILLEMIN, Jerôme. „Le cryptoméria de La Réunion (Cryptomeria japonica) : durabilité naturelle face aux champignons basidiomycètes et aux termites, et apports de la spectroscopie proche infrarouge dans la prédiction de ses caractéristiques“. BOIS & FORETS DES TROPIQUES 358 (25.12.2023): 73–74. http://dx.doi.org/10.19182/bft2023.358.a37418.

Der volle Inhalt der Quelle
Annotation:
Le cryptoméria (Cryptomeria japonica) est la seule essence de bois locale exploitable dans la construction à La Réunion. Cependant, sa durabilité variable face aux champignons basidiomycètes et aux termites constitue un frein au déploiement de son utilisation locale, où les conditions climatiques sont particulièrement favorables à la dégradation des matériaux biosourcés. Cette thèse a consisté à déterminer avec précision la durabilité naturelle de cette essence face à deux espèces de champignons ubiquistes basidiomycètes (Rhodonia placenta et Coniophora puteana) et deux espèces de termites (Coptotermes gestroi de La Réunion et Reticulitermes flavipes de France continentale), en réalisant un très large échantillonnage. À titre comparatif, du pin sylvestre (faiblement durable), du Red cedar (durable), ainsi que des bardages en cryptoméria exposés à La Réunion depuis 7 ans ont été testés dans les mêmes conditions, délavés ou non, et soumis aux organismes lignivores selon les protocoles normalisés européens en vigueur. En complément, la spectroscopie proche infra-rouge, couplée à la chimiométrie, est utilisée afin de prédire la durabilité face aux champignons basidiomycètes. Les résultats obtenus confirment la sensibilité du cryptoméria vis à vis des termites et attestent d’une très forte variabilité de la durabilité du cryptoméria face aux champignons. Les dispositions prévues dans la norme EN 350 (2016) ne permettent pas de classer cette essence car les valeurs de perte de masse (due à la dégradation des champignons) se répartissent dans les 5 classes de durabilité allant de « très durable » à « non durable ». Le délavage et le vieillissement naturel permettent de mieux appréhender la performance du cryptoméria et le classer « faiblement durable à non durable ». Le délavage n’a pas d’influence sur les performances du Red cedar et du pin sylvestre, lesquels restent classés « durable » et « faiblement durable » respectivement. La spectroscopie proche infra-rouge est finalement un outil performant pour la prédiction de la durabilité naturelle de ces essences face aux champignons. À l’aide de notre modèle robuste, cet outil prédictif contribuera à une utilisation optimale du cryptoméria en permettant une évaluation non-destructive de la durabilité de ce bois dans le but d’assurer une performance optimale, en particulier en zone ultramarine tropicale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

BESNIER, Jean-Baptiste, Frédéric CHERQUI, Gilles CHUZEVILLE und Aurélie LAPLANCHE. „Amélioration de la connaissance patrimoniale des réseaux d’assainissement de la métropole de Lyon“. TSM 12 2023, TSM 12 2023 (20.12.2023): 169–77. http://dx.doi.org/10.36904/tsm/202312169.

Der volle Inhalt der Quelle
Annotation:
La métropole de Lyon s’est fixé pour objectif de reconstituer l’ensemble des dates de pose et des matériaux des conduites d’assainissement de son patrimoine. Cette communication présente les résultats de plusieurs années de travail soutenues par l’agence de l’eau Rhône Méditerranée Corse. Pour la reconstitution, deux axes de recherches sont privilégiés, ils sont inspirés des résultats du projet de recherche Hireau. Le premier axe porte sur l’implémentation de méthodes statistiques (apprentissage machine) pour reconstituer les informations manquantes à partir de données connues sur le patrimoine. L’approche a été adaptée au jeu de données lyonnais et fournit des estimations des dates de pose et des matériaux des réseaux d’assainissement. Un travail d’optimisation a ensuite permis d’améliorer la prédiction grâce à une augmentation de la précision et du rappel (proportion d’éléments correctement retournés parmi ceux qui existent) pour le matériau, et une réduction de la plage d’estimation pour la date de pose. Le deuxième axe porte sur l’utilisation de connaissances provenant de sources multiples. L’exploitation des données supplémentaires, comme les rapports d’inspections télévisées, permet d’obtenir directement le matériau de la conduite. La création de scripts de propagation d’information sous contrainte par parcours de graphes a également permis de renseigner des années de poses manquantes. Nous proposons dans cette communication de rendre compte des démarches mises en œuvre, et des résultats obtenus. L’objectif étant d’inciter d’autres collectivités à obtenir ces informations essentielles pour la gestion de leur patrimoine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

DAUMAS, Gérard. „Classification des carcasses de porc dans l’Union européenne : aperçu historique et défis d’harmonisation“. INRAE Productions Animales 36, Nr. 4 (20.12.2023): 7871. http://dx.doi.org/10.20870/productions-animales.2023.36.4.7871.

Der volle Inhalt der Quelle
Annotation:
La filière porcine a pour finalité essentielle de produire de la viande commercialisable. Depuis un demi-siècle, l’exigence majeure en termes de composition des carcasses concerne la teneur en viande maigre. Cette teneur est prédite dans les abattoirs par des méthodes de classement autorisées au niveau européen. La définition de cette teneur a changé en 2018 et les États membres l’adoptent progressivement. De nouveaux modèles d’appareils, utilisant les ultrasons, la visionique ou l’induction magnétique, sont apparus sur le marché, permettant pour certains d’accéder à de nouvelles mesures. Le développement de la production de mâles entiers a modifié la composition du cheptel dans beaucoup de pays. Les objectifs de cette synthèse sont de faciliter la compréhension des modalités de classement dans l’UE, de faire le point sur les méthodes autorisées et leur précision, d’anticiper les prochains changements et d’émettre quelques recommandations pour une bonne utilisation des résultats individuels de classement. Au 1er janvier 2023, 126 méthodes de classement, utilisant une vingtaine d’appareils, relevant de quatre technologies, étaient autorisées dans l’UE. Seuls huit pays avaient des méthodes prédisant le nouveau critère de référence. Les technologies à induction magnétique et ultrasons sont en moyenne plus précises que celles utilisant la réflectance et la visionique. Les méthodes automatiques sont également plus précises. Néanmoins, une très grande variabilité existe selon les méthodes, l’erreur de prédiction étant comprise entre 1,1 et 2,5 points de pourcentage de muscle. Bien que la règlementation européenne ait permis d’atteindre un certain degré d’harmonisation du classement entre États membres, des biais entachent la comparabilité des résultats.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Bastianelli, Denis, und Laurent Bonnal. „Evaluation de la qualité des produits du canard gras“. Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, Nr. 3 (27.06.2015): 135. http://dx.doi.org/10.19182/remvt.10176.

Der volle Inhalt der Quelle
Annotation:
La caractérisation des produits animaux est importante autant pour le suivi de leur qualité que pour la recherche de leur amélioration par des voies d’amélioration génétique ou de pro­cédés technologiques. L’enjeu est particulièrement important pour des filières à forte valeur ajoutée, comme le canard gras.Dans le cadre d’essais sur l’amélioration génétique du canard (2), des méthodes rapides – spectroscopie proche infrarouge (SPIR) – de prédiction de la qualité ont été testées pour le foie gras et pour le filet (magret). Il s’agissait de permettre la mesure sur un grand nombre d’échantillons de paramètres dont la méthode de référence est particulièrement longue (matières grasses [MG] par extraction Folch, rendement technologique, entre autres) et d’étudier la possibilité de les appliquer ensuite dans l’industrie.Les spectres des échantillons ont été acquis sur un spectromètre ASD Labspec, directement sur le produit entier (foie ou magret), sans préparation. L’étalonnage a été réalisé avec des mesures de composition chimique (matière sèche [MS], minéraux, protéines, MG) ou technologique (par exemple taux de fonte pour le foie, pertes à la cuisson pour le filet) (1).La précision des étalonnages a varié selon les paramètres (tableau I). Les paramètres de composition proximale ont glo­balement été bien prédits (MS, MG, protéines) avec des valeurs de R² comprises entre 0,80 et 0,90. Certains constituants bio­chimiques comme le collagène ont été moins facilement prédits (R² = 0,19), soit par manque de variabilité dans la population, soit par des défauts dans les mesures de référence. Les propriétés technologiques du filet sont difficiles à approcher par SPIR, avec par exemple une valeur de R² = 0,19 pour la prédiction de la perte à la cuisson. En revanche, la qualité technologique du foie évaluée par le taux de fonte est assez bien prédite (R²=0,85) pour permettre une évaluation objective du produit.Dans un second temps les étalonnages réalisés ont été appli­qués à l’étude de la variabilité intra-échantillon : 46 spectres acquis sur toute la surface d’un foie gras ont permis d’établir des cartes de répartition des constituants et des propriétés des foies, comme le montre la figure 1 pour le taux de fonte.Les calibrations réalisées ont permis de prédire la composition chimique de plusieurs milliers d’échantillons, et d’évaluer les paramètres génétiques (héritabilité) et de rechercher des locus de caractères quantitatifs (2). La base de données générée a également permis de décrire la variabilité des paramètres de qualité. L’étude de la variabilité de composition au sein même d’un échantillon permet de mieux comprendre l’élaboration des propriétés technologiques. Par ailleurs des essais sont actuelle­ment en cours chez un industriel pour utiliser ces résultats dans la caractérisation du foie en routine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Gingery, Joel W., Ayla Sen Embil, J. Daniel Robinson, James A. Jernigan, Luz M. Labrada und Marie Larouche. „Serum Phenobarbital Concentration Predictions by a Personal Computer Software System“. Drug Intelligence & Clinical Pharmacy 21, Nr. 11 (November 1987): 895–900. http://dx.doi.org/10.1177/106002808702101110.

Der volle Inhalt der Quelle
Annotation:
The ability of a personal computer software system to predict actual serum phenobarbital concentrations (SPC) in outpatients taking phenobarbital chronically was assessed by comparing actual with predicted SPC for accuracy, bias, and precision. Data for a four-year period were collected on patients at an outpatient clinic's pharmacokinetic consultation service. The study group included 50 adults and children with at least one SPC taken at a known time after dose administration. Input variables were weight, sex, height, age, concomitant drugs and diseases, phenobarbital dosage regimen, and the time and reported value of all SPC. Initially, SIMKIN (SIMulated KINetics) simulated dosing regimens on the basis of literature estimates of pharmacokinetic parameters; SPC were then estimated for these regimens and compared with actual values. One or two additional SPC were added to the input data and analyzed, and the predicted SPC compared with actual values. Although SIMKIN's accuracy and bias as measured by regression analysis and mean prediction error, respectively, were within clinically acceptable limits, the precision was not. However, these results are limited by the population studied. Patient compliance, concomitant Phenytoin therapy, changes in phenobarbital pharmacokinetic parameters with chronic dosing, and disease interactions may significantly affect predictive ability. The clinical effects of these factors need to be evaluated to further improve predictions. Extracto Se evaluó la habilidad de un programa de computadora (SIMKIN = SIMulated KINetics) para predecir la concentration sérica de fenobarbital en pacientes bajo tratamiento crónico con la droga. Se compararon las concentraciones séricas reaies con las calculadas por el programa para determinar la exactitud, predisposición y precisión del mismo. Se recopiló data de pacientes que fueron atendidos en una clínica de consultoría farmacocinética por un período de cuatro años. El grupo de estudio consistió de 50 adultos y niños de los cuales se obtuvo al menos un valor de concentración sérica de fenobarbital a un tiempo dado luego de administrarsele la dosis. Las variables incluidas fueron el peso, sexo, altura, edad, otras drogas y los valores de todas las concentraciones séricas obtenidas. Se estimaron las concentraciones séricas con el programa, y se compararon con los valores reales. Aunque luego del análisis estadistico de la data, la exactitud y predisposición del programa de computadora se encontraron dentro de los límites clínicos aceptables, la precisión no lo fué. El cumplimiento con la terapia de parte del paciente, cambios en los parámetros farmacocinéticos de fenobarbital, y la presencia de otras enfermedades entre otros factores pueden haber afectado significativamente la habilidad predictiva del programa. Resume SIMKIN (SIMulated KINetics) est un programme informatisé utilisé pour simuler la pharmacocinétique de plusieurs médicaments. Dans cette étude, on a voulu évaluer la capacité de SIMKIN à prédire les concentrations sériques de phénobarbital (CSP) chez des patients externes prenant cette médication de façon chronique; on a donc comparé les valeurs réelles des CSP avec celles prédites, du point de vue exactitude, déviation et précision. Les données ont été recueillies dans les dossiers de 50 adultes ou enfants fréquentant un service externe de consultation pharmacocinétique depuis quatre ans. Au moins une CSP déterminée à un moment connu après l'administration du phénobarbital (P) était disponible pour chaque patient. Les variables considérées étaient le poids, le sexe, la grandeur, l'âge, les médicaments et pathologies concomitantes, la posologie du P, les CSP et les heures de prélèvements. Initialement, SIMKIN utilisait des paramètres pharmacocinétiques estimés à partir de la littérature pour prédire les CSP; il comparait ainsi les valeurs prédites avec les valeurs réelles. Par la suite, une ou deux valeurs de CSP réelles étaient entrées dans le programme; SIMKIN analysait ces CSP, réaljustait les paramètres pharmacocinétiques en fonction de celles-ci puis comparait les valeurs prédites avec celles obtenues. Bien que l'exactitude et la déviation de SIMKIN, tel que mesurés respectivement par une analyse de régression et l'erreur moyen de prédiction, étaient acceptables cliniquement, la précision ne l'était pas. Cependant, ces résultats sont limités par la population étudiée. Les prédictions peuvent être influencées de façon significative par la compliance des patients, l'utilisation concomitante de phénytoïne, des changements dans les paramètres pharmacocinétiques du phénobarbital lors d'une utilisation chronique et les interactions médicamenteuses. Les effets cliniques de ces facteurs devront être évalués pour améliorer les prédictions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Simard, R. R., und S. Beauchemin. „Relation entre la richesse du sol en phosphore et la concentration en phosphore de l'eau de drainage dans deux agro-écosystèmes“. Revue des sciences de l'eau 15 (12.04.2005): 109–20. http://dx.doi.org/10.7202/705489ar.

Der volle Inhalt der Quelle
Annotation:
Des concentrations en P excédant le seuil d'eutrophisation sont fréquemment mesurées dans l'eau des affluents du fleuve Saint-Laurent au Québec, Canada. Un enrichissement excessif en P des sols agricoles en serait la source. Une norme relative à la saturation en P des sols a été proposée comme critère de risque de contamination en P des eaux de surface. L'objectif de ce travail est d'étudier le lien entre la richesse en P du sol et la teneur en P de l'eau de drainage dans deux agro-écosystèmes du Québec. Le bassin versant de la rivière Boyer (BVB), dominé par des sols en pente, une forte densité animale et des productions fourragères et les Basses Terres de Montréal (BTM), dominées par des sols plats utilisés pour la production intensive de maïs et une faible densité animale sont étudiés. Le degré de saturation en P des sols du BVB est de 8 à 10 % alors que celui des BTM dépasse très souvent 15 %. Le pool du P organique est plus faible dans les sols des BTM que dans le BVB. La concentration moyenne en P de l'eau de drainage est plus élevée dans les sols du BVB (171 µg L-1) que dans ceux des BTM (98 µg L-1). Elle est corrélée à la teneur en P extrait à l'oxalate des sols argileux et à la teneur en P soluble dans l'eau ou à l'index de sorption en P des sols grossiers. Ces relations sont plus étroites pour la couche 0-5 cm de sol que pour les couches plus profondes. Les résultats de cette étude démontrent qu'il est difficile de prédire la concentration en P de l'eau de drainage de sols contrastants. Regrouper les sols selon leur texture améliore la précision de la prédiction de la teneur en P de l'eau de drainage à partir de leurs propriétés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Courivaud, Jean-Robert, Laurent del Gatto, Kamal El Kadi Abderrezzak, Christophe Picault, Mark Morris und Stéphane Bonelli. „Le projet Overcome : comprendre et modéliser les processus d’érosion par surverse des digues et barrages en remblai constitués de matériaux grossiers à granulométries étalées“. Revue Française de Géotechnique, Nr. 178 (2024): 6. http://dx.doi.org/10.1051/geotech/2024009.

Der volle Inhalt der Quelle
Annotation:
La prédiction de l’érosion par surverse des digues de protection contre les crues et des barrages en remblai constitue l’une des difficultés majeures dans l’analyse de la sûreté de ces ouvrages. Bien qu’identifié comme étant le mécanisme de rupture dominant de près de la moitié des ruptures de digues fluviales, les méthodes et outils dont disposent les ingénieurs pour le caractériser, de manière déterministe, restent encore très limités. Notamment, la caractérisation du processus d’érosion, en termes géométriques et temporels, prenant en compte le comportement des matériaux constitutifs du remblai et de sa fondation et les spécificités des sollicitations hydrauliques sur les digues, n’est encore à la portée d’aucun outil de modélisation numérique validé au niveau requis. Les ingénieurs doivent donc, pour l’instant, se contenter d’approches recourant largement à l’empirisme : critères dits « de jugement d’expert » ou formules empiriques. Ces approches très simplifiées sont connues pour présenter de fortes incertitudes et ne pas garantir des résultats systématiquement du côté de la sécurité. C’est dans le but final d’améliorer significativement la robustesse et la précision des outils de prédiction de l’érosion par surverse pour les ingénieurs, qu’EDF et CNR ont décidé de lancer le projet de recherche Overcome. L’objectif de ce projet est d’inclure au sein de la plateforme numérique open source TELEMAC-2D des modules représentant différents types de processus physiques en lien avec les ruptures par surverse de digues, basés sur une approche expérimentale multi-échelles très poussée. Cette communication présente les tous premiers résultats de l’un des premiers sujets investigués par ce projet : la description des mécanismes physiques d’érosion par surverse des remblais constitués de sol grossiers à granulométrie étalés. Ces sols sont présents dans une grande partie des digues situées en zones montagneuses ou dans les vallées situées juste en aval. Une première série d’essais de surverse à petite échelle a été menée au laboratoire de l’Université Polytechnique de Madrid, en réalisant des remblais homogènes de 55 cm de hauteur à partir de trois matériaux différents : un sable assez uniforme, un gravier de granite et un sol alluvionnaire à granulométrie étalée, issu du site CNR de Montfaucon. Si les essais avec le remblai en sable ont confirmé le mécanisme attendu d’érosion de surface, il a été assez surprenant de voir des différences significatives de mécanisme d’érosion entre les matériaux de Montfaucon et graviers de granite. Dans le matériau de Montfaucon, le mécanisme s’apparente à de l’érosion de surface, tandis qu’avec le gravier de granite, le mécanisme d’érosion débute avec du « Headcut migration » puis évolue à la fin en érosion de surface. Par ailleurs, le sol de Montfaucon s’est avéré quatre fois moins érodable que le gravier de granite. Ces premiers résultats appellent à être confirmés par des essais de répétabilité à petite échelle et des essais à plus grande échelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

EZANNO, Pauline, Sébastien PICAULT, Nathalie WINTER, Gaël BEAUNÉE, Hervé MONOD und Jean-François GUÉGAN. „Intelligence artificielle et santé animale“. INRAE Productions Animales 33, Nr. 2 (15.09.2020): 95–108. http://dx.doi.org/10.20870/productions-animales.2020.33.2.3572.

Der volle Inhalt der Quelle
Annotation:
Mobiliser les approches issues de l’intelligence artificielle (IA) en santé animale (SA) permet d’aborder des problèmes de forte complexité logique ou algorithmique tels que rencontrés en épidémiologie quantitative et prédictive, en médecine de précision, ou dans l’étude des relations hôtes × pathogènes. L’IA peut dans certaines situations faciliter le diagnostic et la détection de cas, fiabiliser les prédictions et réduire les erreurs, permettre des représentations plus réalistes et lisibles par des non informaticiens de systèmes biologiques complexes, accélérer les décisions, améliorer la précision des analyses de risque et permettre de mieux cibler les interventions et d’en anticiper les effets. De plus, les fronts de science en SA engendrent de nouveaux challenges pour l’IA, du fait de la spécificité des systèmes, des données, des contraintes, et des objectifs d’analyse. Sur la base d’une revue de la littérature à l’interface entre IA et SA couvrant la période 2009-2019, et d’entretiens conduits avec des chercheurs français positionnés à cette interface, cette synthèse explicite les grands domaines de recherche en SA dans lesquels l’IA est actuellement mobilisée, comment elle contribue à revisiter les questions de recherche en SA et lever des verrous méthodologiques, et comment des questions de SA stimulent de nouveaux travaux en IA. Après avoir présenté les freins et leviers possibles, nous proposons des recommandations pour se saisir au mieux de l’enjeu que représente cette interface SA/IA.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Cladé, Pierre, und Lucile Julien. „Les mesures atomiques de haute précision. Un outil privilégié pour tester l’électrodynamique quantique“. Reflets de la physique, Nr. 59 (September 2018): 4–9. http://dx.doi.org/10.1051/refdp/201859004.

Der volle Inhalt der Quelle
Annotation:
À la fin des années 1940, l'étude des niveaux d'énergie de l'atome d'hydrogène et celle de l'anomalie du rapport gyromagnétique de l'électron ont été à l'origine de l'électrodynamique quantique. Aujourd'hui encore, les mesures réalisées dans les systèmes atomiques simples, telles que celles que nous menons au laboratoire Kastler Brossel, permettent de tester les prédictions de cette théorie à un niveau de précision extrême qui, à ce jour, n'a pas réussi à la mettre en défaut.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

de Montgolfier, Sandrine. „Quand médecine de précision et médecine prédictive s’entrecroisent“. Cahiers Droit, Sciences & Technologies, Nr. 8 (13.03.2019): 31–40. http://dx.doi.org/10.4000/cdst.673.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Beringer, Paul M., Annie Wong-Beringer und Jay P. Rho. „Predictive Performance of a Vancomycin–Aminoglycoside Population Model“. Annals of Pharmacotherapy 32, Nr. 2 (Februar 1998): 176–81. http://dx.doi.org/10.1345/aph.17129.

Der volle Inhalt der Quelle
Annotation:
OBJECTIVE: To evaluate the Wragge–Cooper method of predicting vancomycin serum concentrations utilizing knowledge of aminoglycoside pharmacokinetic parameters in general medicine and intensive care unit populations, and to develop a revised model if necessary. DESIGN: This study consists of two phases evaluating 50 adults receiving concurrent vancomycin and aminoglycoside therapy. Patients were identified by a retrospective review of medical records. Bayesian analysis of measured serum aminoglycoside and vancomycin concentrations was performed to determine the individualized pharmacokinetic parameters. Phase I of the study tested the predictive performance of a published model incorporating aminoglycoside elimination (Wragge–Cooper) in 25 patients (group 1), and a revised model was developed. Phase II determined the predictive performance of the revised model (revised) and its performance relative to the Wragge–Cooper model and a traditional model incorporating estimated creatinine clearance (traditional) in an additional 25 patients (group 2). SETTING: Two tertiary care university teaching hospitals. MAIN OUTCOME MEASURES: The predictive performance of the models was determined by comparing predicted with measured vancomycin serum concentrations. Bias and precision were evaluated by calculating the mean prediction error (ME) and mean absolute error (MAE), respectively. Linear regression was performed to determine relationships between parameters. RESULTS: The Wragge–Cooper model consistently underpredicts vancomycin serum concentrations in general medicine and intensive care unit populations (ME = −5.18, MAE = 6.63). Relative predictive performance analysis indicates no significant difference in bias or precision between the traditional and Wragge–Cooper models (ΔME 1.17, ΔMAE −0.80). Regression analysis of individualized aminoglycoside and vancomycin elimination derived from patients in group 1 reveals the following relationship: vancomycin k10 (1/h) = 0.081 + 1.037ke, amg, r = 0.73. The revised model is significantly less biased and more precise compared with the traditional model (ΔME −4.48; ΔMAE 1.22), and is significantly less biased (ΔME 4.29) but no more precise than the Wragge–Cooper model (ΔMAE −0.58), using patients from group 2. CONCLUSIONS: The revised model is an accurate method of predicting vancomycin serum concentrations in both general medicine and intensive care unit populations. Use of this model enables individualization of vancomycin dosage in patients receiving concurrent aminoglycoside therapy and minimizes vancomycin serum concentration monitoring. OBJETIVO: Evaluar el modelo Wragge-Cooper de predecir concentraciones séricas de vancomicina utilizando lo parámetros farmacocinéticos de aminoglucósidos determinados en pacientes internados en las salas de cuidado intensivos y medicina general. De acuerdo al resultado de las predicciones, se desarrollará un modelo revisado de ser necesario. DISEÑO: Este estudio consiste de dos fases, evaluando un 50 adultos recibiendo terapia concurrente de vancomicina y aminoglucósido. Los pacientes fueron identificados por una revisión retrospectiva de los expedientes médicos. Se hizo un análisis Bayesiano de las concentraciones séricas de vancomicina y aminoglucósido para determinar los parámetros farmacocinéticos individuales. La fase I del estudios era para examinar la ejecución predictiva del modelo publicado incorporando la eliminación del aminoglicósido (Wragge-Cooper) en 25 pacientes (grupo 1), y se desarrolló un modelo revisado, da fase II consistía en examinar la ejecución predictiva del modelo revisado y su ejecución comparada al modelo Wragge-Cooper y al modelo tradicional incorporando la depuración de creatinina estimada en 25 pacientes adicionales (grupo 2). ESCENARIO: Dos hospitales universitarios de cuidado terciario. MEDICIÓN DE RESULTADOS: La ejecución predictiva de los modelos fue determinada por la comparación entre los valores predecidos y los medidos de las concentraciones séricas de vancomicina. El sesgo y la precisión fueron evaluados a base del cálculo del error medio predecido (EM) y el error absoluto medio (EAM), respectivamente. Se hizo una regresión lineal para determinar la relación entre ambos parámetros. RESULTADOS: El modelo Wragge-Cooper consistentemente sub-predice las concentraciones séricas de vancomicina en las poblaciones estudiadas (EM = −5.18; EAM = 6.63). Un análisis de ejecución predictiva relativa indica que no existe diferencia significativa en sesgo o precisión entre el modelo tradicional y el de Wragge-Cooper (Δ EM1.17; ΔEAM −0.80). El analisis de regresión de las depuraciones de creatinina individualizadas de vancomicina y aminoglucósidos derivado de los pacientes del grupo 1, revela la siguiente relación: vancomicina K10 (1/h) = 0.081 + 1.037 (Kelamg), r = 0.73. El modelo revisado es significativamente menos sesgado y más preciso al compararse con el modelo tradicional (ΔEM −4.48; ΔEAM 1.22) y es significativamente menos sesgado (ΔEM 4.29) aunque no más preciso que el modelo Wragge-Cooper (ΔEAM −0.58), al examinar los resultados en los pacientes del grupo 2. CONCLUSIONES: El modelo revisado es un método certero de predecir las concentraciones séricas de vancomicina tanto en pacientes de cuidado intensivo así como los de medicina general. El uso de este modelo permite la individualización de la dosis de vancomicina en pacientes recibiendo terapia concurrente con aminoglucósido y disminuye la necesidad del seguimiento de las concentraciones séricas de vancomicina. OBJECTIF: Évaluer la méthode de Wragge-Cooper, une méthode permettant de prédire les concentrations sériques de vancomycine à partir des paramètres pharmacocinétiques des aminosides chez des patients de soins généraux et de soins intensifs. Réviser ce modèle, si nécessaire. DEVIS EXPÉRIMENTAL: Cette étude comportait deux phases et a évalué 50 malades adultes recevant un traitement concomitant de vancomycine et d'un aminoside. Une revue rétrospective des dossiers médicaux a permis d'identifier les sujets. Une analyse Bayésienne des concentrations sériques mesurées de vancomycine et d'aminosides a été effectuée afin de déterminer les paramètres pharmacocinétiques individualisés. La phase I de l'étude a évalué la performance prédictive du modèle de Wragge-Cooper chez 25 patients. Un modèle révisé a été développé au cours de cette phase. La phase II a évalué la performance prédictive du modèle révisé ainsi que sa performance comparativement au modèle de Wragge-Cooper et à un modèle traditionnel tenant compte de la clairance estimée à la créatinine chez 25 autres patients. LIEU DE l'ÉTUDE: Deux centres hospitaliers universitaires de soins tertiaires. MESURES DE L'EFFET: La performance prédictive des différents modèles a été déterminée en comparant les concentrations sériques prédites et mesurées de vancomycine. Les biais et la précision ont été évalués en calculant respectivement l'erreur moyenne de prédiction (EM) et l'erreur absolue moyenne (EAM). Une régression linéaire a été effectuée afin de déterminer les relations existant entre ces paramètres. RÉSULTATS: Le modèle de Wragge-Cooper sous-estime de façon constante les concentrations sériques de vancomycine des patients de soins généraux et de soins intensifs (EM = −5.18; EAM = 6.63). L'analyse de performance prédictive n'indique aucune différence significative en ce qui concerne les biais ou la précision entre les modèles traditionnel et de Wragge-Cooper (ΔEM 1.17; ΔEAM −0.80). L'analyse de régression des clairances individualisées d'aminoside et de vancomycine obtenue des patients du groupe 1 révèle la relation suivante: K10 vancomycine (1/h) = 0.081 + 1.037 (Kélaminoside), r = 0.73. Le modèle révisé est significativement moins biaisé et plus précis que le modèle traditionnel (ΔEM −4.48; ΔEAM 1.22), et significativement moins biaisé (ΔEM 4.29) mais pas plus précis que le modèle de Wragge-Cooper (ΔEAM −0.58) en utilisant les données obtenues des patients de la groupe 2. CONCLUSIONS: Le modèle révisé constitue une méthode précise permettant de prédire les concentrations sériques de vancomycine chez des patients de soins généraux et de soins intensifs. L'utilisation de ce modèle permet l'individualisation des doses de vancomycine chez les patients recevant un traitement concomitant d'aminoside et réduit le monitorage des concentrations sériques de vancomycine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

PEYRAUD, J. L., und F. PHOCAS. „Dossier " Phénotypage des animaux d'élevage "“. INRAE Productions Animales 27, Nr. 3 (25.08.2014): 179–1890. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3065.

Der volle Inhalt der Quelle
Annotation:
Avant-propos La demande mondiale en produits d’origine animale est en forte expansion1 et l’élevage est l’une des activités agricoles les plus fortement créatrices d’emploi et de valeur ajoutée, tant au niveau de la production et des services qu’elle utilise, que des filières de produits animaux. Mais dans le même temps, l’élevage doit faire face à des enjeux sociétaux qui nécessitent des évolutions importantes dans les modes de production : besoin de compétitivité encore accru, méthodes d’élevage contestées vis-à-vis des atteintes à l’environnement, du respect du bien-être animal et de l’usage des médicaments. Il s’agit de réfléchir ces défis au niveau européen et mondial. Produire plus, mieux et à moindre coût doit contribuer à assurer la sécurité alimentaire mondiale et à répondre aux attentes européennes en termes de systèmes de production et de marchés très diversifiés. L’Europe a ici une responsabilité toute particulière car si elle ne peut pas nourrir le monde, il est de sa responsabilité, en tant que région où la demande sociale est aujourd’hui la plus élevée, de montrer comment concilier production et environnement. Outre les innovations et les adaptations des systèmes d’élevage (cf. Numéro spécial de la revue « Quelles innovations pour quels systèmes d’élevage ? », Ingrand S., Baumont R. (Eds). INRA Prod. Anim., 27, 2), les réponses passent aussi par la recherche d’animaux qui soient d’une part, plus efficients pour transformer leur ration et plus faciles à élever dans une large gamme de conditions climatiques et de systèmes d’élevage et, d’autre part, adaptables face à des aléas climatiques, sanitaires ou économiques tout en préservant la santé, le bien-être et la qualité des produits. Par le passé, la recherche de la maximisation des performances de production (ex : vitesse de croissance, quantité de lait par lactation…) a conduit à des animaux de plus en plus spécialisés. Dans la plupart des filières, cette maximisation s’est accompagnée d’une dégradation des autres aptitudes d’élevage, aujourd’hui source d’inefficience en élevage. La recherche d’une plus grande robustesse (définie comme la capacité pour un animal d’exprimer son potentiel de production dans une large gamme d’environnements sans pour autant compromettre sa santé et son bien-être) devient une priorité. Dans le même temps,l’accès à des techniques d’exploration fonctionnelle toujours plus performantes, les innovations en cours d’appropriation ou à venir dans le domaine de la génomique ouvrent des perspectives d’investigation nouvelles plus précises. Dans ce contexte d’évolution des demandes et des possibilités d’investigation, les projets de recherche en sciences animales doivent être plus systémiques, prédictifs et permettre d’établir des relations fonctionnelles de plus en plus fines entre le phénotype des animaux, leur génotype et le milieu dans lequel il s'exprime. Face au développement spectaculaire des connaissances sur le génome, il y a un manque criant de connaissances sur l’expression des phénotypes, connaissances qui devraient permettre de répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : i) une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience de la production et la robustesse des génotypes, et ii) un élevage de précision qui valorise la variabilité individuelle des animaux pour gagner en efficience et en résilience à l’échelle du troupeau, ou pour améliorer la conduite des animaux d’un génotype donné. En effet, d’un coté les progrès réalisés par la sélection génomique permettent aujourd’hui de repenser les critères de sélection et de les diversifier tout en raccourcissant les délais entre la définition des objectifs et l’amélioration effective des cheptels, mais cette sélection entraine de nouveaux besoins de phénotypage car elle nécessite la caractérisation d’unepopulation de référence. D’un autre coté, la connaissance plus fine de l’animal associée aux technologies en émergence de l’élevage de précision permettra de mieux piloter la conduite d’élevage pour améliorer l’efficience de l’alimentation ou de la reproduction par une approche individuelle à l’animal, ainsi que par la production d’alertes à destination de l’éleveur pour un diagnostic précoce des troubles permettant d’anticiper les ajustements requis. Le phénotypage est ainsi l’un des principaux défis que doit relever les recherches en production animale et a été reconnu comme tel par l’INRA. Deux types de phénotypage peuvent être envisagés : le phénotypage des caractères d’intérêt socio-économique et le phénotypage de caractères plus élémentaires. Les phénotypes d’intérêt socio-économique constituent la finalité recherchée. Ils résultent de mécanismes faisant appel à des régulations complexes, ils sont d’autant plus onéreux à mesurer qu’il s’agit de critères zootechniques qui doivent être observés sur des pas de temps longs. La recherche de phénotypes plus élémentaires et plus proches du mécanisme causal rend plus facile l’identification des gènes responsables. Ce phénotypage fin implique de réaliser des mesures particulièrement approfondies et à des échelles élémentaires (au niveau moléculaire, cellulaire, tissulaire…) des caractéristiques biologiques de l’animal qui expliquent un phénotype complexe observé à l’échelle de l’animal. Le phénotypage à haut débit signifie qu’une méthode de mesure des phénotypes fiable, automatisable et rapide est établie de sorte que le processus de mesure permette de générer un grand nombre de données dans un laps de temps court. Le haut débit peut s’appliquer au phénotypage fin tout comme à celui des caractères d’intérêt zootechnique. Les contributions significatives qui pourront être attendues d’un phénotypage animal fin et à haut débit concernent la biologie prédictive, à savoir la prédiction des performances à partir de caractères simples observables précocement, nécessaire notamment à la gestion des produits, à la conduite de l’élevage et à la sélection animale. Ce dossier propose le fruit d’une réflexion globale des chercheurs de l’INRA sur les perspectives qu’offre le phénotypage des animaux pour répondre aux enjeux des productions animales. Cette réflexion a eu pour objectif de définir les grands enjeux de connaissance autour du phénotypage animal et de faire émerger les questions de recherches prioritaires, transversales ou spécifiques aux différentes filières animales ainsi que les verrous techniques qui sont soulevés. Cette réflexion a été conduite par un groupe de douze chercheurs2 des départements de « Génétique Animale », « Physiologie Animale et Systèmes d’Elevage » et « Santé Animale » travaillant dans des disciplines et sur des espèces variées, missionné par la Direction Scientifique Agriculture de l’INRA. La réflexion de ce groupe s’est appuyée sur celle d’un collectif plus large de chercheurs INRA travaillant sur les animaux d’élevage par le biais d’un séminaire organisé en mai 2013 ainsi que par la rédaction partagée des articles de ce dossier. L’amélioration de la robustesse des animaux d’élevage étant un objectif central, le premier article de ce dossier développe une approche systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales pour la sélection et pour la conduite de l’élevage. Les recherches sur le phénotypage doivent être accompagnées d’une ontologie générique c’est-à-dire d’une représentation et d’un langage communs pour partager les données et les connaissances, ainsi que l’explicite le second article de ce numéro. L’objet des trois synthèses suivantes est de mettre en perspective les fronts de science (phénotypage du microbiote intestinal), les enjeux de connaissance et les verrous techniques encore à lever pour permettre des productions animales de qualité (phénotypage de la qualité des produits) et en quantité (phénotypage de l’efficacité alimentaire), à moindres coûts économique et environnemental. 1 Selon la FAO et l’OCDE, la progression de la consommation de protéines d’origine animale sur la planète devrait se poursuivre au rythme de + 2 à + 3%/an au cours de cette décennie. Sur la période 2000-2050, la consommation totale des viandes devrait progresser de l’ordre de + 70% pour une population en augmentation de + 20%. Selon les mêmes sources et pour la même période la consommation de lait et produits laitiers dans les pays émergents devrait passer de 45 à 78 kg par habitant.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Moingeon, Philippe, Christiane Garbay, Muriel Dahan, Irène Fermont, Ali Benmakhlouf, Alain Gouyette, Pierre Poitou und Alain Saint-Pierre. „L’intelligence artificielle, une révolution dans le développement des médicaments“. médecine/sciences 40, Nr. 4 (April 2024): 369–76. http://dx.doi.org/10.1051/medsci/2024028.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle (IA) et l’apprentissage automatique produisent des modèles prédictifs qui aident à la prise de décisions dans le processus de découverte de nouveaux médicaments. Cette modélisation par ordinateur permet de représenter l’hétérogénéité d’une maladie, d’identifier des cibles thérapeutiques, de concevoir et optimiser des candidats-médicaments et d’évaluer ces médicaments sur des patients virtuels, ou des jumeaux numériques. En facilitant à la fois une connaissance détaillée des caractéristiques des patients et en prédisant les propriétés de multiples médicaments possibles, l’IA permet l’émergence d’une médecine de précision « computationnelle » offrant des traitements parfaitement adaptés aux spécificités des patients.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Mukendi, Pierrot. „Système décisionnel et Segmentation : Application aux données judiciaires“. British Journal of Multidisciplinary and Advanced Studies 5, Nr. 4 (07.08.2024): 11–22. http://dx.doi.org/10.37745/bjmas.2022.04156.

Der volle Inhalt der Quelle
Annotation:
L’informatique décisionnelle désigne les méthodes, les outils et les moyens qui permettent de collecter, consolider et modéliser les données d’une entreprise afin d’offrir une aide à la décision et de permettre au corps exécutif de l'entreprise d’avoir une vue d’ensemble de l’activité. Dans le domaine dynamique où la prise de décision basée sur les données occupe une place prépondérante, les entreprises sont constamment à la recherche du Saint Graal de la précision ou, comme nous pourrions l'appeler, des informations clés qui se détachent du bruit et ouvrent la voie du succès. C'est là qu'intervient l'importance de la segmentation des données. Elle n'est pas seulement un mot à la mode, c'est en fait un moteur stratégique qui permet aux entreprises de bénéficier d'une précision ciblée et d'informations pertinentes. Elle est l'élaboration d'un ensemble de données en sous-ensembles multiples, distincts et significatifs qui sont principalement basés sur des critères spécifiques.Il est question dans cet article d’appliquer K-means, qui est une technique de segmentation non hiérarchique sur les données judiciaires afin de les classer en groupes homogènes selon les critères retenus tels que le motif du dossier judiciaire par exemple. Ceci permettra aux gestionnaires de ces instances de mieux comprendre les données, de faire de prédictions, de voir les tendances et d’avoir des perspectives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Sam, I. M., und J. S. Ekpo. „Comparative evaluation of live body weight, linear body measurement and carcass characteristics of West African dwarf and red sokoto goats in Abak municipality, Akwa Ibom State“. Nigerian Journal of Animal Production 49, Nr. 4 (10.02.2023): 1–12. http://dx.doi.org/10.51791/njap.v49i4.3697.

Der volle Inhalt der Quelle
Annotation:
Goats are kept primarily for meat in Nigeria, their body weight and body dimensions are important carcass trait of interest. Several approaches have been adopted to utilize body weight and linear body measurement in predicting carcass composition in goats. However this information on prediction of carcass composition from body weight and linear body measurements is limited for goats raised in the southern region of Nigeria. A study was conducted to determine the relationship between live body weight, linear body measurements and carcass characteristics of West African dwarf (WAD) goats and Red Sokoto (RS) goats. Live body weight (LBW), Heart girth (HG), Body depth (BD), Rump height (RH), Height at wither (HW) and Body length (BL) were the linear body measurements. Neck, hind limbs, head, slaughtered weight; empty carcass, fore limb and warm carcass were measured for carcass traits. Internal offals weighed were spleen, liver, lung, heart, kidney and empty gut. Twenty West African Dwarf goats ( 10 males and 10 females weighed 15.00 ± 0.10kg and 14.25 ± 0.50kg respectively) and twenty Red Sokoto ( 10 males and 10 females weighed 21.80 ± 0.67kg and 20.50 ± 0.12kg respectively)between the ages of 2-3 years were used for this study. Data obtained were analyzed using t-test, correlation analysis and multiple regressions. Results showed that the mean live body weight of WAD goats and RS goats were 14.63±0.46 and 21.13±0.36, respectively. Average linear body measurements of WAD and RS goats showed significant (p<0.05) differences in all the parameters except BL with RS goats having higher values . Average carcass traits of the two breeds of goats were significantly (p<0.05) different in hind limb, slaughtered weight and fore limb weight in favour of RS goats. Internal edible offal weight of both breeds differed significantly (p<0.05) in spleen, heart and kidney. There were significant positive correlations (P<0.001) between live body weight and linear body measurements in both breeds Strong and positive significant correlation (P<0.05) were also observed between 2 linear body measurement and most of the carcass traits measured. The highest R values in both breeds of goat were obtained when all the body measurements were included in the regression equations. It can be concluded that the correlation between linear body measurements can serve as selection criteria in improving carcass traits for better meat production. Moreso, carcass traits could be estimated more accurately by combination of two or more linear measurements. Les chèvres sont élevées principalement pour la viande au Nigéria, leur poids corporel et leurs dimensions corporelles sont d'importants traits de carcasse intéressants. Plusieurs approches ont été adoptées pour utiliser le poids corporel et la mesure linéaire du corps dans la prédiction de la composition de la carcasse chez les chèvres. Cependant, ces informations sur la prédiction de la composition de la carcasse à partir du poids corporel et des mesures corporelles linéaires sont limitées pour les chèvres élevées dans la région sud du Nigéria. Une étude a été menée pour déterminer la relation entre le poids vif, les mesures corporelles linéaires et les caractéristiques de la carcasse des chèvres West African Dwarf (WAD) et des chèvres Red Sokoto (RS). Le poids vif (LPV), la circonférence du cœur (CC), la profondeur du corps (PC), la hauteur de la croupe (HC), la hauteur au garrot (HG) et la longueur du corps (LC) étaient les mesures corporelles linéaires. Cou, membres postérieurs, tête, poids abattu ; la carcasse vide, le membre antérieur et la carcasse chaude ont été mesurés pour les caractéristiques de la carcasse. Les abats internes pesés étaient la rate, le foie, les poumons, le cœur, les reins et l'intestin vide. Vingt chèvres de West African Dwarf (10 mâles et 10 femelles pesaient respectivement 15,00 ± 0,10 kg et 14,25 ± 0,50 kg) et vingt Red Sokoto (10 mâles et 10 femelles pesaient respectivement 21,80 ± 0,67 kg et 20,50 ± 0,12 kg) âgés de 2 ans -3 ans ont été utilisés pour cette étude. Les données obtenues ont été analysées à l'aide d'un test t, d'une analyse de corrélation et de régressions multiples. Les résultats ont montré que le poids vif moyen des chèvres WAD et des chèvres RS était de 14,63 ± 0,46 et 21,13 ± 0,36, respectivement. Les mesures corporelles linéaires moyennes des chèvres WAD et RS ont montré des différences significatives (p<0,05) dans tous les paramètres sauf LC, les chèvres RS ayant des valeurs plus élevées . Les traits de carcasse moyens des deux races de chèvres étaient significativement (p < 0,05) différents pour les membres postérieurs, le poids à l'abattage et le poids des membres antérieurs en faveur des chèvres RS. Le poids interne des abats comestibles des deux races différait significativement (p<0,05) dans la rate, le cœur et les reins. Il y avait des corrélations positives significatives (P<0,001) entre le poids vif et les mesures corporelles linéaires dans les deux races. Une corrélation significative positive et forte (P<0,05) a également été observée entre la mesure corporelle linéaire et la plupart des traits de carcasse mesurés. Les valeurs R les plus élevées dans les deux races de chèvres ont été obtenues lorsque toutes les mesures corporelles ont été incluses dans les équations de régression. On peut conclure que la corrélation entre les mesures corporelles linéaires peut servir de critère de sélection pour améliorer les caractéristiques de la carcasse pour une meilleure production de viande. De plus, les traits de carcasse pourraient être estimés avec plus de précision en combinant deux ou plusieurs mesures linéaires
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Terzic, A., T. Schouman und P. Scolozzi. „Précision des prédictions morphologiques en chirurgie orthognathique. Évaluation d’un procédé de fusion d’images 3D“. Revue de Stomatologie, de Chirurgie Maxillo-faciale et de Chirurgie Orale 114, Nr. 4 (September 2013): 276–82. http://dx.doi.org/10.1016/j.revsto.2013.06.007.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Tea, Pascal, und Guillaume Soulé. „Apport et utilisation de l’IA dans le domaine de l’aéronautique“. Annales des Mines - Réalités industrielles Mai 2024, Nr. 2 (14.06.2024): 128–32. http://dx.doi.org/10.3917/rindu1.242.0128.

Der volle Inhalt der Quelle
Annotation:
L’industrie de l’aviation exploite les données depuis longtemps, mais ce n’est que grâce à un paysage de données régulé et à l’utilisation d’un modèle sémantique de données (par exemple l’ontologie) que les opérations peuvent être optimisées et que l’IA peut être pleinement exploitée. L’IA a été utilisée pour des applications avancées, telles que la maintenance prédictive, l’analyse des problèmes de qualité et l’expérience client personnalisée, entre autres, mais n’a été une réussite qu’en ayant une organisation robuste sous-jacente de la donnée utilisée. Les large language models (LLM) en IA transforment déjà l’industrie des compagnies aériennes, mais à l’avenir cette révolution doit prendre en compte de matière native les risques autour de la sécurité et de la précision de ces outils.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

PHOCAS, F., J. AGABRIEL, M. DUPONT-NIVET, J. GEURDEN, F. MÉDALE, S. MIGNON-GRASTEAU, H. GILBERT und J. Y. DOURMAD. „Le phénotypage de l’efficacité alimentaire et de ses composantes, une nécessité pour accroître l’efficience des productions animales“. INRAE Productions Animales 27, Nr. 3 (28.08.2014): 235–48. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3070.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte de demande croissante en protéines animales, l’élevage de précision et la sélection animale doivent viser à accroître la compétitivité des systèmes de production et à réduire leur impact environnemental. Les animaux doivent être plus efficaces pour transformer leur ration (réduire l’ingéré tout en maintenant une production stable), en acceptant des ressources alimentaires variées (protéines ou fibres) et en minimisant leurs rejets (totaux ou leurs composantes N et P, GES). Toutefois, l’efficacité alimentaire est un phénotype complexe qui doit être phénotypé finement pour comprendre les processus biologiques sous-jacents avant d’identifier les leviers d’action pour l’améliorer (efficacité digestive vs métabolique ; efficacité énergétique vs protéique). Ce phénotypage doit être réalisé en conditions variées tant sur le plan du génotype, du niveau alimentaire que de la composition de la ration (teneur en fibres, en acides aminés). Il s’agit aussi d’envisager une approche prédictive de l’ingéré et de l’efficacité alimentaire basée sur des paramètres peu coûteux et faciles à mesurer (croissance, bio-marqueurs…) dans le cadre d’un élevage de précision ou de programmes de sélection génétique, car le phénotypage à large échelle de l’ingéré reste coûteux et parfois difficile à mettre en oeuvre. Pour évaluer l’efficience globale des systèmes de productions animales, il s’agit de considérer les réponses des animaux pour des génotypes et des régimes alimentaires contrastés en termes d’efficacité alimentaire et de rejets en quantité et en qualité (GES, N, P), mais aussi de robustesse des animaux (comportement alimentaire, activité générale, santé).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

LE BIHAN-DUVAL, E., R. TALON, M. BROCHARD, J. GAUTRON, F. LEFÈVRE, C. LARZUL, E. BAÉZA und J. F. HOCQUETTE. „Le phénotypage de la qualité des produits animaux : enjeux et innovations.“ INRAE Productions Animales 27, Nr. 3 (28.08.2014): 223–34. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3069.

Der volle Inhalt der Quelle
Annotation:
Maîtriser la qualité des produits issus des animaux d’élevage suppose de pouvoir l’objectiver à partir de mesures fiables, faciles d’utilisation et si possible précoces et non invasives. Les programmes de recherche-développement mis en place au sein des différentes filières animales (ruminants, porcins, volailles, poissons) concernent notamment i) la détection et la quantification des contaminants biologiques ou chimiques des produits, ii) la détermination de la composition et des propriétés technologiques des produits grâce à des méthodes alternatives aux mesures analytiques de laboratoire (mesures optiques ou par imagerie, mesures physiques non invasives), et iii) la recherche de marqueurs biologiques précoces de la qualité (marqueurs génétiques, expression de gènes ou de protéines, teneurs en métabolites) et leur validation par des approches de modélisation. Appliqué à un panel de plus en plus large de critères de qualité, ce phénotypage à haut débit est nécessaire au développement de la sélection génétique ou génomique, à la biologie prédictive et à l’élevage de précision.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Domenech, P. „La décision, cette inconnue…“. European Psychiatry 30, S2 (November 2015): S51. http://dx.doi.org/10.1016/j.eurpsy.2015.09.145.

Der volle Inhalt der Quelle
Annotation:
Qu’avons nous appris de l’architecture fonctionnelle des processus de prise de décision dans le cerveau humain grâce aux neurosciences computationnelles ? Dans un premier temps, nous verrons comment les modèles de diffusion ont permis de proposer des algorithmes de décision capable d’expliquer les relations complexes entre proportion de choix et temps de décision observés lors de décision simple, et de faire des prédictions testables sur l’activité cérébrale des régions impliquées dans ces processus cognitifs. En prenant l’exemple de choix économiques simples, nous illustrerons l’intérêt de ce cadre mathématique pour comprendre comment différentes régions cérébrales peuvent interagir pour produire des décisions reflétant nos préférences subjectives. Finalement, nous discuterons autour d’un modèle mathématique capable de détecter les changements d’environnements pour interrompre les tâches en cours et déclencher des phases actives d’exploration afin d’illustrer la façon dont les modèles computationnels permettent de détecter des transitions brutales dans les stratégies comportementales et de prédire avec précision l’activité cérébrale dans le cortex préfrontal humain. Nous conclurons sur l’importance du cadre théorique de l’inférence Bayesienne et, en particulier, des notions de confiance et d’incertitude pour caractériser les algorithmes utilisés par le cerveau humain pour choisir.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Montbriand, Muriel J. „Senior and Health-Professionals' Perceptions and Communication about Prescriptions and Alternative Therapies“. Canadian Journal on Aging / La Revue canadienne du vieillissement 19, Nr. 1 (2000): 35–56. http://dx.doi.org/10.1017/s0714980800016585.

Der volle Inhalt der Quelle
Annotation:
RésuméLes patients et les professionnels éprouvent de la difficulté à communiquer entre eux en ce qui concerne les ordonnances et les médecines parallèles. Cette recherche visait à étudier et à rapprocher les perceptions et les échanges de 714 aîné(e)s et professionnels de la santé sur ces produits de santé. D'abord, on a effectué des entretiens personnels et ethnographiques avec des professionnels de la santé et des aîné(e)s pour déceler les questions de préoccupation pertinentes. Ensuite, on a utilisé des groupes de discussion pour évaluer les questions et la formulation des éléments initialement développées. Troisièmement, une étude a permis d'établir des associations et la validité prédictive des variables des deux premières étapes. Parmi les grandes lignes des thèmes, on note des perceptions différentes sur (a) la valeur et l'utilisation des médecines parallèles, (b) la précision de l'information sur les ordonnances et les médecines parallèles et (c) la communication sur la mauvaise utilisation des ordonnances et l'utilisation des médecines parallèles. Les aîné(e)set les professionnels ont présenté des recommandations d'amélioration de la pratique clinique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Marie-Claire, C. „Existe-t’il une signature moléculaire de la réponse au lithium dans le trouble bipolaire ?“ European Psychiatry 29, S3 (November 2014): 558. http://dx.doi.org/10.1016/j.eurpsy.2014.09.367.

Der volle Inhalt der Quelle
Annotation:
Bien que le lithium soit le traitement de première ligne pour la prévention des rechutes dans le trouble bipolaire seuls 30 % des patients sont de bons répondeurs. Ainsi, un sous-groupe important des patients, traités avec du lithium, présente des taux élevés de rechute. En l’absence de marqueurs cliniques prédictifs de réponse il reste difficile de prédire avec précision quels patients répondront en évitant de les soumettre à de longues périodes de traitements au lithium. L’identification de biomarqueurs prédictifs est donc un enjeu majeur pour améliorer la prise en charge des patients bipolaires. Le mécanisme d’action du lithium est complexe car il exerce une action inhibitrice ou activatrice sur plusieurs voies de signalisation cellulaires. L’ensemble de ces cibles et effecteurs contribuent aux effets neuroprotecteurs dans le cerveau et de stabilisation de l’humeur et complexifient la compréhension de la réponse prophylactique au lithium. Les études visant à identifier une corrélation entre la réponse au lithium et des mutations de gènes ont produit des résultats controversés. Afin de mieux comprendre la variabilité de la réponse au lithium, une approche complémentaire aux études génétiques, consiste à étudier les effets moléculaires induits par un traitement aigu ou chronique au lithium. Il a ainsi été montré que le lithium module les niveaux d’expression de gènes au niveau des ARN messagers, des protéines aussi des miRNA dans plusieurs modèles in vivo et in vitro. Ces études ouvrent de nouvelles voies de recherche pour identifier des biomarqueurs de la réponse prophylactique au lithium pouvant être transférés en clinique afin d’éviter de longues périodes de traitement inefficace au lithium et élaborer des stratégies de traitement plus personnalisées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Lischka, Andrea R., Marissa Mendelsohn, Tom Overend und Dorothy Forbes. „A Systematic Review of Screening Tools for Predicting the Development of Dementia“. Canadian Journal on Aging / La Revue canadienne du vieillissement 31, Nr. 3 (09.08.2012): 295–311. http://dx.doi.org/10.1017/s0714980812000220.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉLa détection précoce de la démence est essentielle pour guider les praticiens en premier ligne de soins de santé concernant de nouvelles évaluations cliniques et des traitements. Il y a une pénurie de la littérature qui évalue l’efficacité des outils de dépistage pour prédire le développement de la démence; ainsi, nous avons effectué une revue systématique pour combler cette lacune. Le but de l’examen systématique était de formuler des recommandations pour les praticiens de soins de santé sur lequel outil de dépistage prévoit mieux le développement de la démence et serait la plus faisable dans le contexte de soins primaires. On a cherché dix bases de données, ce qui a donné 751 articles. Parmi eux, 12 ont satisfait les critères de pertinence pour être inclus. Les outils de dépistage ont été évalués pour la précision des tests, la couverture du domaine cognitif, la capacité prédictive, et la faisabilité. Quatre outils de dépistage ont été recommandées. L’Examen cognitive d’Addenbrooke (ECA) a été considéré comme l’outil idéal. Une version revisée de cet outil est utilisée maintenant dans la pratique clinique, mais les propriétés psychometriques de l’ECA-R restent à déterminer.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Coahran, Marge, Loretta M. Hillier, Lisa Van Bussel, Edward Black, Rebekah Churchyard, Iris Gutmanis, Yani Ioannou, Kathleen Michael, Tom Ross und Alex Mihailidis. „Automated Fall Detection Technology in Inpatient Geriatric Psychiatry: Nurses’ Perceptions and Lessons Learned“. Canadian Journal on Aging / La Revue canadienne du vieillissement 37, Nr. 3 (03.07.2018): 245–60. http://dx.doi.org/10.1017/s0714980818000181.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉLes personnes âgées hospitalisées présentent un haut risque de chute. Le système HELPER est un système de détection des chutes fixé au plafond qui envoie une alerte à un téléphone intelligent lorsqu’une chute est détectée. Cet article décrit la performance du système HELPER, qui a été testé dans un projet pilote mené dans un centre de santé mentale gériatrique. La précision du système pour la détection des chutes a été comparée aux données de l’hôpital liées à la documentation des chutes. Au terme du projet pilote, le personnel infirmier a été interviewé afin de documenter comment cette technologie était perçue. Dans cette étude, le système HELPER n’a pas permis de détecter une chute qui a été documentée par le personnel, mais en a détecté 4 autres qui n’avaient pas été documentées. Bien que la sensibilité du système soit élevée (0.80), les fausses alarmes qu’il génère diminuent sa valeur prédictive (0.01). Les entrevues avec le personnel infirmier ont permis de recueillir plusieurs informations utiles liées au fonctionnement de cette technologie dans un environnement réel; ces données seront utiles aux ingénieurs travaillant sur de tels systèmes et sur des technologies associées aux soins de santé et aux services sociaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Okon, B., L. A. Ibom, A. Dauda und A. B. Okon. „Egg morphometric analyses, phenotypic correlations and prediction of egg traits of domestic pigeon in Nigeria“. Nigerian Journal of Animal Production 49, Nr. 1 (25.02.2022): 40–48. http://dx.doi.org/10.51791/njap.v49i1.3398.

Der volle Inhalt der Quelle
Annotation:
Pigeon is a common domesticated bird in Nigeria, but is often times reared for shows and consumed only in rare occasions. The eggs of this bird are sizeable and proven to be nutritionally comparable with the eggs of chicken, duck, quail, etc, which are readily and widely consumed by Nigerians. This study was undertaken to evaluate the relationship (correlation and regression/prediction) between phenotypic traits of quail eggs. These could assist in the recommendation of strategies for improvement of pigeons and their subsequent inclusion in the menu of Nigerians. Two hundred freshly laid eggs of domestic pigeons were collected from 28 weeks old foundation stock raised intensively on cage system. The birds were fed 15% CPand 2700 KcalME/Kg ration and water was given ad libitum. The external egg quality traits measured were egg weight, shell length, shell thickness, yolk weight, yolk height and yolk width. Data collected were used to estimate descriptive statistics, phenotypic correlations and to predict egg and yolk weights. Results of correlation coefficients obtained for paired external egg quality traits were low, negatively significant (p<0.05) between egg weight and shell weight (– 0.609) and between shell weight and shell thickness (– 0.538). Whereas results of phenotypic correlations of internal egg quality traits expressed mostly non-significant (p>0.05) both positive and negative, low values with the exceptions of very high, negative significant (p<0.001) correlation coefficient between yolk width and yolk weight (– 0.806); high, negative significant (p<0.01) correlation coefficient between albumen weight and albumen height (– 0.627) and moderate, negative significant (p<0.05) correlation coefficients between yolk height and albumen height (– 0.506) and between yolk height and albumen width (– 0.523).The only positive, high significant (p<0.01) correlation expressed was between albumen height and yolk weight (0.632). The results on phenotypic correlations suggested that egg and yolk weights could be used as an index of egg quality in domestic pigeon. Egg and yolk weights were predictable with sufficient accuracy from both the external and internal egg quality traits. Le pigeon est un oiseau domestique commun au Nigéria, mais il est souvent élevé pour des spectacles et consommé seulement en de rares occasions. Les œufs de cet oiseau sont de grande taille et se sont avérés nutritionnellement comparables aux œufs de poulet, de canard, de caille, etc., qui sont facilement et largement consommés par les Nigérians. Cette étude a été entreprise pour évaluer la relation (corrélation et régression/prédiction) entre les traits phénotypiques des œufs de caille. Ceux-ci pourraient aider à la recommandation de stratégies d'amélioration des pigeons et à leur inclusion ultérieure dans le menu des Nigérians. Deux cents œufs fraîchement pondus de pigeons domestiques ont été collectés à partir d'un stock de base de 28 semaines élevé intensivement sur un système de cage. Les oiseaux ont été nourris avec 15% de CPet 2700 KcalME/Kg de ration et de l'eau a été donnée à volonté. Les caractères externes de qualité des œufs mesurés étaient le poids des œufs, la longueur de la coquille, l'épaisseur de la coquille, le poids du jaune, la hauteur du jaune et la largeur du jaune. Les données recueillies ont été utilisées pour estimer les statistiques descriptives, les corrélations phénotypiques et pour prédire le poids des œufs et des jaunes. Les résultats des coefficients de corrélation obtenus pour les caractères appariés de qualité externe des œufs étaient faibles, négativement significatifs (p<0,05) entre le poids de l'œuf et le poids de la coquille (– 0,609) et entre le poids de la coquille et l'épaisseur de la coquille (– 0,538). Alors que les résultats des corrélations phénotypiques des caractères internes de qualité des œufs s'exprimaient pour la plupart non significatifs (p>0,05) à la fois positifs et négatifs, des valeurs faibles à l'exception d'un coefficient de corrélation très élevé et négatif significatif (p<0,001) entre la largeur du jaune et le poids du jaune ( – 0,806); coefficient de corrélation élevé, négatif significatif (p<0,01) entre le poids de l'albumen et la hauteur de l'albumen (– 0,627) et coefficients de corrélation modéré, négatif significatif (p<0,05) entre la hauteur du jaune et la hauteur de l'albumen (– 0,506) et entre la hauteur du jaune et la largeur de l'albumen (– 0,523). La seule corrélation positive hautement significative (p<0,01) exprimée était entre la hauteur de l'albumen et le poids du jaune (0,632). Les résultats sur les corrélations phénotypiques suggèrent que les poids des œufs et des jaunes pourraient être utilisés comme indice de la qualité des œufs chez le pigeon domestique. Les poids des œufs et des jaunes étaient prévisibles avec une précision suffisante à partir des caractéristiques de qualité externes et internes des œufs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Hoang, Kim Huong, Monique Bernier, Sophie Duchesne und Minh Y Tran. „Renforcement de la qualité d’information de l’occupation du sol par l’intégration de données satellitaires optiques et radar en support à la modélisation hydrologique“. Revue des sciences de l’eau 31, Nr. 3 (10.12.2018): 177–99. http://dx.doi.org/10.7202/1054302ar.

Der volle Inhalt der Quelle
Annotation:
Afin de suivre l’évolution de l’occupation du sol du bassin versant de la rivière Cau (nord du Vietnam), des images HRVIR 2 du satellite SPOT-4 ont été acquises fin novembre 2007 et début janvier 2008. Dans un premier temps, l’approche de classification hiérarchique avec le mode de classification « avec caractéristiques liées aux classes (class-related features) » a été développée et appliquée afin d’extraire sept classes d’occupation du sol pertinentes à la modélisation hydrologique, sans distinguer les rizières des autres types de culture. Cette approche a montré son efficacité, la précision globale de la classification étant de 91 %. Une diminution significative de la confusion entre les milieux urbains, les terres agricoles et les plantations a été remarquée par rapport à une classification antérieure d’une image LANDSAT-7 de 2003, dont la précision globale était de 78 %. Par la suite, afin de distinguer les rizières des autres types de culture, deux séries d’images du satellite RADARSAT-2 en bande-C (double polarisation et polarimétriques) ont été utilisées. Ces images ont été acquises de mai 2009 à mai 2010 et couvrent deux périodes de croissance du riz, soit la période de la principale récolte (saison traditionnelle du riz) et celle du printemps. Pour les images double polarisation, en mode standard (S5), une méthode de seuillage a été appliquée sur la variation temporelle du signal entre les images acquises en début de saison et celles à la mi-saison. Cette méthode a permis de détecter 74 % des rizières de la saison traditionnelle du riz et 63 % des rizières de la saison de riz du printemps, selon une comparaison avec des données statistiques de la province de Thai Nguyen. La précision globale de la classification obtenue, pour toutes les classes d’occupation du sol, est de 71 % pour la saison traditionnelle de riz et de 67 % pour la saison de riz du printemps. Pour les images polarimétriques, en mode fin (FQ21), la matrice de cohérence a été choisie pour identifier les rizières d’une zone hétérogène. La classification a été réalisée à l’aide de l’algorithme SVM (Support Vector Machine). Ces dernières informations ont ensuite été intégrées à la carte thématique dérivée d’images SPOT-4 pour obtenir la carte finale. Cette carte sert directement à la modélisation hydrologique. Les calculs des besoins en eau pour la culture du riz ont montré que les rizières prennent une grande proportion du débit total dans les deux sous-bassins versants utilisés en exemple. Ces calculs montrent l’importance de détecter les rizières si l’on souhaite réaliser des simulations hydrologiques réalistes sur le bassin versant de la rivière Cau et confirment une des hypothèses de nos travaux, qui est que l’identification des rizières sur la carte d’occupation du sol améliore les évaluations et prédictions liées au cycle hydrologique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

PHOCAS, F., J. BOBE, L. BODIN, B. CHARLEY, J. Y. DOURMAD, N. C. FRIGGENS, J. F. Hocquette et al. „Des animaux plus robustes : un enjeu majeur pour le développement durable des productions animales nécessitant l’essor du phénotypage fin et à haut débit“. INRAE Productions Animales 27, Nr. 3 (28.08.2014): 181–94. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3066.

Der volle Inhalt der Quelle
Annotation:
L’enjeu majeur du phénotypage animal est d’acquérir une connaissance systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience et la robustesse des génotypes, et un élevage de précision exploitant la variabilité individuelle des animaux pour gagner en résilience à l’échelle du troupeau, ou pour améliorer la conduite à génotype donné. Deux défis majeurs de connaissance, interdépendants et communs à toutes les filières animales, sont à relever pour améliorer la robustesse des animaux : i) comprendre et prédire les compromis entre fonctions vitales, c’est-à-dire les changements de priorités dans l’allocation de ressources limitées ; ii) comprendre et exploiter les aspects temporels de la robustesse au cours de la vie de l’animal pour lui permettre de maintenir son niveau de production dans une large gamme d’environnements sans pour autant compromettre sa reproduction, sa santé et son bien-être. Atteindre ces objectifs nécessite de lever les verrous techniques suivants : i) définir des phénotypes complexes à partir de l’intégration de données obtenues à différentes échelles moléculaires, tissulaires, de l’animal ou d’une de ses fonctions ; ii) mettre en oeuvre des technologies à haut débit pour caractériser à moindre coût et le plus précisément possible le plus grand nombre d’animaux ; iii) développer d’importantes bases de données, des méthodes et outils informatiques performants, nécessaires aux traitements des informations à des fins de modélisation et de biologie prédictive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Lemyre, Louise. „Stresseurs et santé mentale : analyse contextuelle de la pauvreté“. Santé mentale au Québec 14, Nr. 2 (19.10.2006): 120–27. http://dx.doi.org/10.7202/031521ar.

Der volle Inhalt der Quelle
Annotation:
Résumé L'étiologie sociale de la santé mentale, qui propose un lien causal entre les conditions de vie et l'occurrence de désordres mentaux, n'est valable que dans la mesure où une évaluation contextuelle des stresseurs psychosociaux est appliquée. En effet, si les événements de vie sont évidés de leurs conséquences environnementales, ils perdent leur pouvoir explicatif dans l'incidence des troubles mentaux. Cependant, lorsqu'ils sont évalués en fonction des conditions de vie de la personne, les stresseurs psychosociaux deviennent des déclencheurs et des facteurs de maintien significatifs. George W. Brown propose un modèle psychosocial d'agent précipitant et de facteurs de vulnérabilité liés à la signification et à l'impact d'un événement, en fonction du contexte factuel dans lequel il se produit et en fonction de l'historique biographique. La pauvreté devient une toile de fond déterminante pour la portée des événements. La méthode d'analyse contextuelle du LEDS (Life-Event and Difficulty Schedule) procède par une collecte complète et systématique de l'information factuelle sur les événements et sur le contexte, décontaminée des réactions émotionnelles et biais du répondant. Le plus, la grille d'analyse permet la qualification et l'organisation de cette information en maintenant une précision et une objectivité optimales. La démonstration empirique du pouvoir prédictif de l'analyse contextuelle est probante pour des désordres mentaux (dépression, anxiété, schizophrénie) et physiques (infarctus, appendicite, ulcères). Dans ce cadre d'analyse, la pauvreté, par les difficultés chroniques qu'elle génère, se révèle un facteur contextuel déterminant dans l'étiologie sociale des désordres mentaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Amadieu, Romain, Adéla Chahine und Sophie Breinig. „Place et utilisation de la procalcitonine en réanimation pédiatrique et néonatale“. Médecine Intensive Réanimation 30, Nr. 3 (23.08.2021): 257–70. http://dx.doi.org/10.37051/mir-00072.

Der volle Inhalt der Quelle
Annotation:
La procalcitonine (PCT) est un biomarqueur d’infection bactérienne de plus en plus utilisé en pratique clinique. Dans un service de réanimation, l’interprétation des dosages sanguins de PCT peut être affectée par de nombreuses situations inflammatoires (brûlure, traumatisme, chirurgies extensives dont cardiaque, transfusion massive, insuffisance rénale…). Une revue de la littérature pédiatrique est réalisée et axée sur l’utilisation de la PCT dans trois domaines : marqueur diagnostique d’infection bactérienne ; marqueur d’exclusion d’infection bactérienne ; guide de la durée d’antibiothérapie. En réanimation pédiatrique, la PCT a une précision modérée pour le diagnostic d’infection bactérienne. La suspicion d’infection bactérienne doit rester clinique et conduire, quelle que soit la valeur de la PCT, à l’administration précoce d’une antibiothérapie probabiliste large spectre, secondairement adaptée à l’agent pathogène identifié et à son profil de sensibilité. De par sa valeur prédictive négative élevée, l’utilisation d’un algorithme guidé par la PCT semble intéressante en réanimation pédiatrique pour raccourcir la durée d’antibiothérapie totale et large spectre sans augmentation de réinfection, en utilisant des critères tels que PCT <0.5 ng/mL ou diminuant ≥50-80% par rapport à la valeur maximale. L'algorithme a démontré son efficacité et sa sécurité avec un haut niveau de preuve en réanimation adulte. Cependant, toutes les études pédiatriques publiées précédemment n’étaient pas randomisées. Deux essais contrôlés randomisés pédiatriques sont actuellement en cours : une large étude multicentrique française en réanimation néonatale et une étude monocentrique américaine en réanimation pédiatrique. Le nombre de sujet à inclure doit être suffisamment important pour valider l’objectif de sécurité (non infériorité en termes de mortalité). Enfin, le respect des recommandations pourrait à lui seul diminuer la durée d’antibiothérapie actuelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Brand, S., V. Lévy, S. Chevret und J. Lambert. „CO4.3 - Utilisation de données externes pour améliorer la précision des prédictions de survie dans l'extrapolation du bénéfice à long terme d'un traitement, exemple dans la leucémie lymphoïde chronique“. Revue d'Épidémiologie et de Santé Publique 71 (Mai 2023): 101614. http://dx.doi.org/10.1016/j.respe.2023.101614.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Idakari, C. N., A. M. Efunshile, I. E. Akase, C. S. Osuagwu, P. Oshun und O. O. Oduyebo. „Evaluation of procalcitonin as a biomarker of bacterial sepsis in adult population in a tertiary healthcare facility in Lagos, Nigeria“. African Journal of Clinical and Experimental Microbiology 23, Nr. 2 (13.05.2022): 131–40. http://dx.doi.org/10.4314/ajcem.v23i2.

Der volle Inhalt der Quelle
Annotation:
Background: Prompt antibiotic treatment of sepsis improves the outcome, but dependence on clinical diagnosis for empiric therapy leads to overuse of antibiotics which in turn promotes the emergence of antibiotic resistance. Blood culture takes time and molecular diagnosis may not be available or affordable. The use of procalcitonin (PCT) as a biomarker to guide antibiotic therapy in adults is less established compared to children. This study was therefore designed to evaluate the usefulness of PCT as a biomarker to aid early commencement of antibiotics among adult patients with sepsis in a tertiary healthcare facility in Lagos, Nigeria. Methodology: Three hundred patients with clinical diagnosis of sepsis made by the managing physicians were recruited for the study. Criteria used for clinical diagnosis of sepsis include tachycardia, tachypnea, fever or hypothermia and presence of leukocytosis, bandemia or leucopenia. The patients were selected using systematic consecutive sampling methods. A sepsis work-up including quick sequential organ failure assessment (qSOFA), white blood cell count (WCC), aerobic blood culture and estimation of serum PCT levels were done for all the participants. Data were analysed using the Statistical Package for Social Sciences (SPSS) for windows version 25.0. Sensitivity, specificity, positive, and negative predictive values, accuracy and likelihood ratio of PCT against blood culture, WCC and qSOFA score were determined. Association between variables was measured using Fisher exact test (with Odds ratio and 95% confidence interval). P-value ˂0.05 was considered statistically significant. Results: There were 127 (42.3%) males and 173 (53.7%) females with the mean age of 44.9±14.5 years. Majority (96.2%, n=75/78) of the patients who were culture positive for bacterial pathogens had PCT level ≥10ng/ml, which showed statistically significant association of bacteraemia with PCT level (OR=1362.5, 95% CI=297.9-6230.5, p˂0.0001). At PCT cut-off value of 0.5ng/ml, the negative predictive value of 100% almost confirms absence of systemic bacterial infection. The high sensitivity, specificity, positive predictive value, negative predictive value,accuracy and likelihood ratio of 94.9%, 98.6%, 96.2%, 98.2%, 97.7%, and 69.9 respectively recorded at PCT level of 10ng/ml indicates that this cut-off level is strongly diagnostic of systemic bacterial infection. Conclusion: In this study, we observed that PCT levels were significantly higher in patients with positive culture (bacteraemia) and PCT was able to differentiate bacterial sepsis from non-bacterial infections. The findings of this study support the usefulness of PCT as a biomarker for early diagnosis of systemic bacterial infections in adult patients. French title: Évaluation de la procalcitonine en tant que biomarqueur de la septicémie bactérienne chez la population adulte dans un établissement de soins de santé tertiaires à Lagos, au Nigeria Contexte: Un traitement antibiotique rapide de la septicémie améliore les résultats, mais la dépendance au diagnostic clinique pour le traitement empirique conduit à une surutilisation des antibiotiques qui à son tour favorise l'émergence de la résistance aux antibiotiques. L'hémoculture prend du temps et le diagnostic moléculaire peut ne pas être disponible ou abordable. L'utilisation de la procalcitonine (PCT) comme biomarqueur pour guider l'antibiothérapie chez l'adulte est moins établie que chez l'enfant. Cette étude a donc été conçue pour évaluer l'utilité de la PCT en tant que biomarqueur pour faciliter le début précoce des antibiotiques chez les patients adultes atteints de septicémie dans un établissement de soins de santé tertiaire à Lagos, au Nigeria. Méthodologie: Trois cents patients avec un diagnostic clinique de septicémie posé par les médecins traitants ont été recrutés pour l'étude. Les critères utilisés pour le diagnostic clinique du sepsis comprennent la tachycardie, la tachypnée, la fièvre ou l'hypothermie et la présence d'une leucocytose, d'une bandémie ou d'une leucopénie. Les patients ont été sélectionnés à l'aide de méthodes d'échantillonnage consécutifs systématiques. Un bilan de septicémie comprenant une évaluation séquentielle rapide des défaillances d'organes (qSOFA), une numération des globules blancs (WCC), une hémoculture aérobie et une estimation des taux sériques de PCT a été effectué pour tous les participants. Les données ont été analysées à l'aide du package statistique pour les sciences sociales (SPSS) pour Windows version 25.0. La sensibilité, la spécificité, les valeurs prédictives positives et négatives, la précision et le rapport de vraisemblance de la PCT par rapport à l'hémoculture, le WCC et le score qSOFA ont été déterminés. L'association entre les variables a été mesurée à l'aide du test exact de Fisher (avec rapport de cotes et intervalle de confiance à 95 %). La valeur P ˂0,05 a été considérée comme statistiquement significative. Résultats: Il y avait 127 (42,3%) hommes et 173 (53,7%) femmes avec un âge moyen de 44,9±14,5 ans. La majorité (96,2%, n=75/78) des patients dont la culture était positive pour les agents pathogènes bactériens avaient un taux de PCT ≥ 10ng/ml, ce qui a montré une association statistiquement significative de la bactériémie avec le taux de PCT (OR=1 362,5, IC à 95%=297,9-6230.5, p˂0.0001). À la valeur seuil PCT de 0,5ng/ml, la valeur prédictive négative de 100% confirme presque l'absence d'infection bactérienne systémique. La sensibilité élevée, la spécificité, la valeur prédictive positive, la valeur prédictive négative, l'exactitude et le rapport de vraisemblance de 94,9%, 98,6%, 96,2%, 98,2%, 97,7% et 69,9 respectivement enregistrés au niveau PCT de 10 ng/ml indiquent que cette réduction- hors niveau est fortement le diagnostic d'une infection bactérienne systémique. Conclusion: Dans cette étude, nous avons observé que les taux de PCT étaient significativement plus élevés chez les patients ayant une culture positive (bactériémie) et que la PCT était capable de différencier la septicémie bactérienne des infections non bactériennes. Les résultats de cette étude confirment l'utilité de la PCT en tant que biomarqueur pour le diagnostic précoce des infections bactériennes systémiques chez les patients adultes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Fowotade, A., S. O. Adetunji, E. Amadi, I. O. Ishola und E. C. Omoruyi. „Hepatitis B virus infection among pregnant women on antenatal visits: rapid tests or ELISA?“ African Journal of Clinical and Experimental Microbiology 22, Nr. 3 (02.07.2021): 352–58. http://dx.doi.org/10.4314/ajcem.v22i3.6.

Der volle Inhalt der Quelle
Annotation:
Background: Hepatitis B virus (HBV) infection is a global public health challenge with over 360 million people infected worldwide, and is one of the leading causes of death worldwide. The hepatitis B surface antigen (HBSAg) is the most important marker for HBV screening, and HBSAg rapid screening test methods are the most widely used compared with the enzyme-linked immunosorbent assay (ELISA) and nucleic acid testing methods. The objectives of this study are to evaluate the comparative efficacy of rapid test kits and ELISA for HBV screening among pregnant women on antenatal visits and to screen for other HBV serological markers among HBsAg positive patients. Methodology: This is a cross-sectional study of 172 pregnant women who were recruited consecutively on their first antenatal visit at the University College Hospital, Ibadan, Nigeria between November 2018 and February 2019. All participants were screened for HBsAg using both rapid immunochromatographic test (ICT) and ELISA techniques. HBsAg negative samples were further screened for anti-HBeAg/Ab, anti-HBcAg and anti-HBs by ELISA. Socio-demographic data of the participants were obtained using a semi-structured questionnaire, and data were analyzed using EPI INFO 7.2 statistical software. Results: The prevalence rate of HBsAg among pregnant women in this study was 10.5% (18/172). The sensitivity, specificity, accuracy, positive predictive value (PPV) and the negative predictive value (NPV) of the rapid ICT kit were 72.2%, 97.4%, 94.8%, 76.5% and 96.8% respectively. Level of education, previous history of sexually transmitted infections (STIs) and previous positive HBV results were significantly associated with HBsAg seropositivity. Majority of the pregnant women (66.9%) tested negative to all the serological markers. Conclusion: The low efficacy of rapid ICT kits compared to ELISA justifies the need to develop a safer antenatal screening strategy for HBV by combining the use of the less sensitive rapid screening techniques with the more sensitive ELISA method to limit vertical transmission of hepatitis B virus. Keywords: Hepatitis B virus; Rapid ICT kits; ELISA; pregnant women French title: Infection par le virus de l'hépatite B chez les femmes enceintes en consultation prénatale: tests rapides ou ELISA? Contexte: L'infection par le virus de l'hépatite B (VHB) est un défi de santé publique mondial avec plus de 360 million de personnes infectées dans le monde et est l'une des principales causes de décès dans le monde. L'antigène de surface de l'hépatite B (HBSAg) est le marqueur le plus important pour le dépistage du VHB, et les méthodes de test de dépistage rapide HBSAg sont les plus largement utilisées par rapport aux méthodes de test immuno-enzymatique (ELISA) et d'acide nucléique. Les objectifs de cette étude sont d'évaluer l'efficacité comparative des kits de tests rapides et de l'ELISA pour le dépistage du VHB chez les femmes enceintes lors de consultations prénatales et de dépister d'autres marqueurs sérologiques du VHB chez les patients AgHBs positifs. Méthodologie: Il s'agit d'une étude transversale de 172 femmes enceintes qui ont été recrutées consécutivement lors de leur première visite prénatale à l'Hôpital Universitaire, Ibadan, Ibadan, Nigéria entre novembre 2018 et février 2019. Tous les participants ont été dépistés pour l'AgHBs en utilisant les deux tests immuno-chromatographiques rapides (TIC) et techniques ELISA. Les échantillons négatifs à l'AgHBs ont en outre été criblés pour l'anti-HBeAg/Ab, l'anti-HBcAg et l'anti-HBs par ELISA. Les données sociodémographiques des participants ont été obtenues à l'aide d'un questionnaire semi-structuré et les données ont été analysées à l'aide du logiciel statistique EPI INFO 7.2. Résultats: Le taux de prévalence de l'HBSAg chez les femmes enceintes dans cette étude était de 10,5% (18/172). La sensibilité, la spécificité, la précision, la valeur prédictive positive (VPP) et la valeur prédictive négative (VPN) du kit ICT rapide étaient respectivement de 72,2%, 97,4%, 94,8%, 76,5% et 96,8%. Le niveau d'éducation, les antécédents d'infections sexuellement transmissibles (IST) et les résultats positifs antérieurs pour le VHB étaient significativement associés à la séropositivité de l'AgHBs. La majorité des femmes enceintes (66,9%) ont été testées négatives pour tous les marqueurs sérologiques. Conclusion: La faible efficacité des kits TIC rapides par rapport à l'ELISA justifie la nécessité de développer une stratégie de dépistage prénatal plus sûre du VHB en combinant l'utilisation des techniques de dépistage rapide moins sensibles avec la méthode ELISA plus sensible pour limiter la transmission verticale du virus de l'hépatite B. Mots clés: virus de l'hépatite B; Kits TIC rapides; ELISA; femmes enceintes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Harris, Jeff R., Juan X. He, Robert Rainbird und Pouran Behnia. „A Comparison of Different Remotely Sensed Data for Classifying Bedrock Types in Canada’s Arctic: Application of the Robust Classification Method and Random Forests“. Geoscience Canada 41, Nr. 4 (03.12.2014): 557. http://dx.doi.org/10.12789/geocanj.2014.41.062.

Der volle Inhalt der Quelle
Annotation:
The Geological Survey of Canada, under the Remote Predictive Mapping project of the Geo-mapping for Energy and Minerals program, Natural Resources Canada, has the mandate to produce up-to-date geoscience maps of Canada’s territory north of latitude 60°. Over the past three decades, the increased availability of space-borne sensors imaging the Earth’s surface using increasingly higher spatial and spectral resolutions has allowed geologic remote sensing to evolve from being primarily a qualitative discipline to a quantitative discipline based on the computer analysis of digital images. Classification of remotely sensed data is a well-known and common image processing application that has been used since the early 1970s, concomitant with the launch of the first Landsat (ERTS) earth observational satellite. In this study, supervised classification is employed using a new algorithm known as the Robust Classification Method (RCM), as well as a Random Forest (RF) classifier, to a variety of remotely sensed data including Landsat-7, Landsat-8, Spot-5, Aster and airborne magnetic imagery, producing predictions (classifications) of bedrock lithology and Quaternary cover in central Victoria Island, Northwest Territories. The different data types are compared and contrasted to evaluate how well they classify various lithotypes and surficial materials; these evaluations are validated by confusion analysis (confusion matrices) as well as by comparing the generalized classifications with the newly produced geology map of the study area. In addition, three new Multiple Classification System (MCS) methods are proposed that leverage the best characteristics of all remotely sensed data used for classification. Both RCM (using the maximum likelihood classification algorithm, or MLC) and RF provide good classification results; however, RF provides the highest classification accuracy because it uses all 43 of the raw and derived bands from all remotely sensed data. The MCS classifications, based on the generalized training dataset, show the best agreement with the new geology map for the study area.SOMMAIREDans le cadre de son projet de Télécartographie prédictive du Programme de géocartographie de l’énergie et des minéraux de Ressources naturelles Canada, la Commission géologique du Canada a le mandat de produire des cartes géoscientifiques à jour du territoire du Canada au nord de la latitude 60°. Au cours des trois dernières décennies, le nombre croissant des détecteurs aérospatiaux aux résolutions spatiales et spectrales de plus en plus élevées a fait passer la télédétection géologique d’une discipline principalement qualitative à une discipline quantitative basée sur l'analyse informatique d’images numériques. La classification des données de télédétection est une application commune et bien connue de traitement d'image qui est utilisée depuis le début des années 1970, parallèlement au lancement de Landsat (ERST) le premier satellite d'observation de la Terre. Dans le cas présent, nous avons employé une méthode de classification dirigée en ayant recours à un nouvel algorithme appelé Méthode de classification robuste (MRC), ainsi qu’au classificateur Random Forest (RF), appliqués à une variété de données de télédétection dont celles de Landsat-7, Landsat-8, Spot-5, Aster et d’imagerie magnétique aéroportée, pour produire des classifications prédictives de la lithologie du substratum rocheux et de la couverture Quaternaire du centre de l'île Victoria, dans les Territoires du Nord-Ouest. Les différents types de données sont comparés et contrastés pour évaluer dans quelle mesure ils classent les divers lithotypes et matériaux de surface; ces évaluations sont validés par analyse de matrices de confusion et par comparaison des classifications généralisées des nouvelles cartes géologiques de la zone d'étude. En outre, trois nouvelles méthodes par système de classification multiple (MCS) sont proposées qui permettent d’exploiter les meilleures caractéristiques de toutes les données de télédétection utilisées pour la classification. Tant la méthode MRC (utilisant l'algorithme de classification de vraisemblance maximale ou MLC que la méthode RF donne de bons résultats de classification; toutefois c’est la méthode RF qui offre la précision de classification la plus élevée car elle utilise toutes les 43 les bandes de données brutes et dérivées de toutes les données de télédétection. Les classifications MCS, basées sur le jeu de données généralisées d’apprentissage, montrent le meilleur accord avec la nouvelle carte géologique de la zone d'étude.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

BROCHARD, M., K. DUHEN und D. BOICHARD. „Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"“. INRAE Productions Animales 27, Nr. 4 (21.10.2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Der volle Inhalt der Quelle
Annotation:
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Flambeau Jiechieu Kameni, Florentin, und Norbert Tsopze. „Approche hiérarchique d’extraction des compétences dans des CVs en format PDF“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 32 - 2019 - 2020 (03.10.2019). http://dx.doi.org/10.46298/arima.4964.

Der volle Inhalt der Quelle
Annotation:
The aim of this work is to use a hybrid approach to extract CVs' competences. The extraction approach for competences is made of two phases: a segmentation into sections phase within which the terms representing the competences are extracted from a CV; and a prediction phase that consists from the features previously extracted, to foretell a set of competences that would have been deduced and that would not have been necessary to mention in the resume of that expert. The main contributions of the work are two folds : the use of the approach of the hierarchical clustering of a résume in section before extracting the competences; the use of the multi-label learning model based on SVMs so as to foretell among a set of skills, those that we deduce during the reading of a CV. Experimentation carried out on a set of CVs collected from an internet source have shown that, more than 10% improvement in the identification of blocs compared to a model of the start of the art. The multi-label competences model of prediction allows finding the list of competences with a precision and a reminder respectively in an order of 90.5 % and 92.3 %. . L’objectif de ce travail est d’utiliser l’approche héirarchique d’extraction des informations dans le CV pour en extraire les compétences. L’approche d’extraction des compétences proposée s’effectue en deux grandes phases : une phase de segmentation du CV en sections classées suivant leurs contenus et à partir desquelles les termes représentant les compétences (compétences de bases) sont extraits; et une phase de prédiction qui consiste à partir des caractéristiques extraites précédemment, à prédire un ensemble de compétences qu’un expert aurait déduites, et que ces compétences ne seraient pas nécessairement mentionnées dans le CV (compétences implicites). Les principales contributions de ce travail sont : l’utilisation de l’approche hiérarchique de segmentation du CV en sections pour extraire les compétences dans le CV; l’amélioration de la l’approche de segmentation des CV; enfin, l’utilisation de l’approche binary relevance de classification multi-label pour prédire les compétences implicites du CV. Les expérimentations effectuées sur un jeu de CVs collectés sur Internet ont montré une amélioration de la précision de l’identification des blocs de plus de 10% comparé à un modèle de l’état de l’art. Aussi, le modèle de prédiction multi-label des compétences, permet de retrouver la liste des compétences avec une précision et un rappel respectivement de l’ordre de 90,5% et 92,3%.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Cheng, Wendy, Tony K. L. Kiang, Penny Bring und Mary H. H. Ensom. „Predictive Performance of the Winter–Tozer and Derivative Equations for Estimating Free Phenytoin Concentration“. Canadian Journal of Hospital Pharmacy 69, Nr. 4 (31.08.2016). http://dx.doi.org/10.4212/cjhp.v69i4.1573.

Der volle Inhalt der Quelle
Annotation:
<p><strong>ABSTRACT</strong></p><p><strong>Background:</strong> The Winter–Tozer equation for estimating free phenytoin concentration is biased and imprecise. Alternative predictive equations are available, but most remain unvalidated.</p><p><strong>Objectives:</strong> To assess the bias and precision of the Winter–Tozer equation and selected derivative equations in predicting free phenytoin concentration and to derive new equations with better predictive performance.</p><p><strong>Methods:</strong> A retrospective chart review (for patients with samples drawn for free phenytoin concentration between September 2008 and September 2013) was conducted for 3 subpopulations (critical care, general medicine, neurology) in one hospital. Patients were included if older than 18 years with values for free phenytoin concentration available and were excluded if phenytoin was not at steady state or if they were undergoing hemodialysis or receiving enzyme inhibitors or inducers that would affect phenytoin clearance. The predictive performance measures used were mean prediction error (MPE), root mean square error, and Bland–Altman plots. Spearman rank correlation and multiple linear regression were performed with log-transformed data.</p><p><strong>Results:</strong> In total, 133 patients were included (70 men [53%]; mean age ± standard deviation 64 ± 19 years; serum creatinine 90.4 ± 64.0 μmol/L; albumin 26.4 ± 7.0 g/L). In the combined population, the Winter–Tozer equation (MPE 1.7 μmol/L, 95% confidence interval [CI] 1.5 to 1.9) and the Anderson equation (MPE 0.5 μmol/L, 95% CI 0.3 to 0.7) overpredicted free phenytoin concentration, whereas the first Kane equation tended to underpredict free phenytoin (MPE –0.2 μmol/L, 95% CI –0.4 to 0.0), and the second Kane equation significantly underpredicted free phenytoin (MPE –0.3 μmol/L, 95% CI –0.5 to –0.1). In each subpopulation, the Winter–Tozer equation overpredicted true concentration with greater bias and imprecision. All equations performed poorly in the critical care subpopulation. Only albumin (R2 = 0.09) and total phenytoin concentration (R2 = 0.53) were correlated with free phenytoin concentration. The equation derived by multiple linear regression exhibited significantly less bias and imprecision than the Winter–Tozer equation in the validation set (p &lt; 0.05). A new, user-friendly equation, specific to the authors’ patient population, was derived, which had an albumin coefficient of 0.275.</p><p><strong>Conclusions:</strong> Relatively poor predictive performance of the Winter–Tozer and derivative equations calls for more precise and less biased equations. The novel equations presented here, which had better predictive performance for free phenytoin concentration and were based on a large sample of adult patients, should be further validated in other institutions.</p><p><strong>RÉSUMÉ</strong></p><p><strong>Contexte :</strong> L’équation de Winter–Tozer qui permet d’estimer le taux de phénytoïne libre est biaisée et imprécise. Il existe des équations prédictives de rechange, mais la plupart ne sont pas validées.</p><p><strong>Objectifs :</strong> Évaluer le biais et la précision de l’équation de Winter Tozer et des équations dérivées choisies pour la prédiction du taux de phénytoïne libre et produire de nouvelles équations dotées d’une meilleure capacité prédictive.</p><p><strong>Méthodes :</strong> Une analyse rétrospective des dossiers médicaux (de patients chez lesquels on a mesuré la concentration de phénytoïne libre entre septembre 2008 et septembre 2013) a été menée au sein de trois sous-populations (soins intensifs, médecine générale et neurologie) dans un seul hôpital. Les patients retenus étaient des adultes âgés de plus de 18 ans dont le dossier contenait des données sur la concentration de phénytoïne libre. Les patients étaient exclus si la concentration de phénytoïne n’était pas à l’équilibre, s’ils étaient traités par hémodialyse ou s’ils prenaient des inhibiteurs ou des inducteurs enzymatiques ayant un effet sur la clairance de la phénytoïne. Les mesures de capacité prédictive comprenaient : l’erreur de prédiction moyenne, l’erreur quadratique moyenne et les graphiques de Bland–Altman. La corrélation des rangs de Spearman et une régression linéaire multiple ont été réalisées à partir de données transformées en log.</p><p><strong>Résultats :</strong> Au total, 133 patients ont été retenus (70 hommes [53 %]; âge moyen ± écart-type de 64 ± 19 ans; créatinine sérique de 90,4 ± 64,0 μmol/L; albumine sérique 26,4 ± 7,0 g/L). Dans l’ensemble de la population, l’équation de Winter–Tozer (erreur de prédiction moyenne de 1,7 μmol/L, intervalle de confiance [IC] à 95 % de 1,5 à 1,9) et l’équation d’Anderson (erreur de prédiction moyenne de 0,5 μmol/L, IC à 95 % de 0,3 à 0,7) ont surestimé la concentration de phénytoïne libre; la première équation de Kane avait tendance à sous-estimer le taux de phénytoïne libre (erreur de prédiction moyenne de –0,2 μmol/L, IC à 95 % de –0,4 à 0,0)] et la seconde équation de Kane a significativement sous-estimé le taux de phénytoïne libre (erreur de prédiction moyenne de –0,3 μmol/L, IC à 95 % de –0,5 à –0,1). Pour chacune des sous populations, l’équation de Winter–Tozer surévaluait la concentration réelle et était plus biaisée et moins précise. Aucune équation n’a obtenu de bons résultats pour la sous-population en soins intensifs. Seules l’albumine sérique (R2 = 0,09) et la concentration totale de phénytoïne (R2 = 0,53) étaient corrélées à la concentration de phénytoïne libre. L’équation obtenue par régression linéaire multiple était beaucoup moins biaisée et imprécise que l’équation de Winter–Tozer parmi l’ensemble de validation (p &lt; 0,05). Une nouvelle équation, plus simple à utiliser, spécifique à la population de patients des auteurs, a été produite, avec un coefficient d’albumine de 0,275.<strong> </strong></p><p><strong>Conclusion :</strong> Les capacités prédictives relativement mauvaises de l’équation de Winter–Tozer et des équations qui en découlent soulignent l’importance d’adopter des équations plus précises et moins biaisées. Les nouvelles équations mises de l’avant dans la présente étude, équations qui affichent une meilleure capacité prédictive pour la concentration de phénytoïne libre et qui s’appuient sur un important échantillon de patients adultes, doivent être validées dans d’autres établissements.</p>
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Admin, Admin, DIOUF Joseph Coumba Ndoffene, DIOP Abdoulaye Dione, *, Ibrahima NIANG, DIALLO Ibrahima, LY Mamadou, TOURE Mouhamadou Hamine et al. „Apport de la TDM thoracique pour le dépistage de la COVID-19 et impact médico-économique de la pandémie à COVID-19 au service de radiologie de Fann (Dakar-Sénégal)“. Journal Africain d'Imagerie Médicale (J Afr Imag Méd). Journal Officiel de la Société de Radiologie d’Afrique Noire Francophone (SRANF). 13, Nr. 1 (10.08.2021). http://dx.doi.org/10.55715/jaim.v13i1.177.

Der volle Inhalt der Quelle
Annotation:
Objectives: To evaluate the contribution of thoracic CT in the diagnosis of patients suspected of having COVID-19 in comparison with the reference technique (RT-PCR) and to determine the medico-economic impact of COVID-19 in the radiology department of the CHU of Fann. Materials and methods: This was a retrospective, descriptive study over a 4-month period from April 1 to July 31, 2020, in the radiology department of the CHNU of Fann. Patients were included if they were clinically suspected of having COVID-19, had a thoracic CT scan and a nasopharyngeal swab for RT-PCR, i.e. a total of 314 patients. We studied epidemiological and clinical data, images suggestive of COVID-19 (ground glass opacities, condensation, lesion’ location), existence or not of embolism, abnormalities in favor of superinfection, associated lesions, impact on the attendance of the different modalities and impact on revenues. Results: The median age was 62 years and the sex ratio 1.61. Fever was present in 7 patients (2.23%); cough in 17 patients (5.41%); dyspnea in 30 patients (9.55%) and respiratory distress syndrome in 63 patients (20.07%). The clinic was not specified in 163 patients (51.91%). Chest CT was normal in 20 patients (6.37%), suggestive of COVID-19 in 274 patients (87.26%) and not suggestive of COVID-19 in 20 patients (6.37%). RT-PCR was positive in 125 patients (39.80%). The sensitivity and specificity of CT were 91.2% and 15.34% respectively. The positive predictive value, the negative predictive value and the accuracy rate were respectively 42%, 72.5% and 45.5%. The decrease in attendance rate was 59% in standard radiography, 55% in ultrasound, 24% in CT and 87% in mammography. In our study there was a 40% decrease in revenue in the second quarter of 2020 compared to the first quarter. Conclusion: Chest CT has a good sensitivity for the diagnosis of COVID-19. As such, it can be considered a primary tool for detecting lung lesions suggestive of COVID-19 pneumonia. The medico-economic impact of COVID-19 has been considerable. RÉSUMÉ Objectifs : Évaluer l’apport de la TDM thoracique dans le diagnostic des patients suspects de COVID-19 en comparaison avec la technique de référence (RT-PCR) et déterminer l’impact médico-économique de la COVID-19 au service de radiologie du CHU de Fann. Matériels et méthodes : Il s’agissait d’une étude rétrospective, descriptive sur une période de 4 mois allant du 1er Avril au 31 Juillet 2020, au service de radiologie du CHU de Fann. Ont été inclus les patients reçus pour suspicion clinique de COVID-19, qui avaient eu une TDM thoracique et un prélèvement naso-pharyngé par écouvillonnage pour RT-PCR, soit au total 314 patients. Nous avons étudié les données épidémiologiques, cliniques, les images évocatrices de COVID-19 (opacités en verre dépoli, condensation, topographie lésionnelle), existence ou non d’une embolie, les anomalies en faveur de surinfection, les lésions associées, l’impact sur la fréquentation des différentes modalités et l’impact sur les recettes. Résultats : L’âge médian était de 62 ans et le sex-ratio 1,61. La fièvre a été présente chez 7 patients (2,23%) ; la toux chez 17 patients (5,41%) ; la dyspnée chez 30 patients (9,55%) et un syndrome de détresse respiratoire chez 63 patients (20,07%). La clinique n’a pas été précisée chez 163 patients (51,91%). La TDM thoracique était normale chez 20 patients (6,37%), évocatrice de COVID-19 chez 274 patients (87,26%) et non évocatrice de COVID-19 chez 20 patients (6,37%). La RT-PCR était positive chez 125 patients soit 39,80%. La sensibilité et la spécificité de la TDM étaient respectivement de 91,2% et 15,34%. La valeur prédictive positive, la valeur prédictive négative et le taux de précision étaient respectivement de 42%, 72,5% et 45,5%. La baisse du taux de fréquentation était de 59% en radiographie standard, 55% en échographie, 24% au scanner et 87% en mammographie. Dans notre étude on a noté une baisse de 40% des recettes au second trimestre de 2020 comparativement au premier trimestre. Conclusion : La TDM thoracique a une bonne sensibilité pour le diagnostic de la COVID-19. De ce fait, elle peut être considérée comme un outil principal pour la détection des lésions pulmonaires évocatrices de pneumonie COVID-19. Les impacts médico-économiques de la COVID-19 ont été considérables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie