Segui questo link per vedere altri tipi di pubblicazioni sul tema: Calcul conscient de la précision.

Articoli di riviste sul tema "Calcul conscient de la précision"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-42 articoli di riviste per l'attività di ricerca sul tema "Calcul conscient de la précision".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi gli articoli di riviste di molte aree scientifiche e compila una bibliografia corretta.

1

SACRAMENTO, Isabelle Tèniola, Guy Apollinaire MENSAH e Jean-Marc ATEGBO. "Détermination de l’âge de l’aulacode par le poids du cristallin de l’œil". Journal of Applied Biosciences 181 (31 gennaio 2023): 18917–24. http://dx.doi.org/10.35759/jabs.181.4.

Testo completo
Abstract (sommario):
Objectifs : Conscient que la qualité de la viande varie en fonction de l’âge, la détermination de l’âge de l’aulacode gibier dans le but de comparer la qualité organoleptique, microbiologique et technologique de sa viande à celle de l’aulacode d’élevage est indispensable ce qui justifie la présente étude. Méthodologie et résultats : L’âge de 24, 36 et 48 semaines respectivement des 150 aulacodes tous sexes confondus (50 aulacodes par tranche d’âge) étudiés était connu avec précision au moment du prélèvement du cristallin. Un total de 60 aulacodes sauvages ou aulacodes gibiers dont 30 aulacodins et 30 aulacodines, avec des âges estimés à 7, 8 et 12 mois, abattus par des chasseurs a été utilisé dans cette étude. La technique de Lord (1959) modifiée par Martinet (1966) a été employée. Dès leur abattage, les aulacodes âgés de 24, 36 et 48 semaines ont été mesurés, pesés pleins et vidés au kg puis sexés. Les deux yeux ont été prélevés entiers et intacts et mis dans un flacon d’eau formolée à 10%. Les yeux ont été conservés dans un flacon étanche à large ouverture en polyéthylène de PROLABO et n’ont pas été congelés. Le flacon a été muni d’une étiquette autocollante renseignée de façon indélébile où a été mentionnée la date de l’abattage, le sexe et le poids exact pesé plein et vide. Un séjour de 30 jours minimum dans une solution de formol a été nécessaire pour permettre la stabilisation du cristallin et sa manipulation sans risque de l’abimer. Les cristallins ont été alors extraits du globe oculaire, nettoyés et mis à dessiccation complète dans une étuve ventilée à 100° C pendant 24 heures. Ils ont été ensuite pesés au milligramme près (0,000). Enfin le poids moyen des cristallins a été calculé pour chaque tranche d’âge. Conclusion et application des résultats: La courbe établie permettra de déterminer avec précision l’âge des aulacodes d’élevage sans fiche de suivi, des aulacodes gibiers et des rongeurs apparentés à l’aulacode chaque fois que le processus de prélèvement du cristallin utilisé dans cette étude sera respecté. Mots-clés : Aulacodes, Bénin, détermination de l’âge, équation de prédiction, pesée de cristallin.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Hassnaoui, Yonas. "Les codes de calcul de haute précision : quand le nucléaire met au pot commun". Revue Générale Nucléaire, n. 6 (novembre 2020): 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Testo completo
Abstract (sommario):
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Duget, Anne, Thierry Roux, Pierre Noire e Olivier Lapierre. "Hexapodes de positionnement de précision". Photoniques, n. 115 (8 agosto 2022): 51–56. http://dx.doi.org/10.1051/photon/202211257.

Testo completo
Abstract (sommario):
L’hexapode est un robot parallèle permettant la mise en position d’objets suivant les six degrés de liberté (trois translations Tx, Ty, Tz et trois rotations Rx, Ry, Rz). Au milieu du xxe siècle, les premiers hexapodes ont servi à tester des pneus ou comme simulateurs de vol. Dans les années 1990, grâce à l’évolution des composants électroniques et à l’augmentation des capacités de calcul, l’arrivée de contrôleurs abordables et performants a permis leur essor. Nous verrons dans cet article comment un hexapode est constitué et étudierons les critères de sélection les plus pertinents avant de décrire quelques exemples d’applications.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Everett, Jane. "Traduire Pierre Vadeboncoeur". Études littéraires 29, n. 2 (12 aprile 2005): 19–38. http://dx.doi.org/10.7202/501156ar.

Testo completo
Abstract (sommario):
La tentative de traduire un court essai de Pierre Vadeboncoeur, « Sur une phrase fameuse de Rimbaud », enrichit notre compréhension du texte en même temps qu'elle pose un défi au traducteur. La traduction est ici envisagée comme un processus duel, à la fois réencodage et exégèse. Après l'analyse de l'essai et l'identification de certaines de ses composantes essentielles, l'auteure discute des problèmes soulevés lors de l'opération traduisante. Elle constate que pour reproduire la voix de l'essayiste avec quelque de précision, il faut être pleinement conscient des « répercussions » de ses choix à tous les niveaux du texte.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

POMAR, C., F. DUBEAU e J. VAN MILGEN. "La détermination des besoins nutritionnels, la formulation multicritère et l’ajustement progressif des apports de nutriments aux besoins des porcs". INRAE Productions Animales 22, n. 1 (14 febbraio 2009): 49–54. http://dx.doi.org/10.20870/productions-animales.2009.22.1.3333.

Testo completo
Abstract (sommario):
Dans un contexte dans lequel le coût élevé des matières premières et l’utilisation de sources non renouvelables de phosphates sont des enjeux majeurs pour les productions animales, l’alimentation de précision est proposée comme une démarche essentielle à l’accroissement de l’efficacité d’utilisation de l’azote et du phosphore alimentaire, et par conséquent, une réduction de leur excrétion. Une alimentation de précision requiert de bien caractériser le potentiel nutritif des aliments, de déterminer avec précision les besoins nutritionnels des animaux, de prédire la réponse animale aux apports nutritionnels, de formuler d’aliments avec des contraintes environnementales, et d’ajuster progressivement les apports aux besoins décroissants des animaux. La mise en place d’une telle stratégie d’alimentation demande cependant d’accroître nos connaissances et d’améliorer nos méthodes de calcul afin de s’assurer que les formules alimentaires proposées soient celles qui optimiseront nos systèmes de production tant d’un point de vue animal, économique qu’environnemental.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Van-Wierts, Stéfanie, Pascal Bernatchez e Christian Larouche. "Suivi topographique côtier au moyen d’un système LiDAR mobile terrestre : exemple d’une recharge sédimentaire de plage". GEOMATICA 71, n. 4 (dicembre 2017): 194–212. http://dx.doi.org/10.5623/cig2017-402.

Testo completo
Abstract (sommario):
L’évolution côtière est complexe, notamment par la migration de la ligne de rivage et l’apparition successive de zones d’érosion ou d’accumulation. Les suivis quantitatifs des systèmes côtiers sont largement utilisés afin de comprendre leurs évolutions temporelle et spatiale. Plusieurs méthodes d’acquisition topographiques ont été utilisées (GNSS RTK, LiDAR aéroporté et LiDAR terrestre statique ou mobile) où chaque méthode présente des avantages et des inconvénients lors de suivis d’environnements côtiers. L’objectif de cet article est de quantifier la précision d’un système LiDAR mobile (SLM) terrestre et d’évaluer s’il peut répondre aux principaux défis des levés topographiques en milieu côtier qui consistent à réaliser des levés à une haute résolution temporelle, à moindre coût, tout en assurant une bonne précision altimétrique et une bonne résolution spatiale. Les résultats montrent que la résolution spatiale est centimétrique et que la précision altimétrique est de 0,039 m (RMS calculé sur 124 points de contrôle). La haute précision altimétrique et la haute résolution spatiale permettent de maximiser la précision des calculs de volume sédimentaire et ainsi diminuer les coûts associés à l’erreur de calcul, notamment lors de projets de recharge sédimentaire de plage. Cela permet aussi d’assurer le positionnement exact de limites marégraphiques et géomorphologiques. En comparaison à des profils topographiques obtenus par méthodes clas siques, la forte densité des nuages de points observés avec un SLM permet de cartographier des formes morphologiques de faible amplitude diminuant ainsi l’erreur due à l’interpolation.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Hireche, Omar, Miloud Abidat, Leila Merahi e Abbes Azzi. "Etude de l’Ecoulement Tridimensionnel dans un Rotor d’une Turbine Semi-axiale". Journal of Renewable Energies 2, n. 1 (30 giugno 1999): 51–60. http://dx.doi.org/10.54966/jreen.v2i1.929.

Testo completo
Abstract (sommario):
Cet article fait le point d’une étude pour la simulation numérique d’un écoulement tridimensionnel dans le rotor d’une turbine semi-axiale par la résolution numérique des équations d’Euler (en fluide parfait) exprimées en coordonnées cylindriques. La méthode de calcul qui se caractérise par l’utilisation d’une technique de résolution par stationnarisation associée à un schéma explicite à viscosité corrigée et une approche par volumes finis, présente de bonnes propriétés de convergence et de précision.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Guiñon, J. L., e M. Belanche. "Application de la résonance magnétique nucléaire du proton au dosage de l'éthanol dans les boissons alcoolisées". OENO One 23, n. 4 (31 dicembre 1989): 215. http://dx.doi.org/10.20870/oeno-one.1989.23.4.1245.

Testo completo
Abstract (sommario):
<p style="text-align: justify;">Une équation pour le calcul de la teneur en éthanol basée sur les surfaces d'un spectre (H1-RMN) (Résonance magnétique du proton) est décrite. Les résultats obtenus par application de cette équation dans le vin et dans les boissons alcoolisées sont discutés. La méthode peut être retenue comme un dosage rapide de l'éthanol avec une précision de ± 6 p. 100 dans la gamme de 0 - 50 p. 100 vol. d'éthanol.</p>
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Knönagel e Müntener. "Urolithiasis und Ultraschalldiagnostik". Praxis 91, n. 14 (1 aprile 2002): 603–9. http://dx.doi.org/10.1024/0369-8394.91.14.603.

Testo completo
Abstract (sommario):
L'urolithiase est une maladie très répandue en Europe et aux Etats-Unis. Grâce à sa grande précision, son application non invasive et sa disponibilité rapide et peu coûteuse, elle joue un rôle primordial pour le diagnostic et le suivi de l'urolithiase. La sonographie en Color-Mode est populaire, mais de moindre importance pour le patient atteint d'un calcul de l'uretère. En plus de la thérapie conservatrice, la lithotripsie extracorporelle (LEOC) est la méthode la plus adéquate. Après le traitement conservateur et interventionnel, il faut faire des contrôles sonographiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Bellel, Nadir, e Abla Chaker. "Etude et Optimisation du Réseau de Circulation du Fluide Caloporteur d’un Convertisseur Thermique". Journal of Renewable Energies 7, n. 2 (31 dicembre 2004): 85–94. http://dx.doi.org/10.54966/jreen.v7i2.869.

Testo completo
Abstract (sommario):
La comparaison de deux géométries du réseau du caloporteur d'un capteur plan classique, nous oblige à mettre en évidence l'influence des pertes par convection sur le bilan optothermique de ce capteur. Partant des caractéristiques optiques et géométriques du capteur, des caractéristiques hydrauliques du fluide caloporteur, nous évaluons avec le maximum de précision les différentes composantes du bilan thermique en tenant compte notamment des gradients de température dans l'absorbeur. Ce travail a été mené avec de l'eau pressurisée comme fluide caloporteur. Notre étude théorique a été menée en utilisant un programme de calcul développé au laboratoire se basant sur la méthode des différences finies. Ce programme a été validé par les résultats expérimentaux dans les mêmes conditions météorologiques. Le convertisseur type serpentin a été choisi.
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Ben Hamouda, M., e M. Rekik. "contrôle de croissance des ovins allaitants en Tunisie. ii. Perte de précision sur le calcul des performances à âge type selon un protocole simplifié alternatif au protocole officiel". Revue d’élevage et de médecine vétérinaire des pays tropicaux 65, n. 1-2 (1 gennaio 2012): 41. http://dx.doi.org/10.19182/remvt.10131.

Testo completo
Abstract (sommario):
Les performances à âge type P10 (poids à 10 jours), P30, P70, GMQ10/30 (gains moyens quotidiens entre 10 et 30 jours) et GMQ30/70 de 9 642 agneaux de race Barbarine ont été calculées selon le protocole conventionnel « F2 », ou un protocole simplifié, basé sur l’ajustement de la fonction von Bertalanffy à deux pesées à 42 jours d’intervalle, la première ayant lieu entre 2 et 60 jours après la naissance de l’agneau, et un poids à la naissance réel (PNR : contrôlé à la naissance), fixé, le même pour tous les agneaux (PNF = 3,4 kg) ou estimé en fonction de la première pesée (P) et l’intervalle entre la naissance et la première pesée (D) [PNE = 2,71009 + 0,208313 P – 0,00578 P (60 – D) + 0,00016 P (60 – D)2]. La perte de précision moyenne associée au calcul des poids à âge type a été élevée pour P10 (40 à 45 p. 100), modérée pour P30 (6 à 7 p. 100) et faible pour P70 (2 à 3 p. 100). La perte de précision associée au GMQ10/30 a été inférieure à celle déjà admise par le protocole conventionnel pour un intervalle entre la naissance et le premier contrôle compris entre 15 et 45 jours (15 p. 100 au maximum), et du même ordre entre 7 et 15 jours d’intervalle (20 p. 100 au maximum). Ces résultats ont permis de proposer la simplification du protocole F2 à deux ou trois pesées et un poids à la naissance. La première pesée devrait être retardée jusqu’à 46 jours après la naissance alors que l’intervalle entre contrôles successifs peut varier entre 30 et 40 jours, en fonction de la perte de précision pouvant être tolérée sur l’estimation des performances à âge type.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Nameche, T., e J. L. Vassel. "Bilan thermique sous climat tempéré des lagunes aérées et naturelles". Revue des sciences de l'eau 12, n. 1 (12 aprile 2005): 65–91. http://dx.doi.org/10.7202/705344ar.

Testo completo
Abstract (sommario):
Un modèle décrivant la température d'équilibre des lagunes a été développé, tenant compte des différents flux de chaleur que celles-ci échangent avec l'air et le sol environnant. Six composantes différentes ont été inclues dans le calcul de ce bilan thermique: radiation solaire, évaporation, convection, rayonnement atmosphérique, rayonnement de la surface du plan d'eau, échange via les parois en contact avec le sol. Le modèle ainsi obtenu a été testé avec efficacité sur deux lagunes aérées et une lagune naturelle situées sous climat tempéré ; sa précision sur l'estimation des températures d'équilibre étant de l'ordre de 0.7 °C. Des simulations en continu ont également pu être effectuées au moyen d'une variante dynamique, tenant compte de l'inertie thermique qu'entraîne le volume des bassins. Quelle que soit la saison envisagée, la principale forme d'apport de chaleur est représentée par la radiation solaire tandis que la dissipation d'énergie se partage entre les flux d'évaporation et la balance des deux flux de rayonnement. Les bassins échangeraient en moyenne plus de 250 W/m2 ; le maximum de transfert de chaleur correspondant au printemps et à la période estivale. Enfin, l'analyse de sensibilité du modèle nous a permis de mettre en évidence la contribution de chacun des termes intervenant dans le calcul de ce bilan thermique et de révéler sa dépendance vis-à-vis principalement de la température d'entrée, du rayonnement solaire et de la température de l'air.
Gli stili APA, Harvard, Vancouver, ISO e altri
13

EL GAROUANI, Abdelkader, e Kamal AHARIK. "Apport des images LANDSAT à l’étude de l’évolution de l’occupation du sol dans la plaine de SAÏSS au MAROC, pour la période 1987-2018". Revue Française de Photogrammétrie et de Télédétection 223 (13 dicembre 2021): 173–88. http://dx.doi.org/10.52638/rfpt.2021.490.

Testo completo
Abstract (sommario):
Cet article concerne la plaine de Saïss au Maroc et porte sur l’évolution de l’occupation et de l'utilisation des sols pour la période allant de 1987 à 2018. Cette plaine s’avère très importante au niveau économique pour le pays. La méthodologie adoptée comporte successivement le calcul d’indices spectraux à partir d’images Landsat (NDVI : Normalized Difference Vegetation Index, NDWI : Normalized Difference Water Index et NDBI : Normalized Difference Built-up Index), puis l’utilisation de l’algorithme de vraisemblance afin de réaliser quatre classifications thématiques pour les années 1987, 2003, 2014 et 2018. La précision globale de ces classifications est déterminée à partir de la matrice de confusion, et varie entre 83 et 87% ; le coefficient kappa est, pour les quatre années, supérieur à 0,80. Entre 1987 et 2018, les surfaces correspondant aux terres irriguées, aux oliviers et au milieu urbain, ont progressé respectivement de 123%, 136% et 115%. À l’inverse, les forêts, les parcours et les terres arables ont vu leur surface diminuer respectivement de 10%, 6% et 29%.
Gli stili APA, Harvard, Vancouver, ISO e altri
14

TOUDERT, OUIZA, FRANÇIS AUGER, AZEDDINE HOUARI e MOURAD LAGHROUCHE. "NOUVELLE EXTRACTION DE POSITION DU ROTOR BASÉE SUR L'INJECTION DE TENSION À HAUTE FRÉQUENCE TOURNANTE POUR LES ENTRAÎNEMENTS DE MACHINES SYNCHRONES À AIMANTS PERMANENTS À VITESSE BASSE OU NULLE". REVUE ROUMAINE DES SCIENCES TECHNIQUES — SÉRIE ÉLECTROTECHNIQUE ET ÉNERGÉTIQUE 68, n. 2 (3 luglio 2023): 188–93. http://dx.doi.org/10.59277/rrst-ee.2023.68.2.12.

Testo completo
Abstract (sommario):
Une nouvelle procédure pour l'extraction de la position du rotor des moteurs synchrones à aimants permanents à pôles saillants (PMSM) est présentée dans cet article. Un signal de rotation de porteur est injecté dans la machine pour mesurer son déplacement à l'aide d'un courant haute fréquence. Cette méthode réduit le temps de calcul, simplifie le modèle d'extraction et améliore l'erreur d'évaluation du déplacement. Cette méthode est efficace pour les moteurs synchrones à aimants permanents montés en surface (SPMSM) présentant de petites saillances magnétiques avec un enroulement de stator distribué de manière sinusoïdale alimenté par un onduleur de source de tension à modulation d'impulsions vectorielles spatiales (SVPWM). Les résultats expérimentaux ont prouvé que la méthode de compensation de déphasage en ligne pouvait évaluer le déplacement du rotor, la vitesse et le fonctionnement du contrôle vectoriel PMSM sans capteur avec une grande précision. Cette méthode a montré son efficacité pour les performances statiques et dynamiques dans diverses conditions de charge de fonctionnement.
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Ben Hamouda, M. "contrôle de croissance des ovins allaitants en Tunisie. i. ajustement d’une courbe globale et analyse critique du protocole officiel". Revue d’élevage et de médecine vétérinaire des pays tropicaux 65, n. 1-2 (1 gennaio 2012): 31. http://dx.doi.org/10.19182/remvt.10130.

Testo completo
Abstract (sommario):
Les données de contrôle de croissance de deux troupeaux expérimentaux de race ovine Barbarine, collectées durant 31 années, concernant 9 642 agneaux contrôlés à la naissance et pesés ensuite à six reprises à 21 jours d’intervalle, ont été analysées. Les estimations obtenues grâce à l’ajustement d’une courbe de croissance globale ont été comparées aux évaluations faites dans le cadre du protocole conventionnel de contrôle de croissance « F2 ». Les fonctions de Brody, logistique, de Gompertz et de von Bertalanffy se sont convenablement ajustées à la série des sept contrôles. Les critères d’ajustement, coefficients de détermination (R²) et sommes des carrés des écarts résiduels ont été estimés à 0,997 et 2,9, 0,997 et 3,0, 0,996 et 3,8, et 0,996 et 3,8 respectivement pour les fonctions de von Bertalanffy, Gompertz, Logistique et Brody. Les poids moyens à âge type, estimés par la méthode officielle, ont été de 3,4, 5,5, 9,1, 15,5, 18,2 et 22,2 kg respectivement à la naissance, à 10, 30, 70, 90 et 120 jours d’âge. Le calcul des performances à âge type par la méthode conventionnelle s’est accompagné d’une faible perte de précision sur les poids de l’ordre de 5, 2, 0,8 et 0,5 p. 100 respectivement à 30, 70, 90 et 120 jours, et d’une baisse assez importante de 25, 19, 12 et 10 p. 100 respectivement des GMQ10/30 (gains moyens quotidiens entre 10 et 30 jours), GMQ30/70, GMQ30/90 et GMQ30/120. La perte de précision associée au GMQ10/30 a dépassé 50 p. 100 pour l’intervalle naissance -premier contrôle à 21 jours à cause d’une extrapolation inférieure, peu précise, du poids à 10 jours.
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Perret, Christian, P. Marchand, Arnaud Belleville, Rémy Garcon, Damien Sevrez, Stéphanie Poligot-Pitsch, Rachel Puechberty e Gwen Glaziou. "La variabilité en fonction du temps des relations hauteur débit. Sa prise en compte dans l'estimation des incertitudes des données hydrométriques par une méthode tabulée". La Houille Blanche, n. 4 (agosto 2018): 65–72. http://dx.doi.org/10.1051/lhb/2018043.

Testo completo
Abstract (sommario):
La démarche engagée depuis plusieurs années par la communauté des hydromètres pour quantifier les incertitudes associées au processus d'élaboration des données de débit mériterait de trouver des applications opérationnelles. La présente étude incite notamment les gestionnaires des stations hydrométriques à mieux valoriser les jaugeages effectués en systématisant la démarche de précision du modèle de courbe de tarage. Les auteurs proposent ensuite une démarche simplifiée de quantification de l'incertitude associée à une valeur de débit prédite par une courbe de tarage à partir du calcul de l'écart type des écarts en pour cent des jaugeages à la courbe de tarage et d'une tabulation en fonction des quantiles de débits observés. Elle s'appuie sur une démarche classique d'identification des sources d'incertitude et de leur propagation. Cette méthode permet de proposer une estimation de l'incertitude observée en moyenne sur les stations françaises pour la médiane des débits observés. On propose la formulation suivante : pour 45 à 55 % des stations françaises, la valeur la plus probable de l'incertitude au seuil de confiance de 95 % pour le quantile 50 % des débits observés en France est inférieure à 22 %.
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Cléry, Isabelle, e Marc Pierrot-Deseilligny. "Une interface ergonomique de calcul de modèles 3D par photogrammétrie". Revue Française de Photogrammétrie et de Télédétection, n. 196 (15 aprile 2014): 40–51. http://dx.doi.org/10.52638/rfpt.2011.36.

Testo completo
Abstract (sommario):
De nombreux logiciels du commerce proposent de créer des modélisations en 3D d'objets ou de scènes à partir uniquement de photographies. Cependant les professionnels, notamment les archéologues et les architectes, ont un certain nombre de contraintes qui restreignent fortement le choix du logiciel, telles que des ressources financières limitées, des connaissances peu approfondies en photogrammétrie et en informatique, des impératifs qui limitent le temps d'acquisition et de traitement, et enfin des attentes précises en terme de qualité, de précision et de complétude de la modélisation. Le laboratoire MATIS a développé un ensemble d'outils libres, open source, qui permettent d'effectuer l'ensemble des étapes du traitement d'un chantier photogrammétrique et qui fournissent des modèles 3D très denses et précis grâce à la rigueur de l'approche photogrammétrique ; ils représentent donc une solution intéressante pour ces professionnels du point de vue algorithmique.Cependant ils ont été développés pour des applications de recherche et sont donc peu ergonomiques pour le public non photogrammètre et non informaticien. C'est pourquoi une interface graphique est en cours de développement afin de fournir un accès simplifié et unifié à ces outils, notamment aux architectes et aux archéologues. Grâce à l'interface, l'utilisateur peut manipuler les images d'un même chantier et contrôler chaque étape du traitement qui comprend : le calcul automatique de points homologues entre les images, l'estimation des poses de la caméra et le calcul des modèles 3D. Les résultats peuvent être convertis en cartes de profondeur ombrées ou en nuages denses de points 3D (au format standard ply), et peuvent être affichés directement par l'interface. Pour offrir la possibilité de traiter des chantiers suffisamment variés, tout en masquant la complexité du paramétrage, la démarche retenue est de présenter à l'utilisateur un accès par grande famille de prises de vue, par exemple : chantier convergent, relevé de façades, chantier aérien sub-vertical, modélisation d'intérieur. . . Une attention particulière est apportée à la qualité de la documentation et à la portabilité du produit sur les principaux types d'ordinateur grand public (Linux, Mac et Windows). Cette interface, bien que non finalisée, permet déjà d'effectuer l'intégralité du traitement de chantiers de type convergent et est disponible en ligne. Des utilisateurs issus des différentes communautés de professionnels ciblées (archéologie, architecture, géologie, photogrammétrie architecturale) l'ont déjà testée et l'interface est régulièrement mise à jour afin de l'adapter aux remarques et demandes de ces testeurs.
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Donner, C., e A. Holoye. "Que savons-nous de la douleur fœtale ?" Périnatalité 13, n. 3 (settembre 2021): 111–15. http://dx.doi.org/10.3166/rmp-2021-0128.

Testo completo
Abstract (sommario):
Les études à propos de la douleur fœtale et de ses conséquences font suite à celles menées à propos de la douleur néonatale et de sa prise en charge dans les années 1980. Les définitions classiques de la douleur ne peuvent pas être appliquées au foetus. La douleur fœtale est définie actuellement comme la réponse à une stimulation nociceptive. Les nocicepteurs sont largement présents au niveau cutané chez le foetus. La stimulation nociceptive ne veut pas dire que le foetus a la capacité de « ressentir ». Le foetus possède l’équipement nécessaire pour percevoir des stimulations nociceptives, la question est de savoir si ce système est opérationnel. La maturation du système nerveux central est un processus complexe et difficile à étudier. La pratique de gestes invasifs potentiellement douloureux pour le foetus a activé la recherche à propos de l’analgésie fœtale dès les années 1990. Différentes situations ont été identifiées comme potentiellement douloureuses pendant la période anténatale. Même si le foetus n’expérimente pas la douleur comme un être conscient, il manifeste une réponse adaptée au stress lors d’une stimulation nociceptive entraînant des modifications hémodynamiques et hormonales. Ces modifications, si elles surviennent à un stade critique du développement du SNC, pourraient entraîner des conséquences immédiates mais peut-être aussi à long terme. Les nouvelles techniques d’imagerie ouvrent des voies de recherche dans la précision du développement cérébral à chaque âge gestationnel mais aussi dans une approche fonctionnelle. La complexité du développement cérébral et la compréhension des conséquences de l’environnement foetal, les conséquences des différents stimuli dont la douleur, nécessitent une recherche transdisciplinaire.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

RAMEFIVOLOLONA, Hanitra Lalaina. "Etat de contrôle administratif sur la qualité des produits aurifères exportés par Madagascar : cadre legislatif malgache et norme internationale". International Journal of Progressive Sciences and Technologies 41, n. 1 (25 ottobre 2023): 178. http://dx.doi.org/10.52155/ijpsat.v41.1.5645.

Testo completo
Abstract (sommario):
De nombreux États cherchent le moyen de renforcer leurs capacités d’évaluation des exportations de minéraux. Madagascar est conscient de la nécessité d’acquérir des connaissances et des compétences pour contrôler la qualité de minéraux et de métaux précieux comme l’or de façon efficiente et en temps opportun.A Madagascar, l’or commercialisé est supérieur ou égal à la pureté 18 Karat (Kt). Ce seuil constitue la base de calcul des frais retenus par l’administration. Alors que, d’après le régime de l’or, l’exportation de l’or ne peut se faire qu’à 24Kt de pureté. L’or exporté de Madagascar doit être considéré en quantité qu’en qualité pour contribuer davantage à la caisse de l’Etat.L’objectif de cet article est d’analyser le contrôle administratif sur la qualité des produits aurifères exportés de Madagascar par la méthode d’évaluation du guide IGF-OCDE afin de déterminer la conformité du système de contrôle administratif existant par rapport au cadre législatif Malgache et la norme internationale.Les résultats ont conclu que le contrôle administratif actuel sur la qualité de produit aurifère exporté de Madagascar présente un risque de sous-évaluation de produit, un risque de perte de redevances et ristournes minières (RRM) élevées causé par le point et le processus de contrôle ainsi qu’un risque de non fiabilité des résultats d’analyse sans un laboratoire accrédité et normalisé au niveau national et international.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

BENOIT, Marc, e Patrick VEYSSET. "Calcul des Unités Gros Bétails : proposition d’une méthode basée sur les besoins énergétiques pour affiner l'étude des systèmes d'élevage". INRAE Productions Animales 34, n. 2 (18 ottobre 2021): 139–60. http://dx.doi.org/10.20870/productions-animales.2021.34.2.4855.

Testo completo
Abstract (sommario):
Originellement basé sur l’ingestion de fourrages par les herbivores et par extension sur leurs besoins énergétiques, le concept d'Unité de Gros Bétail (UGB) est largement utilisé, sans être toujours précisément défini, pour décrire et évaluer les systèmes d'élevage ou pour calculer des statistiques. Cependant, le calcul de la valeur UGB d'un animal donné peut être considéré comme très frustre dans la mesure où il ne tient compte ni de sa taille, ni de son niveau de production, ni de ses conditions d'élevage, dont dépendent ses besoins énergétiques et donc alimentaires. Nous proposons une méthode de calcul de l'UGB adaptée aux espèces bovines, ovines et caprines basée sur les besoins énergétiques nets des animaux, en utilisant les équations et paramètres fournis par le GIEC (« Groupe d'experts Intergouvernemental sur l'Évolution du Climat »). Grâce à une analyse de sensibilité vis-à-vis des variables utilisées, nous confirmons que le poids des animaux et leur niveau de production sont déterminants de ces besoins. En intégrant ces deux paramètres, nous proposons deux types d'équations qui diffèrent par leur niveau de précision et par la disponibilité des données requises. Sur la base d'une équivalence de 29 000 MJ pour une UGB correspondant à une vache laitière de 600 kg produisant 3 000 kg de lait par an à un taux butyreux de 4 %, nous conservons la notion d'animal de référence pour une UGB. La méthode proposée permet d’approcher, à travers la taille des animaux, leur niveau de production et leur génotype, la variabilité des besoins alimentaires des animaux. Les coefficients UGB ainsi calculés peuvent très significativement différer des coefficients historiques et ainsi modifier les conclusions de comparaisons de systèmes de production entre eux ou dans le temps.
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Philippe, Pierre. "Fécondité, fécondabilité et consanguinité à l'Isle-aux-Coudres". Articles 14, n. 1 (12 aprile 2005): 117–23. http://dx.doi.org/10.7202/055604ar.

Testo completo
Abstract (sommario):
On a souvent dénoncé la carence d'études strictement démographiques au Canada français. Or, les populations canadiennes-françaises constituent un véritable laboratoire qui place les chercheurs dans une situation presqu'expérimentale. À cet effet, insistons sur la qualité de notre état civil grâce auquel des analyses de démographie historique peuvent être achevées avec une rare précision. De plus, l'union de cette discipline à la génétique des populations peut donner lieu à des travaux extrêmement féconds. Depuis quelques années, la génétique démographique a connu un essor rapide au Canada français. Le présent travail se propose de présenter, dans une première étape, les taux de fécondité des couples fertiles de la population de l'Isle-aux-Coudres depuis la colonisation jusqu'à 1960. L'évaluation des taux de fécondité a été réalisée par la compilation des durées d'intervalles intergénésiques des cinq premiers rangs de naissance, ce qui correspond approximativement à la fécondité des couples dont la femme est âgée de vingt à trente ans. En second lieu, nous avons estimé la fécondabilité des femmes par le calcul de l'intervalle protogénésique. Pour les détails concernant le matériel et les méthodes, le lecteur est prié de se référer à un autre article. Finalement, nous soulignerons la possibilité d'incidence de la consanguinité sur la fécondité.
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Salagnac, Jean-Michel. "Intérêt diagnostique et thérapeutique de l’étude du nez en orthopédie dento-maxillo-faciale". L'Orthodontie Française 89, n. 2 (giugno 2018): 169–80. http://dx.doi.org/10.1051/orthodfr/2018014.

Testo completo
Abstract (sommario):
Introduction : Prévoir la croissance faciale chez un sujet en période de croissance est l’un des souhaits les plus chers des orthodontistes, mais aussi l’un des objectifs les plus difficiles à obtenir avec précision malgré les différentes méthodes proposées de prévision de croissance. Une méthode simple basée sur la lecture clinique et radiologique du nez et du prémaxillaire permet sans aucun calcul de se faire une idée valable de la croissance maxillaire à venir et d’en déduire les indications thérapeutiques en orthopédie dento-faciale. L’étude morphologique du nez constitue également un élément important dans le diagnostic des syndromes malformatifs cranio-faciaux. Matériels et méthodes : À partir d’une étude sémiologique clinique détaillée et de l’étude radiologique des structures nasales et prémaxillaires, cet article présente une méthode d’évaluation et de prévision de croissance de l’étage supérieur de la face. Résultats : Basée sur l’expérience de très nombreuses observations, et sur des bases embryologiques actuelles, la détection précoce des troubles de la croissance de l’entité ethmoïdo-naso-prémaxillaire fournit à l’orthodontiste de précieuses indications thérapeutiques. Discussion : L’étude de la morphologie nasale, clinique et radiologique associée à l’étude du prémaxillaire constitue un bon indicateur de la direction et du potentiel de croissance de l’étage supérieur de la face, ainsi qu’un indice de dépistage de syndrome malformatif. Conclusion : Cette étude devrait être intégrée systématiquement dans le diagnostic en orthopédie dento-maxillo-faciale.
Gli stili APA, Harvard, Vancouver, ISO e altri
23

LEPELLETIER, T., H. CHIÈZE, M. BERTRAND, T. BIENVENU, M. COUET, A. LISTER, J. GEORGES, A. SAINT-GERMAIN, P. KERHERVE e L. HASSIG. "Étude hydraulique de vulnérabilité du système d’assainissement francilien face à une crue majeure". Techniques Sciences Méthodes 12 (20 gennaio 2023): 105–19. http://dx.doi.org/10.36904/202212105.

Testo completo
Abstract (sommario):
Cet article présente une étude de cas pour évaluer les interactions entre un grand système d’assainissement et une crue entraînant des débordements, sur la base d’une modélisation hydraulique. L’étude de cas présentée ici est réalisée sur le réseau d’assainissement de la zone centrale de l’Île-de-France, confrontée à une inondation majeure le long du bassin de la Seine et de la Marne. Ce réseau joue un rôle majeur de protection contre les inondations en évacuant les flux excédentaires des précipitations, de l’aquifère et des débordements directs des rivières. Il peut néanmoins également induire une aggravation des inondations en cas de saturation des postes de pompage ou de défaillance d’équipements. Le présent document décrit les étapes de construction et de calage du modèle sur la base des données disponibles pour les crues de janvier 2018 et de juin 2016. Ce modèle repose sur l’utilisation de la plateforme logicielle Hydra/Qgis. L’accent est mis sur l’ajustement des apports supplémentaires du fleuve et de l’aquifère dans le système d’assainissement, ainsi que sur la précision et les performances de calcul du modèle. L’objectif final de ce projet est d’évaluer la résilience des réseaux d’assainissement sur la zone de collecte étudiée et de produire un outil d’aide à la décision pour améliorer la gestion du système d’assainissement en période de crue, en considérant les dommages potentiels en fonction du niveau d’inondation.
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Sergent, Philippe, Jean-Michel Tanguy e Hassan Smaoui. "Calcul analytique et numérique des seiches et des oscillations portuaires pour des bassins de forme rectangulaire et de profondeur constante avec des digues semi-infinies parfaitement réfléchissantes". La Houille Blanche, n. 3-4 (ottobre 2019): 117–29. http://dx.doi.org/10.1051/lhb/2019049.

Testo completo
Abstract (sommario):
À l'aide de l'équation intégrale de Kirchhoff–Helmholtz appliquée aux ondes de gravité et en prenant en compte les modes évanescents à l'intérieur du résonateur, nous établissons une nouvelle approximation de la période fondamentale de seiche et d'oscillation portuaire des bassins de forme rectangulaire et de profondeur constante en présence d'ouvrages extérieurs semi-infinis parfaitement réfléchissants. Cette approximation généralise la formule analytique utilisée par Rabinovich. La formule présentée par Rabinovich corrige elle-même la période classiquement utilisée pour les résonateurs quart d'onde. Nous comparons ensuite cette approximation avec les résultats de l'équation de pente douce de Berkhoff résolue par la méthode des éléments finis. Il est observé que la formule analytique présentée par Rabinovich sous-estime la période de résonance. Pour le calcul par éléments finis, une densité du maillage d'environ 10 nœuds par longueur d'onde suffit pour atteindre une bonne précision mais il est nécessaire de respecter aussi un critère sur le nombre de nœuds par unité de largeur. En ce qui concerne le facteur d'amplification, nous retrouvons comme Rabinovich que ce dernier est proportionnel au rapport longueur sur largeur et qu'il ne dépend pas de la profondeur. Nous montrons également que la composition des ouvrages extérieurs peut être déterminante pour le facteur d'amplification. Un test expérimental dans une cuve à houle montre cependant que, dans certains cas, une dissipation importante se produit qui a pour conséquence d'une part de réduire la période de seiche et d'autre part de réduire sensiblement le facteur d'amplification.
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Bencherif, Kada, e Houari Tadj. "Approche d'estimation du volume-tige de peuplements forestiers par combinaison de données Landsat et données terrain Application à la pineraie de Tlemcen-Algérie". Revue Française de Photogrammétrie et de Télédétection, n. 215 (16 agosto 2017): 3–11. http://dx.doi.org/10.52638/rfpt.2017.360.

Testo completo
Abstract (sommario):
Une approche méthodologique s'appuyant sur la combinaison de données satellitaires et données de terrain est proposée pour l’estimation du volume-tige de peuplements forestiers hétérogènes ou peu homogènes. L'objectif est d'évaluer la disponibilité forestière, en inventoriant moins de 1% de la surface étudiée et avec une erreur max. de 15%. L'approche consiste en la réalisation de trois étapes principales : i) Analyse de la variance sur le volume-tige, ii) classification des données satellitaires et iii) Désignation et inventaire des pixels-échantillons. L'analyse et le calcul de la variance permet d'orienter les calculs du volume en fonction de sa variabilité dans les différentes strates de la forêt alors que la classification des données satellitaires vise à obtenir une stratification de la forêt. La troisième étape consiste en la sélection de pixels-échantillons sur l'image classifiée puis la géolocalisation, l'installation et le cubage des placettes-terrain correspondantes (même dimension spatiale que le pixel de l'image utilisée). Appliquée sur une futaie peu homogène de pin d'Alep (forêt de Tlemcen, Nord-Ouest algérien), l'approche a permis d'estimer un volume global sur pied du peuplement égal à 30 595 m3 m3±15.6% et ce en inventoriant 0.4% seulement de la surface totale. L'analyse de variance sur 12 placettes-échantillons a mis en évidence le caractère peu homogène de la forêt et la faible variabilité du volume-tige. Cependant, Elle fait apparaître aussi que la stratification apporte une légère amélioration à la précision (15.6%) contre 17.6% sans stratification. La classification supervisée d'une image Landsat (Mai 2002) par la méthode du maximum de vraisemblance (précision moyenne de 96%) a permis de stratifier la zone étudiée en six classes (forêt très dense, forêt dense, forêt claire, matorral, herbacées, autres). Pour chaque strate de forêt, le cubage complet de 4 placettes-échantillons comparables en dimension au pixel (30m—30m), a fourni le volume-tige moyen par pixel alors que la généralisation de celui-ci à l'ensemble des pixels a permis de déterminer le volume total de chaque strate. Vu les confusions générées par la classification supervisée au profit des objets pistes, routes et matorral, le volume global a été revu à la baisse (taux de réduction de 10%) et la valeur du volume total corrigé était de 27 535 m3±15.6%, une erreur, bien que non conforme à celle exigée par l'aménagement forestier (max ±10%), s'approche de celle généralement admise (une moyenne de ±15%) pour certains inventaires simplifiés.
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Puig, Céline. "Réalisation du RGE Alti en zone de montagnes à partir d'images Pléiades". Revue Française de Photogrammétrie et de Télédétection, n. 208 (5 settembre 2014): 149–54. http://dx.doi.org/10.52638/rfpt.2014.98.

Testo completo
Abstract (sommario):
La référence altimétrique nationale, nommée RGE Alti, est actuellement composée de données issues de traitements Radar sur les zones de montagne qui ne satisfont pas pleinement les spécifications. Dans le même temps, les caractéristiques d'acquisitions des satellites imageurs se sont considérablement améliorées permettant aux satellites comme Pléiades de devenir une alternative intéressante à l'aérien dans les zones où les prises de vues sont coûteuses et complexes à organiser tels que les massifs montagneux.Quatre acquisitions Pléiades réparties sur deux zones d'études, le col de Bavella en Corse et le massif du Mont-Blanc, ont servi à réaliser des Modèles Numériques de Surface (MNS) par corrélation. Des Modèles Numériques de Terrain (MNT) ont ensuite été calculés à l'aide d'une méthode développée à l'Institut National de l'Information Géographique et Forestière (IGN) qui se base sur une interpolation de points sols extraits des MNS. Ces MNT obtenus avec les acquisitions Pléiades possèdent une précision altimétrique de 3m à 4m et des résultats homogènes quel que soit le type de terrain ce qui est indispensable pour la réalisation d'une référence nationale. L'étude montre aussi une forte corrélation entre la qualité du MNT final et les caractéristiques de prise de vue, ce qui entraîne des contraintes d'acquisition particulières et la mise en place d'étapes supplémentaires dans le calcul du MNT. Moyennant ces adaptations, l'utilisation d'images Pléiades pour compléter le RGE Alti dans les zones de montagne est envisageable et les utilisateurs du RGE Alti ont d'ores et déjà montré leur intérêt pour ces MNT Pléiades.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

MOSSÉ, J. "Acides aminés de 16 céréales et protéagineux : variations et clés du calcul de la composition en fonction du taux d’azote des grain(e)s. Conséquences nutritionnelles". INRAE Productions Animales 3, n. 2 (3 febbraio 1990): 103–19. http://dx.doi.org/10.20870/productions-animales.1990.3.2.4365.

Testo completo
Abstract (sommario):
Les changements parfois importants de composition en acides aminés des grain(e)s sont toujours en corrélation avec ceux de leurs taux d’azote. Ils sont décrits par des relations linéaires entre la teneur en chaque acide aminé et le taux d’azote mises en évidence chez 16 espèces cultivées pour leurs grain(e)s. Quelques rappels sont d’abord faits sur les grain(e)s, leurs réserves, la protéosynthèse dont elles sont le siège jusqu’à maturité, ainsi que sur les problèmes soulevés par l’analyse des acides aminés et l’expression des compositions. Les caractéristiques des variations de ces compositions sont discutées, sur le plan tant fondamental que pratique : qu’elles soient dues aux facteurs de l’environnement, à la fumure ou aux conditions culturales ou bien qu’elles soient d’origine variétale, ces variations obéissent strictement aux mêmes types de relations linéaires qui sont donc définies par deux coefficients déterminables expérimentalement pour tout couple correspondant à une espèce et un acide aminé donnés. Le tableau de ces coefficients est donné pour chacune des 16 espèces et pour chacun des 19 acides aminés analysables. Un certain nombre de conséquences nutritionnelles qui en découlent sont discutées, en particulier l’ampleur des variations intraspécifiques des acides aminés dans les protéines des grain(e)s, les variations comparées, en fonction du taux d’azote, des scores nutritionnels par espèce et entre espèces, celle du rapport leucine/isoleucine, ainsi que les changements éventuels dans l’ordre des acides aminés limitants et aussi ceux des coefficients de conversion de l’azote total en protéines réelles. En toute occasion, la connaissance de la composition en acides aminés des lots de grains utilisés dans les rations animales est désormais beaucoup plus simple à établir avec une précision et une sécurité accrues.
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Lebègue, Laurent, Daniel Greslou, Gwendoline Blanchet, Françoise De Lussy, Sébastien Fourest, Vincent Martin, Christophe Latry et al. "Pléiades-HR satellites image quality commissioning". Revue Française de Photogrammétrie et de Télédétection, n. 209 (11 gennaio 2015): 5–10. http://dx.doi.org/10.52638/rfpt.2015.137.

Testo completo
Abstract (sommario):
Pleiades est le système d'observation de la Terre civil le mieux résolu développé en Europe. Ce programme d'imagerie est conduit par le Centre National d'Etude Spatial français (CNES). Le premier satellite a été lancé le 17/12/2011 et le second le 02/12/2012. Chaque satellite est conçu pour fournir des images optiques aux utilisateurs civils et défense. Les images sont acquises simultanément en Panchromatique (PA) et multi-spectral (XS), ce qui permet en condition d'acquisition nadir d'obtenir des scènes de 20 km de large, en couleurs naturelles ou fausses couleurs, avec une résolution de 70 cm sur les produits PA+XS fusionnés. La couverture est quasi-mondiale avec une période de revisite de 24h avec les 2 satellites.L'évaluation de la Qualité Image et les opérations d'étalonnage ont été réalisées par l'équipe Qualité Image du CNES pendant les recettes en vol de 6 mois qui ont suivi le lancement de chacun des satellites. Ces activités couvrent plusieurs thèmes comme l'étalonnage absolu, le calcul des coefficients d'égalisation, les opérations de refocalisation, l'estimation de la FTM, l'étalonnage du modèle géométrique, l'estimation de la précision de localisation, la registration multi-spectrale, les stabilités statiques et dynamiques, les précisions planimétriques et altimétriques. Ces opérations nécessitent des réglages spécifiques de la charge utile ainsi que des guidages particuliers de la plateforme du satellite. Les nouvelles capacités offertes par l'agilité des satellites Pleiades nous ont autorisées à imaginer de nouvelles méthodes d'étalonnage et de mesures des performances.Après quelques rappels sur les caractéristiques principales des satellites, la présentation décrit les opérations d'étalonnage qui ont été menées pendant les recettes en vol et fournit les principaux résultats de Qualité Image.
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Lucie, Xavier, Sylvie Durrieu, Anne Jolly, Sylvain Labbé e Jean-Pierre Renaud. "Comparaison de Modèles Numériques de Surface photogrammétriques de différentes résolutions en forêt mixte. estimation d'une variable dendrométrique simple : la hauteur dominante". Revue Française de Photogrammétrie et de Télédétection, n. 213 (26 aprile 2017): 143–51. http://dx.doi.org/10.52638/rfpt.2017.197.

Testo completo
Abstract (sommario):
Le renouveau de la photogrammétrie et le développement de moyens aéroportés légers tels que les drones permettent de nouvelles applications dans le domaine de l'aménagement et la gestion forestière.L'estimation de variables forestières se fait dans le cadre de processus longs et fastidieux sur le terrain. Dans l'idée d'automatiser l'extraction de variables dendrométriques, nous mettons en place une méthodologie pour générer les modèles numériques de surfaces (MNS) par photogrammétrie multi-vues les plus précis possibles compte-tenu des limites imposées par les algorithmes de calcul. Nous utilisons pour ce faire la suite photogrammétrique libre de l'IGN MicMac.Notre zone d'étude se situe dans la forêt domaniale du Ventouret (région PACA) qui est une forêt mixte de moyenne montagne. Pour qualifier la précision de ces MNS, nous disposons de relevés dendrométriques sur des placettes d'analyse de 700 m² représentatives des peuplements les plus fréquents à l'échelle de la forêt. Ces zones ont été survolées par un drone multi-rotors équipé d'un appareil photo numérique à focale fixe. Les clichés ont une résolution spatiale de 2,5 cm contre 25 cm pour les prises de vues standardisées de l'IGN.Afin d'étudier l'impact de la résolution sur la qualité des MNS générés, nous dégradons la résolution des prises de vues du drone jusqu'à obtenir un pixel terrain d'une quarantaine de centimètres. Nous comparons ensuite les altitudes de chaque MNS avec des pointés stéréoscopiques de référence réalisés manuellement sur les prises de vues originales.En soustrayant à chaque MNS un modèle numérique de terrain (MNT) LiDAR, nous calculons ensuite un modèle de hauteur de couvert (MHC). L'étude de la distribution des hauteurs sur chaque placette et d'un modèle statistique de hauteur dominante (H0) nous permettent de conclure sur l'intérêt de l'approche photogrammétrique et de déterminer des résolutions spatiales optimales pour appuyer le travail des gestionnaires et aménagistes forestiers.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Abdallah, Mohamed Abdallah. "Passage Des Coordonnées Géocentriques Aux Coordonnées Géodésiques Géographiques, Démarches Mathématiques : Cas Du Point 05/15 - 0001, Un Point Du Réseau Géodésique Congolais Situé A Kinshasa". International Journal of Progressive Sciences and Technologies 46, n. 2 (24 settembre 2024): 195. https://doi.org/10.52155/ijpsat.v46.2.6580.

Testo completo
Abstract (sommario):
La profession d’Ingénieur Géomètre Topographe est parmi des professions, la plus influencée par l’informatique et la NTIC. Cette influence a grandement changé la façon de travailler des ingénieurs géomètres topographes sur terrain tout comme au bureau. De fois, les résultats fournis par des outils et logiciels spécialisés apparaissent pour certains une vérité absolue, à tel point qu’on s’en passe des doutes sur la qualité des résultats. Or la profession reste trop urgente en terme de la précision sur les différentes déterminations, il est donc très essentiel de rappeler aux professionnels certaines démarches mathématiques conduisant à la programmation des logiciels et outils de la nouvelle ère, ces démarches peuvent servir des appuis de taille pour valider ou sinon résoudre un petit souci de format des coordonnées que l’on souhaite utiliser dans un projet.Dans cet article, nous nous sommes donnés le luxe de rappeler la démarche mathématique qui nous conduit en cette ère informatique à convertir très rapidement des coordonnées en importe quel format que l’on désire. C’est ainsi pour des raisons scientifiques et techniques, nous avons traité ce problème de transformation des coordonnées géocentriques aux coordonnées géodésiques géographiques pour démystifier les démarches informatiques. Nous avons exploité des données du point 05/15-0001 du réseau géodésique congolais implanté et calculé en 2015, il a fallu pour cette étude de monter un scénario, comme si le point n’était connu qu’en coordonnées géocentriques et sur base des calculs en exploitant les différentes méthodes de calcul, nous sommes arrivés à calculer les coordonnées de ce point sous format géodésique géographique.Pour ne pas être si long, nous avons présenté et expliqué deux méthodes de calcul, dont l’une est celle dite directe et l’autre est nommée la méthode des itérations, après les explications, nous avons porté notre choix sur la méthode des itérations car ça paraît plus technique et précise. Compte tenu de mon profil d’enseignant et de professionnel, j’ai eu des débats intéressants sur cette problématique, il s’est fait remarquer une certaine confusion sur des concepts, certains professionnels et apprenants ne trouvent plus la place pour des vérifications poussées en utilisant des méthodes mathématiques, qui, d’ailleurs, ils arrivent même à les qualifier de dépasser. Alors c’était en quelque sorte ça, qui m’a poussé d’écrire en ce sens, en fin d’interpeller les apprenants ainsi que d’autres professionnels sur la question. Quand on ignore comment est programmé un logiciel, on aura certainement les difficultés de bien le manipuler ainsi que de vérifier le résultat. Le côté sombre de la technologie, c’est cette manière de réduire un ingénieur à un simple manipulateur d’un programme informatique, les questions fondamentales ne se posent plus, c’est vraiment de l’automate et ce qui n’est pas assez bien.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Benhattab, Karima, Christophe Bouvier e Mohamed Meddi. "Analyse fréquentielle régionale des précipitations journalières maximales annuelles dans le bassin hydrographique - Chéliff, Algérie". Revue des sciences de l’eau 27, n. 3 (15 dicembre 2014): 189–203. http://dx.doi.org/10.7202/1027805ar.

Testo completo
Abstract (sommario):
L’estimation locale des pluies extrêmes et de leur période de retour est souvent peu précise du fait de données peu nombreuses. Le regroupement de données d’une même région permet souvent d’améliorer la précision de cette estimation. Cet article propose une approche régionale pour l’estimation des pluies journalières de fréquence rare, pour le bassin hydrographique du Cheliff (nord-ouest de l´Algérie). La première étape consiste à définir et à valider les régions homogènes de la zone d’étude. Le test d'homogénéité est basé sur la statistique H, qui compare les rapports des L-moments calculés localement à chaque station à leur moyenne sur la région considérée. La deuxième étape consiste à identifier la distribution régionale et à estimer ses paramètres par analyse du diagramme des L-moments et/ou calcul de la statistique Zdist, qui compare les rapports des L-moments régionaux à ceux de la distribution candidate. La loi GEV (« General Extreme Value »), qui a été utilisée dans plusieurs études antérieures de régionalisation des précipitations extrêmes, a été identifiée comme distribution régionale adéquate. Les paramètres de la GEV ont été calculés à l’aide de la définition des L-CV, L-CS et L-CK régionaux. La troisième étape consiste à déterminer localement les quantiles de pluie associés aux différentes périodes de retour, par multiplication du L-coefficient de variation régionale L-CV par la moyenne des précipitations journalières maximales annuelles observées au site considéré. Les pluies calculées par cette méthode, qui peut être appliquée à toute station de la zone étudiée, peuvent être significativement différentes de celles calculées par ajustement local. Les valeurs de l’erreur quadratique moyenne entre les quantiles calculés par approche régionale ou locale sont égales à 10 % pour la pluie journalière maximale annuelle décennale, et à 35 % pour la pluie journalière maximale annuelle centennale. Cette erreur diminue quand la longueur de la série locale augmente, ce qui suggère que l’approche régionale consolide effectivement l’estimation des quantiles de pluie.
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Reguin, Olivier. "Résolution numérique d'un problème métrologique : Le pied, la perche et l'acre d'Angleterre". Florilegium 29, n. 1 (gennaio 2012): 229–46. http://dx.doi.org/10.3138/flor.29.009.

Testo completo
Abstract (sommario):
Les mesures du pied, de la perche et de l’acre statutaires sont encore très employées dans le monde aujourd’hui et l’acre reste officielle aux États-Unis. Pourtant, les explications avancées jusqu’ici à propos de leurs origines, de leur raison d’être et de leurs dimensions n’ont que partiellement abouti, pour n’avoir pas été reliées assez solidement à la métrologie agraire de l’Europe occidentale, elle-même à revoir dans une perspective globale. L’hypothèse que je propose ici résulte d’une recherche visant à intégrer en un système cohérent l’ensemble si divers et si déroutant des anciennes unités de mesures agraires issues du Moyen Âge en Occident et qui s’utilisent encore de nos jours — en l’espèce : les unités de mesure britanniques. Ce travail m’a amené à considérer que des mesures très peu nombreuses, créées à l’époque carolingienne, se sont par la suite multipliées, mais en procédant les unes des autres par des conversions numériques rationnelles, calculées et d’une grande précision. Cette position va à l’encontre d’explications voulant que les mesures agraires se soient fixées petit à petit, localement, suivant les pratiques culturales (le temps de travail, l’ensemencement), d’après la nature du terrain, etc. ; elle s’oppose aussi à l’idée que les anciennes unités de mesure sont particulières à chaque nation. L’idée directrice est plutôt que les mesures agraires, dont dépendent les mesures linéaires des différents pieds, ont été établies pour des raisons fiscales à partir de règles édictées par le pouvoir impérial. Il s’agit alors de comprendre, à partir des indications des sources anciennes, des travaux de la métrologie historique proprement dite, et au moyen d’opérations simples, de quelle façon les mesures communes à tout l’Occident ont été interprétées localement, mais sans changer fondamentalement. Les mesures apportent précisément l’assurance de la structuration en profondeur de la civilisation médiévale dans sa continuité, en dépit de ses éclipses les plus graves. La métrologie historique dont il s’agit ici, et qui reprend un courant délaissé, ne fait donc pas que recenser l’infinité des anciennes mesures : elle en propose une explication appuyée sur le calcul. Cette « archéologie mathématique » peut s’appliquer au cas des mesures anglaises.
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Tidiane Dia, Amadou. "Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-Versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence". European Scientific Journal, ESJ 19, n. 6 (28 febbraio 2023): 222. http://dx.doi.org/10.19044/esj.2023.v19n6p222.

Testo completo
Abstract (sommario):
Le bassin versant de Ogo connait des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé pour mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traitées, stockées et analysées dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, ce que l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire confirme. Les classes de susceptibilité sont reparties ainsi qu’il suit : très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45 % de surface de susceptibilité tandis que la classe très forte occupe 20,28 % par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89 %. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60 % signifie l’échec de la méthodologie par la non précision des résultats obtenue ; par contre, un taux supérieur ou égale à 70 % signifie un niveau de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat. The Ogo watershed is subject to strong and changing climatic and ecological constraints. The current degradation dynamics are increasingly marked by an intensification of water erosion. It is in this perspective that the present work was carried out with the aim of measuring the vulnerability of the Ogo watershed to this morphodynamic. In order to do so, we adopted among many methodologies available in scientific journals such as the evidence theory, logistic regression, the hierarchical analysis process (AHP), the bivariate method whose frequency ratio and informative value act as reference method in the present study. In the application of this method, we proceeded by listing the different input parameters including the different causative factors of water erosion and the inventory mapping of the different forms of erosion identified in the Ogo catchment. These data were processed, stored and analysed in a Geographic Information System software to make the application flexible enough. The susceptibility to water erosion in the Ogo catchment area having been apprehended by the information value method showed that : the Ogo catchment area is very vulnerable to water erosion, a fact confirmed by the descriptive approach of the different forms of erosion by inventory mapping. The susceptibility classes are divided into very low, low, medium, high and very high. The strong class occupies 30.45% of the susceptibility area, while the very strong class occupies 20.28% of the entire study area and the medium class occupies 27.89%. The results obtained by mapping the susceptibility of the said basin to water erosion were subjected to validation by ROC curve analysis. Following the cross-referencing of the inventory data with the susceptibility map, the weighted pixel areas obtained are determined by calculating the Area under curver, which provides information on the success or failure rate of the method. A rate of less than or equal to 60% means the failure of the methodology due to the non-precision of the results obtained, whereas a rate of more than or equal to 70% means a successful precision rate of the method. The rate obtained is 78%, thus revealing a good result.
Gli stili APA, Harvard, Vancouver, ISO e altri
34

AGABRIEL, J. "Avant-propos". INRAE Productions Animales 20, n. 2 (7 giugno 2007): 107–8. http://dx.doi.org/10.20870/productions-animales.2007.20.2.3442.

Testo completo
Abstract (sommario):
L’alimentation des ruminants : un problème d’actualitéDans la conduite et la réussite d’un système de production de Ruminants, l’alimentation du troupeau reste un domaine très important qui continue de poser de nombreuses questions à la fois pratiques et théoriques. Pour l’éleveur, les postes récolte des fourrages et des céréales, achats d’aliments et entretien des surfaces fourragères représentent plus de 50 % des charges opérationnelles de son exploitation. Nourrir quotidiennement son troupeau lui impose de faire des choix de types de rations et en amont des choix stratégiques de long terme, sur la conduite de son système fourrager en considérant ses contraintes de milieu naturel, de bâtiments ou de stockage. La gestion de l’alimentation est directement liée à tous les autres choix stratégiques de l’activité d’élevage, le niveau de croissance des jeunes animaux, la reproduction, l’allotement la quantité et la qualité de la production. Pour le chercheur en nutrition animale, les enjeux sont devenus multiples et son positionnement a évolué : la recherche de la production maximale soutenue par l’alimentation a fait place à la volonté d’atteindre un optimum à la fois biologique, technique et économique selon les milieux dans lequel l’élevage est conduit. Il doit faire en sorte que la ration calculée par ses modèles satisfasse les besoins de l’animal selon les objectifs de production de l’éleveur, mais qu’elle participe également au bon état sanitaire et de bien-être du troupeau, qu’elle garantisse la qualité des produits et minimise l’impact défavorable des rejets sur l’environnement. La recherche en nutrition et alimentation des ruminants porte à la fois sur les fourrages, la physiologie digestive et métabolique de l’animal et son comportement alimentaire. En tenant compte de la complexité des mécanismes biologiques, les modèles nutritionnels doivent pouvoir simuler avec le maximum de précisions les flux de matières à travers le tube digestif et les organes sur des pas de temps variables, à la fois de court et de long terme. Cela reste un sujet perpétuellement en évolution qui exige aussi de synthétiser les connaissances sous forme d’outils d’aide à la décision et qui soit capable de présenter la qualité de ces outils et leurs limites d’usage. Une recherche qui se développe avec l’INRALes recherches pour aider à déterminer les choix d’alimentation des animaux en condition de production se sont concrétisées au cours du 20ème siècle. Les systèmes d’alimentation en énergie, azote et minéraux ont été développés en France après 1945. A l’INRA, le département Elevage des Ruminants sous l’impulsion de R. Jarrige avait initié une révision majeure des principes et des unités pratiques de terrain en 1978 en proposant un système énergétique construit sur la base de deux unités fourragères, lait et viande (UFL, UFV), un système des Protéines Digestibles dans l’Intestin (PDI) et des Tables complètes à la fois des besoins des animaux et de la valeur alimentaire des aliments. C’est notamment dans le domaine de la valeur nutritionnelle des fourrages que ces travaux étaient particulièrement riches. Ces «systèmes INRA» avaient alors été complétés par la première ébauche d’un modèle complètement nouveau de prévision de l’ingestion (système des Unités d’Encombrements UE) qui sera fortement remanié et amélioré dix ans plus tard lors de la révision de 1988. Ce nouvel ensemble, prévision de l’ingestion, estimation des besoins nutritionnels, a également permis d’accroître l’offre d’outils pratiques de terrain. En complèment des Tables imprimées, un outil informatique d’accompagnement et de rationnement «INRAtion» a été proposé dès 1992. Celui-ci s’est ensuite enrichi de l’outil de calcul de la prévision de la valeur des aliments «Prevalim;» et tous deux sont devenus des réceptacles appliqués des nouveautés scientifiques concernant les systèmes INRA. Mais, près de vingt ans après le dernier «Livre Rouge de l’Alimentation des bovins, ovins et caprins», une mise à niveau des ouvrages écrits s’imposait également et il est apparu nécessaire de proposer une actualisation des connaissances des principes du rationnement des ruminants. Les travaux des équipes de recherches ont permis de progresser aussi bien sur la caractérisation de la valeur des fourrages et des matières premières, que sur l’estimation des besoins des animaux et des apports nutritionnels recommandés dans des situations très diverses. Au delà des recommandations statiques, focalisées sur l’objectif de satisfaire les besoins, les lois de réponses dynamiques des pratiques alimentaires sont mieux connues et quantifiées. Elles permettent de mieux simuler les conséquences de la diversité des situations. L’objectif de l’ouvrage «Alimentation des bovins, ovins et caprins - Tables INRA 2007», sorti en février aux éditions Quæ, est ainsi de remettre sous la forme connue et largement adoptée par tous les acteurs des filières de l’élevage ruminant ces nouveaux résultats. Des documents complémentairesCependant le niveau scientifique choisi de l’ouvrage récemment paru et sa taille volontairement réduite pour en faire un ouvrage facilement accessible ont contraint les auteurs à aller à l’essentiel, les frustrant sans aucun doute d’une description et d’une discussion de fond de leurs résultats.En reprenant l’exemple de 1987 où le «livre rouge» publié par INRA Editions était complété par un numéro détaillé du Bulletin CRZVde Theix, nous avons donc décidé de publier un dossier dans la Revue INRA Productions Animales qui complète l’ouvrage de février. Ce dossier regroupe majoritairement des présentations et les explications des choix qui ont prévalu au développement des nouveaux modèles sous-tendus dans les recommandations. Il comporte 5 articles qui éclairent des points clés des innovations introduites en 2007, et qui correspondent soit à des nouveaux modèles mécanistes des fonctions de l’animal, soit à des méthodes de prévision de la valeur des fourrages, soit à des remises en cause plus profondes de l’ensemble apports, besoins comme c’est le cas pour la nutrition minérale.Toutefois, ce dossier n’est pas exhaustif des «nouveautés» du livre 2007. Certaines avaient été déjà publiées, soit dans des revues scientifiques, soit dans des sessions des «Rencontres Recherches Ruminants». Sans aucun doute d’autres viendront encore les compléter par la suite.Ainsi sont étudiés successivement des apports scientifiques sur la valeur des aliments et sur les besoins des animaux :1 - La dégradabilité des protéines dans le rumen (DT) et la digestibilité réelle des protéines alimentaires dans l’intestin grêle (dr). La valeur azotée des fourrages repose sur la bonne estimation de ces deux paramètres, qui sont la clé du calcul du système des protéines digestibles dans l’intestin PDI (article de M.-O. Nozières et al).2 - Les nouvelles valeurs minérales et vitaminiques des aliments. La possibilité de raisonner en éléments phosphore et calcium absorbables apporte de nouvelles précisions et modifie considérablement les quantités recommandées. L’article précise et actualise les Apports Journaliers Recommandés (AJR) d’éléments minéraux majeurs. Les autres minéraux, oligo-éléments et vitamines sont également revus de façon systématique et approfondie (article de F. Meschy et al).3 - De nouvelles équations statistiques de prévision de la digestibilité de la Matière Organique (dMO) des fourrages par la méthode pepsine-cellulase établies sur une banque de données couvrant une gamme plus importante de fourrages et de modes de conservation. La valeur énergétique des fourrages dépend en effet étroitement de la digestibilité de leur matière organique. Son estimation sur le terrain peut se faire à partir de méthodes de laboratoire comme la digestibilité pepsine-cellulase, utilisée en France depuis plus de vingt ans. Cette méthode est proposée pour sa bonne précision (article de J. Aufrère et al).4 - La composition du gain de poids chez des femelles adultes en période de finition qui permet de calculer ensuite directement le besoin en énergie et en protéines de l’animal. Ce modèle est suffisamment souple pour proposer un besoin face à un objectif de croissance donné, mais il propose aussi un niveau de croissance pour une ration d’un niveau énergétique donné. Ce nouveau modèle a été spécifiquement développé pour tenir compte de la très grande variabilité des situations pratiques rencontrées : la race, l’âge, le format, l’état d’engraissement initial et la vitesse du gain attendu (article de F. Garcia et J. Agabriel).5 - La capacité d’ingestion d’aliments par les vaches laitières au cours de leur lactation complète. Ce tout nouveau modèle s’adapte à tous types de vaches primipares, multipares et propose le nouveau concept de «lait potentiel» pour mieux décrire cette capacité d’ingestion. Ce concept est nécessaire pour répondre aux diverses stratégies des éleveurs dans la conduite de leurs animaux et qui ne souhaitent pas nécessairement les mener à leur maximum de production. Le modèle tient en effet compte de l’état initial de la vache au vêlage et des modifications d’état corporel qui accompagnent obligatoirement la conduite de la lactation (article de P. Faverdin et al).La Rédaction de la Revue a estimé judicieux de publier dans ce même numéro d’INRA Productions Animales, un travail très récent sur la teneur en matière grasse du lait de vache et sa prévision, qui pourra dans les années à venir se traduire concrètement dans les outils d’accompagnement de nos recommandations (article de Rulquin et al).A l’occasion de la publication de ce dossier, nous voulons plus particulièrement remercier tous les participants des Unités et Installations Expérimentales de l’INRA sans qui ces résultats ne seraient pas, ainsi que tout le personnel des Unités de Recherches qui ont participé dans les laboratoires ou derrière leurs écrans : l’Unité de Recherches sur les Herbivores (URH) de Clermont-Ferrand-Theix, l’Unité Mixte de Recherches sur la Production Laitière (UMR PL) de Rennes, l’Unité Mixte de Recherches Physiologie et Nutrition Animale (UMR PNA) de Paris, l’Unité Mixte de Recherches sur les Ruminants en Région Chaude (UMR ERRC) de Montpellier.
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Mahdi, Haddad. "Contribution Au Calcul Simplifié De La Correction Orthométrique En Nivellement De Précision". مجلة الواحات للبحوث والدراسات, 2017, 121. http://dx.doi.org/10.54246/1548-010-001-002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Guellal, Amar, Chérif Larbès e Linda Hassaine. "Une nouvelle approche MLI basée sur le principe des réseaux de neurone pour la commande des onduleurs". Journal of Renewable Energies 15, n. 1 (23 ottobre 2023). http://dx.doi.org/10.54966/jreen.v15i1.300.

Testo completo
Abstract (sommario):
Les onduleurs sont des convertisseurs statiques continu/alternatif qui assurent des échanges d’énergie entre une source et une charge. Ces onduleurs sont utilisés pratiquement dans toutes les applications photovoltaïques (autonomes, hybrides et connectées au réseau). Les techniques de modulation de largeur d'impulsion (MLI) sont primordiales aux bonnes performances des onduleurs. Le but de ce travail est de démontrer un nouvel algorithme MLI en temps réel basé sur le principe des réseaux de neurone qui présente une précision de calcul pratiquement égale à celle de la technique de Patel et al., permettant ainsi une élimination des premiers harmoniques sélectionnés et un asservissement du fondamental.
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Bencherif, Kada, e Houari Tadj. "Approche d'estimation du volume-tige de peuplements forestiers par combinaison de données Landsat et données terrain". Revue Française de Photogrammétrie et de Télédétection, n. 215 (10 novembre 2020). http://dx.doi.org/10.52638/rfpt.2017.343.

Testo completo
Abstract (sommario):
Une approche méthodologique s'appuyant sur la combinaison de données satellitaires et données de terrain est proposée pour l’estimation du volume-tige de peuplements forestiers hétérogènes ou peu homogènes. L'objectif est d'évaluer la disponibilité forestière, en inventoriant moins de 1% de la surface étudiée et avec une précision max de 15%. L'approche consiste en la réalisation de trois étapes principales : i) Analyse de la variance sur le volume-tige, ii) classification des données satellitaires et iii) Désignation et inventaire des pixels-échantillons. L'analyse et le calcul de la variance permet d'orienter les calculs du volume en fonction de sa variabilité dans les différentes strates de la forêt alors que la classification des données satellitaires vise à obtenir une stratification de la forêt. La troisième étape consiste en la sélection de pixels-échantillons sur l'image classifiée puis la géolocalisation, l'installation et le cubage des placettes-terrain correspondantes (même dimension spatiale que le pixel de l'image utilisée). Appliquée sur une futaie peu homogène de pin d'Alep (forêt de Tlemcen, Nord-Ouest algérien), l'approche a permis d'estimer un volume global sur pied du peuplement égal à 30 595 m3 m3±15.6% et ce en inventoriant 0.4% seulement de la surface totale. L'analyse de variance sur 12 placettes-échantillons a mis en évidence le caractère peu homogène de la forêt et la faible variabilité du volume-tige. Cependant, Elle fait apparaître aussi qu'une stratification apporte une légère amélioration à la précision (15.6%) contre 17.6% sans stratification. La classification supervisée d'une image Landsat (Mai 2002) par la méthode du maximum de vraisemblance (précision moyenne de 96%) a permis de stratifier la zone étudiée en six classes (forêt très dense, forêt dense, forêt claire, matorral, herbacées, autres). Pour chaque strate de forêt, le cubage complet de 4 placettes-échantillons comparables en dimension au pixel (30m—30m), a fourni le volume-tige moyen par pixel alors que la généralisation de celui-ci à l'ensemble des pixels a permis de déterminer le volume total de chaque strate. Vu les confusions générées par la classification supervisée au profit des objets pistes, routes et matorral, le volume global a été revu à la baisse (taux de réduction de 10%) et la valeur du volume total corrigé était de 27 535 m3±15.6%, une précision, bien que non conforme à celle exigée par l'aménagement forestier (max ±10%), s'approche de celle généralement admise (une moyenne de ±15%) pour certains inventaires simplifiés.
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Ke, Wang, Weina Ke, Celia Chevallier e Michel Cence. "Recherche d’endommagement par corrosion au droit de zones sous supportages complexes". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28460.

Testo completo
Abstract (sommario):
Avec le vieillissement des installations industrielles, la recherche d’endommagements par corrosion au droit de zones inaccessibles (notamment sous supportages de tuyauterie) par les méthodes conventionnelles de CND attire de plus en plus l'attention. L'objectif principal étant d'évaluer la conformité de l'épaisseur résiduelle en regard de l'épaisseur de calcul des composants contrôlés. Les solutions actuelles sont apportées principalement par des techniques d’examen ultrasonores conventionnelles, multiéléments ou EMAT, à moyenne et longue portée, telles que la technique Multibonds, la technique CHIME et les techniques d’ondes guidées, avec une incertitude significative sur la précision d'évaluation de l’extension en profondeur des zones de corrosion détectées. ONET Technologies a réalisé nombreuses prestations de contrôle de zones sous supportage de tuyauteries à géométries complexes en milieux hostiles. Plus de 10 années d’expériences sur le terrain nous ont permis de développer une solution de contrôle novatrice, intégrant notamment, le développement d’un scanner motorisé dédié, l’amélioration des performances de détection et de quantification par l’utilisation combinée de différentes techniques ultrasonores, l’étude de nouveaux algorithmes d'analyse et le développement d’un outil informatique permettant d’accroitre la précision de mesure et de réduire l’impact du facteur humain. Ce nouveau produit développé par ONET dans le cadre d’un projet de R&D subventionné par France Relance permet une quantification et un suivi en service beaucoup plus précis de l'épaisseur résiduelle minimale des zones de corrosion détectées sous la forme d’une profilométrie de la perte d’épaisseur en zone affectée avec ses incertitudes associées. Dans cet article nous allons présenter les résultats de nos développements.
Gli stili APA, Harvard, Vancouver, ISO e altri
39

ASTRUC, J. M., G. BALOCHE, D. BUISSON, J. LABATUT, G. LAGRIFFOUL, H. LARROQUE, C. ROBERT-GRANIÉ, A. LEGARRA e F. BARILLET. "La sélection génomique des ovins laitiers en France". INRA Productions Animales 29, n. 1 (5 luglio 2019). http://dx.doi.org/10.20870/productions-animales.2016.29.1.2515.

Testo completo
Abstract (sommario):
Après une présentation du contexte de la sélection ovine laitière française et de la stratégie de sélection génomique qui en découle, cet article retrace l’ensemble des travaux de recherche et développement entrepris depuis 2009 pour mettre en oeuvre cette stratégie et qui débouchent sur le déploiement de la sélection génomique en 2015. Sont abordés successivement la constitution des populations de référence, les investissements en méthodes et stratégies de calcul d’index génomique, les résultats de précision des index génomiques en ovins laitiers, l’expérimentation génomique originale mise en oeuvre en race Lacaune, la conception, la modélisation et l’optimisation de schémas de sélection génomique adaptés aux spécificités des races ovines laitières, les choix opérés par les entreprises et organismes de sélection et leurs conséquences organisationnelles et contractuelles. Les perspectives ouvertes par la sélection génomique sont évoquées : inclusion de nouveaux caractères, plus grande flexibilité, meilleure gestion de la variabilité génétique. La sélection génomique est effective depuis 2015 en race Lacaune et devrait être déployée en 2017 dans les races Pyrénéennes.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Dia, Amadou Tidiane. "Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence". European Scientific Journal ESJ 1 (30 gennaio 2023). http://dx.doi.org/10.19044/esipreprint.1.2023p435.

Testo completo
Abstract (sommario):
Le bassin versant de Ogo connait par des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé dans le but de mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traiter, stocker et analyser dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, chose confirmer par l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire. Les classes de susceptibilité sont reparties de très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45% de surface de susceptibilité tandis que la classe très forte occupe 20,28% par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89%. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60% signifie l’échec de la méthodologie par la non précision des résultats obtenue par contre un taux supérieur ou égale à 70% signifie un taux de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Dia, Amadou Tidiane. "Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence". European Scientific Journal ESJ 1 (21 gennaio 2023). http://dx.doi.org/10.19044/esipreprint.1.2023.435.

Testo completo
Abstract (sommario):
Le bassin versant de Ogo connait par des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé dans le but de mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traiter, stocker et analyser dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, chose confirmer par l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire. Les classes de susceptibilité sont reparties de très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45% de surface de susceptibilité tandis que la classe très forte occupe 20,28% par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89%. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60% signifie l’échec de la méthodologie par la non précision des résultats obtenue par contre un taux supérieur ou égale à 70% signifie un taux de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat.
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Wade-Cummings, Molly, Jonathan F Mailman, Michelle L. Degelman, Casey Phillips e Jason R. Vanstone. "Identification of Staphylococci by Polymerase Chain Reaction Directly from a Positive Blood Culture and Effect on Patient Care". Canadian Journal of Hospital Pharmacy 74, n. 1 (20 gennaio 2021). http://dx.doi.org/10.4212/cjhp.v74i1.3039.

Testo completo
Abstract (sommario):
Background: As one of the most common bloodstream infections worldwide, Staphylococcus aureus bacteremia places a major burden on health care. Implementation of a rapid, genetic-based diagnostic test may have important implications in the clinical management of patients with S. aureus bacteremia. Objectives: The primary objective was to assess concordance between testing based on polymerase chain reaction (PCR) and the current gold standard, culture and sensitivity testing; the secondary objective was to assess the impact of this technology on patient care. Methods: A pre–post intervention retrospective chart review was used to document the hospital course of patients with a diagnosis of S. aureus bacteremia before and after implementation of the PCR-based diagnostic system. Laboratory results from all patient samples subjected to PCR-based analysis following implementation of this system were compared with culture and sensitivity data for the same samples to determine accuracy of the new system. In addition, time to optimal therapy for each patient was calculated as the interval between the initiation of empiric and terminal therapies. The appropriateness of antimicrobial treatment was characterized as guideline-concordant, nonconcordant with the guidelines, or nonconcordant yet still clinically appropriate. Results: In total, 98 and 99 patients met the inclusion criteria before and after implementation of the PCR-based diagnostic system, respectively. PCR-based results displayed 99.8% concordance (440/441 total samples) with results from culture and sensitivity testing. The time to optimal therapy was significantly shorter after implementation, by a mean of 22.8 h (p < 0.001). Overall, 97% of empiric and 99% of terminal antimicrobial regimens were either guideline-concordant or clinically appropriate for treatment of S. aureus bacteremia; 3% of empiric and 1% of terminal antimicrobial regimens were nonconcordant with clinical guidelines without any explanation based on other clinical considerations. Conclusions: The study findings support the utility of using a direct-from-positive-blood-culture PCR-based diagnostic tool as the primary method of identifying S. aureus bacteremia in patients, as well as the acceptance of and acting upon the new assay’s results by our local clinicians. PCR-based assays can help reduce the time to optimal terminal therapy for patients with bacteremia. RÉSUMÉ Contexte : La bactériémie à Staphylococcus aureus (BAC-SA), qui est l’une des infections du sang les plus répandues dans le monde, fait peser une lourde charge sur les soins de santé. La mise en place d’un test diagnostique génétique rapide pourrait avoir des retombées importantes sur la gestion clinique des patients présentant une BAC-SA. Objectifs : L’objectif principal consistait à évaluer la concordance entre les tests basés sur la réaction en chaîne par polymérase (PCR) et le test de sensibilité et de culture, qui est la référence absolue actuelle; l’objectif secondaire consistait à évaluer l’impact de cette technologie sur les soins des patients. Méthodes : Un examen rétrospectif des dossiers pré- et post-intervention a servi à décrire le séjour à l’hôpital des patients ayant reçu un diagnostic de BAC-SA avant et après la mise en place du système de diagnostic de la PCR. Les résultats de laboratoire de tous les échantillons des patients soumis à une analyse de la PCR à la suite de la mise en place de ce système ont été comparés avec les données relatives à la culture et à la sensibilité de ces mêmes échantillons afin de déterminer la précision du nouveau système. De plus, l’évaluation du délai d’atteinte du traitement optimal de chaque patient repose sur le calcul de l’intervalle entre le début des thérapies empiriques et terminales. La pertinence du traitement antimicrobien était caractérisée comme suit : concordance avec les lignes directrices, non-concordance avec les lignes directrices ou non-concordance mais encore approprié d’un point de vue clinique. Résultats : Au total, 98 et 99 patients ont satisfait au critère d’inclusion respectivement avant et après la mise en place du système de diagnostic de la PCR. Les résultats basés sur la PCR affichaient une concordance de 99,8 % (440/441 échantillons au total) avec les résultats des tests de sensibilité et de culture. La diminution du délai d’atteinte du traitement optimal était importante après la mise en place du système, puisqu’elle atteignait en moyenne 22,8 h (p < 0,001). De manière générale, 97 % des régimes antimicrobiens empiriques et 99 % des régimes antimicrobiens terminaux concordaient avec les lignes directrices ou étaient cliniquement appropriés pour le traitement de la BAC-SA; 3 % des régimes antimicrobiens empiriques et 1 % des régimes antimicrobiens terminaux n’étaient pas conformes aux lignes directrices cliniques sans qu’aucune explication basée sur d’autres considérations cliniques n’ait été donnée. Conclusions : Les résultats de l’étude confirment la nécessité d’utiliser un outil diagnostique basé sur la PCR directement de l’hémoculture positive en guise de méthode principale pour déterminer la présence de BAC-SA chez les patients ainsi que l’acceptation et l’utilisation des nouveaux résultats du test par nos cliniciens locaux. Les tests basés sur la PCR peuvent aider à réduire le délai d’attente du traitement optimal pour les patients atteints de BAC-SA.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia