Journal articles on the topic 'Contrôle prédictif basé sur le modèle'

To see the other types of publications on this topic, follow the link: Contrôle prédictif basé sur le modèle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 journal articles for your research on the topic 'Contrôle prédictif basé sur le modèle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Ologeanu-Taddei, Roxana, Cameron Guthrie, and Samuel Fosso-Wamba. "Beyond TAM: the impact of trust, privacy control and reliability on an individual’s intention to use a coronavirus contact tracing App." Management international 27, no. 3 (2023): 40–54. http://dx.doi.org/10.59876/a-4x1b-x300.

Full text
Abstract:
Peu d’études empiriques ont exploré les facteurs qui influencent l’intention d’utiliser les applications de traçage de contacts liés au coronavirus. Nous proposons un modèle intégré, basé sur la littérature sur l’acceptation de la technologie, la confiance, le contrôle de la confidentialité et la fiabilité. Les hypothèses sont testées sur un échantillon représentatif de 1000 citoyens en France ayant installé une telle application. La confiance influence directement et fortement les intentions d’utilisation et constitue le médiateur de la relation entre la facilité d’utilisation et les intentions. La fiabilité influence la facilité d’utilisation perçue, et le contrôle de la confidentialité influence l’utilité perçue.
APA, Harvard, Vancouver, ISO, and other styles
2

Boissais, A., H. Blasco, P. Emond, L. Antoine, A. Bigot, D. Mulleman, F. Maillot, and A. Audemard-Verger. "Un modèle de diagnostic prédictif de la vascularite à IgA basé sur une approche métabolomique." La Revue de Médecine Interne 42 (December 2021): A288. http://dx.doi.org/10.1016/j.revmed.2021.10.235.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ba, Antoine. "Apport du LiDAR dans le géoréférencement d'images hyperspectrales en vue d'un couplage LiDAR/Hyperspectral." Revue Française de Photogrammétrie et de Télédétection, no. 210 (April 7, 2015): 5–15. http://dx.doi.org/10.52638/rfpt.2015.269.

Full text
Abstract:
Cette contribution présente deux méthodes de géoréférencement d'images hyperspectrales en se basant sur un jeu de données LiDAR acquises simultanément lors d'une campagne aéroportée en environnement côtier. La première méthode permet de géoréférencer des images VNIR (Visible Near Infra Red) en s'appuyant sur un calcul d'offsets d'angles d'attitude de l'avion basé sur des points de contrôle appariés à un Modèle Numérique d'Élévation (MNE). La seconde méthode a été mise en place dans le but de créer et géoréférencer des images VIR (Visible Infra Red) en fusionnant des images VNIR et SWIR (Short Wave Infra Red). La superposition avec le LiDAR se fait, dans ce cas, par transformation polynomiale de l'image hyperspectrale par saisie de points de contrôle, après géoréférencement. Ces deux méthodes montrent des résultats satisfaisant au vu des échelles d'observation et d'utilisation des données.
APA, Harvard, Vancouver, ISO, and other styles
4

Boucher, Kathleen. "« Faites la prévention, mais pas l’amour ! » : des regards féministes sur la recherche et l’intervention en éducation sexuelle." Articles 16, no. 1 (January 6, 2004): 121–58. http://dx.doi.org/10.7202/007345ar.

Full text
Abstract:
Résumé Cet article théorique pose un regard critique féministe sur la recherche et l’intervention récentes en matière d’éducation sexuelle au Québec et ailleurs. Deux courants de recherche se dégagent de la littérature scientifique : l’un concerne la prévention des problèmes sociaux liés à la sexualité et l’autre, la compréhension de la construction sociale de ces problèmes. L’attention accordée à des populations dites « à risque » appuie et renforce la thèse voulant que l’éducation sexuelle soit un phénomène marqué socialement, par le sexe et l’âge notamment, la sexualité des jeunes femmes faisant l’objet d’un plus grand contrôle social. Cette tendance s’observe dans plusieurs interventions d’éducation sexuelle : l’essentialisme, le naturalisme, l’hétérosexisme, l’âgisme, ainsi que les limites du discours préventif, sont abordés. L’auteure conclut en proposant l’adoption d’un modèle d’éducation sexuelle basé sur des principes féministes.
APA, Harvard, Vancouver, ISO, and other styles
5

L’Abate, Alberto, and Frédéric Lesemann. "À propos du nucléaire : modèle de développement et santé." La prise en charge communautaire de la santé, no. 1 (January 28, 2016): 136–46. http://dx.doi.org/10.7202/1034837ar.

Full text
Abstract:
Les mouvements anti-nucléaires luttent pour l’instauration d’un « nouveau modèle de développement ». En effet, la nécessité de recourir à l’énergie nucléaire est l’aboutissement d’un modèle de développement basé sur l’industrialisation lourde, l’urbanisation intensive, la minorisation de l’agriculture, le gaspillage sauvage des ressources naturelles qui a été celui qui a assuré l’essor des pays industriels centraux. Les effets de ce modèle de développement sont extrêmement néfastes et inquiétants à de nombreux points de vue. L’expansion du nucléaire est corrélative de la volonté des pays centraux de poursuivre leur développement selon le modèle initial qui a assuré leur domination, au détriment des pays périphériques ou « en voie de développement », mais aussi des conditions de vie sanitaires et écologiques des populations de tous les pays. L’auteur illustre sa thèse par de nombreux exemples italiens, mais aussi d’autres pays et prône la promotion de l’utilisation de sources d’énergies renouvelables et non polluantes, en lien avec un processus de décentralisation économique et politique qui accorderait un poids accru aux populations et aux communautés locales, leur permettrait de reprendre collectivement le contrôle de leurs conditions de vie et favoriserait l’avènement d’une société « conviviale ».
APA, Harvard, Vancouver, ISO, and other styles
6

Toussaint, J., T. Habtemariam, D. Oryang, and S. Wilson. "Développement d’un modèle de simulation informatique pour l’anaplasmose, notamment dans les Antilles." Revue d’élevage et de médecine vétérinaire des pays tropicaux 46, no. 1-2 (January 1, 1993): 47–48. http://dx.doi.org/10.19182/remvt.9396.

Full text
Abstract:
L’anaplasmose, qui continue à être une énigme dans la région des Caraïbes, est responsable de pertes économiques élevées dans la production animale. L’épidémiologie de cette maladie est complexe et la voie efficace et rationnelle à suivre pour son contrôle demeure encore incertaine. On a donc pensé que l’élaboration d’un modèle épidémiologique utilisant des modèles de simulation sur ordinateur serait utile pour une meilleure compréhension de cette maladie. Un modèle de simulation sur ordinateur qui donne les tendances réalistes de la dynamique de la maladie a donc été développé. De plus, ce cadre fournit aux décideurs un outil d’évaluation de différentes alternatives de lutte, pour un planning rationnel et pour l’allocation de fonds. L’élaboration du modèle a été basé sur la mise en œuvre d’une base de connaissances épidémiologiques pour l’anaplasmose ; d’un modèle conceptuel pour les sous-populations de bovins et de tiques ; d’un modèle d’analyse de systèmes pour les sous-populations de bovins et de tiques ; d’un modèle mathématique ; d’un modèle de simulation informatique ; sur l’évaluation du modèle de simulation et l’utilisation de ce dernier pour l’évaluation des alternatives de lutte contre Anaplasma. La base de connaissances a été développée en utilisant la “Epidemiologic Problem Oriented Approach” (EPOA) pour la collecte et la compilation de l’information dans une base condensée de connaissances épidémiologiques sur l’anaplasmose. L’information sur l’anaplasmose a été extraite de manuels sélectionnés de médecine vétérinaire, de revues contemporaines, de documents divers, et de questionnaires remplis par des vétérinaires antillais. L’information épidémiologique a été présentée en diagrammes afin de conceptualiser l’épidémiologie détaillée de la maladie. En même temps, elle montre les parties fondamentales du système anaplasmose pour mieux décrire et analyser la maladie. Des diagrammes d’analyse de systèmes ont également été utilisés pour établir une corrélation entre le niveau pathologique et un niveau particulier qui était décrit et défini par des équations différentielles classiques. Toutes les équations étaient approchées en utilisant la méthode d’intégration de Euler. Ainsi, la dynamique de la maladie a été révélée. Ces diagrammes ont fourni le cadre sur lequel le modèle a été construit. L’évaluation du modèle a montré qu’il est stable. Des tendances biologiquement solides et raisonnables ont été affichées. Ce cadre a ensuite été utilisé pour évaluer les présentations diverses de la maladie et les alternatives différentes pour la lutte. Les manifestations de la maladie observées comprenaient la présentation de populations de bovins et de tiques avec et sans maladie, la dynamique de la maladie quant elle fut introduite par des bovins et des tiques infectés. Les alternatives de lutte testées sont : les effets de niveaux différents de lutte acaricide sur la population de tiques et l’évolution de la maladie ; l’influence de la génétique sur l’incidence de la maladie ; les effets de niveaux différents d’application d’antibiotiques sur la dynamique de la maladie, quant elle fut introduite par des bovins et des tiques infectieux. Le modèle de simulation informatique doit être testé et validé systématiquement pour être sensible aux conditions du terrain.
APA, Harvard, Vancouver, ISO, and other styles
7

Keita, M., A. Toure, I. Camara, A. Barry, M. Koulibaly, and B. Traore. "C98: Impact de la chirurgie associée à la radiothérapie sur le pronostic du cancer du sein en Guinée : Etude cohorte des cancers du sein de Guinée." African Journal of Oncology 2, no. 1 Supplement (March 1, 2022): S41—S42. http://dx.doi.org/10.54266/ajo.2.1s.c98.jdql5963.

Full text
Abstract:
INTRODUCTION : Dans un pays où la radiothérapie n'est pas disponible, un plaidoyer basé sur la pertinence de la chirurgie + la radiothérapie adjuvante sur le contrôle locorégional et la survie des patients est nécessaire. Notre objectif était d’évaluer l'impact de la chirurgie et la radiothérapie sur le contrôle local et la survie par rapport à la chirurgie seule dans le cancer du sein. MATERIELS ET METHODES : Entre 2007 et 2016, 210 patients atteints de cancer du sein ont été revus rétrospectivement, dont 90 patients étaient traités par chirurgie et radiothérapie (groupe 1) et 120 patients par la chirurgie seule (groupe 2). Les facteurs pronostiques associés à la survie globale et au contrôle local ont été déterminés. RESULTATS : Il y avait plusieurs combinaisons de traitement, y compris la chirurgie associée à une chimiothérapie néoadjuvante, radiothérapie et la chimiothérapie adjuvante. Les résultats ont montré 88 (41,9%) cas de rechute, dont 31 (34,4 %) (groupe 1) et 57 (47,5%) (groupe 2) (p=0,046). La récidive était survenue après un délai moyen de 1,5 an dans le groupe 1 contre 0,66 an dans le groupe 2 (p=0,006). Les survies globales à cinq ans et spécifiques du cancer du sein étaient de 49,5% et 62,5%, respectivement. La survie à cinq ans était de 60,0% (groupe 1) et 40,0% (groupe 2) (p<0,05). Dans une analyse multivariée par modèle de Cox, nous avons constaté que le risque de décès était 1,90 (IC95% [1,1709-3,0701]) plus élevé dans le groupe 2 (p=0,009022), 1,69 (IC95% [1,00087-23,86157]) chez les patients obèses et a diminué de 0,21 (IC95% [0,129-0,368]) chez les patients qui n'ont pas rechuté (p<0,001). CONCLUSION : Dans cette étude avec plusieurs thérapies combinées, nous ne pouvons pas confirmer que la radiothérapie améliore principalement le pronostic des cancers localement avancés quel que soit le traitement systémique. Cependant, nous avons constaté que le risque de décès était en corrélation avec l'absence de radiothérapie, le surpoids et le risque de récidive. La prise en compte de combinaisons de thérapies locorégionales et systémiques, des données clinico-pathologiques et biologiques pourrait améliorer la pertinence de ces résultats avec un échantillon de grande taille.
APA, Harvard, Vancouver, ISO, and other styles
8

Argüelles P., Denise Caroline. "Un modelo para la formación del talento humano en la organización en el siglo XXI = A model for the formation of human talent in the XXI century organization." Revista EAN, no. 71 (August 1, 2013): 148. http://dx.doi.org/10.21158/01208160.n71.2011.556.

Full text
Abstract:
RESUMEN:La investigación se centró en el diseño de un Modelo que permitiera el desarrollo de competencias genéricas, a partir del e-Learning fundamentado en aprendizaje Autónomo, que pueda constituirse en un modelo de formación del talento humano en la organización del siglo XXI. El estudio realizado es de carácter exploratorio y se propuso en primera instancia, la identificación de las variables del modelo y en segunda, la construcción del mismo. Como metodología se utilizó un Delphi en el que participaron 30 expertos en e-Learning. El cuestionario se aplicó en dos ocasiones al mismo grupo. Así mismo se realizó un análisis factorial.Los resultados de la investigación han permitido proponer un Modelo para la Generación de Competencias Genéricas a partir del e-Learning Fundamentado en Aprendizaje Autónomo, desde la combinación de nueve categorías de variables, cuya significancia ha quedado demostrada. No obstante, también se evidenció que dicha relación debe potenciarse mediante estrategias de control, en dirección hacia los logros que se desean alcanzar, pues existen factores inherentes a las categorías que dependen de condiciones personales y del proceso de aprendizaje personal, que se podrían convertir en barreras del Modelo.ABSTRACT:This study focuses on the design of a model that allows the development of generic competences, from an e- learning perspective based on autonomous learning that can be clearly stated in a model for the formation of human talent in the XXI century organization. This study has also been an exploration and has the purpose to identify the variables of this model firstly, and secondly, to build up the model itself. As a methodology, a Delphi was used in which 30 e- learning experts took place. The questionnaire was applied twice to the same group and an analysis of factors has been made.The results of this study allows us to propose a Model for the Generation of Generic Competences from an e- learning start, and based on the principles of autonomous learning, having a combination of nine variable categories, whose significance has been fully demonstrated. However, it was also shown that this model can be strengthened through control strategies since there are factors which depend on the categories of personal conditions, and personal learning process that can become barriers for this resulting model. RESUMÉÉ:La recherche est axée sur la conception d’un modèle qui permettrait un développement de compétences génériques de l’enseignement à distance basé sur l’apprentissage autonome ce qui pourrait constituer un modèle de formation des ressources humaines de l’organisation du XXI ème siècle. L’étude réalisée est de caractère exploratoire et la proposition en première instance est l’identification des variables du modèle et, en deuxième instance, la construction de celui-ci. La méthodologie utilisée est un Delphi ayant rassemblé 30 experts en enseignement á distance. Le questionnaire a été proposé deux fois au même groupe. Une analyse factorielle a ainsi pu être réalisée. Les résultats de la recherche ont rendu possible un Modèle pour la Génération de Compétences Génériques de l’Enseignement á Distance basé sur l’apprentissage autonome grâce à la combinaison de neuf catégories de variables, dont l’importance a été démontrée. Toutefois, il est également apparu que cette relation devrait être maximisée par le biais de stratégies de contrôle dirigées vers les objectifs que l’on souhaite atteindre car il existe des facteurs inhérents aux catégories qui dépendent de conditions personnelles ainsi que du processus d’apprentissage personnel, ce qui pourrait devenir des obstacles au modèle.
APA, Harvard, Vancouver, ISO, and other styles
9

Sotomayor, O. A. Z., S. W. Park, and C. Garcia. "Modèle de référence pour évaluer différentes stratégies de contrôle dans des usines de traitement des eaux usées." Revue des sciences de l'eau 15, no. 2 (April 12, 2005): 543–56. http://dx.doi.org/10.7202/705468ar.

Full text
Abstract:
Dans la majorité des pays, il existe des lois strictes pour réglementer la qualité de l'eau provenant des systèmes de traitement d'eaux usées. Ces spécifications légales sont essentiellement influencées par des questions telles que la santé publique, l'environnement et les facteurs économiques. Les objectifs fondamentaux des procédés de traitement des eaux usées sont d'atteindre, avec l'utilisation d'énergie et à des coûts opérationnels minimaux, une concentration de matière biodégradable et de nutriments suffisamment basse dans les effluents et une production minimale de boues. Les systèmes de traitement des eaux usées sont de grandes dimensions et complexes. Ils sont aussi sujets à des variations importantes dans le flux d'entrée et dans la composition de l'eau à l'entrée, qui ne sont pas bien connues. Le procédé est multivariable, avec beaucoup de couplages croisés et nonlinéarités importantes. La dynamique dépend de la variabilité des flux d'entrée et de la complexité des phénomènes physico-chimiques et biochimiques. Le comportement dynamique démontre une énorme variation de temps de réponse (de quelques minutes jusqu'à plusieurs jours). Ces problèmes, combinés aux objectifs les plus importants du traitement des eaux usées, donnent lieu à une demande de techniques de commande avancées, qui peuvent conduire à une réduction du volume à traiter, une diminution importante dans l'utilisation des produits chimiques, et une possibilité d'économie d'énergie et une diminution des coûts d'opération. Dans ce travail, un " benchmark " (modèle de référence) d'un système complet de traitement des eaux usées a été développé, pour évaluer, à partir de simulations, la performance des différentes stratégies de commande proposées, y compris les techniques de respirométrie ("respirometry"). Ce travail s'aparente au Programme Européen d'Action COST (COST 624), et au projet "Respirometry in Control of the Activated Sludge Process (IWA Respirometry Task Group"). Le "Benchmark" représente un procédé de prédénitrification de la boue activée pour éliminer la matière organique et l'azote des effluents domestiques. Le simulateur est basé sur des modèles largement acceptés par la communauté internationale et il a été implanté dans un environnement Matlab/Simulink. La topologie du système et le développement complet du simulateur sont présentés dans ce travail. L'effet des conditions initiales et des caractéristiques du flux d'entrée (valeurs moyennes) sont analysés, aussi bien qu'un test en boucle ouverte. Les stratégies suivantes ont été sélectionnées en guise d'illustration de l'application de la commande automatique dans le "benchmark" (seulement avec commande proportionnel-intégral monovariable): commande basée sur la concentration d'oxygène dissous ("DO concentration-based control"), commande par respirométrie (commande par biomasse active et commande par taux de respiration bactérienne), et commande par concentration de nitrate (commande par dosage externe de carbone et recyclage du flux interne). Le "benchmark" est continuellement mis a jour et sa prochaine version va incorporer des fonctions d'optimisation en temps réel (on line) pour le procédé.
APA, Harvard, Vancouver, ISO, and other styles
10

Leleu, Jean-Louis. "Enoncé musical et mode (s) de structuration de l'espace sonore, ou: de la relation composition/cognition dans un fragment de l'opus 28, I de Webern." Musicae Scientiae 2, no. 1 (March 1998): 3–18. http://dx.doi.org/10.1177/102986499800200101.

Full text
Abstract:
L'analyse de la 4éme des six variations que comporte le 1er mouvement du Quatuor op. 28 de Webern permet de voir comment le compositeur y cultive une forme particulière d'ambivalence, caractéistique du changement de paradigme qui s'est accompli des les années 1890 dans la tradition musicale europeenne, tant sur le plan compositionnel que sur le plan cognitif: à savoir la mise en question de cette rfegle, centrale dans le cas du système tonal, qui veut que toute musique, dans son organisation propre, renvoie de façon univoque à un mode de structuration précis de l'espace sonore, définissant un idiome musical donné. D'un côté, en effet, le fragment choisi témoigne du souci extrème, de la part du compositeur, de parvenir à un contrôle précis et rigoureux des relations de hauteurs opérées au sein de l'espace “atonal”, par la mise en place d'un “dispositif” destinfé à assurer, au moyen de la série, une distribution symétrique de toutes les notes autour de centres de symétrie bien définis. Mais en mème temps, l'énoncé musical, tel qu'il s'articule concrètement -dans sa réalité vivante-, présente dans le passage nombre de configurations qui sonnent tonalement, c'est-à-dire font référence, du fait de leur nature même et de leur disposition, à un mode de structuration de l'espace des hauteurs basé sur une division asymétrique de l'octave, où domine hiérarchiquement la quinte. En jouant de la possibilité de renvoyer simultanément à deux idiomes distincts, et même antithétiques, une telle musique force à concevoir un modèle cognitif dans lequel ne soit pas posé -comme c'est le cas dans la théorie de Lerdahl- le principe d'une structuration homogène de l'espace sonore.
APA, Harvard, Vancouver, ISO, and other styles
11

Parent, Stefan, Marie-Lyne Nault, Jean-Marc Mac-Thiong, Marjolaine Roy-Beaudry, Isabelle Turgeon, Hubert Labelle, and Jacques De Guise. "Un nouveau modèle prédictif de la progression de la scoliose idiopathique de l’adolescent basé sur des paramètres 3D mesurés à la première visite : résultats d’une étude prospective de 6ans." Revue de Chirurgie Orthopédique et Traumatologique 99, no. 7 (November 2013): S369. http://dx.doi.org/10.1016/j.rcot.2013.09.251.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Pinar, U., X. Rod, A. Mageau, Y. Renard, C. Lebacle, B. Barrou, S. Drouin, J. Irani, and T. Bessede. "Risque de complications chirurgicales chez les receveurs obèses et en surpoids : élaboration d’un modèle morphométrique prédictif basé sur la sarcopénie et la distance entre les vaisseaux et la peau." Progrès en Urologie 30, no. 13 (November 2020): 722–23. http://dx.doi.org/10.1016/j.purol.2020.07.052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Nabeneza, Serge, Vincent Porphyre, and Fabrice Davrieux. "Caractérisation des miels de l’océan Indien par spectrométrie proche infrarouge : étude de faisabilité." Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, no. 3 (June 27, 2015): 130. http://dx.doi.org/10.19182/remvt.10181.

Full text
Abstract:
Le miel est traditionnellement consommé dans les îles de l’océan Indien et utilisé également pour ses propriétés cosmétiques et thérapeutiques. Ce produit, issu du nectar de fleurs ou de miellat d’insectes, est collecté et transformé par les abeilles produisant ainsi un miel unique caractéristique de la flore de chaque île. A l’issue de la récolte, l’apiculteur doit nor­malement veiller à ce que le miel soit conforme et respecte des caractéristiques physico-chimiques spécifiques selon les recom­mandations du Codex alimentarius. De plus, il doit indiquer des informations, comme l’origine botanique et géographique, sur chaque pot de miel vendu. En pratique il est toutefois très diffi­cile de vérifier l’exactitude de ces informations, d’autant qu’elles sont mises en avant comme argument de vente.La spectrométrie dans le proche infrarouge (SPIR), basée sur les propriétés physiques d’absorption de la lumière par les com­posés organiques, peut être un outil de contrôle et de traçabi­lité des miels mis sur le marché (1, 3). L’objectif principal de cette étude a été d’évaluer la faisabilité d’un contrôle qualité (authentification de l’origine botanique et/ou géographique et détection d’adultération) des miels commerciaux produits dans l’océan Indien. Les perspectives de cette méthode de laboratoire sont importantes dans le cadre du développement des filières apicoles, notamment lorsqu’elles sont orientées vers les marchés d’exportation et vers la promotion de leur qualité auprès de consommateurs désireux de profiter de produits d’excellence et fortement attachés à des territoires insulaires uniques.Au total, 625 miels des pays de l’océan Indien (tableau I) ayant diverses origines botaniques (tableau II) ont été mesurés sans ajustement à 30 °C et après ajustement à 70 °Brix avec de l’eau distillée (3). La mesure a été réalisée en réflexion diffuse à l’aide d’une cellule ronde avec un fond réflecteur doré (trajet optique 0,1 mm) sur un spectromètre FOSS NIRSystem 5000 (1 100–2 500 nm, 2 nm). En parallèle, les mesures du degré Brix, de l’humidité et de la conductivité des miels bruts ont été réalisées au laboratoire. Après l’analyse en composantes prin­cipales (ACP) de la base spectrale des 625 miels et le calcul des distances H de Mahalanobis, 83 miels ont été identifiés comme spectralement atypiques et retirés du jeu de données (tableau I). Sur la base des distances spectrales (H, Mahalanobis), 64 miels représentatifs des 542 miels retenus ont été sélectionnés, ajustés à 70 °Brix, puis adultérés avec du sirop de sucre de canne du commerce (Mascarin®) à 25 et à 10 p. 100 par pesée.Les modèles prédictifs des teneurs en humidité, Brix et conducti­vité ont été établis en utilisant la régression modified partial least square (M-PLS) du logiciel WinISI 3 (Infrasoft, Port Mathilda, PA, Etats-Unis). Les modèles PLS ont été réalisés sur la base des dérivées premières des spectres normalisés (SNV) et corri­gés pour la ligne de base (Detrend). Pour expliquer les critères géographiques et botaniques, nous avons utilisé une méthode non supervisée de discrimination (Cluster Analysis, Unscrumbler 10.3, CAMO, Oslo, Norvège), qui constitue des groupements naturels, sur la base des distances spectrales. Les spectres des miels non adultérés ont servi de base pour définir un espace multidimensionnel (ACP centrée, non réduite sur dérivée seconde des spectres bruts). La projection des spectres (dérivée seconde des spectres bruts) des miels adultérés sur cet espace a permis d’identifier un plan factoriel (CP1–CP7) expliquant 65 p. 100 de la variance totale, sur lequel les miels adultérés étaient nettement séparés des miels non adultérés. Les modèles d’étalonnage obtenus par régression PLS pour le degré Brix, l’humidité et la conductivité ont été performants avec des R² de l’ordre de 0,92 et des erreurs de validation croisée acceptables (tableau III) (figure 1).Les essais de groupement des individus sur la base de leur spectre (recherche de clusters), de même que l’utilisation d’autres méthodes mathématiques, comme l’analyse discrimi­nante linéaire (LDA) et la classification support vecteur machine (SVM) à partir des origines géographiques et botaniques n’ont pas donné de résultats satisfaisants (tableau IV). Cette impossi­bilité de discriminer les miels de l’océan Indien serait peut-être due à une identification botanique imprécise des miels. Sans analyses polliniques des échantillons de miels, les origines bota­niques ne peuvent être certifiées, en particulier les miels dits monofloraux. Plusieurs hypothèses peuvent expliquer l’impos­sibilité de discriminer les miels de l’océan Indien en fonction de leur origine géographique et/ou botanique. Parmi elles, les différences chimiques caractéristiques de l’origine géographique et/ou botanique correspondent à des classes de composés (aro­matiques par exemple) qui n’impactent pas suffisamment les empreintes spectrales, ne permettant pas de trouver des fac­teurs discriminants. La projection des miels adultérés à 25 p. 100 (figure 2), sur la base de miels non adultérés montre une sépara­tion nette des populations. En revanche, pour un niveau d’adul­tération à 10 p. 100, la séparation n’est pas évidente (figure 3).Les résultats obtenus montrent que la spectrométrie dans le proche infrarouge peut être utilisée pour prédire certains para­mètres physico-chimiques des miels. Ces premiers résultats montrent que la constitution d’une base spectrale de miels adultérés à différents niveaux au laboratoire, associée à des méthodes de régression ou de discrimination devrait permettre l’identification de miels non-conformes, comme montré précé­demment par Rios-Corripio et coll. (2).Ces résultats ne permettent pas, dans l’état actuel, de différencier l’origine géographique et botanique des miels collectés dans le commerce. La limite de détection des miels adultérés par du sucre de canne devra être déterminée. Elle se trouve entre 10 et 25 p. 100. Les fraudeurs adultérant fréquemment les miels avec du glucose, il serait important de poursuivre les essais avec ce produit. Il est donc possible de détecter, par la technique SPIR, des altérations importantes du miel par ajout de sucre de canne.
APA, Harvard, Vancouver, ISO, and other styles
14

BEIGHAU, S., A. JOUVION, D. CORNET, R. C. BERTHELOT, F. BELOT DE SAINT-LÉGER, and E. SAGUI. "Profils de température corporelle au cours d’un exercice physique intense chez des militaires ayant présenté un coup de chaleur d’exercice." Médecine et Armées Vol.49 No.2, Volume 49, Numéro 2 (June 21, 2023): 187–208. http://dx.doi.org/10.17184/eac.7802.

Full text
Abstract:
Le coup de chaleur d’exercice (CCE) est défini par la survenue de signes d’encéphalopathie variés, en contexte hyperthermique supérieur à 40 °C, au cours ou au décours d’un exercice physique intense et prolongé. Sa physiopathologie, imparfaitement comprise, aboutit à une ascension incontrôlée de la température corporelle (Tco). Chez le sujet ayant présenté un CCE, une défaillance des mécanismes de contrôle de la Tco pourrait être en cause, soit par augmentation incontrôlée de la production de chaleur, soit par défaut de dissipation. Toutefois, l’évolution de la Tco à l’effort n’a jamais été étudiée chez ces sujets. L’objectif de notre étude est de décrire l’évolution de la Tco au cours d’un effort intense et prolongé, chez des sujets ayant un antécédent de CCE. Quarante sujets (38 hommes, âgés de 28,4 ± 4,9 ans, avec un indice de masse corporelle à 24,9 ± 2,4 kg/m2) ayant déjà présenté un CCE ont effectué une marche-course de huit kilomètres en tenue de combat. Un monitorage continu de la Tco et de la fréquence cardiaque (FC) était réalisé respectivement par une capsule thermique ingérée et un cardiofréquencemètre. La consommation maximale en oxygène (VO2max) était mesurée la veille de la course. La performance moyenne était de 44,6 ± 6,6 minutes, sous les conditions environnementales suivantes : température ambiante 17,1 ± 4 °C et hygrométrie 71,1 ± 13,9 %. Aucun trouble neurologique n’avait été observé. Le pourcentage moyen du temps de course où la FC mesurée de chaque sujet était inférieure à la FC du premier seuil ventilatoire était de 0,75 % [minimum-maximum: 0–2 %]. La Tco maximale était de 39,9 ± 0,5 °C. Trois profils ont été identifiés : (1) une montée en température lente, inférieure à 39 °C à la 20e minute de course, sans phase de plateau ; (2) une montée en température rapide, supérieure ou égale à 39 °C à la 20e minute, suivie d’un plateau ; (3) une montée en température rapide, supérieure à 39 °C à la 20e minute, sans phase de plateau, atteignant des valeurs de Tco supérieures à 40 °C. Les sujets ayant un antécédent de CCE présentent différents profils de Tco à l’exercice maximal. Une montée rapide de la Tco sans plateau (profil 3) pourrait représenter un modèle de thermolyse altérée et un facteur prédictif de récidive de CCE. Cependant, un suivi longitudinal est nécessaire pour affirmer cette hypothèse. Une Tco supérieure ou égale à 40,1 °C en fin de course serait un outil fiable et accessible sur le terrain pour dépister ces sujets à risque.
APA, Harvard, Vancouver, ISO, and other styles
15

Borges, Flavia, Sandra Ofori, and Maura Marcucci. "Myocardial Injury after Noncardiac Surgery and Perioperative Atrial Fibrillation." Canadian Journal of General Internal Medicine 16, SP1 (March 26, 2021): 18–26. http://dx.doi.org/10.22374/cjgim.v16isp1.530.

Full text
Abstract:
One in 60 patients who undergo major noncardiac surgery dies within 30 days following surgery. The most common cause is cardiac complications, of which myocardial injury after noncardiac surgery (MINS) and perioperative atrial fibrillation (POAF) are common, affecting about 18 and 11% of adults, respectively, after noncardiac surgery. Patients who suffer MINS are at a higher risk of death compared to patients without MINS. Similarly, patients who develop POAF are at a higher risk of stroke and death compared to patients who do not. Most patients who suffer MINS are asymptomatic, and its diagnosis is not possible without routine troponin monitoring. Observational studies support the use of statins and aspirin in the management of patients with MINS. The only randomized controlled trial to date that has specifically addressed the management of MINS was the MANAGE trial that demonstrated the efficacy and safety of intermediate dose dabigatran in this population. There are no specific prediction models for POAF and no randomised controlled trial evidence to guide the specific management of POAF. Management guidelines in the acute period follow the management of nonoperative atrial fibrillation. The role of long-term anticoagulation in this population is still uncertain and should be guided by a shared care decision model with the patient, and with consideration of the individual risk for stroke balanced against the risk of bleeding. In this review, we present a case-based approach to the detection, prognosis, and management of MINS and POAF based on the existing evidence. RÉSUMÉUn patient sur 60 qui subit une intervention chirurgicale majeure non cardiaque meurt dans les 30 jours suivant l’opération. La cause la plus fréquente est celle des complications cardiaques, dont les lésions myocardiques après une chirurgie non cardiaque (LMCNC) et la fibrillation auriculaire périopératoire (FAPO) sont courantes et touchent respectivement environ 18 et 11 % des adultes après une chirurgie non cardiaque. Les patients présentant des LMCNC sont exposés à un risque plus élevé de décès que les patients qui ne présentent pas de LMCNC. De même, les patients chez qui on voit apparaître une FAPO ont un risque plus élevé d’accident vasculaire cérébral et de décès que ceux qui ne connaîtront pas cette complication. La plupart des patients atteints de LMCNC sont asymptomatiques, et il est impossible d’établir un diagnostic sans surveiller régulièrement la troponine. Des études d’observation appuient l’utilisation des statines et de l’aspirine dans la prise en charge des patients atteints de LMCNC. À ce jour, le seul essai contrôlé randomisé qui s’est penché précisément sur le traitement des LMCNC est l’essai MANAGE qui a démontré l’efficacité et l’innocuité du dabigatran à dose intermédiaire chez cette population. Il n’existe aucun modèle de prédiction précis pour la FAPO ni aucune donnée probante provenant d’essais contrôlés randomisés pour orienter précisément son traitement. Les lignes directrices concernant la prise en charge au cours de la période aiguë suivent celles de la prise en charge de la fibrillation auriculaire non liée à une opération. Le rôle de l’anticoagulation à long terme chez cette population est encore incertain et devrait être guidé par un modèle de prise de décision partagée avec le patient et tenir compte du risque individuel d’accident vasculaire cérébral par rapport à celui d’hémorragie. Dans cette revue, nous présentons une approche fondée sur des cas pour la détection, le pronostic et le traitement des LMCNC et de la FAPO sur la base des données probantes existantes.
APA, Harvard, Vancouver, ISO, and other styles
16

BROCHARD, M., K. DUHEN, and D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"." INRAE Productions Animales 27, no. 4 (October 21, 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Full text
Abstract:
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
APA, Harvard, Vancouver, ISO, and other styles
17

Chouchane, Toufik, Sabiha Chouchane, Atmane Boukari, Adel Balaska, and Mohamed El-Hadi Samar. "Elimination du plomb en solution par la sciure de bois." Journal of Renewable Energies 14, no. 4 (October 24, 2023). http://dx.doi.org/10.54966/jreen.v14i4.285.

Full text
Abstract:
Cette étude présente les résultats obtenus lors de l’utilisation de la sciure de bois pour l’élimination du plomb contenu dans les eaux usées. Les propriétés de sorption ont été déterminées en régime discontinu. Les résultats des essais montrent qu’un gramme de sciure de bois activé peut fixer 40,04 mg/g de plomb selon le modèle de Langmuir, 1er version, avec une cinétique du pseudo premier ordre, où le temps d’équilibre est de 10 minutes. Les mesures réalisées révèlent aussi, que la diffusion externe contrôle la vitesse du processus globale de la sorption. La diffusion dans les pores ne présente pas l’unique mécanisme réactionnel limitant cette cinétique, ce mécanisme est basé aussi sur l’échange cationique, où les ions de bases jouent un rôle très important. En dernier, on montre que cette sorption est spontanée (G < 0) jusqu'à 40 °C, exothermique (H < 0) et aucun changement n’a été effectué au niveau de la structure de la sciure de bois (S < 0).
APA, Harvard, Vancouver, ISO, and other styles
18

El Mazoudi, El Houssine, mostafa Mrabti, and Noureddine Elalami. "Observer design for a fish population model." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 8, Special Issue... (September 24, 2008). http://dx.doi.org/10.46298/arima.1886.

Full text
Abstract:
International audience Our aim is to apply some tools of control to fishing population systems. In this paper we construct a non linear observer for the continuous stage structured model of an exploited fish population, using the fishing effort as a control term, the age classes as a states and the quantity of captured fish as a measured output. Under some biological satisfied assumptions we formulate the observer corresponding to this system and show its exponential convergence. With the Lie derivative transformation, we show that the model can be transformed to a canonical observable form; then we give the explicit gain of the estimation. Le but de ce travail est d'appliquer des outils de contrôle aux systèmes de population de pêche. on construit un observateurpour un modèle continu structuré en age de population de pêche exploitée qui tient compte des pré-recrutés. Les variables dumodèle: l'effort de pêche, les classes d'age et la capture sont considérés respectivement comme contrôleur, états du systèmes et sa sortie mesurée. Le changement de variables basé sur les dérivés de Lie nous a permis de mettre le système sous une forme canonique observable. La forme explicite de l'observateur est finalement donnée.
APA, Harvard, Vancouver, ISO, and other styles
19

Faraji, Mustapha. "Etude numérique de la fusion dominée par la convection naturelle dans une cavité chauffée par le bas: Application au refroidissement passif des ordinateurs portables." Journal of Renewable Energies 14, no. 3 (October 24, 2023). http://dx.doi.org/10.54966/jreen.v14i3.268.

Full text
Abstract:
Dans le présent travail, on étudie la fusion conjuguée à la convection naturelle dans un matériau à changement de phase (MCP) utilisé pour dissiper la chaleur générée au sein des sources de chaleur protubérantes sur un substrat horizontal (microprocesseurs récemment utilisés dans les ordinateurs portables). L’avantage d’utiliser cette stratégie de refroidissement est que les MCP sont capables d’absorber une importante quantité de chaleur générée par les microprocesseurs sans utiliser de ventilateur. Cette stratégie proposée est pratique pour des situations où le refroidissement par convection forcée de l’air ambiant est impossible, comme c’est le cas pour les futures générations des ordinateurs portables de haute puissance et de faibles dimensions. Un modèle mathématique (2D), basé sur les équations de conservation de l’énergie, de la masse et de la quantité de mouvement, est développé pour le puits de chaleur proposé. Les équations obtenues sont discrétisées en utilisant l’approche des volumes de contrôle, la méthode enthalpique est adoptée pour localiser la position du front de fusion. Plusieurs investigations numériques sont effectuées pour analyser l’effet de la puissance des sources de chaleurs sur l’efficacité du refroidisseur. La température des composants électroniques, la quantité du MCP fondue et la positon du front de fusion sont influencées par la puissance des sources de chaleurs. Une corrélation pour la durée de fonctionnement sécurisé des composants électroniques (temps requis par le puits de chaleur pour atteindre la température critique, Tcr ) est développée.
APA, Harvard, Vancouver, ISO, and other styles
20

Petitjean, Mikael. "Numéro 98 - septembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14853.

Full text
Abstract:
Depuis la crise des emprunts hypothécaires risqués aux Etats-Unis, plus personne n’ignore l’existence des agences de notation. La population, les responsables politiques et même certains économistes se posent légitimement les questions suivantes : pourquoi les agences de notation ont-elles été créées? Quelles sont leurs particularités ? Pourquoi jouent-elles un rôle si prépondérant aujourd’hui ? Quelles réformes faudrait-il mettre en œuvre ? Ce numéro de Regards économiques, intitulé «De l’(in)utilité des agences de notation», est organisé de la manière suivante. Pour bien comprendre le rôle que jouent aujourd’hui les agences de notation, il est essentiel, dans un premier temps, de définir le cadre historique dans lequel elles ont vu le jour. Dans un second temps, nous expliquons que les décisions prises par les autorités de régulation financière aux Etats-Unis, suite à la crise des années 1930, ont renforcé considérablement le rôle que jouent les agences de notation dans le système financier international. Ensuite, nous analysons le mode de rétribution des agences de notation pour en identifier les forces et les faiblesses. Nous montrons également que le club des agences de notation s’est refermé encore un peu plus à partir des années 1970, que le contrôle du risque dans le secteur bancaire s’est progressivement basé sur les notations émises par les agences, que la titrisation a accentué l’importance de ces notations et que la crise des «subprimes» a révélé au grand jour les failles du modèle de rétribution des agences. Enfin, il faut constater que les agences de notation ne sont ni des usurpateurs de pouvoir, ni des facteurs de transparence indispensables. C’est la raison pour laquelle nous insistons sur l’importance d’introduire des réformes qui conduisent aussi bien à une plus grande diversité qu’à un plus grand conservatisme dans l’octroi des notations. Les réformes actuelles doivent inciter les acteurs économiques à déterminer et utiliser des notations plus conservatrices, que ces notations soient émises par une agence officielle, une institution financière, ou calculée à partir de prix observés sur le marché. Les agences de notation jouent souvent les premiers rôles sur la scène économico-financière. Donnons-leur plutôt un rôle de figurant. Telle est la recommandation centrale de ce numéro de Regards économiques.
APA, Harvard, Vancouver, ISO, and other styles
21

Petitjean, Mikael. "Numéro 98 - septembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2012.09.01.

Full text
Abstract:
Depuis la crise des emprunts hypothécaires risqués aux Etats-Unis, plus personne n’ignore l’existence des agences de notation. La population, les responsables politiques et même certains économistes se posent légitimement les questions suivantes : pourquoi les agences de notation ont-elles été créées? Quelles sont leurs particularités ? Pourquoi jouent-elles un rôle si prépondérant aujourd’hui ? Quelles réformes faudrait-il mettre en œuvre ? Ce numéro de Regards économiques, intitulé «De l’(in)utilité des agences de notation», est organisé de la manière suivante. Pour bien comprendre le rôle que jouent aujourd’hui les agences de notation, il est essentiel, dans un premier temps, de définir le cadre historique dans lequel elles ont vu le jour. Dans un second temps, nous expliquons que les décisions prises par les autorités de régulation financière aux Etats-Unis, suite à la crise des années 1930, ont renforcé considérablement le rôle que jouent les agences de notation dans le système financier international. Ensuite, nous analysons le mode de rétribution des agences de notation pour en identifier les forces et les faiblesses. Nous montrons également que le club des agences de notation s’est refermé encore un peu plus à partir des années 1970, que le contrôle du risque dans le secteur bancaire s’est progressivement basé sur les notations émises par les agences, que la titrisation a accentué l’importance de ces notations et que la crise des «subprimes» a révélé au grand jour les failles du modèle de rétribution des agences. Enfin, il faut constater que les agences de notation ne sont ni des usurpateurs de pouvoir, ni des facteurs de transparence indispensables. C’est la raison pour laquelle nous insistons sur l’importance d’introduire des réformes qui conduisent aussi bien à une plus grande diversité qu’à un plus grand conservatisme dans l’octroi des notations. Les réformes actuelles doivent inciter les acteurs économiques à déterminer et utiliser des notations plus conservatrices, que ces notations soient émises par une agence officielle, une institution financière, ou calculée à partir de prix observés sur le marché. Les agences de notation jouent souvent les premiers rôles sur la scène économico-financière. Donnons-leur plutôt un rôle de figurant. Telle est la recommandation centrale de ce numéro de Regards économiques.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography