Siga este enlace para ver otros tipos de publicaciones sobre el tema: Développement et évaluation de modèle.

Tesis sobre el tema "Développement et évaluation de modèle"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Développement et évaluation de modèle".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Leporini, Mathieu. "Développement et évaluation d'un modèle tridimensionnel de nuage chaud à microphysique détaillée". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2005. http://tel.archives-ouvertes.fr/tel-00665540.

Texto completo
Resumen
Les particules d'aérosols tiennent une position centrale dans la formation des nuages. La description détaillée de l'interaction entre les particules d'aérosols et les nuages réalisée dans une dynamique tridimensionnelle est essentielle. Le modèle de nuage chaud à microphysique détaillée DESCAM est modifié pour permettre son couplage à la dynamique tridimensionnelle du modèle méso-échelle de Clark. DESCAM-3D est ensuite évalué dans le cadre de deux formations nuageuses. D'abord, l'impact sur les précipitations d'une pollution est étudié lors de simulations idéalisées réalisées sur le relief des Cévennes en France. Les résultats montrent qu'une atmosphère riche en noyaux de condensation ralentit considérablement la dynamique convective et réduit la formation de la pluie. Ensuite, le modèle couplé a été évalué à l'aide des mesures de l'expérience ACE-2. Il a montré un accord satisfaisant avec les observations et a aussi mis en évidence l'impact de la pollution sur le champ nuageux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Valorso, Richard. "Développement et évaluation d'un modèle explicite de formation d'aérosols organiques secondaires : sensibilité aux paramètres physico-chimiques". Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00674473.

Texto completo
Resumen
Les aérosols fins ont un impact environnemental primordial. Ils influencent notamment la santé, ont un impact sur la visibilité et le climat. Les Aérosols Organiques Secondaires (AOS) représentent une fraction importante des aérosols fins. Les AOS résultent de la conversion d'espèces gazeuses, formées au cours de l'oxydation des composés organiques volatils (COV), en particules par des processus de nucléation et/ou condensation sur des aérosols préexistants. L'oxydation gazeuse des COV implique une myriade de composés secondaires intermédiaires pouvant participer à la formation d'AOS. Les AOS regroupent ainsi une très grande variété d'espèces. Afin d'étudier la formation d'AOS, il est nécessaire de développer des schémas chimiques décrivant explicitement la formation des composés secondaires. Le LISA a développé en collaboration avec le NCAR (National Center of Atmospheric Research) un générateur de schémas chimiques d'oxydation des composés organiques volatils : le GECKO-A (Generator for Explicit Chemistry and Kinetics of Organics in the Atmosphere). Ce travail vise à tester (i) la fiabilité de GECKO-A à reproduire les concentrations d'AOS observées lors d'expériences en chambre de simulation atmosphérique (CSA) et (ii) la sensibilité de la formation d'AOS aux paramètres physico-chimiques tels que les pressions de vapeur saturante, effets de parois des CSA ou encore aux constantes cinétiques de réaction. Afin d'évaluer la pertinence des schémas chimiques générés avec GECKO-A, le modèle a été confronté à des expériences effectuées en CSA visant à évaluer la formation d'AOS. Le paramètre clé du partitionnement des composés organiques semi-volatils est la pression de vapeur saturante (Pvap) des espèces. Les trois méthodes considérées comme les plus fiables disponibles dans la littérature ont été implémentées dans GECKO-A afin de tester la sensibilité de la formation d'AOS à l'estimation des Pvap. Les pressions de vapeur saturantes estimées par les différentes méthodes présentent des valeurs très différentes s'étalant sur plusieurs ordres de grandeur. Malgré ces divergences marquées, la concentration et la spéciation simulées pour l'AOS s'avèrent en définitive peu sensibles à la méthode utilisée pour estimer les pressions de vapeur. Aucune méthode d'estimation de Pvap n'a par ailleurs permis de réconcilier les concentrations modélisées et observées. La concentration d'AOS demeure systématiquement surestimée de l'ordre d'un facteur 2. L'absorption des composés organiques gazeux semi-volatils sur les murs d'une chambre de simulation atmosphérique a ensuite été étudiée. L'intégration de ce processus dans le modèle conduit à diminuer de façon importante les concentrations simulées en AOS, jusqu'à un facteur 2. En outre, les rendements simulés après implémentation de ce processus apparaissent en bon accord avec les rendements mesurés en CSA. L'hypothèse d'une mauvaise représentation de certains processus en phase gazeuse a également été testée via des tests de sensibilité. En particulier, la sensibilité de la formation d'AOS aux constantes de réactions entre les COV et le radical OH a été explorée. Le système a montré une grande sensibilité à la variabilité des constantes cinétiques de réaction des COV avec le radical OH, que ce soit au niveau de l'estimation de la constante cinétique ou au niveau de la détermination du site d'attaque du radical OH. La sensibilité à l'estimation des constantes de décomposition des radicaux alkoxyles a également été testée. Cette étude n'a en revanche montré que peu d'effets sur le rendement en AOS formé
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Planche, Céline. "Développement et évaluation d'un modèle tridimensionnel de nuage mixte à microphysique détaillée : application aux précipitations orographiques". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00622980.

Texto completo
Resumen
La prévision quantitative des précipitations à l'aide des modèles météorologiques reste encore un grand défi posé à la communauté des sciences atmosphériques. En effet, deux problèmes majeurs sont généralement identifiés pour la prévision opérationnelle des précipitations et du climat : les interactions des systèmes précipitants avec le relief et avec la pollution. Cette thèse contribue à l'amélioration des prévisions de pluies. La stratégie adoptée est d'étudier des évènements précipitants en zones montagneuses en décrivant au mieux les interactions aérosol-nuage-précipitation à l'aide du modèle à microphysique mixte détaillée : DEtailed SCAvenging Model (DESCAM, Flossmann et Wobrock (2010)). Ce modèle utilise cinq distributions pour représenter les particules d'aérosol résiduelles et interstitielles ainsi que les gouttes et cristaux de glace. Le modèle a directement été comparé aux observations réalisées au cours de la campagne expérimentale COPS (Convective and Orographically induced Precipitation Study), qui a eu lieu pendant l'été 2007 à la frontière franco-allemande. En particulier, les simulations des pluies ont été comparées avec des observations de différents radars afin d'évaluer les performances du modèle mais aussi d'aider à l'interprétation des réflectivités de la bande brillante. La sensibilité par rapport à la pollution particulaire a été étudiée pour les propriétés des nuages et des précipitations. Pour les cas étudiés, plus le nombre des particules d'aérosol présentes dans l'atmosphère est important et plus leur solubilité est élevée, plus les précipitations au sol sont faibles. Ces comportements globaux peuvent toutefois être localement différents. Il existe donc des interactions plus complexes entre les particules d'aérosol, les nuages et les précipitations qui doivent être encore plus approfondies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Valorso, Richard. "Développement et évaluation d’un modèle explicite de formation d’aérosols organiques secondaires : sensibilité aux paramètres physico-chimiques". Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1126/document.

Texto completo
Resumen
Les aérosols fins ont un impact environnemental primordial. Ils influencent notamment la santé, ont un impact sur la visibilité et le climat. Les Aérosols Organiques Secondaires (AOS) représentent une fraction importante des aérosols fins. Les AOS résultent de la conversion d'espèces gazeuses, formées au cours de l'oxydation des composés organiques volatils (COV), en particules par des processus de nucléation et/ou condensation sur des aérosols préexistants. L'oxydation gazeuse des COV implique une myriade de composés secondaires intermédiaires pouvant participer à la formation d'AOS. Les AOS regroupent ainsi une très grande variété d'espèces. Afin d'étudier la formation d'AOS, il est nécessaire de développer des schémas chimiques décrivant explicitement la formation des composés secondaires. Le LISA a développé en collaboration avec le NCAR (National Center of Atmospheric Research) un générateur de schémas chimiques d'oxydation des composés organiques volatils : le GECKO-A (Generator for Explicit Chemistry and Kinetics of Organics in the Atmosphere). Ce travail vise à tester (i) la fiabilité de GECKO-A à reproduire les concentrations d'AOS observées lors d'expériences en chambre de simulation atmosphérique (CSA) et (ii) la sensibilité de la formation d'AOS aux paramètres physico-chimiques tels que les pressions de vapeur saturante, effets de parois des CSA ou encore aux constantes cinétiques de réaction. Afin d'évaluer la pertinence des schémas chimiques générés avec GECKO-A, le modèle a été confronté à des expériences effectuées en CSA visant à évaluer la formation d'AOS. Le paramètre clé du partitionnement des composés organiques semi-volatils est la pression de vapeur saturante (Pvap) des espèces. Les trois méthodes considérées comme les plus fiables disponibles dans la littérature ont été implémentées dans GECKO-A afin de tester la sensibilité de la formation d'AOS à l'estimation des Pvap. Les pressions de vapeur saturantes estimées par les différentes méthodes présentent des valeurs très différentes s'étalant sur plusieurs ordres de grandeur. Malgré ces divergences marquées, la concentration et la spéciation simulées pour l'AOS s'avèrent en définitive peu sensibles à la méthode utilisée pour estimer les pressions de vapeur. Aucune méthode d'estimation de Pvap n'a par ailleurs permis de réconcilier les concentrations modélisées et observées. La concentration d'AOS demeure systématiquement surestimée de l'ordre d'un facteur 2. L'absorption des composés organiques gazeux semi-volatils sur les murs d'une chambre de simulation atmosphérique a ensuite été étudiée. L'intégration de ce processus dans le modèle conduit à diminuer de façon importante les concentrations simulées en AOS, jusqu'à un facteur 2. En outre, les rendements simulés après implémentation de ce processus apparaissent en bon accord avec les rendements mesurés en CSA. L'hypothèse d'une mauvaise représentation de certains processus en phase gazeuse a également été testée via des tests de sensibilité. En particulier, la sensibilité de la formation d'AOS aux constantes de réactions entre les COV et le radical OH a été explorée. Le système a montré une grande sensibilité à la variabilité des constantes cinétiques de réaction des COV avec le radical OH, que ce soit au niveau de l'estimation de la constante cinétique ou au niveau de la détermination du site d'attaque du radical OH. La sensibilité à l'estimation des constantes de décomposition des radicaux alkoxyles a également été testée. Cette étude n'a en revanche montré que peu d'effets sur le rendement en AOS formé
Fine aerosols have an important impact on health, visibility and climate. Secondary Organic Aerosols (SOA) represent an important fraction of fine aerosol composition. SOA are formed by nucleation or condensation onto pre-existing particles of gaseous species formed during the oxidation of emitted volatile organic compounds (VOC). VOC oxidation implies a huge number of secondary intermediates which are potentially involved in SOA formation. In order to study SOA formation, it is necessary to develop chemical schemes describing explicitly the formation and condensation of the gaseous secondary intermediates. The LISA has thus developed in collaboration with NCAR (National Center of Atmospheric Research) a generator of explicit chemical schemes : GECKO-A (Generator for Explicit Chemistry and Kinetics of Organics in the Atmosphere). This work aims at testing (i) the reliability of GECKO-A to simulate observed SOA concentrations in Atmospheric Simulation Chamber (ASC) and (ii) exploring the SOA sensitivity to physico-chemical parameters such as saturation vapour pressures, chamber walls effects or kinetics rate constants. In order to assess GECKO-A's chemical schemes, the model has been confronted to chamber experiments performed to study SOA. Saturation vapour pressure (Pvap) is the key parameter controlling the gas/particles partitioning of organic compounds The three Pvap estimation methods considered as the more reliable in the literature have been implemented in GECKO-A. Pvap estimated by the three methods differs highly, up to several orders of magnitude. Despite of these discrepancies, simulated SOA concentration and speciation show a low sensitivity to the method used to estimate the Pvap. Moreover, none of the methods were able to make the model fit the observations. SOA concentration is systematically overestimated of a factor 2. Semi volatile organic compounds deposition on a chamber walls has been investigated. The implementation of this process in the model leads to a significant decrease of the simulated SOA concentrations, up to factor of 2. Simulated SOA yields are in good agreement with measured SOA yields. The hypothesis of a misrepresentation of some gaseous processes has then been investigated through sensitivity tests. SOA formation sensitivity to COV+ OH reactions rate constants has been explored. Results exhibited a high sensitivity to the rate constants estimations (regarding the rate constants values estimation, as well as the determination of the OH attack sites). The estimated alkoxy radicals decomposition rate constants have also been tested. This test showed however no significant impact on the simulated SOA yields
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Melloul, Elise. "Aspergillose aviaire : développement d’un modèle d’aspergillose chez la dinde (Meleagris gallopavo) et évaluation de l’efficacité de l’énilconazole". Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1183/document.

Texto completo
Resumen
Aspergillus fumigatus est un agent pathogène respiratoire majeur chez les oiseaux d’ornement comme de production. L’aspergillose qui peut être responsable de mortalités importantes et de chutes de performances est difficile à traiter. Nous avons développé un modèle d’aspergillose aiguë chez le dindonneau en inoculant différents lots d’oiseaux âgés de moins d’une semaine via une aérosolisation intratrachéale de doses croissantes de conidies (105 à 108/animal) en utilisant un MicroSprayer®. Le développement de la masse fongique a été évalué par qPCR, dosage du galactomannane (GM), culture fongique et évaluation histopathologique dans le but de comparer les résultats obtenus en fonction du nombre de conidies inoculées. Une mortalité significative a été observée dans les 4 jours suivant l’inoculation uniquement pour l’inoculum le plus concentré. Les résultats des différents marqueurs du développement du champignon (culture, qPCR et GM), sont très bien corrélés avec la dose de l’inoculum administrée. Les moyennes d’équivalents conidies/g de poumon obtenues par qPCR étaient 1,3 log10 plus importantes que les numérations obtenues par culture sur gélose. Ce nouveau modèle incluant une combinaison inédite de biomarqueurs chez la dinde a été utilisé pour évaluer l’efficacité de l’énilconazole, seule molécule utilisée en élevage avicole pour lutter contre l’aspergillose
Aspergillus fumigatus remains a major respiratory pathogen in both ornamental and poultry. Aspergillosis can be responsible for high mortality rates and induces significant economic losses, particularly in turkey production, and it is still difficult to treat. We developed a new model of acute aspergillosis in young turkeys by inoculating few-days-old turkeys via intratracheal aerosolization with increasing concentrations (105 up to 108) of conidia using a MicroSprayer® device. The fungal burden was assessed and compared by real-time PCR, galactomannan (GM) dosage, fungal colony (CFU) counting and by histopathology. Early death occurred in the first 96 h post-inoculation only at the highest inoculum dose. We observed a correlation between inoculum size and results obtained by real-time PCR, GM dosage and CFU counting. The mean fungal burden detected by qPCR was 1.3 log10 units higher than the mean values obtained by CFU measurement. Furthermore, this new model, with its unique combination of markers, has been used to evaluate the efficacy of enilconazole
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Dubois, Amandine. "Expression et évaluation de la douleur chez l'enfant porteur d'un retard mental". Montpellier 3, 2008. http://www.theses.fr/2008MON30045.

Texto completo
Resumen
L’objet de ce travail est d’étudier l’expression comportementale et l’évaluation de la douleur auprès d’enfants porteurs d’un retard mental (RM) dont les capacités sont parfois insuffisantes pour leur permettre d’expliciter et de verbaliser cette sensation désagréable. L’expression de la douleur des enfants RM est comparée, d’une part à l’ontogenèse de l’expression de la douleur mise en évidence par l’étude d’enfants neurotypiques (N) de moins de 36 mois, d’autre part à l’expression d’enfants N de même âge chronologique et de même âge de développement. Les résultats démontrent l’influence du degré de retard mental, illustrée par le niveau de compétences en communication expressive et en socialisation, sur la qualité de l’expression de la douleur : les enfants RM léger à moyen capables de verbaliser la douleur ont une expression normée composée d’indices comportementaux qui s’apparentent à ceux d’enfants N âgés de 24 à 48 mois ; les enfants RM grave à profond qui ne sont pas en mesure de verbaliser la douleur présentent une expression singulière caractérisée par la présence d’indices comportementaux atypiques ayant peu de valeur communicative. Ces résultats sont mis à profit dans la partie dédiée à l’hétéro-évaluation de la douleur. Un modèle de la Théorie de Réponse à l’Item, le modèle de Rasch, est employé à cet effet et a permis l’ébauche de deux échelles d’évaluation ajustées aux compétences et aux caractéristiques de l’expression de la douleur des enfants RM : l’échelle d3-24 initialement validée pour les enfants N a été adaptée aux enfants RM léger à moyen ; une sélection de 10 items constitue l’ébauche d’une échelle destinée aux enfants RM grave à profond
We have studied the behavioural expression and assessment of acute pain in children with an intellectual disability (I. D. ), for whom the abilities to explain and verbalise pain are insufficient. Expression of pain in children with I. D. Is compared, on the one hand to the ontogenetic development of pain expressed in normal children aged 0 to 36 months and on the other hand to children of the same chronological and developmental age. Results show the influence of the degree of intellectual disability, illustrated by the level of expressive communication and socialization, on the pain expression. Children with mild to moderate I. D. Who can verbalise their pain, produce a normative pain expression with behavioural traits similar to those of normal children aged 24 to 48 months; children with profound or severe I. D. Who are unable to verbalise their pain, produce a particular pain expression with behavioural traits that are atypical and without communicative goal. These results are used to produce a pain assessment implement. An Item Response Theory model, the Rasch model, is employed to realise 2 scales fitting the abilities of children with I. D. And the characteristics of their pain expression: the scale d3-24 originally validated for normal children has been adopted for children with mild to moderate I. D. ; 10 items have been highlighted for the assessment of pain in children with profound to severe I. D
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Nonne, Christelle. "Développement et caractérisation d'un modèle de thrombose artérielle mésentérique induite par un rayon laser et évaluation de nouvelles cibles antiplaquettaires". Université Louis Pasteur (Strasbourg) (1971-2008), 2007. https://publication-theses.unistra.fr/public/theses_doctorat/2007/NONNE_Christelle_2007.pdf.

Texto completo
Resumen
L’étude des mécanismes de développement des thromboses et l’évaluation de l'efficacité de substances antithrombotiques nécessitent d'établir des modèles expérimentaux dans l'animal. L’obtention, ces dernières années, de souris génétiquement modifiées, permettant de manipuler et d’évaluer l’importance de différents acteurs de l’hémostase (récepteurs, protéines de la coagulation…), a stimulé le développement de modèles expérimentaux de thrombose dans cette espèce. Les modèles existants, notamment basés sur la lésion au FeCl3, sont limités en termes de sensibilité, de reproductibilité et de quantification. Mon projet de thèse a donc été de développer et de caractériser un modèle de thrombose localisée induite au laser sur artérioles mésentériques de souris. Après calibration de l’intensité du rayon laser et de la durée du tir, des lésions calibrées, superficielles ou sévères, ont été obtenues. Ces lésions induisent respectivement la formation d’un thrombus pariétal non occlusif, réversible et sensible aux traitements antiplaquettaires et d’un thrombus occlusif, plus stable et sensible aux traitements antiplaquettaires et anticoagulants. L’analyse histologique des artérioles mésentériques lésées indique clairement la présence de deux degrés bien distincts de lésion de la paroi. La lésion superficielle expose un sous-endothélium riche en collagène sans atteinte des couches plus profondes, tandis que la lésion profonde est plus étendue, altère la média et l’adventice en son centre exposant les collagènes I et III et générant de la fibrine. Ce modèle nous a permis d’explorer de nouvelles cibles et voies d’activation plaquettaires. Il a permis de montrer un rôle clef du complexe GPIb-V-IX, pour lequel n’existent encore que peu d’inhibiteurs, mais qui représente une voie de recherche pharmacologique intéressante. Une seconde information importante obtenue grâce à ce modèle est que le blocage du récepteur GPVI au collagène ou de sa voie de signalisation est peu efficace dans des conditions de thrombose sévère où la voie de la thrombine prédomine. Cependant, la GPVI pourrait être une cible intéressante en situations de lésions superficielles ou en association avec d’autres antiplaquettaires. Enfin, ce travail a montré une implication du récepteur P2Y1 à l’ADP dans la thrombose et l’intérêt potentiel d’associer une inhibition des récepteurs P2Y1 et P2Y12. Le modèle présente quelques limites au regard de la pathologie humaine : les animaux utilisés sont jeunes et les artères dépourvues de lésions d'athérosclérose. De nouveaux modèles de thrombose chez la souris devront être mis en place, afin de mieux modéliser les situations physiopathologiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Rendon-Pimentel, Luis. "L'irrigation à la planche : développement et évaluation d'un nouveau modèle hydrologique pour simuler et prédire l'avancement du front couplé à l'infiltration". Grenoble 1, 1987. http://www.theses.fr/1987GRE10079.

Texto completo
Resumen
Dans une premiere partie (chapitre i et ii) sont presentees les equations qui regissent les ecoulements de surface et souterrains, ainsi que les essais experimentaux et numeriques aui sont utilises comme reference pour tester differents modeles. La comparaison de ces resultats experimentaux et numeriques avec ceux obtenus par les modeles hydrologiques existants dans la litterature est donnee chapitre iii. Dans le chapitre iv le nouveau modele developpe dans cette etude, est presente et teste. Le probleme d'identification des parametres a travers la solution inverse, est finalement traite dans le chapitre v
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Wang, Tao. "Développement et évaluation du modèle de surface ORCHIDEE : apport pour la simulation des cycles de l'eau et du carbone aux hautes latitudes". Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0045.

Texto completo
Resumen
L’objectif de cette thèse est d'évaluer et de développer le modèle de surface ORCHIDEE (Organizing Carbon and Hydrology In Dynamic EcosystEms). Dans la première partie, l’évaluation du modèle à différentes échelles est présentée à l’aide d’ une nouvelle méthodologie basée sur une analyse spectrale et des réseaux de neurones. Cette analyse nous a permis de mettre en évidence les erreurs systématiques du modèle, et d’ouvrir de nouvelles perspectives pour les développements futurs ORCHIDEE. Dans une seconde étape, afin de mieux comprendre les effets de la neige sur les flux de carbone présents et futurs, différentes études ont été menées. Une analyse de la respiration des écosystèmes d'hiver a étéeffectuée, à l’aide de mesures de station de flux « eddy covariance ». Les résultats démontrent le rôle de la respiration d'hiver dans le bilan annuel de carbone, ainsi que les effets de la neige sur la respiration. L’objectif d’une troisième étape a été de développer un nouveau module de neige dans ORCHIDEE. Dans ce nouveau modèle, les processus internes de la neige (neige fondante par exemple / regel, infiltration de l'eau entre les couches de neige) sont pris en compte. Par ailleurs, une nouvelle paramétrisation de l’albédo des forêts a été testée. Ces développements ont été validés à l’échelle locale sur quelques sites instrumentés puis à l’aide de produits spatialisés sur les régions des hautes latitudes Nord. Des améliorations significatives ont été mises en évidence en termes de propriétés du couvert nival. Ce nouveau modèle va maintenant permettre de mieux comprendre et modéliser les cycles de l’eau et du carbone aux hautes latitudes dans de prochaines études
This thesis is to evaluate and develop a land surface model ORCHIDEE (Organizing Carbon and Hydrology In Dynamic EcosystEms). In the first part, ORCHIDEE on multiple timescales is evaluated by a novel methodology linking Artificial Neural Networks to Singular System Analysis. The joint analysis of observations and simulations uncovers the characteristics of model bias at and across timescales in different plant function types and climate groups, which provide references for future ORCHIDEE developments. To have a throughout understanding of snow effects on present and future carbon fluxes, ORCHIDEE with a decent snow model should be developed. In the second part, a site-synthesis analysis of winter ecosystem respiration and its controls across eddy covariance sites in mid- and high-latitude regions has been conducted. The result corroborates the role of winter respiration in annual carbon budget, and snow effects on winter respiration could be indirectly observed by its insulating effect on soil. The standard ORCHIDEE snow model is a simple bucket model and has been shown to bias snow simulations. In the third part, internal snow processes (e. G. Snow melting/refreezing; water infiltration between snow layers) were thus developed in ORCHIDEE. Moreover, a new forest albedo parameterization was also implemented. In the third and final parts, this newly developed snow model has been validated based on both site and continental levels, and a significant improvement has been seen in terms of snow pack properties examined. This new snow model coupled with permafrost will be used to explore high-latitude water and carbon dynamics in the future
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Orou, Zime Hamed. "Une évaluation du risque d'innovation sur les rendements boursiers des entreprises américaines". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35199.

Texto completo
Resumen
L’objectif principal de ce mémoire est de mesurer le risque d’innovation sur le rendement des actifs des entreprises. Pour ce faire, nous utilisons trois mesures de l’innovation à savoir : dépense en R&D/Valeur comptable (RD/VC), dépense en R&D/Actif total (RD/AT), et l’élasticité R&D du revenu total (r). Grâce à ces trois mesures, nous construisons trois primes de risques d’innovation. Lorsque la prime d’innovation est associée au ratio RD/VC ou RD/AT, nos résultats indiquent que les entreprises sont non seulement exposées au risque d’innovation, mais aussi que leur sensibilité à ce risque est inversement proportionnelle à leur taille. En revanche, lorsque la prime d’innovation est associée à r, nous remarquons que nos coefficients sont très faibles et peu significatifs. Nous confirmons donc que les entreprises les plus innovantes sont celles qui investissent le plus en recherche et développement.
The principal objective pursued by this thesis is to measure the risk of innovation on the return on corporates assets. To do this, we use three measures of innovation, namely: R&D expenditure / Book value (RD/VC ), R&D / Total assets expense (RD/AT), and the elasticity R&D of the total income (r). Through these three measures, we build three innovation risk premiums. When the innovation premium is associated with the ratio RD/VC or RD/AT , our results indicate that firms are not only exposed to the risk of innovation, but also that their sensitivity to the risk of innovation is inversely proportional to their size. On the other hand, when the innovation premium is associated with r, we notice that our coefficients are very weak and insignificant. We therefore conclude that the most innovative companies are those that invest the most in research and development.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Ouaras, Hakim. "Contribution à la modélisation de l'intégration Transport-Occupation du sol et évaluation de projets d'investissement dans une optique du développement durable". Thesis, Cergy-Pontoise, 2011. http://www.theses.fr/2011CERG0540/document.

Texto completo
Resumen
La modélisation est un moyen qui permet de prévoir le comportement futur de différents phénomènes. Dans la planification urbaine elle est aussi utilisée pour aider les planificateurs à faire face aux multiples défis d'urbanisme. Le système urbain est tellement complexe qu'il n'est pas possible de prévoir avec exactitude le comportement de différents agents. L'économie urbaine a tenté d'apporter certaines explications, mais elle reste insuffisante pour cerner toutes les interactions qui existent entre les différents agents. L'objet de ma thèse rentre dans le cadre de cette problématique, elle est structurée en deux parties. Dans la première nous traitons de la modélisation des interactions entre transport (urbain) et occupation du sol (urbanisation), c'est une étude à l'échelle microéconomique, et la deuxième porte sur l'analyse des émissions polluantes des transports et évaluation des projets de transport interurbain dans le cadre du développement durable, cela est traité à un niveau plus agrégé. Les applications sont menées sur la région l'Île-de-France.Dans la première partie nous procédons à la mise en interconnexion de deux logiciels, un d'urbanisme (UrbanSim) et l'autre de transport (METROPOLIS) afin de créer un système intégré dit LUTI (Land Use-Transport Interaction). Le comportement des agents est intercepté à travers des estimations, pour cela une série d'estimations est réalisée, à savoir : localisation des ménages, localisation des emplois, le processus de création des projets urbains et le prix de location et de vente des logements. Le système est calé sur les données de recensement de 2006. L'application est menée sur deux niveaux de découpages de la zone d'étude ; l'un est fin, en cellules carrées de 500 x 500 mètre et l'autre en communes.Dans la deuxième partie, nous nous sommes intéressés à l'évaluation des émissions de gaz à effet dans les transports et à la réalisation d'une étude de rentabilité économique et environnementale du projet d'extension du canal Seine-Nord Europe. En effet, dans le cadre de la politique française de lutte contre les émissions de gaz à effet de serre, les reports modaux de modes de transports polluants vers les modes propres sont encouragés. C'est bien le cas du projet SNE, par lequel les autorités espèrent un transfert modal de la route vers la voie fluviale. Son objectif est d'étendre l'usage de ce canal à des péniches à grand gabarit. En l'état actuel, le canal ne permet de passer que les péniches à petit gabarit, d'une charge n'excédant pas les 600 tonnes. Notre but est de réaliser une analyse coût-bénéfice à cette extension en introduisant une dimension stochastique à la fonction de la demande et au prix de l'énergie
Modeling is used to predict the future behavior of different phenomena. In urban planning it is also used to help planners to cope with multiple challenges of urban planning. The urban system is so complex that it is impossible to accurately predict the behavior of different agents. The urban economics has attempted to provide some explanation, but still not sufficient to identify all interactions between the different agents. The purpose of my thesis is within the framework of this subject. It is structured into two parts. In the first one we discuss the modeling of land use/Transport interactions, a study at a microscopic level. The second is the analysis of pollutant emissions and transport project assessment in the context of sustainable development. The latter is processed at a more aggregated level. We apply our models to Île-de-France region.In the first part we proceed by linking two softwares, a land use model (UrbanSim) and a transport model (METROPOLIS), to create an integrated system LUTI (Land-Use and Transport Interaction).The behavior of agents is intercepted through estimates. For that estimation is performed, such as: household location, employment location, urban projects location and the rent and selling prices of housing. The system is calibrated on data from Census 2006. The application is carried out on two levels of geographical units; the first one is a gridcell of 500 x 500 meters and the second in administrative zoning municipalities.In the second part, we were interested in the assessment of greenhouse gas emissions in transport and a study of economic and environmental efficiency of the Seine-Nord Europe project. Indeed, in the context of French politics to fight against greenhouse gas emissions, modal shift from polluting modes of transport to clean modes is encouraged. This is the case of the project SNE, in which the authorities hope a modal shift from road to inland waterways. Its aim is to extend the use of this canal to wide-gauge barges. As it stands, the canal allow access only to narrow gauge barges, with load not exceeding 600 tones. Our aim is to perform a cost-benefit analysis for this extension by introducing a stochastic dimension to the function of demand and energy price
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Prieur, Fabien. "Croissance et environnement dans le modèle à générations imbriquées : analyse dynamique et évaluations des politiques publiques". Aix-Marseille 2, 2006. http://www.theses.fr/2006AIX24005.

Texto completo
Resumen
Afin d’aborder les problématiques environnementales d’importance, nous recourons au modèle de croissance à générations imbriquées. Notre objectif est d’abord de reconnaître que le processus de régénération de la nature s’épuise avec le franchissement de seuils critiques de dommages. La prise en compte de la potentielle irréversibilité de la pollution implique qu’un développement économique non régulé peut conduire l’économie polluante vers une trappe de pauvreté. De plus, les fondements théoriques de l’émergence de la courbe de Kuznets environnementale sont clairement remis en cause. L’engagement des agents privés dans une activité de dépollution se révèle insuffisant pour guider l’économie sur un sentier de croissance durable. Nous démontrons ensuite qu’une régulation par les permis est une politique performante, à condition de respecter des règles précises pour la fixation du quota global d’émission, du point de vue de sa faculté à protéger l’économie de la convergence vers une trappe de pauvreté. Une fois placé dans le contexte d’absence de trappes, nous montrons également que la politique environnementale n’est pas forcément synonyme d’un ralentissement de la croissance, son renforcement pouvant même engendrer un double dividende. Enfin, nous appréhendons le problème posé par la définition du quota d’émission. Le principe consiste à supposer que l’engagement de l’économie dans le contrôle de la pollution se traduit par l’imposition d’un quota exogène. Lorsque la politique est suffisamment stricte, nous montrons qu’il est possible de dépasser la rigidité imposée par le quota et même d’atteindre l’optimum social par le recours à la politique de segmentation du marché des permis
In this study, we deal with topical environmental issues by having recourse to the overlapping generations model of growth. First, our purpose is to recognize that the recovery process of nature is finite and vanishes beyond a critical threshold of damage. Considering the potential irreversibility of pollution implies that the development process can drive the polluting economy to a poverty trap. Moreover, the theoretical explanations of the environmental Kuznets curve are seriously challenged since the private agent’s investment in abatement fails to promote sustainable growth. Then, we show that regulating pollution with permits is an effective policy, provided that some precise rules concerning the choice of the global quota on emissions are respected, from the view point of its ability to protect the economy against the convergence toward a poverty trap. Once we have set conditions excluding traps, we also prove that environmental policy does not necessarily mean a slackening in growth. Its reinforcement can even produce a double dividend. Finally, we address the issue of the definition of the emission quota. We assume that the economy’s commitment in pollution control goes through the setting exogenous quota. When the permits system is too latitudinarian, it is possible to exceed the rigidity imposed by the quota and to achieve the social optimum by implementing a policy consisting in the segmentation of the permits market
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Lardeur, Pascal. "Développement et évaluation de deux nouveaux éléments finis de plaques et coques composites avec influence du cisaillement transversal". Compiègne, 1990. http://www.theses.fr/1990COMPD261.

Texto completo
Resumen
La première partie de la thèse concerne la modélisation des plaques composites stratifiées en flexion pure. Nous critiquons les différentes théories de plaques composites existantes. Nous retenons une théorie basée sur les travaux de Reissner, en proposant quelques adaptations pour le calcul de la rigidité au cisaillement transversal. Nous développons deux nouveaux éléments finis de plaque : un élément triangulaire à 3 NUDS 9 D. D. L. : DST (Discrete Shear Triangular) et un élément quadrilatéral à 4 NUDS 12 D. D. L. : DSQ (Discrete Shear Quadrilateral). Leur formulation est basée sur l'introduction sous forme discrète des équations de plaque épaisse. Nous formulons la matrice de rigidité linéaire et la matrice masse. Nous calculons les contraintes généralisées et les contraintes tridimensionnelles planes et de cisaillement transversal. De nombreux tests théoriques et des applications statiques et dynamiques sur des plaques isotropes et composites sont traités. La seconde partie concerne la modélisation des coques composites de forme quelconque. Nous avons retenu l'approche par facettes planes, en superposant les éléments de flexion cisaillement et de membrane. Nous obtenons ainsi un élément triangulaire à 3 NUDS 18 DDL DST et un élément quadrilatéral à 4 NUDS 24 DDL DSQ. Nous formulons la matrice de rigidité linéaire, les matrices de rigidité géométrique, des forces suiveuses et des déplacements initiaux. Nous calculons les contraintes généralisées et tridimensionnelles. Une attention particulière est donnée au calcul des contraintes de cisaillement transversal.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Berthelot, Béatrice. "Estimation de la production primaire marine : développement et évaluation d'un modèle adapté à l'utilisation des données satellitales de couleur de l'océan". Toulouse, INPT, 1991. http://www.theses.fr/1991INPT035H.

Texto completo
Resumen
Une nouvelle methode d'estimation de la production primaire des oceans a partir d'observations satellitaires de couleur de l'ocean est proposee. Cette methode s'applique plus particulierement aux eaux oligotrophes et mesotrophes de l'ocean. L'algorithme propose determine directement la fraction du rayonnement absorbe par les pigments chlorophylliens a partir des reflectances retrodiffusees par la mer et du rayonnement incident a la surface des oceans. Les reflectances peuvent etre derivees des observations spatiales de couleur de l'ocean et le rayonnement peut etre estime a partir des mesures fournies par des satellites geostationnaires. Notre algorithme theorique est compare aux algorithmes classiques d'estimation de la production primaire qui estiment la fraction d'energie absorbee par le phytoplancton indirectement a partir des reflectances retrodiffusees par la mer. En effet, dans une premiere etape la production est reliee a la concentration en pigments chlorophylliens puis dans une deuxieme etape la concentration est obtenue a partir des reflectances retrodiffusees par la mer. La sensibilite des divers algorithmes aux erreurs radiometriques et a la turbidite marine est analysee. Cette demarche theorique a ete verifiee statistiquement a partir d'un jeu de mesures in situ comportant a la fois des mesures d'optique et de biologie marines. L'analyse des observations a permis d'etablir une relation directe entre la production primaire marine et les reflectances retrodiffusees par la mer aux courtes longueurs d'onde associees au rayonnement solaire incident utile pour la photosynthese. La precision relative obtenue sur l'estimation de la production est de 40%. Les resultats de cette analyse confirment aussi le potentiel des mesures de couleur de l'ocean pour une estimation a l'echelle globale de la production primaire marine et des flux de carbone qui lui sont associes
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Marif, Anouar. "Référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif". Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/70269.

Texto completo
Resumen
Le travail de cette thèse porte sur l'élaboration d'un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif, interface entre plusieurs méthodes distinctes et complémentaires. Le référentiel proposé intègre des principes clés de pilotage par la performance et propose une alternative améliorée et prometteuse par rapport aux systèmes de mesures de la performance traditionnels. Un système de pilotage de la performance est un outil indispensable pour une organisation. Sa conception demeure par ailleurs une démarche complexe étant donné les différents aspects et éléments que l'organisation doit intégrer dans son processus d'évaluation et d'amélioration de la performance, en particulier les événements perturbateurs, souvent négligés dans la littérature et très difficile à intégrer dans l'élaboration d'un mécanisme de pilotage de la performance. En effet, le choix de la variable de décision pour contrecarrer les effets d'un évènement perturbateur n'est pas toujours immédiate, il possède une certaine inertie qui peut entraîner une perte de la performance globale. Également, les décideurs ne disposent pas souvent des mécanismes et des outils susceptibles de vérifier que les composantes clés de pilotage de la performance (Objectifs-Variables de décision-Indicateurs de performance) engagées par chacun d'eux soient cohérentes et aident à faire évoluer l'organisation vers l'atteinte de ses objectifs escomptés. De ce fait, l'organisation évolue dans un contexte souvent incertain et doivent faire preuve d'adaptabilité pour garantir leur viabilité. Ce projet de recherche est motivé par un besoin criant soulevé suite à une revue de littérature soulignant la nécessité de développer un système de pilotage de la performance qui répond aux défis actuels en terme de pilotage, à savoir : la cohérence entre les composantes clés de pilotage de la performance et la réactivité pour faire face aux évènements perturbateurs. De ce fait, notre volonté dans ce travail a été de proposer un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif. Les contributions de cette thèse sont présentées en quatre phases. Dans une première phase, à partir du constat réalisé durant la revue de littérature, nous avons souligné la nécessité de proposer une démarche structurale SIPCo (Système d'Indicateurs de Performance Cohérent) pour identifier les composantes clés de pilotage de la performance et assurer leur cohérence à travers deux démarches. Une démarche logique basée sur (1) une approche de modélisation de système décisionnel afin d'identifier les centres de décision et (2) une approche de modélisation de système informationnel afin de d'établir une représentation de la part interactive des composantes clés de pilotage de la performance de chaque centre de décision. La méthode SIPCo repose aussi sur une démarche participative pour accompagner la démarche logique afin de définir les différentes composantes clés de pilotage de la performance auprès des futurs utilisateurs. Dans une deuxième phase, nous avons proposé une démarche procédurale SYPCo-R (Système de Pilotage de la Performance Cohérent et Réactif) en intégrant un élément jamais intégré par les autres systèmes d'évaluation de la performance, à savoir "évènement potentiel". En effet, la plupart des systèmes de pilotage par la performance sont basés sur le triplet "Objectif – Variable de Décision – Indicateur de performance". Alors que, SYPCoR que nous proposons est basé sur le quadruplet "Objectif – Évènement potentiel – Variable de Décision – Indicateur de performance". L'objectif de SYPCo-R est d'apporter une cohérence globale dans l'exploitation des composantes clés de pilotage de la performance et une réactivité en intégrant la notion d'évènement potentiel dans la prise de décision à travers une méthodologie de classement des variables de décision qui permettent de contrecarrer les évènements potentiels susceptibles d'entraver l'atteinte des objectifs. Dans une troisième phase, nous avons proposé un modèle conceptuel MCR (Modèle Conceptuel de Réactivité) qui reprend les propriétés fondamentales de la notion de réactivité sous forme d'algorithme composé d'un ensemble des règles opératoires pour identifier les défaillances de performance en terme de réactivité et leurs origines afin d'ajuster et consolider SYPCo-R. Dans une quatrième phase, nous avons proposé une démarche prédictive basée sur la simulation pour évaluer et apprécier l'impact des valeurs fixées aux alternatives associées à chaque variable de décision choisie parmi le classement résultant de la démarche SYPCo-R. Cette démarche vise aussi à anticiper les défaillances de performance pour ajuster les paramètres de MCR et SYPCo-R. Les décideurs pourront ainsi disposer d'un outil supplémentaire pour garantir la cohérence, la réactivité basée sur l'anticipation et la prédiction. Les travaux de cette thèse apportent des solutions innovantes dans la démarche de l'élaboration d'un système de pilotage de la performance en proposant un référentiel interface entre plusieurs méthodes distinctes et complémentaires qui répond efficacement aux préoccupations des décideurs. Le référentiel proposé permet de cerner la complexité d'un système et de la rendre intelligible par les décideurs. De plus, il s'apprête bien à des extensions futures basées sur une exploitation optimisée des données en temps réel.
This thesis aims at elaborating a framework for the development of a coherent and responsive performance management system, interface between several distinct and complementary methods. The proposed framework integrates key performance management principle s and offers an improved and promising alternative to traditional performance measurement systems. A performance management system is an essential tool for an organization. Otherwise, the conception of this system remains a complex process given the several aspects and elements that the organization must integrate into its process of evaluating and improving performance, in particular disruptive events, often neglected in the literature and very difficult to take into account in the development of a performance management mechanism. Decision-making to cover the effects of a disruptive event is not immediate as it has an inertia which can lead to a loss of overall performance. Also, decision-makers rarely have the necessary tools to verify that the used key performance management components (Objectives-Decision variables-Performance indicators) are coherent and help to move the organization towards achievement of its expected objectives. Hence, the organization operates in an uncertain environment and must be adaptable to ensure its viability. This research is motivated by a strong need raised by the achieved literature review highlighting the need to develop a performance management system that responds to current management challenges, namely : consistency between the key management components performance and responsiveness to deal with disruptive events. As a result, the main objective of this thesis is to propose a framework for the development of a coherent and responsive performance management system. The contributions of this thesis are presented in four phases. In a first phase, based on the findings of the literature review, we underlined the need to propose a structural approach SIPCo (Consistent Performance Indicator System) to identify the key components of performance management and to ensure their consistency through two methods. A logical method based on (1) a decision-making system modeling approach in order to identify the decision-making centers and (2) an informational system modeling approach in order to establish a representation of the interactive part of the key components of the performance management of each of the decision-making centers. The SIPCo method is also based on a participatory method to support the logical approach in order to define the various key components of performance management with future users. In a second phase, we proposed a procedural approach SYPCo-R (Coherent and Responsive Performance Management System) by integrating "potential event", an essential element nowadays never integrated by other performance evaluation systems. Most performance management systems are based on the triplet "Objective – Decision variable - Performance indicator" while the proposed SYPCo-R is based on the quadruplet "Objective - Potential event - Decision variable - Performance indicator". The objective of SYPCo-R is to provide overall consistency in the use of the key performance management components, and responsiveness by integrating the notion of potential event into decision-making through a methodology for classifying decision variables allowing to thwart potential events that may hinder the achievement of objectives. In a third phase, we proposed a conceptual model MCR (Conceptual Model of Reactivity) which uses the fundamental properties of the notion of reactivity in the form of an algorithm composed of a set of operating rules to identify performance failures in terms of reactivity and their origins in order to adjust and consolidate SYPCo-R. In a fourth phase, we proposed a predictive approach based on simulation to evaluate and assess the impact of the values fixed on the alternatives associated with each decision variable chosen from the ranking resulting from the SYPCo-R approach. Furthermore, this approach aims to anticipate performance failures to adjust the parameters of MCR and SYPCo-R. This will provide decision-makers with an additional tool to ensure consistency and responsiveness based on anticipation and prediction. This thesis provides innovative solutions in the process of developing a performance management system by proposing an interface by proposing an interface framework between several distinct and complementary methods that effectively responds to the concerns of decision-makers. The proposed framework allows to identify the complexity of a system and to make it intelligible to decision-makers. Moreover, this framework accepts future extensions based on an optimized exploitation of real-time data.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Sapolin, Bertrand. "Construction d'une méthodologie d'évaluation statistique des logiciels de dispersion atmosphérique utilisés en évaluation de risque NRBC et développement d'un modèle d'estimation de l'incertitude des résultats". Paris 7, 2011. http://www.theses.fr/2011PA077217.

Texto completo
Resumen
La dispersion atmosphérique intentionnelle ou accidentelle de substances toxiques d'origine nucléaire, radiologique, biologique ou chimique (NRBC) peut avoir des conséquences sanitaires graves. Pour les estimer, l'évaluation de risque NRBC s'appuie, entre autres, sur des modèles d'écoulement/dispersion atmosphérique. En calculant l'évolution spatio-temporelle de la concentration en polluant, ces modèles permettent de quantifier l'effet toxique potentiel sur l'homme. Les évaluer suppose de comparer leurs résultats à des données expérimentales. Or, les méthodologies existantes de comparaison modèle/expérience ont deux défauts : d'une part elles sont inadaptées au contexte d'évaluation de risque NRBC, et d'autre part elles sont biaisées car elles reposent sur des comparaisons directes modèle/expérience. La turbulence dans la couche limite atmosphérique introduit une composante aléatoire importante dans les observations, donc un écart inévitable au résultat de modèle, fût-il « parfait ». Dans cette thèse, deux outils sont construits pour combler ces lacunes. Le premier est une méthodologie de comparaison modèle/expérience spécifiquement adaptée à l'évaluation de risque. Le second est un modèle statistique empirique de calcul de l'incertitude des résultats de simulation. Associé à un modèle de dispersion probabiliste, le modèle statistique proposé permet de calculer une enveloppe de réponse plutôt qu'un résultat « moyen » unique, celui-ci étant peu exploitable malgré son omniprésence dans les évaluations de risques actuelles. Utilisés conjointement, les deux outils développés dans cette thèse donnent à la comparaison modèle/expérience l'objectivité souhaitée
Atmospheric dispersion of contaminated clouds following deliberate or accidental releases of CBRN (chemical, biological, radiological, nuclear) toxic substances may have serious health impacts. In order to estimate them, CBRN risk assessment activities rely, among other things, on atmospheric dispersion models. These models compute the concentration field of pollutant in order to quantify potential adverse effects on human population. They need to be evaluated, which means their outputs have to be compared to experimental data within an appropriate methodology. Now, existing evaluation methodologies have two flaws: firstly they are not suited to risk assessment, and secondly their results may be somewhat arbitrary because they are based on direct comparisons between observations and model results. Turbulence in the atmospheric boundary layer introduces a large random component in the observations, and thus an inevitable gap between observations and model results, be the latter "perfect". In this thesis two tools have been built to fix these issues. The first one is an evaluation methodology suitable for the risk assessment context. The second one is an empirical statistical model meant to estimate the uncertainty in the simulation results. It can be associated to an atmospheric dispersion model with probabilistic capabilities in order to produce an envelop of the answer rather than a unique "average" result, the latter being of little use despite its omnipresence in current risk assessment studies. When used jointly, the two tools developed in this thesis enable model/experiment comparisons to be more objective and less subject to experimental randomness
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Boyer, Louise. "Coconstruction d'un modèle cognitif et l'apprentissage d'une compétence en vue d'assurer la validité et l'équité de son évaluation : le cas de la compétence "Exercer un jugement clinique infirmier". Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6384.

Texto completo
Resumen
L'évaluation des compétences comporte des enjeux éthiques reliés à la validité et l'équité des inférences évaluatives. Ces valeurs édumétriques sont fortement compromises lorsque l'objet et les critères d'évaluation ainsi que les pratiques évaluatives des évaluateurs ne tiennent pas compte des caractéristiques du concept de compétence, notamment son caractère développemental. Un système d'évaluation des compétences fondé sur le modèle cognitif de l'apprentissage, congruent avec le concept de compétence, est plus susceptible d'assurer la validité et l'équité des inférences évaluatives. La compétence "Exercer un jugement clinique infirmier" fut choisie pour élaborer un modèle cognitif de l'apprentissage pour les trois années de formation au baccalauréat en sciences infirmières. De plus, des indicateurs de développement ont été identifiés pour les trois niveaux de développement de cette même compétence. Une approche collaborative a été privilégiée pour atteindre ces objectifs. Le groupe collaboratif, composé de trois tutrices, de trois infirmières-monitrices et de la chercheuse, a analysé six récits d'expérience d'évaluation de cette compétence chez des étudiants de ce programme. L'analyse des données a conduit à une première version du modèle cognitif de l'apprentissage de la compétence "Exercer un jugement clinique infirmier" qui fut validée et améliorée par les partenaires de recherche. La logique de progression des apprentissages critiques et la concrétisation de ceux-ci par les indicateurs de développement ont été confirmées par des experts académiques. Les résultats montrent également des interinfluences entre les paramètres de cette compétence qui appuient la nécessité de réaliser tous les apprentissages critiques d'un même niveau pour l'atteindre. Les retombées de cette étude concernent les programmes de formation en sciences infirmières ainsi que ceux destinés à l'intégration des nouvelles infirmières dans les milieux cliniques. Les résultats de l'étude incitent aussi à poursuivre des recherches ultérieures pour compléter ce modèle cognitif de l'apprentissage et également à en construire pour d'autres compétences professionnelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Abdul, Fabien. "Développement et évaluation de nouvelles stratégies pour le traitement des hépatites B chroniques, dans le modèle du canard de Pékin infecté par le DHBV". Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10284.

Texto completo
Resumen
Développement et évaluation de nouvelles stratégies pour le traitement des hépatites B chroniques, dans le modèle du canard de Pékin infecté par le DHBVL’infection chronique par le HBV est la cause majeure de cirrhose hépatique et de carcinome hépatocellulaire, conduisant à plus d’un million de décès chaque année. Le faible taux de réussite des thérapies actuelles des hépatites B montre la nécessité du recours à des méthodes thérapeutiques alternatives. Ainsi, nous avons étudié une stratégie pertinente reposant sur l’utilisation de molécules antisens (PNAs) couplées à des peptides perméabilisants (CPPs). Nous avons démontré que les PNAs ciblant le signal d’encapsidation du DHBV couplés au CPP pénétraient dans les cellules et conduisait à une inhibition de la réplication virale. De plus, nous avons mis en évidence une activité antivirale du CPP (Arg)8 seul. Nous avons ensuite évaluer le mécanisme d’action antivirale du CPP in vitro et avons démontré qu’il inhibait les stades tardifs de la morphogénèse virale, conduisant à une inhibition forte de la sécrétion des particules virales. Par ailleurs, nous nous sommes intéressés à l’évaluation de stratégies immunothérapeutiques, reposant sur la vaccination génétique. Nous avons démontré les bénéfices de la co-administration de cytokines (IFNγ), avec un vaccin à ADN dirigé contre la grande protéine d’enveloppe du DHBV (preS/S), sur l’amplitude de la réponse humorale et sur le pouvoir neutralisant des anticorps induits. Enfin nous avons évalué les bénéfices d’une approche d’immunisation hétérologue « prime-boost » associant l’immunisation à ADN et un vecteur viral (AdénoCELO) recombinant, codant la protéine preS/S du DHBV et l’IFNγ. Nous avons montré que l’immunisation hétérologue induisait une réponse humorale plus forte que celle induite par l’immunisation homologue
Development and evaluation of new strategies for treating chronic hepatitis B in the model of Peking duck infected with DHBVChronic infection with Hepatitis B virus (HBV) is the major cause of liver cirrhosis and hepatocellular carcinoma, leading to more than one million deaths each year. The low success rate of current therapies against HBV infection shows the need of alternative therapeutics. Thus, we studied a new strategy based on the use of antisense molecules (PNAs) coupled with cell penetrating peptides (CPPs). We have shown that PNAs targeting the DHBV encapsidation signal coupled to CPPs penetrated into the cells and led to an inhibition of viral replication. In addition, we have demonstrated an antiviral activity of the CCP (Arg)8 itself. We then evaluate the mechanism of antiviral action of this CPP in vitro and have shown that it inhibited the late stages of viral morphogenesis, leading to a strong inhibition of the release of viral particles. Furthermore, we were interested in evaluating immunotherapeutic strategies, based on DNA vaccination. We have demonstrated the benefits of co-administration of cytokines (IFNy), with a DNA vaccine directed against the DHBV large envelope protein (preS/S), enhancing the magnitude of humoral response and enhancing neutralizing anti-DHBV antibody response. Finally we evaluated the benefits of a heterologous immunization approach or prime-boost immunization involving DNA vaccination and a recombinant viral vector (AdenoCELO) encoding the DHBV preS/S and IFNy proteins. We have shown that heterologous immunization induced a humoral response stronger than that induced by homologous immunization. By contrast, the heterologous prime-boost strategy was less effective than homologous DNA immunization for therapy of chronic DHBV-carrier ducks
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Salameh, Emmeline. "Développement d'un modèle murin de dénutrition avec entéropathie et évaluation de molécules d'intérêt permettant de contribuer au rétablissement de la fonction de barrière intestinale". Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR064.

Texto completo
Resumen
Contexte : La malnutrition aiguë sévère (MAS) est un problème majeur de santé publique dans lemonde et affecte 17 millions d’enfants âgés de moins de 5 ans. La MAS induit une perte de poidsrapide, souvent associée à une dysfonction entérique environnementale (DEE). La DEE se caractérisepar une augmentation de l’inflammation, de la perméabilité intestinale, une diminution de la taille des villosités et de l’absorption des nutriments. La DEE peut ainsi limiter l’efficacité des protocolesde stabilisation et de re-nutrition chez l’enfant dénutri.L’objectif de cette thèse a été de développer un modèle de dénutrition avec entéropathie pour évaluer des laits thérapeutiques enrichis en nutriments ciblant la fonction de barrière intestinale.Résultats : Lors de la phase de développement du modèle, plusieurs approches ont été testées comme la restriction calorique, le régime hypoprotéiné, l’utilisation de lipopolysaccharides et de l’indométacine. Seule la combinaison d’un gavage quotidien d’indométacine pendant une semaine chez des souris dénutries par un régime pauvre en protéines a permis de développer un retard de croissance associé à une entéropathie. Suite à la validation de ce modèle, nous avons évalué la supplémentation du lait thérapeutique F-75 avec de la glutamine, de la leucine, de la gomme arabique et des levures séléniées. La glutamine et la leucine améliorent la fonction de barrière intestinale. Dans nos conditions expérimentales, l’enrichissement du lait thérapeutique avec la glutamine et la leucine combinés a eu des effets limités sur la fonction de barrière. La gomme arabique et les levures séléniées ont des propriétés prébiotiques et probiotiques et exercent des effets bénéfiques sur la barrière intestinale. L’enrichissement du lait thérapeutique avec l’association de ces deux composés permet d’inhiber l’inflammation intestinale et d’augmenter l’abondance de bactéries bénéfiques comme Faecalibacterium prausnitzii.Conclusion : Les travaux réalisés au cours de cette thèse ont permis de développer un nouveau modèle de dénutrition avec entéropathie. Le lait thérapeutique enrichi en gomme arabique et levures séléniées exerce des effets bénéfiques sur la fonction de barrière intestinale dans notre modèle
Background : Severe acute malnutrition (SAM) is a global health issue affecting 17 million children under the age of 5. SAM induces rapid weight loss and is often associated with environmental enteric dysfunction (EED). EED is characterized by intestinal hyperpermeability and inflammation, villus blunting and nutrient malabsorption. EED might, therefore, limit stabilization and re-nutrition protocol efficacy. Objectives : This thesis aimed to develop an undernutrition model with enteropathy to evaluate the effect of a therapeutic milk enriched with nutrients on gut barrier function. Results : During preclinical model development, several approaches were tested: calorie restriction, low-protein diet, use of lipopolysaccharides and indomethacin. Only daily indomethacin gavage during one week in protein-energy undernourished mice induced growth faltering associated with enteropathy. After preclinical model validation, we evaluated the effect of therapeutic milk supplemented with glutamine, leucine, gum arabic and/or selenium-enriched yeast on gut barrier function. Glutamine and leucine induce beneficial effects on gut barrier function. In ourexperimental conditions, therapeutic milk enriched with a combination of glutamine and leucine had a limited impact on this parameter. Gum arabic and selenium-enriched yeasts have prebiotic and probiotic properties on gut barrier function. Therapeutic milk supplemented with gum arabic and selenium-enriched yeast inhibited intestinal inflammation and enhanced specific bacteria abundance such as Faecalibacterium prausnitzii.Conclusion : The studies conducted during this thesis permitted to develop a new model of undernutrition with enteropathy. Therapeutic milk enriched with arabic gum and selenium-enriched yeast triggered beneficial effects on gut barrier function in our preclinical model
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Grandmougin, Daniel. "Développement d’un modèle expérimental porcin d’autorétroperfusion myocardique à coeur battant : évaluation des réponses hémodynamiques et cardiaques avant et après occlusion de l’artère interventriculaire antérieure : potentialités d’applications cliniques". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0098/document.

Texto completo
Resumen
Partie I : Objectifs. Ce travail propose une étude anatomique du coeur de porc afin d’élaborer des recommandations pour la réalisation d’une chirurgie cardiaque expérimentale. Matériels et méthodes. 16 porcs ont été étudiés. Le réseau coronaire artériel a été étudié chirurgicalement (n=13) et angiographiquement (n=10). Le réseau veineux coronaire a été analysé par dissections anatomiques (n=13) et injections rétrogrades de bleu de méthylène via le sinus coronaire (n=8). Résultats. Le positionnement intrapéricardique spécifique du coeur de porc, limite l’accès à l’aorte ascendante et à l’oreillette droite et nécessite des précautions particulières pour la réalisation d’une sternotomie et d’une canulation de l’aorte ascendante avec cardioplégie antérograde par la racine de l’aorte. Le réseau coronaire artériel est comparable au réseau humain (réseau droit dominant: 70%). Le sinus coronaire reçoit 4 afférences contre 3 chez l’homme. L’étude de la distribution de surface du réseau veineux nécessite la ligature préalable de la veine azygos gauche et confirme une asymétrie de perfusion au détriment du VD. La paroi antérieure du VD étant drainée par des petites veines cardiaques indépendantes du sinus coronaire. Conclusions. La connaissance des spécificités anatomiques cardiaques du porc a permis d’établir des recommandations pour la réalisation du modèle d’autorétroperfusion myocardique et plus largement de procédures chirurgicales cardiaques expérimentales sécurisées. Partie II : Objectifs. La perfusion rétrograde dans le sinus coronaire est utilisée pour la diffusion d’une solution de cardioplégie. Nous avons développé un modèle porcin d’autorétroperfusion myocardique à coeur battant (SMR) utilisant le réseau veineux coronaire pour assurer l’oxygénation du myocarde ventriculaire gauche. Ce modèle nous a permis d’évaluer les réponses hémodynamiques et cardiaques induites par SMR avant et après occlusion de l’artère IVA. Matériels et Méthodes. Une dérivation entre l’aorte ascendante et le sinus coronaire a été mise en place pour assurer une perfusion rétrograde sélective de la grande veine coronaire en sang oxygéné (SMR). Un groupe Contrôle (n=6) a permis de collecter des données physiologiques de référence et un groupe SMR (n=6) a été spécifiquement dédié à l’évaluation du concept d’autorétroperfusion myocardique après occlusion de l’artère IVA pendant au moins 240 minutes. Le débit cardiaque (CO), la pression maximale intra-VG (Pmax in-LV), le volume éjecté (SV), la fraction d’éjection ventriculaire gauche (FEVG), la durée diastolique (DD), la fréquence cardiaque (HR) et la pression artérielle systémique ont été monitorés en continu durant la période d’autorétroperfusion au moyen d’un cathéter de conductance type Millar® avant et après occlusion de l’IVA. La qualité de la perfusion systémique périphérique a été évaluée par l’analyse de la microcirculation sublinguale. En fin de procédure, les coeurs étaient prélevés pour une analyse histologique. Résultats. L’évaluation échographique de la FEVG était biaisée par la sternotomie alors que celle réalisée par le cathéter de conductance ne l’était pas. Le débit cardiaque après sternotomie a chuté en moyenne de 7.51% (P < 0.05). L’autorétroperfusion avec artère IVA perméable a généré des effets inotropes positifs, caractérisés par une augmentation du CO, du SV, de la Pmax in-LV et de la FEVG (P <0.0001). Après occlusion de l’IVA, l’autorétroperfusion a assuré, durant 240 minutes, une oxygénation myocardique et une compensation hémodynamique garantissant la préservation de la perfusion périphérique. L’analyse histologique a confirmé l’absence d’infarctus myocardique. Conclusions. L’autorétroperfusion myocardique a confirmé des propriétés inotropes positives et protectrices contre l’ischémie ouvrant des perspectives d’applications intéressantes
Part I: Objectives. This work reports an anatomic study of swine heart in order to produce technical recommendations and achieve successful experimental cardiac surgical procedures. Methods. 16 swines were studied. Coronary artery vessels were surgically (n=13) and angiographically (n=10) assessed. Coronary venous vessels were studied by anatomic dissections (n=13) and retrograde injection of methylene blue through the coronary sinus (n=8). Results. Specific pericardial positioning of swine heart dramatically differs from human heart resulting in a limited access to ascending aorta and right atrium, requiring surgical precautions to perform a safe sternotomy and canulation of ascending aorta with an antegrade cardioplegia. Arterial coronary pattern is similar to that of humans (right dominant supply: 70%). Pig coronary sinus receives 4 main branches vs 3 in human sinus. Preliminary ligation of the left azygos vein is required to visualize the surface distribution of methylene blue within the venous vessels, thereby confirming an optimized perfusion of the left ventricle whereas the right ventricle remains poorly perfused. This asymmetry of perfusion results from a specific venous drainage of the right ventricle through small cardiac veins disconnected from coronary sinus. Conclusions. Anatomic knowledge of swine heart validated surgical guidelines for designing the model of self-myocardial retroperfusion and safely performing experimental cardiac surgical procedures. Part II: Background. Retrograde perfusion into the coronary sinus is used to deliver cardioplegia. We developed an in-vivo porcine beating-heart model of self-myocardial retroperfusion (SMR) using the venous route to supply myocardial oxygenation and sought to assess hemodynamic and cardiac responses triggered by SMR before and after a prolonged occlusion of the LAD.Methods. A bypass-line between the ascending aorta and the coronary sinus was made to perform a selective retrograde perfusion of the great cardiac vein with oxygenated blood (SMR). A Control group (n=6) was assigned to collect baseline data, and an SMR group (n=6) was dedicated to undergo SMR with occlusion of LAD for 240 minutes. Cardiac output (CO), maximal pressure in the LV (Pmax in-LV), stroke volume (SV), left ventricular ejection fraction (LVEF), diastolic durations, heart rate, and arterial systemic pressure were evaluated with conductance catheters for the following periods: basal (before SMR), SMR with patent LAD, and SMR with occluded LAD. In order to assess peripheral perfusion, patterns of sublingual microcirculation were analyzed. At the end of the procedures, the hearts were harvested for histology. Results. Echographic LVEF evaluation was affected by sternotomy, but conductance catheter evaluation was not. Following pericardiotomy, CO decreased by 7.51% (P < 0.05). SMR with patent LAD showed inotropic properties with improvements in CO, SV, Pmax in-LV and LVEF (P < 0.0001). Following LAD occlusion, SMR supplied myocardial oxygenation with hemodynamic compensation and preserved the peripheral perfusion. Histology confirmed no signs of infarct. Conclusions. SMR showed capacities to produce inotropic effects and protect against ischemia, opening interesting potential applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Thai, Hoai-Thu. "Développement de modèles mécanistiques et évaluation de l'incertitude des paramètres par bootstrap : application aux médicaments anti-angiogéniques". Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00881823.

Texto completo
Resumen
L'angiogenèse, la croissance de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants, joue un rôle crucial dans la croissance des tumeurs malignes et le développement des métastases. Elle est médiée notamment par le facteur de croissance vasculaire endothélial (VEGF), cible thérapeutique de nouveaux médicaments anti-angiogéniques comme l'aflibercept (Zaltrap , développé conjointement par Regeneron et Sanofi). Il s'agit d'une protéine de fusion comportant des domaines des récepteurs VEGFR-1VEGFR-2 et un fragment Fc des IgG1. Il bloque le VEGF A, le VEGF-B ainsi que le facteur de croissance placentaire (PIGF) et donc l'angiogenèse. Du fait de cette liaison, les propriétés pharmacocinétique (PK)/pharmacodynamique (PD) de ce nouveau médicament deviennent plus complexes. Dans cette thèse, nous avons étudié le mécanisme d'action de l'aflibercept en développant des modèles PK/PD de population. Nous avons tout d'abord construit le modèle PK conjoint de l'aflibercept libre etchez les volontaires sains grâce aux données riches. Nous avons ensuite appliqué avec succès ce modèle aux données chez les patients atteints de cancer et étudié également l'influence de facteurs physiopathologiques sur leur PK. Ce modèle a permis de simuler les différents schémas d'administration et de supporter le choix de dose thérapeutique. Afin de mieux évaluer l'efficacité de l'aflibercept, nous avons par la suite construit un modèle PD caractérisant l'inhibition de la croissance tumorale sous l'effet combiné de l'afliberceptdu FOLFIRI (5-fluorouracile, la leucovorine et l'irinotécan) chez les patients atteints du cancer colorectal métastatique. L'incertitude liée à l'estimation des paramètres dans des modèles complexes peut être biaiséeparfois n'est pas obtenue. Nous avons donc étudié par simulation l'incertitude des paramètres obtenue par différentes méthodes de bootstrap permettant de rééchantillonner deux niveaux de variabilité (inter- sujet et résiduelle) dans les modèles non linéaires à effets mixtes (MNLEM). Ainsi, nous avons montré que le bootstrap ne fournit de meilleures estimations de l'incertitude des paramètres que dans les MNLEM avec une forte non linéarité par rapport à l'approche asymptotique. Le bootstrap par paires fonctionne aussi bien que le bootstrap non paramétrique des effets aléatoires et des résidus. Cependant, ils peuvent être confrontés à des problèmes pratiques, par exemple des distributions asymétriques dans les estimations des paramètres et des protocoles déséquilibrés où la stratification pourrait être insuffisante.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Thai, Hoai Thu. "Développement de modèles mécanistiques et évaluation de l'incertitude des paramètres par bootstrap : application aux médicaments anti-angiogéniques". Paris 7, 2013. http://www.theses.fr/2013PA077025.

Texto completo
Resumen
L'angiogenèse, la croissance de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants, est médiée notamment par le facteur de croissance vasculaire endothélial (VEGF), cible thérapeutique de nouveaux médicaments anti-angiogéniques comme l'aflibercept (Zaltrap R). Du fait de la liaison avec le VEGF, les propriétés pharmacocinétique (PK)/pharmacodynamique (PD) de ce nouveau médicament deviennent plus complexes. Dans cette thèse, nous avons étudié le mécanisme d'action de l'aflibercept en développant des modèles PK/PD de population. Nous avons tout d'abord construit un modèle PK conjoint de l'aflibercept libre et lié chez les volontaires sains. Nous avons par la suite appliqué avec succès ce modèle aux données chez les patients atteints de cancer, étudié également l'influence de facteurs physiopathologiques sur leur PK et évalué le choix de dose thérapeutique par simulation. Un modèle PD caractérisant l'effet de l'aflibercept sur la croissance tumorale a été ensuite construit chez les patients atteints du cancer colorectal métastatique. Nous avons également étudié par simulation l'apport de l'approche bootstrap dans les modèles non linéaires à effets mixtes (MNLEM) sur l'estimation des incertitudes des paramètres. Ainsi, nous avons montré que le bootstrap fournit de meilleures estimations de l'incertitude des paramètres dans les MNLEM avec une forte non linéarité par rapport à l'approche asymptotique. Le bootstrap par paires fonctionne aussi bien que le bootstrap des effets aléatoires et des résidus. Cependant, ils peuvent être confrontés à des problèmes pratiques, par exemple des protocoles déséquilibrés où la stratification pourrait être insuffisante
Angiogenesis, the development of new blood vessels from pre-existing vasculator, is particularly mediated by vascular endothelial growth factor (VEGF), a therapeutic target of new anti-angiogenic drugs such as aflibercept (Zaltrap®). Because of the binding to VEGF, the pharmacokinetic (PK)/pharmacodynamic (PD) properties of this new drug become more complex. In this thesis, we have studied the mechanism of action of aflibercept by building population PK/PD models. We firstly developed the joint PK model of free and bound aflibercept in healthy subjects. We then applied this model to data in cancer patients, assessed the influence of physiopathologie factors on their PK and evaluated the choice of therapeutic dose by simulation. A PD model characterizing the effect of aflibercept on tumor growth was then built for patients with metastatic colorectal cancer. We also studied by simulation the contribution of bootstrap approach in nonlinear mixed-effects models (NLMEM) in estimating uncertainty of parameters. We have shown that the bootstraps only provide better estimates of uncertainty in NLMEM with high nonlinearity compared to the asymptotic method. The case bootstrap performs as well as the nonparametric bootstrap of both random effects and residuals. However, they may face practical problems, e. G skewed distributions in parameter estimates and unbalanced designs where stratification may be insufficient
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Yapaudjian-Thibaut, Anne. "Commerce Nord-Sud et inégalités : une évaluation en équilibre général calculable". Pau, 2004. http://www.theses.fr/2004PAUU2002.

Texto completo
Resumen
Au sein des pays industrialisés, dans les années quatre-vingt, la montée des inégalités salariales et du chômage intervient dans un contexte d'intensification de la concurrence internationale et de développement des flux de commerce. Cette thèse a pour objectif d'examiner le lien entre mondialisation et marché du travail. Plus précisément, dans le cadre des relations Nord-Sud, nous focalisons le débat sur le conflit distributif engendré par un choc exogène de politique commerciale. La première partie expose préalablement les principaux enseignements théoriques et empiriques sur l'impact de l'ouverture commerciale dans un cadre de concurrence pure et parfaite. Forts de ces enseignements, nous proposons ensuite, à partir d'un modèle d'équilibre général calculable multisectoriel et multinational, une première évaluation des effets du commerce Nord-Sud sur la répartition des revenus au Nord. Les simulations effectuées indiquent que l'intensification des échanges Nord-Sud n'induit pas nécessairement une perte net pour les travailleurs non qualifiés. Dans la seconde partie, le travail de recherche est consacré à l'analyse des effets du commerce Nord-Sud en présence de distorsions non seulement sur le marché des produits mais aussi sur le marché du travail. Nous montrons que la prise en compte d'imperfections sur le marché des produits ne conduit pas à ré-apprécier fondamentalement l'effet de la libéralisation commerciale sur la rémunération des différents facteurs. Néanmoins, les ajustements en terme d'emplois ou de salaires, induits par la mondialisation des échanges, semblent étroitement corrélés aux modalités de fonctionnement des marchés du travail
In the industrialised countries, in the 1980s, the rise in wage inequality and unemployment takes place in a context of intensified competition and development of trade flows. The objective of thesis is to examine the linkage between globalisation and labour market. Within the framework of North-South relations, we will focus more precisely on the distributive conflict generated by an exogenous trade policy. The first part of the thesis exposes the main theoretical and empirical lessons on the impact of trade openness under perfect competition hypothesis. Then, we develop an applied general equilibrium model with a multi-region and multi-sector specification, to assess the impact of North-South Trade on earnings distribution in industrialised countries. Simulations show that the ongoing North-South globalisation does not generate necessarily a net loss for unskilled labour. In the second part, the research work is devoted to an analysis of the effect of North-South trade with imperfections in both goods and labour markets. We show that imperfections in goods market do not lead to reconsider fundamentally the trade impact. Nevertheless, the employment and wage adjustments, generated by globalisation, are closely linked through labour market paradigms
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ciric, Catalina. "Conception et développement d'un nouveau modèle d'écosystème aquatique adapté pour décrire la dynamique des espèces dans des mésocosmes lotiques". Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10131.

Texto completo
Resumen
Un des défis majeurs que doit relever aujourd'hui l'écotoxicologie est la protection des écosystèmes. La grande majorité des données utilisées dans l'évaluation du risque écologique provient des tests effectués en laboratoire, généralement sur des espèces isolées. Mais ce que l'on cherche à protéger, ce sont les populations et les écosystèmes. C'est pour cela que des méthodes d'extrapolation sont utilisées pour passer de l'échelle individuelle (avec des résultats obtenus in vitro) à celle plus complexe de la communauté. Mais ces méthodes ne tiennent pas compte des interactions qui existent inévitablement entre les espèces qui coexistent au sein des écosystèmes. La modélisation au niveau de l'écosystème apparaît comme un alternatif puissant, car elle permet de prendre en compte ces interactions et aussi de prédire les effets des contaminants sur des populations qui ne sont pas des cibles (effets indirects). L'objectif de cette thèse était le développement d'un modèle d'écosystème aquatique lotique qui permette de simuler le fonctionnement des mésocosmes de l'INERIS (rivières artificielles). Ce modèle a été élaboré à partir de données obtenues dans des mésocosmes témoins et il avait pour but d'arriver à modéliser la dynamique des espèces ou des groupes d'espèces qui peuplent ces rivières artificielles. C'est pourquoi le modèle conceptuel a été basé sur la structure trophique des mésocosmes. Après le développement du modèle conceptuel, les processus et les interactions présentes dans celui-ci ont été modélisés à l'aide d'équations mathématiques. Une analyse de sensibilité a été menée sur les paramètres du modèle pour identifier ceux qui étaient les moins influents sur les sorties. Ces paramètres les moins influents ont ensuite été fixés à des valeurs nominales tandis que les autres paramètres restants ont été calibrés afin que les sorties du modèle correspondent aux données obtenues dans les mésocosmes
Extrapolations from single-species effect data are usually used for assessing the potential effects of a chemical on ecosystems. However such extrapolation fails to account for the interactions that inevitably exist among the species that coexist within the ecosystem. The use of ecosystem models could be an alternative, because it allows considering between species interactions and predicting contaminant effects on populations of nontarget species (indirect effects). The aim of this PhD project was to develop a new compartment ecological model for an aquatic ecosystem. The compartments were defined based upon the trophic structure of flow-through mesocosms. The ecological processes were modeled by thoroughly chosen mathematical functions. A sensitivity analysis was conducted on the parameters of the model, in order to identify the non-influential ones. Once identified, these parameters were set to fixed values whereas the other parameters were calibrated in order to maximize the fit of model outputs with experimental data from the mesocosms
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Gegout, Pascale. "Développement d'un modèle de chondropathie expérimentale chez le rat : l'arthrite induite au zymosan ; évaluation des propriétés anti-inflammatoires et chondroprotectrices d'antagonistes du récepteur au leucotriène B4". Nancy 1, 1995. http://www.theses.fr/1995NAN10464.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Basse, Nicolas. "Développement d'inhibiteurs non covalents du protéasome eucaryote : conception, criblage et évaluation biologique dans le cadre de la physiopathologie musculaire". Paris 7, 2007. http://www.theses.fr/2007PA077229.

Texto completo
Resumen
Le protéasome est un complexe multi-enzymatique jouant un rôle majeur dans le maintien de Phoméostasie des protéines. Il constitue une nouvelle cible thérapeutique d'intérêt dans de nombreuses pathologies notamment les myopathies. Nous avons développé des nouvelles séries d'inhibiteurs du protéasome 20S eucaryote inhibant réversiblement l'enzyme, sans création de lien covalent avec la thréonine 1 des centres actifs en suivant trois stratégies. La stratégie pseudopeptidique n'avait pas été développée sur cette enzyme ; des inhibiteurs pseudopeptidiques et lipopeptidiques ont été obtenus. Dans une deuxième approche, des analogues cycliques et linéaires d'un inhibiteur naturel réversible, le TMC-95A, ont été synthétisés et étudiés, conduisant à des molécules actives au niveau submicromolaire. Certaines d'entre elles ont été trouvées efficaces sur un modèle cellulaire de dystrophie musculaire des ceintures, la LGMD-1C. Un effet cytotoxique a aussi été observé sur des lignées cellulaires cancéreuses. La troisième voie a consisté à étudier des molécules issues du criblage in silico d'une collection de molécules organiques. L'ensemble de ces travaux a ainsi abouti à l'identification de molécules originales, le plus souvent faciles à synthétiser, agissant sélectivement sur le protéasome et pouvant inhiber une, deux ou trois activités de l'enzyme. Elles ouvrent des perspectives pour des applications thérapeutiques
Currently, there are no safe and effective medicines available to treat muscle atrophy. The ATP-dependent ubiquitin proteasome System is implicated in muscle atrophy and limb-girdle muscular atrophy (LGMD-1C) and in Duchenne muscular dystrophy (DMD). Reversible and action-controlled proteasome inhibitors might contribute to anti-atrophy drug discovery by blocking degradation pathways activated during atrophy of skeletal muscles. They may also be used in the treatment of DMD and LGMD-1C. Our aim is the design, synthesis and enzymatic study of novel proteasome inhibitors acting in a reversible manner and without creating a covalent bond between the targeted enzyme and the inhibitor. Rational design of inhibitors notably by using molecular modelling. These inhibitors are either pseudopeptides and modified peptides built to facilitate specific binding to an unique targeted site and to resist to protease hydrolysis, or mimics of the natural inhibitor TMC-95A. Carry out detailed analysis of the effect of the newly synthesized molecules on proteasome activities: inhibition, activation, allosteric effects. Characterisation of regulatory non-catalytic sites (photolabeling, 2D electrophoresis, western blot, masss spectrometry) in order to design novel molecules that target them. In order to identify new hits screening in silico of a virtual library. The new inhibitors are putative candidates to treat LGMD-1C, LGMD-2D, DMD and muscle wasting
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Boisgard, Anne-Sophie. "Élaboration de nano-formulations innovantes pour le traitement topique du psoriasis et évaluation de l'inhibition de la voie JAK/STAT sur un modèle murin de psoriasis induit". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1241.

Texto completo
Resumen
Le psoriasis est une dermatose inflammatoire chronique affectant 2 à 3 % de la population européenne. Les cytokines pro-inflammatoires ont un rôle crucial dans la pathogénèse du psoriasis. Parmi les voies de signalisation cytokinique, l'étude de la voie JAK/STAT a conduit au développement de traitements systémiques efficaces. Cependant, les essais cliniques évaluant les inhibiteurs JAK/STAT impliquent en grande majorité des administrations orales, la voie topique restant marginale. Le développement de formulations innovantes pour application topique contenant des inhibiteurs JAK/STAT semble être une stratégie prometteuse dans le cadre du psoriasis. Les nanoparticules de poly(acide lactique) (NP PLA) développées au laboratoire ont été étudiées pour la délivrance topique de principes actifs. Ce sont des vecteurs efficaces, qui s'accumulent dans les follicules pileux. De plus, l'encapsulation d'actifs dans des NP PLA permet une libération spécifique au niveau du site d'action, et donc une réduction de la toxicité. L'objectif de ce travail est d'élaborer des formulations semi-solides de NP PLA contenant un inhibiteur JAK/STAT pour le traitement topique du psoriasis, tout en caractérisant un modèle in vivo de psoriasis induit par applications d'Imiquimod. Cette caractérisation des lésions psoriasiformes permettra l'évaluation in vivo des nanoformulations topiques contenant des inhibiteurs JAK/STAT. Cinq formulations ont été élaborées puis caractérisées afin de répondre aux attentes galéniques pour une application topique. L'intégrité des NP PLA a été vérifiée, et la pénétration/perméation de molécules modèles à travers de la peau de souris inflammée a été évaluée
Psoriasis is a chronic inflammatory skin disease, affecting 2 to 3 % of European population. Inflammatory cytokines play a crucial role in the pathogenesis of psoriasis. Among cytokines signaling pathways, JAK/STAT pathway has been widely investigated, leading to the development of efficient systemic agents. However, current clinical trials evaluating JAK/Sat inhibitors mainly involve oral administrations, with few investigations on topical route. Developing innovative drug delivery systems for topical application of JAK/STAT inhibitors seems a promising strategy for psoriasis treatment. Poly(lactic acid) nanoparticles (PLA NPs) developed in the laboratory have been widely investigated for topical drug delivery and are efficient carriers for local dermatotherapy, especially through hair follicles. Moreover, drug encapsulation in PLA NPs for topical delivery allows a specific delivery to the site of action, and thus a decreased toxicity.The aim of this work was to elaborate semi-solid formulations of PLA NPs containing JAK/STAT inhibitors for topical treatment of psoriasis, while characterizing an in vivo model of Imiquimod-induced psoriasis in mice. This characterization of psoriasis-like skin lesions in Imiquimod treated mice provided key tools for in vivo evaluation of topical nanoformulations containing JAK/STAT inhibitors. Five formulations have been developed and then characterized in order to meet galenic criteria for topical drug administration. PLA NPs integrity was assessed, and penetration/permeation profiles of model dugs through inflamed mice skin were determined
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Bobe, Steven. "Le modèle de développement économique local des parcs naturels régionaux : l'exemple des parcs naturels régionaux d'Armorique et des marais du Cotentin et du Bessin". Rennes 2, 2004. http://www.theses.fr/2004REN20041.

Texto completo
Resumen
La mutation des campagnes impose de nouveaux paradigmes au développement local que la formule Parc naturel régional valorise. Après en avoir appréhendé les caractéristiques, nous suggérons de le définir comme " district aménital ". Grâce à une enquêtes dans les Parcs naturels régionaux d'Armorique et des Marais du Cotentin et du Bessin, nous avons révélé des dynamiques et des formes originales imputables à un modèle de développement propre aux PNR. Si le nombre d'entreprises engagées dans ce type de développement reste faible, l'impact cognitif est majeur. Nous avons mis en évidence un modèle spatial propre aux PNR, reposant sur la distinction entre un " espace fondamental " et un " espace secondaire ". Plutôt que de conciliation, il est question de cohabitation raisonnée entre activités économiques et protection de la nature. Grâce à ce modèle, nous explicitons les enjeux majeurs qui se jouent dans l'obtention d'une vue sur le paysage, nous proposons le concept d' accès visuel
The transformation of the countryside calls for new models in local development which we enhance by using the expression Parc naturel régional. After exploring the characteristics we will suggest they be defined as " amenital districts ". One surveys were taken out in the PNR of Armorique and Marais du Cotentin et du Bessin. We recorded the dynamics and the shape and aspects which were specific to the PNR's model of development. Although the number of firms involved in this type of development is minimal, their cognitive impact is substantial. Our geographical analysis has also allowed us to identify a spatial model which is specific to PNR, relying on the difference between " fundamental area "," secondary area ". Thus we can speak about reasoned cohabitation rather than conciliation between economic activities and the protection of nature. Thanks to this model, we will explain the major stakes which having a view on the countryside entail, we will suggest the visual access concept
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Labrie, Philippe. "Développement de modèles 3D-QSAR et synthèse de nouveaux inhibiteurs de la glycoprotéine-P de type anthranilamide et leur évaluation in vitro et in vivo". Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24453/24453.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Leboucher, Julien. "Développement et évaluation de méthodes d'estimation des masses segmentaires basées sur des données géométriques et sur les forces externes : comparaison de modèles anthropométriques et géométriques". Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/e2504d99-e61b-4455-8bb3-2c47771ac853.

Texto completo
Resumen
L’utilisation de paramètres inertiels segmentaires proches de la réalité est primordiale à l’obtention de données cinétiques fiables lors de l’analyse du mouvement humain. Le corps humain est modélisé en un nombre variable de solides, considérés indéformables, dans la grande majorité des études du mouvement. Ce travail de recherche a pour but de mettre en œuvre et de tester deux méthodes d’estimation des masses de ces solides appelés segments. Ces deux méthodes sont basées sur le principe d’équilibre statique d’un ensemble de solides rigides. La première a pour objectif la prédiction des masses des membres en se servant des distances parcourues par le centre de masse du membre et le centre de pression, projection horizontale du centre de gravité du sujet, entre deux positions considérées statiques. Le rapport de ces distances étant le même que celui des masses du membre considéré et du corps entier, la connaissance de cette dernière nous permet d’estimer la masse du membre. La seconde méthode a pour but d’estimer simultanément les masses relatives de tous les segments du modèle par résolution de l’équation d’équilibre statique en faisant l’hypothèse que le centre de pression est le barycentre de l’ensemble et d’après l’estimation des positions des centres de masse segmentaires. La démarche expérimentale innovante présentée dans cette thèse consiste en le transfert des centres de masse segmentaires issus d’une méthode anthropométrique géométrique et en leur utilisation en conjonction avec des méthodes usuelles en analyse du mouvement humain afin d’obtenir les masses segmentaires du sujet. La méthode d’estimation des masses des membres donne de bons résultats en comparaison de ceux obtenus grâce aux modèles issus de la littérature en ce qui concerne la prédiction de la position du centre de pression a posteriori. Une partie des causes de l’échec de la seconde sont évaluées à travers l’étude de l’effet de l’incertitude sur la position du centre de pression
Use of body segment parameters close to reality is of the utmost importance in order to obtain reliable kinetics during human motion analysis. Human body is modeled as a various number of solids in the majority of human movement studies. This research aims at developing and testing two methods for the estimation of these solid masses, also known as segment masses. Both methods are based on the static equilibrium principle for several solids. The first method’s goal is to provide with limb masses using total limb centre of mass and centre of pressure, projection on the horizontal plane of the total subject’s body centre of gravity, displacements. Ratio between these displacement being the same as the ratio of limb and total body masses, the knowledge of the latter allows for the calculation of the former. The second method aims at estimation all segment masses simultaneously by resolving series of static equilibrium equations, making the same assumption that centre of pressure is total body centre of mass projection and using segment centre of mass estimations. Interest of the new methods used in this research is due to the use of individual segment centre of mass estimations using a geometrical model together with material routinely utilized in human motion analysis in order to obtain estimates of body segment masses. Limb mass estimations method performs better predicting a posteriori center of mass displacement when compared to other methods. Some of the potential causes of the second method’s failure have been investigated through the study of centre of pressure location uncertainty
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Essid, Hédi. "L'induction statistique dans le modèle DEA avec inputs quasi-fixes : développements théoriques et une application au secteur de l'éducation tunisien". Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50374-2007-Essid.pdf.

Texto completo
Resumen
L'objet de notre thèse est l'analyse de l'efficacité et de la productivité des organisations dans un contexte multivarié. En particulier, notre thèse s'inscrit dans la lignée des travaux qui cherchent à développer les assises statistiques des estimateurs non paramétriques des frontières d'efficacité de type Data Envelopment Analysis (DEA). Ainsi, nous nous intéressons aux propriétés statistiques de cet estimateur, notamment celles de la convergence et du biais. D'autant plus, la distribution d'échantillonnage pour cet estimateur fait aussi l'objet de notre étude ; et ce afin d'utiliser les techniques de l'inférence statistique dans l'analyse de l'efficacité et de la productivité. Dans notre analyse, nous distinguons entre les inputs contrôlables et les inputs quasi-fixes ou non discrétionnaires. Ces derniers entrent désormais, dans le processus de production de l'organisation sans être pourtant sous son contrôle. Pour mener notre étude, nous définissons un modèle statistique permettant la caractérisation du Processus Générateur des Données (PGD) ; et nous utilisons la méthode du noyau pour construire un estimateur convergent de ce processus. En se basant sur cet estimateur, nous utilisons la méthodologie bootstrap pour corriger le biais des estimateurs des scores d'efficacité, construire des intervalles de confiance et développer un problème de test d'hypothèses statistiques concernant la nature des rendements d'échelle des organisations. Nous étudions ensuite la variation de l'efficacité dans un modèle complet de variation de la productivité. Cette étude est menée en utilisant l'indice de productivité de Malmquist. Ce dernier est estimé par la méthode DEA avec inputs quasi-fixes. Pour évaluer la précision statistique des estimateurs, nous définissons un modèle statistique intertemporel permettant la caractérisation du Processus Générateur des Données Intertemporel (PGDI) ; et d'utiliser ainsi la méthodologie bootstrap pour corriger le biais des estimateurs et construire des intervalles de confiance pour l'indice de Malmquist ainsi que pour ses composantes. Enfin, nous appliquons notre analyse au secteur de l'éducation tunisien. Par cela, nous visons en premier lieu, le développement d'une mesure de l'efficacité de l'éducation dont nous pouvons étudier sa significativité statistique. En second lieu, nous voulons vérifier si la variation de la productivité dans le secteur de l'éducation est réelle ou plutôt perverse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Houot, Thierry. "Analyse du lien entre le développement des compétences et la performance organisationnelle à travers le modèle de la Balanced Scorecard : étude de cas en gestion des ressources humaines dans une entreprise industrielle". Université Robert Schuman (Strasbourg) (1971-2008), 2003. http://www.theses.fr/2003STR30017.

Texto completo
Resumen
Dans un environnement de plus en plus concurrentiel et exigeant, l'entreprise se doit de posséder un outil de reconnaissance, de mesure et de représentation de son actif immatériel. Nous avons alors identifié la pertinence du modèle de la Balanced Scorecard, permettant de visualiser les déterminants de la performance selon des axes précis et des indicateurs permettant d'apprécier les mesures. Par une recherche appliquée, nous avons testé ce modèle au travers les représentations de salariés sur leur contribution à la performance de la société et à leur adhésion aux différents outils mis en place par le service des ressources humaines. La méthodologie utilisée a été celle du questionnaire et des entretiens semi-directifs. Notre thèse s'achève par la formulation d'un certain nombre de recommandations en faveur d'une amélioration de la politique de gestion des ressources humaines de l'entreprise Messier Bugatti
In an increasingly competitive and demanding environment, the company must have a tool of recognition, measurement and representation of its immaterial credit. Therefore, we have identified the relevance of the Balanced Scorecard model, allowing to visualize the determinants of performance according to precise axes and indicators allowing to appreciate measurements. In an industrial research, we tested this model through the representations of employees on their contribution to the performance of the company and their adhesion to the various tools installed by the human resources department. The methodology used was that of the questionnaire and the semi-directing interviews. Our dissertation concludes with the formulation of a certain number of recommendations in favour of an improvement of the human resource management policy at Messier-Bugatti
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Boisgard, Anne-Sophie. "Élaboration de nano-formulations innovantes pour le traitement topique du psoriasis et évaluation de l'inhibition de la voie JAK/STAT sur un modèle murin de psoriasis induit". Electronic Thesis or Diss., Lyon, 2016. http://www.theses.fr/2016LYSE1241.

Texto completo
Resumen
Le psoriasis est une dermatose inflammatoire chronique affectant 2 à 3 % de la population européenne. Les cytokines pro-inflammatoires ont un rôle crucial dans la pathogénèse du psoriasis. Parmi les voies de signalisation cytokinique, l'étude de la voie JAK/STAT a conduit au développement de traitements systémiques efficaces. Cependant, les essais cliniques évaluant les inhibiteurs JAK/STAT impliquent en grande majorité des administrations orales, la voie topique restant marginale. Le développement de formulations innovantes pour application topique contenant des inhibiteurs JAK/STAT semble être une stratégie prometteuse dans le cadre du psoriasis. Les nanoparticules de poly(acide lactique) (NP PLA) développées au laboratoire ont été étudiées pour la délivrance topique de principes actifs. Ce sont des vecteurs efficaces, qui s'accumulent dans les follicules pileux. De plus, l'encapsulation d'actifs dans des NP PLA permet une libération spécifique au niveau du site d'action, et donc une réduction de la toxicité. L'objectif de ce travail est d'élaborer des formulations semi-solides de NP PLA contenant un inhibiteur JAK/STAT pour le traitement topique du psoriasis, tout en caractérisant un modèle in vivo de psoriasis induit par applications d'Imiquimod. Cette caractérisation des lésions psoriasiformes permettra l'évaluation in vivo des nanoformulations topiques contenant des inhibiteurs JAK/STAT. Cinq formulations ont été élaborées puis caractérisées afin de répondre aux attentes galéniques pour une application topique. L'intégrité des NP PLA a été vérifiée, et la pénétration/perméation de molécules modèles à travers de la peau de souris inflammée a été évaluée
Psoriasis is a chronic inflammatory skin disease, affecting 2 to 3 % of European population. Inflammatory cytokines play a crucial role in the pathogenesis of psoriasis. Among cytokines signaling pathways, JAK/STAT pathway has been widely investigated, leading to the development of efficient systemic agents. However, current clinical trials evaluating JAK/Sat inhibitors mainly involve oral administrations, with few investigations on topical route. Developing innovative drug delivery systems for topical application of JAK/STAT inhibitors seems a promising strategy for psoriasis treatment. Poly(lactic acid) nanoparticles (PLA NPs) developed in the laboratory have been widely investigated for topical drug delivery and are efficient carriers for local dermatotherapy, especially through hair follicles. Moreover, drug encapsulation in PLA NPs for topical delivery allows a specific delivery to the site of action, and thus a decreased toxicity.The aim of this work was to elaborate semi-solid formulations of PLA NPs containing JAK/STAT inhibitors for topical treatment of psoriasis, while characterizing an in vivo model of Imiquimod-induced psoriasis in mice. This characterization of psoriasis-like skin lesions in Imiquimod treated mice provided key tools for in vivo evaluation of topical nanoformulations containing JAK/STAT inhibitors. Five formulations have been developed and then characterized in order to meet galenic criteria for topical drug administration. PLA NPs integrity was assessed, and penetration/permeation profiles of model dugs through inflamed mice skin were determined
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Wanko, Ngnien Adrien. "Etude des mécanismes de transfert et évaluation des capacités d'oxygénation et de traitement des dispositifs de traitement par cultures fixées sur supports granulaires fins alimentés en discontinu-développement d'un modèle de biodégradation". Université Louis Pasteur (Strasbourg) (1971-2008), 2005. http://www.theses.fr/2005STR13187.

Texto completo
Resumen
L'étude des mécanismes de transfert et évaluation des capacités d'oxygénation et de traitement des dispositifs de traitement par cultures fixées sur matériaux granulaires fins alimentés en discontinu. – Développement d'un modèle de biodégradation" est l'objet du travail mené visant une meilleure compréhension des mécanismes majeurs s'établissant au sein des lits d'infiltration percolation et permettant au moyen de certains choix opérationnels, une pérennisation de la filière. Tout d'abord, dans une première partie, nous exposons l'état d'avancement de la recherche dans ce domaine. Après des généralités sur les filières de traitement des eaux usées, il est fait cas de l'infiltration percolation sur sable; de ses spécificités, des contraintes qu'elle impose et des attentes au niveau de la recherche. La problématique du choix de type de sable qui constitue le matériau de garnissage ou support de la biomasse en relation avec les capacités d'oxygénation du milieu poreux et les risques de colmatage demeure un souci permanent. L'intérêt de la seconde partie essentiellement expérimentale porte sur la caractérisation physique et hydrodynamique des sables roulés et concassés constituant les massifs filtrants en milieux non colonisés. L'hydrodynamique des massifs filtrants a permis une analyse comparative des distributions de temps de séjour du fluide percolateur en milieu vierge et en régime continu puis discontinu. Indépendamment des supports étudiés, les temps de résidence du traceur sont d'autant plus élevés que l'alimentation se fait à fréquences espacées et à volume par bâchée considérable. En revanche, pour chacune des fréquences d'alimentation testées, la récupération du traceur s'est effectuée plus rapidement au sein de la colonne constitué des sables alluvionnaires. Le second volet de l'étude hydrodynamique est effectué en milieu colonisé. L'efficacité du traitement biologique du carbone est supérieure pour un sable d'origine alluvionnaire comparativement à un sable concassé ;la tendance s'inversant significativement lorsqu'il s'agit de l'abattement de l'azote. Cet efficacité est directement corrélée à l'oxygénation du massif filtrant autrement dit au renouvellement de la phase gazeuse du milieu poreux. Exploitant une technologie de fluorescence nous permettant de détecter aussi bien l'oxygène gazeux que dissous, nous parvenons à déterminer les différents ordres de grandeur des phénomènes de convection et de diffusion ainsi que leur importance relative dans la ré-oxygénation d'un massif filtrant. Le développement d'un modèle numérique simulant l'infiltration et le traitement des eaux usées à travers un milieu poreux colonisé constitue l'épilogue de ce travail. Deux approches de résolution sont utilisées : une approche globale qui résout simultanément à l'aide d'un unique schéma les parties transport et chimie de chaque équation et une approche par séparation d'opérateurs qui résout séparément et successivement les parties convection, dispersion et cinétique
Aim of this work is to enhance understanding of the main phenomena occurring during infiltration of wastewater within vertical flow sand filter. We also introduce some operating possibilities which may improve efficiency and keep seepage beds in good working order. In the first part we document state of art in this research topic. Following some general remarks about different wastewater treatment techniques, more precise description of seepage beds is made with particular interest on its constraints and needs of further research. A central issue is the choice of porous media. It should be adapted to allow good oxygen feeding for bacteria growing on it and avoid biological clogging. Second part, mainly experimental, is focused on physical and hydraulic characterization of un-colonized crushed and stream sand. We carried out a residence time distribution (RTD) comparison of these two sands under steady and unsteady flow. Apart from characteristics of porous media and with a constant daily loading rate, decreased frequencies involve longer residence times. On the other hand, output recovery of the mass of injected tracer always occurs faster with stream sand. Continuation of hydrodynamic study is made with colonised porous media. Efficiency of biological removing of carbonaceous pollution is higher within stream sand. Opposite trend is observed with nitrogenous pollution. Removing of both nitrogenous and carbonaceous pollutions is linked to oxygenation. In other words it is linked to renewal of gaseous phase in porous medium. We highlight convection and diffusion of oxygen in porous media by using a fluorescence technology, which allows us to detect both gaseous and dissolved oxygen. We compare participation of convection and diffusion phenomena to renewal of oxygen. Achievement of this work consists on the development of a numerical code which simulates flow and pollution degradation through a colonized porous medium. Two different numerical methods have been used. In the first model, also called global approach, chemical and transport parts of each equation are solved by a single numerical scheme. A second model introduces a splitting operator method which solves separately and successively convective, dispersive and kinetic parts of each equation
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Naudin, Stéphane. "Le développement embryo-larvaire du danio zébré (Brachydanio rerio) : évaluation de ce modèle pour la mesure de la toxicité des effluents et des sédiments : apports de l'analyse d'images pour les mesures biométriques de l'essai embryo-larvaire". Metz, 1996. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1996/Naudin.Stephane.SMZ9609.pdf.

Texto completo
Resumen
La mesure de la toxicité d'effluents et de sédiments peut être réalisée au laboratoire par un grand nombre de bioessais. Les performances de l'essai portant sur le développement embryo-larvaire du danio zébré (brachydanio rerio) ont été évaluées pour de tels échantillons après plusieurs mises au point méthodologiques. Nous avons ainsi déterminé les domaines de tolérance de cet organisme d'essai à différents paramètres physico-chimiques du milieu (pH, oxygène dissous, dureté, ammoniac) de manière à pouvoir évaluer leur contribution à la toxicité constatée au cours des essais. D'autre part, les avantages de l'analyse d'images ont été évalués pour le comptage des larves, la mesure de leur taille et le repérage d'individus malformés. Appliqués à différents effluents industriels et urbains, les concentrations toxiques minimales mises en évidence par l'essai embryo-larvaire sur le danio zébré se sont avérées plus élevées mais du même ordre de grandeur que celles apportées par deux essais chroniques portant sur selenastrum capricornutum et/ou ceriodaphnia dubia. La sensibilité du modèle poisson à l'ammoniac et à une substance tératogène (dibutylphtalate) que peuvent contenir les effluents urbains justifie son intégration dans une batterie de bioessais. De plus, nous avons constaté une faible dispersion des valeurs témoins des critères d'effet relevés au cours des essais embryo-larvaires. Pour évaluer la toxicité d'échantillons de sédiment, cet essai s'est montré, par contre, moins pertinent que le test microtox (photobacterium phosphoreum) appliqué au sédiment entier
Effluent and sediment toxicity can be measured by a great number of bioassays in laboratory conditions. The reliability of the embryo-larval stage test using zebra danio (brachydanio rerio) was evaluated for effluent and sediment samples using several methodological improvements. We determined the tolerance range of this organism to different physico-chemical parameters (pH, dissolved oxygen, hardness, un-ionized ammonia) in order to evaluate their contribution to the toxicity noticed during the tests. The advantages of using an image analysis technique in order to count and measure larvae and detect gross morphological deformities were also assessed. After testing different industrial and municipal wastewaters, the minimum toxic concentrations detected by the embryo-larval test on zebra danio were greater but in the same order of magnitude as the ones obtained by two chronic bioassays on Selenastrum capricornutum and/or ceriodaphnia dubia. The sensitivity of the "fish" model to un-ionized ammonia and a teratogenic compound (dibutylphthalate) often found in municipal wastewaters justifies its integration into a battery of bioassays. Furthermore, we found the control values of the toxic end-points to be homogeneous among the embryo-larval stage tests. On the other hand, this test showed a lower relevance to measure sediment toxicity in comparison to the Microtox test (photobacterium phosphoreum) applied on whole sediment
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Lebourgeois, Samuel. "Etude du cycle infectieux du virus de l’hépatite A (VHA) et développement d'un modèle in vitro pour mettre en évidence son infectiosité". Thesis, Paris, Institut agronomique, vétérinaire et forestier de France, 2018. http://www.theses.fr/2018IAVF0027.

Texto completo
Resumen
Le virus de l’hépatite A (VHA) est un virus entérique à transmission féco-orale qui est responsable d’hépatites aigües. Le VHA est à ce jour le 2ème agent étiologique viral pouvant être impliqué dans les toxi-infections alimentaires collectives (TIAC). Pour apprécier le risque en virologie alimentaire, la détection d’ARN reste insuffisante pour la mise en évidence de virions infectieux. Actuellement, les souches sauvages du VHA sont difficilement cultivables : elles se répliquent très lentement en culture (libération de nouveaux virions synthétisés dans les cellules Frhk-4 à partir de 30-45 jours) sans induire d’effet cytopathogène (ECP). A l’inverse, certaines souches du VHA adaptées en culture sont capables d’induire un ECP résultant de la mort par apoptose des cellules infectées. Mes travaux de thèse visaient donc à développer une nouvelle méthode de détection par impédancemétrie des particules virales infectieuses du VHA dans le cadre du diagnostic viral dans les aliments.Dans cette étude, à l’aide de la technologie xCELLigence, l’évaluation du système d’analyse cellulaire en temps réel (« Reel Time Cell Analysis » (RTCA)) a été entreprise pour détecter l’ECP de la souche adaptée du VHA (HM175/18f) sur les cellules FRhK-4. Les résultats ont montré que les cinétiques d'impédance cellulaire, au cours de l’infection par le VHA, induisait une diminution de l'indice cellulaire (CI) en corrélation avec l'apparition de la mort cellulaire induite par le VHA. De plus, le temps nécessaire à la chute des valeurs de CI induite par le VHA dépendait de la concentration virale. Une relation linéaire sur 5 log10 a pu être établie entre la concentration du VHA et le temps nécessaire pour atteindre 50% de la diminution des valeurs de CI (TdCI50) montrant ainsi que le suivi par RTCA pouvait être utilisé comme méthode de titrage infectieux du VHA. En outre, le suivi par RTCA peut être effectué en moins de six jours au lieu de 12 à 14 jours avec les méthodes standards de titrages en plages de lyses. Par conséquent, la méthode de titrage basée sur le suivi par RTCA est un outil puissant pour l’évaluation des traitements d’inactivation virale et antiviraux.Par ailleurs, dans le but d’être en mesure de reproduire un ECP chez les souches sauvages du VHA, les voies de signalisation pro-apoptotiques caspase-dépendantes impliquées dans la mort cellulaire par apoptose des cellules infectées par la souche adaptée ont été étudiées. A partir de résultats antérieurs montrant l’activation de la caspase 3 au cours de l’infection des cellules FRhK-4 par la souche HM175/18f du VHA, les voies extrinsèques et mitochondriales pro-apoptotiques ont été identifiées. L’expression de la caspase 8, marqueur de la voie extrinsèque, en corrélation avec l’expression de la caspase 3 active ainsi que de la protéine tBid a été observée. De plus, l’expression de la protéine tBid induisait la libération du cytochrome c suggérant une activation de la voie mitochondriale dépendante de la voie extrinsèque. Par conséquent, une comparaison des voies de survie et de mort cellulaire au cours de l’infection par les souches sauvages et adaptée du VHA pourra être réalisée dans de prochains travaux. Ainsi, les résultats offrent de nouvelles perspectives dans la compréhension sur la stratégie virale pour induire un ECP dans les cellules hôtes.En conclusion, au-delà d'une meilleure compréhension de la physiopathologie du VHA, cette étude contribue au développement de modèles cellulaires pour détecter les particules infectieuses des souches sauvages du VHA. De plus, le suivi par RTCA dans les études d'inactivation du VHA améliorera l'évaluation du risque viral en virologie alimentaire, en contrôlant la transmission des virus, par leur élimination des denrées alimentaires. Ceci constitue également un enjeu en santé publique important pour réduire le fardeau des maladies virales d'origine alimentaire
Hepatitis A virus (HAV) is a fecal-oral enteric virus that causes acute hepatitis. After entering the body orally, HAV interacts with the intestinal epithelium that it must cross to reach the liver via the bloodstream. HAV is to date the second viral etiological agent that can be involved in collective foodborne illness (TIAC). To assess the risk in food virology, the detection of RNA remains insufficient for the detection of infectious virions. Today, cultivating wild strains of HAV is difficult: they replicate very slowly in culture (release of new virions synthesized in Frhk-4 cells from 30-45 days) without inducing cytopathic effect (CPE). In contrast, some culturally adapted HAV strains are capable of inducing CPE resulting from apoptotic death of infected cells. My thesis work aimed to develop a new method of impedance detection of infectious viral particles of HAV in the context of viral diagnosis in food.In this study, using xCELLigence technology, the evaluation of the Real Time Cell Analysis (RTCA) system was undertaken to detect the ECP of the HAV adapted strain. (HM175 / 18f) on FRhK-4 cells. The results showed that cell impedance kinetics, during HAV infection, induced a decrease in cell index (CI) correlated with the occurrence of HAV-induced cell death. In addition, the time required for the fall in HAV-induced IC values was depending on the viral concentration. A linear relationship of 5 log10 could be established between the HAV concentration and the time required to reach 50% of the decrease in IC values (TdCI50), showing that RTCA monitoring could be used as an infectious HAV test method. In addition, RTCA monitoring can be performed in less than six days instead of 12 to 14 days with standard lysis range assays. Therefore, the titration method based on RTCA monitoring is a powerful tool for the evaluation of viral inactivation and antiviral treatments.Moreover, in order to be able to reproduce ECP in wild HAV strains, the pro-apoptotic caspase-dependent signalling pathways involved in apoptotic cell death of cells infected with the adapted strain were studied. From previous results showing the activation of caspase 3 during the infection of FRhK-4 cells by the HM175 / 18f strain of HAV, the extrinsic and mitochondrial pro-apoptotic pathways were identified. The expression of caspase 8, a marker of the extrinsic pathway, correlated with the expression of active caspase 3 as well as tBid protein was observed. In addition, the expression of the tBid protein induced the release of cytochrome c suggesting activation of the extrinsic pathway-dependent mitochondrial pathway. Therefore, a comparison of survival and cell death pathways during infection with wild-type strains and adapted to HAV can be performed in future work. Thus, the results offer new insights into the understanding of viral strategy for inducing ECP in host cells.In conclusion, beyond a better understanding of the pathophysiology of HAV, this study contributes to the development of cellular models to detect infectious particles of wild strains of HAV. In addition, RTCA monitoring in HAV inactivation studies will improve the assessment of viral risk in food virology by controlling the transmission of viruses through their elimination from food. This is also an important public health challenge to help reduce the burden of food-borne viral diseases
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Maréchal, Xavier. "Développement d'inhibiteurs du protéasome à visée pharmacologique : élaboration rationnelle, criblages de collections de molécules et évaluation biologique sur des modèles cellulaires". Paris 6, 2011. http://www.theses.fr/2011PA066351.

Texto completo
Resumen
Les protéasomes eucaryotes sont les enzymes multicatalytiques responsables majoritairement de l’homéostasie cellulaire des protéines. Le développement d’inhibiteurs spécifiques du protéasome est devenu un enjeu thérapeutique majeur dans plusieurs pathologies (cancers et myopathies). Le travail de thèse a porté sur l’identification, la conception, l’optimisation et les évaluations enzymatiques et cellulaires d’inhibiteurs non covalents originaux du protéasome. Deux grandes stratégies ont été suivies pour développer des séries d’inhibiteurs : (1) conception rationnelle, d’une part, de dérivés linéaires mono- et bivalents du TMC-95A, un inhibiteur cyclique naturel, d’autre part, de pseudopeptides fluorés ; (2) criblage in silico puis in vitro d’une collection de molécules organiques qui a abouti à la découverte de nouveaux inhibiteurs entièrement non peptidiques comme les 1,2,4-oxadiazoles, optimisés ensuite par synthèse chimique. L’inhibition des trois activités du protéasome a été détectée et quantifiée, puis le mécanisme d’inhibition déterminé par des analyses cinétiques. L’inhibition intracellulaire du protéasome a été démontrée ainsi que la sélectivité d’action sur le protéasome. Cinq analogues linéaires du TMC-95A ont été co-cristallisés avec l’enzyme eucaryote. Plusieurs inhibiteurs ont montré un effet favorable dans un modèle cellulaire de la myopathie des ceintures LGMD-2D alors que d’autres ont eu un effet antiprolifératif et antimigratoire sur les cellules cancéreuses humaines. Cette thèse a donc permis d’identifier des inhibiteurs non covalents originaux du protéasome, efficaces au niveau nanomolaire et présentant un potentiel pour un développement thérapeutique
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Martini, Luigi. "Développement et évaluation de l'hypothèse de stabilité modale pour la variabilité du comportement vibratoire des structures minces modélisées par éléments finis". Compiègne, 2008. http://www.theses.fr/2008COMP1736.

Texto completo
Resumen
La prise en compte de la variabilité ou des incertitudes en mécanique des structures est un véritable défi et mène à des activités de recherche importantes notamment en dynamique. Dans ce contexte, le présent travail porte sur la mise en oeuvre d'une méthodologie pour l'analyse numérique de la variabilité d'une structure modélisée par éléments finis. Le calcul de quantités statistiques : moyenne, écart-type et fonctions de densité de probabilité, est appli¬qué aux paramètres de sortie du modèle en fonction des variables aléatoires d'entrée. Les pa¬ramètres d'entrée considérés sont : les modules d'élasticité, les épaisseurs, les sections, les coordonnées nodales, les masses volumiques. Les paramètres de sortie retenus pour l'étude sont les fréquences propres et la fonction de réponse en fréquence. L'hypothèse de base est que les modes propres ne dépendent pas des perturbations des paramètres d'entrée. Pour cette raison la méthode est appelée : Modal Stabili Procedure (MSP). Elle nécessite une seule analyse éléments finis complète, associée à une procédure de post-traitement. Cette méthode permet de réduire les coûts de calcul élevés que génèrent les méthodes exis¬tantes. De plus elle présente les avantages de ne pas limiter le nombre ou le niveau de variabi¬lité des paramètres considérés et de faciliter l'utilisation avec les logiciels éléments finis stan¬dard. Pour des exemples académiques et une application industrielle : un pare-brise automobile, la méthode MSP a été confrontée à la Simulation Monte Carlo, considérée comme référence. Des résultats très satisfaisants ont généralement été obtenus pour la moyenne, l'écart-type et les densités de probabilité des quantités d'intérêt, tant pour l'analyse modale que pour la ré¬ponse en fréquence. Les limitations de l'hypothèse de stabilité modale ont également été mises en évidence. La qualité des résultats obtenus et les performances très intéressantes en temps de calcul font de la méthode MSP une approche bien adaptée aux applications industrielles
Taking into account variability or uncertainties in structural mechanics is a real challenge and leads to intensive research activities in particular in dynamics. In this context, this work deals with the development of a methodology for the variability analysis of a structure mod¬elled by finite elements. The calculation of statistical quantities: mean value, standard devia¬tion and probability density functions, is applied to the output parameters of the model ac¬cording to the input variable parameters. The input parameters considered are: Young moduli, thicknesses, sections, nodal coordinates, densities. The output parameters retained for the study are natural frequencies and frequency response functions. The basic assumption is that the mode shapes do not depend on input parameters perturbations. For this reason the method is called: Modal Stability Procedure (MSP). It requires only one complete finite element anal¬ysis and a post-processing procedure. The method allows the reduction of the high computational costs that characterize most of the existing methods. Moreover this method has the following advantages: no limitation on the number or the level of variability of the parameters considered and easy interfacing with standard finite elements software. For academic exemples and an industrial application: a car windshield, MSP has been compared with the Monte Carlo Simulation considered as reference. Very satisfactory results have generally been obtained for the mean value, standard deviation and probability densities of quantifies of interest, for modal analysis as well as for frequency response. The limitations of the modal stability assumption have also been highlighted. Thanks to the quality of results obtained and the performances in terms of computational cost, MSP is well adapted to industrial applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Blanc, Fany. "Développement d'un modèle cellulaire de déclanchement de la réaction allergique : applications à l'étude des allergènes du lait et de l'arachide et évaluation de l'effet de traitements thermiques sur l'allergénicité de Ara h 1". Paris, AgroParisTech, 2008. http://pastel.paristech.org/4944/01/Thèse_Fany_Blanc.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Denami, Maria Antonietta. "Un Serious Game pour le développement des compétences professionnelles des opérateurs en zone aseptique : définition d'un modèle holistique de conception et études d'usage". Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAG025/document.

Texto completo
Resumen
Les Serious Games (SGs) sont des dispositifs de formation de plus en plus utilisés dans les différents secteurs de l’éducation initiale et continue. Dans le cadre de cette thèse, notre objectif est de concevoir, d’abord, et développer, ensuite, un SG pour la formation et l’évaluation des personnels travaillant en environnement aseptique. Nous présenterons dans ce travail de recherche les approches théoriques qui sont à l’origine de la démarche de conception. Nous en viendrons à la définition d’un modèle unitaire et holistique (PEGADE) qui décrit le processus collaboratif et optimal de conception des SGs et qui s’articule autour d’une nouvelle figure professionnelle, le Pedagogical Game Designer (PGD). Une étude de l’efficacité sera réalisée pour comprendre dans quelle mesure un développement des compétences via le SG est possible et quelle est sa plus-value par rapport aux méthodes traditionnelles de formation pour les mêmes matières. Nous proposerons également une évolution de la théorie du conflit instrumental sur laquelle cette thèse s’appuie qui sera à l’origine d’une nouvelle méthode d’analyse de l’utilisabilité des dispositifs d’apprentissage utilisant les technologies informatiques
Serious games (SGs) are a very widespread training and evaluation device, employed in different sectors of school and adult education. In this study we aim to design and develop a SG for training and evaluating personals working in aseptic environment. We will present in this research the theoretical basis needed for that design process. We will define a holistic and united model (PEGADE), which describes the collaborative and optimal process to conceive SGs and which is constructed around a new professional figure, the Pedagogical Game Designer (PGD). A study of the effectiveness will be performed in order to understand how competences can be developed through the SG and which are the differences between this device if compared with traditional training used for similar purposes. We will propose as well an evolution of the instrumental conflict theory, which is one of the foundations of this thesis. That one will constitute the basic for a new method of usability test applied to every learning tool using ICTs
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Martaud, Thomas. "Evaluation environnementale de la production de granulats en exploitation de carrières - Indicateurs, Modèles et Outils". Phd thesis, Université d'Orléans, 2008. http://tel.archives-ouvertes.fr/tel-00412080.

Texto completo
Resumen
Les granulats, seconde matière première consommée en France, sont élaborés à partir de roche, ressource non renouvelable. La prise de conscience de l'importance de la protection de l'environnement et des impacts associés à l'élaboration de produits manufacturés, favorise le développement de méthodes destinées à mieux approcher les impacts de leur production. Dans ce contexte, ce travail concerne l'évaluation environnementale d'exploitations industrielles en carrière. Il s'appuie sur une collecte de données de sites utiles à cette évaluation suivie de la réalisation d'un modèle d'évaluation globale des consommations d'énergie, rejets atmosphériques et émissions sonores générées lors de l'élaboration de granulats. Ce modèle, basé sur des indicateurs, est conçu pour être paramètrable selon la nature pétrographique du site (roche meuble ou massive). La mise au point d'un outils d'évaluation, nommé CADUR (CArrière DURable) permet i) d'obtenir des données environnementales relative à la production de granulats naturels ; ii) de mettre en évidence que le paramètre prépondérant de l'évaluation en carrière est la configuration elle-même de l'exploitation considérée ; iii) de suivre, pour l'exploitant, l'évolution de ces performances, d'en comprendre les raisons et de quantifier l'effet d'éventuelles modifications. Vis-àvis des données de sites collectées, les résultats fournis pour CADUR offrenet une relative bonne précision. Ils montrent des écarts, avec les données réelles, inférieurs à 10% pour les consommations énergétiques et à 5% concernant les niveaux sonores.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Ciptomulyono, Udisubakti. "Un modèle d'aide à la sélection des projets : l'intégration de la procédure analyse hiérarchique (AHP) et la programmation mathématique à objectif multiple (application aux projets de développement de centrales électriques en Indonésie)". Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30019.

Texto completo
Resumen
La selection du projet presente un probleme de decision multicriteres et multiobjectives constituant les dimensions qualitatives et quantitatives. Afin de optimiser tels problemes nous proposons un modele d'aide a la decision integre. Les objectif du modele developpe tenant compte d'evaluation non seulement les criteres traditionnels des financiers mais aussi celles-ci lies aux politiques de type de projet electrique i. E. A la reservation des ressources matiere energetiques a long terme, a la reduction d'emission de gaz a effet de serre/pollution de l'air et aux impacts environnementaux, au developpement regional, a l'augmentation de creation d'emploi etc. Ces objectifs par lesquels sont evalues pas criteres integres de technico-socio-ecologique-finance-economique-strategiques incluent les facteurs tangibles et intangibles. L'approche se deroule en trois phases principales. A la phase d'analyse, a partir d'une source de l'information formelle/informelle donnee, on decompose le probleme des selection en un elements des decisions envisagees. A la phase evaluation multicritere, nous nous sommes servis de la de la procedure d'analyse hierarchique (ahp) pour obtenir les poids d'importance des elements des decisions qualitatives retenues d'apres des les experts competences. A la phase d'optimisation, un modele de la programmation mathematique a but multiple du goal programming 0 1 a ete construit pour que nous permet d'optimiser de processus decisionnel en respectant des contraintes etablies et en attendant des objectifs desires. D'une application du modele au cas reel de la selection des projets electrique du systeme de java bali, nous avons pu fourni une decision informationnelle importante qui a permis de conduire au decideur a prendre sa decision. Ainsi, depuis le budget disponible de plus en plus est limite et l'acceleration de demande en electricite tend a baisser pour l'avenir, le modele peut nous permettre tant d'examiner la planification des projets sous un systeme de priorite considerant la limitation des ressources et les autres contraintes que d'analyser le valeur de trade off entre les objectifs realisees.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Kuhfuss, Laure. "Contrats agro-environnementaux : évaluation et dispositifs innovants en France". Thesis, Montpellier 1, 2013. http://www.theses.fr/2013MON10026/document.

Texto completo
Resumen
Les Mesures agro-environnementales territorialisées (MAEt) ont été introduites en France pour la programmation 2007-2013 de la Politique Agricole Commune (PAC). La perspective de la réforme de la PAC offre l'opportunité de proposer des pistes d'amélioration de ces mesures. Cette thèse évalue dans une première partie ce dispositif MAEt avec une attention particulière portée aux enjeux de lutte contre les pollutions de l'eau d'origine agricole. Nous étudions dans le premier chapitre la décentralisation croissante du dispositif agro-environnemental, le ciblage et l'adaptation aux territoires à enjeux prioritaires. Cette analyse est illustrée par les résultats d'une enquête menée à l'échelle nationale auprès des agriculteurs éligibles et des agents responsables de la mise en œuvre des MAEt, avec deux focus sur l'Eure et Loir et le Languedoc-Roussillon. Ces analyses complémentaires nous permettent d'apporter des éléments d'explication au trop faible taux d'adoption des mesures de réduction d'intrants. Dans le deuxième chapitre nous estimons avec des méthodes économétriques d'évaluation des effets de traitement si ces mesures, basées sur une auto-sélection des participants, permettent effectivement de réduire l'utilisation d'herbicides par les viticulteurs engagés dans la région Languedoc-Roussillon. La seconde partie de la thèse propose deux dispositifs innovants qui pourraient améliorer l'acceptabilité des MAE par les agriculteurs. Nous étudions dans le chapitre 3 l'effet de l'introduction d'une dimension collective dans les contrats, par la méthode de modélisation des choix appliquée au cas des viticulteurs du Languedoc Roussillon. Cette dimension collective se concrétise par un ‘bonus' monétaire versé à chaque viticulteur engagé à condition qu'un objectif de surfaces engagées soit atteint collectivement. Pour finir, nous analysons dans le chapitre 4 la possibilité d'utiliser des appels à projets pour allouer les contrats agro-environnementaux, sur la base de l'expérience pilote menée par l'Agence de l'Eau Artois-Picardie. Ce mécanisme laisse aux agriculteurs la liberté d'adapter le cahier des charges et les montants des mesures en fonction de leur propre consentement à recevoir
Territorialized agri-environmental measures (MAEt) were introduced in France for the 2007-2013 Common Agricultural Policy program. The forthcoming CAP reform is an opportunity to improve the design of existing agri-environmental schemes. The first part of this thesis assesses this scheme (MAEt), with special attention paid to water pollution issues. In the first chapter we analyse theadvantages and limits of the partial decentralization of decision-making in the setting-up of agrienvironmentalprojects and of improved targeting through the identification of eligible priority areas.This analysis is illustrated by the results of a national survey conducted with eligible farmers andagents in charge of the implementation of the scheme and by two case studies conducted in Eure etLoir and Languedoc-Roussillon. These surveys help us to identify the reasons for the too low adoptionrates of pesticides reduction measures by farmers. In the second chapter, we estimate the impact ofherbicide reduction measures adopted by winegrowers in the Languedoc-Roussillon region using atreatment effects approach. The second part of the thesis proposes two innovative designs aiming atincreasing the acceptability of agri-environmental measures by farmers. In chapter 3 we study theintroduction of a collective dimension in the contracts. This collective dimension relies on a monetary‘bonus’ paid to each farmer who has signed a contract, provided that the proportion of landcollectively enrolled in the agri-environmental scheme reaches a predefined threshold. We finallyanalyse in chapter 4 the possible use of reverse auctions for the allocation of agri-environmentalcontracts, on the basis of the pilot experiment implemented by the Water Agency in Artois-Picardie.This mechanism enables farmers to adapt the practices they commit to and the payment that they receive to their own willingness to accept
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Deom, Tardif Alèxe. "Évaluation d'une formation de développement professionnel continu portant sur l'intégration des notions de sexe et de genre : une approche de méthodes mixtes". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69486.

Texto completo
Resumen
Il persiste des inégalités en matière de santé entre les hommes et les femmes au Canada. La présente étude a évalué l'impact d'une formation de développement professionnel continu (DPC) qui intègre des notions de sexe et de genre sur l'intention des professionnel.le.s d'adapter des stratégies pharmacologiques et non pharmacologiques en cas de diabète et de dépression en prenant en compte les différences entre les hommes et les femmes. Elle a aussi exploré les barrières et facilitateurs pouvant influer sur l'intégration des notions de sexe et de genre dans la pratique clinique. À l'aide d'un devis de recherche de méthodes mixtes convergentes intégrées, comprenant un essai contrôlé non randomisé et une analyse qualitative descriptive, nous avons mené l'étude dans six sites : Québec (n=4), Ontario (n=1) et Nouveau-Brunswick (n=1). Nous avons recruté 127 professionnel.le.s inscrit.e.s à une de deux formations de DPC portant sur les stratégies pharmacologiques et non pharmacologiques en cas de diabète et de dépression. Celles-ci étaient offertes simultanément mais se distinguaient : l'une intégrait les notions de sexe et de genre (groupe intervention) et l'autre pas (groupe contrôle). À la fin de la formation de DPC, nous avons mesuré l'intention d'adapter des stratégies pharmacologiques et non pharmacologiques en cas de diabète et de dépression en prenant en compte les différences entre les hommes et les femmes à l'aide du questionnaire DPC-Réaction. Aussi, à l'aide de discussions de groupe semi-dirigées, nous avons exploré les barrières et facilitateurs pouvant influer sur l'intégration des notions de sexe et de genre dans la pratique clinique. Celles-ci furent enregistrées et transcrites verbatim. Nous avons effectué une analyse de covariance afin de comparer les scores moyens d'intention des groupes d'intervention et contrôle à l'aide du test non-paramétrique Wilcoxon. Informé par le cadre des domaines théoriques, nous avons réalisé une analyse thématique des verbatims. S'inspirant du modèle de comportement COM-B, nous avons triangulé les résultats quantitatifs et qualitatifs afin de produire des recommandations. Après la formation de DPC, le score moyen d'intention pour le groupe intervention (n = 49 participant.e.s) et le groupe contrôle (n = 78 participant.e.s) était de 5,65 ± 0,19 et 5,19 ± 0,15, respectivement. La différence moyenne était de -0,47 (IC de -0,95 à 0,01; p = 0,06). Après un ajustement en fonction de l'âge, du sexe et des milieux de pratique, la différence moyenne était de -0,57 (IC -1,09 à 0,05; p = 0,03). En utilisant le cadre des domaines théoriques, nous avons identifié 10 barrières reliées à 8 domaines, et 7 facilitateurs reliés à 6 domaines influant sur l'intégration des notions de sexe et de genre dans la pratique clinique. Les recommandations comprenaient l'ajout de discussions de groupe et de vignettes de cas clinique qui renseignent sur les conséquences d'omettre la prise en compte du sexe et du genre dans la pratique clinique. Ces résultats informeront les futures initiatives de DPC afin de contribuer à la réduction des inégalités liées au sexe et au genre dans les soins de santé au Canada.
Health inequalities between men and women persist in Canada. This study assessed the impact of a continuing professional development (CPD) training program that incorporates notions of sex and gender on the intention of healthcare professionals' intention to adapt pharmacological and non-pharmacological strategies in cases of diabetes and depression, considering the differences between men and women. We also explored barriers and facilitators to healthcare professionals' integration of sex and gender considerations into their clinical practice. Using an integrated convergent mixed-methods research design, including a non-randomized controlled trial, we conducted the study at six sites in Quebec (n = 4), Ontario (n = 1) and New Brunswick (n = 1). We recruited 127 healthcare professionals who were enrolled in one of the two CPD training courses on pharmacological and non-pharmacological strategies for managing diabetes and depression. The two courses were offered simultaneously but differed in content: one integrated cosiderations of sex and gender (intervention group) and the other did not (control group). At the end of the CPD training, we used the CPD-Reactionquestionnaire to measure healthcare professionals' intention to adapt pharmacological and non-pharmacological strategies in cases of diabetes and depression, considering the differences between men and women. Then, in semi-structured group discussions, we explored barriers and facilitators to participants' integration of sex and gender considerations into their clinical practice. Discussions were recorded and transcribed verbatim. We performed an analysis of covariance to compare the mean intention scores of the intervention and control groups using the Wilcoxon non-parametric test. Informed by the Theoretical Domains Framework, we carried out a thematic analysis of the verbatim. Inspired by the COM-B model of behavior, we triangulated the quantitative and qualitative results to produce recommendations. After training, mean intention scores for the intervention (n=49 participants) and control group (n=78 participants) were 5.65 ± 0.19 and 5.19 ± 0.15, respectively. Meandifference was -0.47 (CI -0.95 to 0.01; p=0.06). Adjusted for age, sex, and practice settings, mean difference was -0.57 (CI -1.09 to 0.05; p=0.03). Using the Theoretical Domains Framework, we identified ten barriers to integration of sex and gender considerations into clinical practice related to eight domains, and seven facilitators related to six domains. Recommendations included the addition of group discussions and clinical case vignettes showing the consequences of omitting sex and gender considerations in clinical practice. Our findings will inform future CPD initiatives to help reduce sex and gender inequalities in health care in Canada
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Beaussier, Thomas. "Évaluation économique et environnementale du développement régional d’une filière en interaction multi-secteur et multi-échelle : le cas de la filière forêt-bois du Grand Est". Thesis, Université de Lorraine, 2020. http://www.theses.fr/2020LORR0138.

Texto completo
Resumen
L’objectif de cette thèse est d’élaborer une méthode d’évaluation quantitative de la performance économique et environnementale de stratégies de développement régional, appliquée au secteur forestier dans le Grand Est. La démarche s’appuie sur le couplage d’outils de modélisation provenant des sciences économiques et des sciences de l’environnement. Dans le chapitre 1, nous analysons les couplages existants entre 5 modèle économique et 3 outils d’évaluation environnementale. Une grille de critère dédiée permet de comparer leur pertinence pour fournir des évaluations intégratives à l’échelle méso. Les couplages entre modèles d’équilibre d’une part, et Analyse du Cycle de Vie (ACV) d’autre part, répondent le mieux aux objectifs définis. Le chapitre 2 détaille le cadre méthodologique du couplage entre un modèle d’équilibre partiel du secteur forestier français et l’ACV. L’homogénéisation des flux de matières entre les deux modèles permet de produire des indicateurs économiques et environnementaux au périmètre cohérent, dont le ratio fournit deux indicateurs d’éco-efficience. Le premier combine le surplus économique de la filière forêt bois avec ses impacts environnementaux potentiels (Partial Eco-Efficiency, PEE), le second y ajoute les impacts environnementaux évités par la substitution entre le bois-énergie et des énergies fossiles, par rapport à un scénario de référence (Full Eco-Efficiency, FEE). Dans le chapitre 3, nous utilisons ce cadre pour analyser différentes stratégies de développement de la bioéconomie orientées vers le bois-énergie, à l’échelle nationale et au niveau régional dans le Grand Est. Nous comparons la FEE de scénarios construits par combinaisons de différentes politiques : subvention de la demande de bois-énergie, approvisionnement local, protection des forêts, crise énergétique. Les stratégies intégrant une stimulation de la demande de bois-énergie sont les plus éco-efficientes, au niveau régional et national. Cela repose notamment sur les impacts évités via la substitution du bois-énergie aux combustibles fossiles. La combinaison de la subvention avec des mesures de protection et/ou d’approvisionnement local augmente ou diminue légèrement son éco-efficience selon l’échelle de mise en œuvre. D’autres facteurs déterminant de l’éco-efficience d’une politique sont identifiés, comme les caractéristiques de la ressource forestière, l’importance de la filière bois locale, et les caractéristiques des régions voisines
The objective of this thesis is to develop a method for quantitative assessments of the economic and environmental performance of regional development strategies, applied to the forestry sector in the region Grand Est. To this end, we adopt an approach based on the coupling of modelling tools from economics and environmental sciences. In chapter 1, we analyse couplings between 5 economic models and 3 environmental assessment tools from the existing literature. A dedicated criteria grid allows to compare their relevance to provide integrative assessments at the meso scale. Couplings between equilibrium models on the one hand, and Life Cycle Assessment (LCA) on the other hand, best meet the defined objectives. Chapter 2 details the methodological framework of the coupling between a partial equilibrium model of the French forest sector and LCA. The homogenisation of material flows between the two models makes it possible to produce economic and environmental indicators with a coherent perimeter, the ratio of which provides two eco-efficiency indicators. The first combines the economic surplus of the forest-based sector with its potential environmental impacts (Partial Eco-Efficiency, PEE); the second adds the environmental impacts avoided by substitution between wood-energy and fossil fuels, compared to a reference scenario (Full Eco-Efficiency, FEE). In Chapter 3, we use this framework to analyse different wood energy oriented bio-economy development strategies at the national level and at the regional level in the region Grand Est. For this purpose, we compare the FEE of scenarios constructed by combinations of different policies: subsidising wood energy demand, local supply, forest protection, energy crisis. Strategies integrating a stimulation of wood energy demand are the most eco-efficient, at regional and national level. This is based in particular on the benefits of avoided impacts through the substitution of wood energy for fossil fuels. The combination of the subsidy with protection measures and/or local procurement slightly increases or decreases its eco-efficiency depending on the scale of implementation. In addition, we have identified other factors determining most the eco-efficiency of a policy, such as the characteristics of the forest resource, the importance of the local wood sector, and the characteristics of neighbouring regions
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Wu, Qier. "Développement de modèles bioinformatiques intégratifs et prédictifs pour comprendre la voie des effets indésirables (AOP) initiée par des petites molécules". Thesis, Université Paris Cité, 2021. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=4575&f=37745.

Texto completo
Resumen
L'homme est exposé quotidiennement à divers produits chimiques provenant de différentes sources, notamment environnementales et pharmaceutiques. Ces expositions sont suspectées d'être la cause de certaines pathologies. L'évaluation et la caractérisation de la toxicité des produits chimiques sont cruciales. Cependant, les difficultés rencontrées dans l'évaluation de la toxicité des substances chimiques reste difficile à cause non seulement des capacités limitées des méthodes traditionnelles mais aussi de la complexité des mécanismes d'action de ces substances sur le système humain. Face à ces difficultés, des approches plus innovantes et plus efficaces ont été développées. La technologie de criblage à haut débit (`High-throughput screening'ou HTS) a largement amélioré l'identification de molécules potentiellement dangereuses. L'intégration des données HTS et des données in vivo dans le concept des `voies d'effets indésirables` ("Adverse Outcome Pathways" ou AOPs) et les modèles de toxicologiques systémiques pourraient aider à mieux comprendre les interactions entre les produits chimiques et le corps humain, et ce à différents niveaux de l'organisation biologique (c'est-à-dire les gènes, les protéines, les cellules, les tissus, les organes, etc). Durant ma thèse, j'ai développé des modèles de toxicologie systémique prédictifs dans le but de contribuer à l'évaluation du risque des substances chimiques. Ces modèles de toxicologie systémique (basés ici sur la science des réseaux biologiques) ont été construits à partir de données publiques. Afin de mieux comprendre les mécanismes d'action des substances chimiques et de progresser vers le développement d'AOP, des outils statistiques et bioinformatiques tels que l'analyse de surreprésentation ont été utilisés pour identifier des voies potentiellement affectées par les substances chimiques. En outre, pour montrer la capacité de prédiction des modèles de toxicologie systémique, différents scores statistiques ont été proposés afin de prédire les liens non caractérisés actuellement entre les substances chimiques et leurs effets toxiques. Certaines de ces prédictions ont été validées par la littérature. Les incertitudes des modèles de toxicologie systémique ont également été mesurées. Dans l'ensemble, cette thèse souligne que les modèles bioinformatiques de toxicologie systémique sont des outils innovants et efficaces pour illustrer les mécanismes de toxicité peu connus des produits chimiques. De plus ces modèles de toxicologie systémique peuvent être utilisés comme une alternative aux approches animales dans l'évaluation du risque des substances chimiques
Humans are daily exposed to amount of chemicals from different sources including environmental and drug molecules. The exposures of these chemicals are suspected as the etiology of certain pathologies. Evaluating and characterizing the toxicity of chemicals is crucial. However, the difficulties in chemicals risk assessment can be the result of low throughput of traditional methods and also the limited knowledge of the mechanisms of action of these chemicals in systems biology. To face these difficulties, recent innovative and efficient approaches have been developed. High-throughput screening (HTS) technology has largely improved the efficiency of hazard identification in the in-vitro platform. Integrating HTS data and in vivo data into the concept of `Adverse Outcome Pathways' (AOPs) combined with systems toxicological models could aid studying how chemicals interact with the human body at various levels (i.e, genes, proteins, cells, tissues, organs, etc) leading at the end to adverse effects. In this Ph.D. thesis, I elaborated on how systems toxicology models could contribute to determine chemical risk assessment. The systems toxicology models (i.e, network-based models) for chemicals were first constructed based on publicly available data. To better understand mechanisms of action of chemicals and move towards the development of AOPs, bioinformatics tools such as over representation analysis (ORA) were applied in the identification of potential pathways affected by chemicals. Furthermore, to show the predictive ability of the systems toxicology models, scoring systems were developed for predicting relationships between chemicals, biological targets and human pathologies. Finally, the predictions were externally validated through literature. The uncertainties of systems toxicology models were also measured in this thesis. Overall, the studies conducted in this thesis highlight that computational systems toxicology models are reliable and effective tools in illustrating the unknown toxicity mechanism of chemicals. Therefore, we suggested that systems toxicology models can be used as an alternative animal approach in chemical risk assessment
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Sadeghi, Samira. "Proposition des modèles et de processus structurés pour le développement d’environnements collaboratifs synchrones : application aux réunions de revue de conception". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI053/document.

Texto completo
Resumen
Le développement d'un environnement collaboratif est un processus complexe. La complexité réside dans le fait que ce développement implique beaucoup de prise de décisions. De multiples compromis doivent être faits pour répondre aux exigences actuelles et futures d'utilisateurs aux profils variés. La prise en compte de cette complexité pose des problèmes aux chercheurs, développeurs et utilisateurs. Les informations et données requises pour prendre des décisions adéquates de conception et évaluer rigoureusement ces décisions sont nombreuses, parfois indéterminées et en constante évolution. Dans la partie-I de cette thèse, nous formulons les connaissances générales sur le travail collaboratif synchrone qui constituent l'état de l'art du domaine du problème. Nous pratiquons de même pour les environnements collaboratifs synchrones (domaine de la solution technique) et leur cette formulation s'appuie sur une étude de la littérature et conduit à la proposition de Schéma Conceptuel (Concept Maps). Nous en déduisons trois modèles: SyCoW (travail collaboratif synchrone), SyCoE (environnement collaboratif synchrone) et SyCoEE (évaluation environnement collaboratif synchrone). Dans la partie II de cette thèse, nous proposons un processus pour la sélection / développement d'un environnement collaboratif, où nous démontrons comment les modèles SyCoW, SyCoE et SyCoEE structurent ce processus. Grâce à la mise en œuvre de la démarche proposée, nous présentons le développement d'un nouvel environnement collaboratif synchrone pour une réunion de revue de conception nommé MT-DT. MT-DT a été conçu, développé et évalué par l'auteur dans sa thèse de doctorat. MT-DT est une application logicielle 3D spécifique à une table multi-touche qui assiste les activités de revue de conception collaborative. Les résultats de l'évaluation ont confirmé la convivialité de MT-DT et fournissent des éléments de validation des choix que nous avons faits au cours du développement de MT-DT
Development of collaborative environment is a complex process. The complexity lies in the fact that collaborative environment development involves a lot of decision making. Several tradeoffs need to be made to satisfy current and future requirements from a potentially various set of user profiles. The handling of these complexities poses challenges for researcher, developers and companies. The knowledge required to make suitable design decisions and to rigorously evaluate those design decisions is usually broad, complex, and evolving. In Part-I of this thesis we investigate to formulate the general knowledge about: synchronous collaborative work which conceptualize the problem domain, synchronous collaborative environment which conceptualize the solution domain and synchronous collaborative environment evaluation which conceptualize the evaluation of whole or part of the proposed solution for the specified problem. This formulation has been done through literature study and leaded to the Concept Maps. The results generate three models: SyCoW (synchronous collaborative work), SyCoE (synchronous collaborative environment) and SyCoEE (synchronous collaborative environment evaluation). In Part-II of this thesis we proposed a process for selection/development of collaborative environment, where we demonstrate how SyCoW, SyCoE and SyCoEE support this process in different ways. Through the proposed process we present the development of new synchronous collaborative environment for design review meeting, named, MT-DT. MT-DT has been designed, developed and evaluated by the author in her PhD. MT-DT consist of a multi-touch table with specific 3D software application which support collaborative design review activities. The results of evaluation confirmed the usability of MT-DT and provide arguments for our choices which we made during development of MT-DT
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Lebihan, Laëtitia. "Trois essais économétriques sur le développement et le bien-être des enfants canadiens". Thesis, La Réunion, 2014. http://www.theses.fr/2014LARE0010/document.

Texto completo
Resumen
Cette thèse propose trois essais économétriques ayant trait au capital humain et au bien-être de l'enfant. Chacun des essais présente une méthodologie distincte afin de répondre à l'objectif concerné. Dans le premier chapitre, nous évaluons les effets à long terme d'une politique de services de garde universels au Canada sur le bien-être de l'enfant (santé, comportement, développement moteur et social). Nous montrons que la réforme a un effet négatif sur le bien-être des enfants d'âge préscolaire, mais ces effets tendent à disparaître lorsque l'enfant devient plus âgé. Nous trouvons que cette tendance persiste même dix ans après la mise en place de la réforme. Le second chapitre s'intéresse à l'effet de l'intensité des services de garde sur le développement cognitif des enfants d'âge préscolaire. Nous utilisons la méthode d'appariement à traitements multiples pour répondre à cet objectif. Nous montrons que les effets des services de garde sont grandement hétérogènes. Leurs effets varient selon le statut socioéconomique des familles, la scolarité ou non de l'enfant, le niveau d'intensité des services de garde ainsi que le mode de garde utilisé. Le troisième chapitre porte sur la modélisation des trajectoires des performances mathématiques des enfants canadiens de 7 à 15 ans ainsi que sur l'identification des facteurs de risque durant la petite enfance susceptibles d'influencer l'appartenance à ces trajectoires. La méthode utilisée est celle du Group-Based Trajectory Modeling de Nagin (2005)
This thesis contains three econometric essays on child human capital and well-being. Each essay has a distinct methodology to meet the purpose. In the first chapter, we evaluate the long-term effects of a reform of universal child care in Canada on children's health, motor and social development, and behaviour. We show that the policy had negative effects on preschool children's well-being, but these effects tend to disappear as the child gets older. We find that this pattern persist even ten years after the implementation of the reform. The second chapter focuses on the effect of the intensity of child care on preschool children's cognitive development using propensity score matching with multivalued treatments. We show that the effects of child care are significantly heterogeneous and vary by family socioeconomic status, schooling or not of the child, the intensity of child care and the type of child care arrangement. The third chapter models mathematics trajectories of Canadian children aged 7 to 15 years and identifies risk factors during early childhood on the membership of these trajectories using Group-Based Trajectory Modeling (Nagin, 2005)
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Bousquières, Josselin. "Impact de la composition et des procédés sur la réactivité d’un produit modèle alvéolé de type cake". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA004/document.

Texto completo
Resumen
En industrie alimentaire et notamment dans le domaine des produits céréaliers, les ingrédients utilisés et les procédés associés ont des impacts sur les réactions chimiques des constituants ainsi que sur la structure des produits fabriqués. Les réactions peuvent avoir des impacts positifs (arômes, couleur) ou négatifs (développement de composés néoformés potentiellement toxiques). Bien que très étudiées dans des systèmes simplifiés, une meilleure connaissance et maitrise des réactions dans des conditions plus réalistes permettrait de mieux piloter la qualité des produits et de favoriser la balance bénéfices/risques. L’objectif de ce travail était de rendre possible l'étude des réactions dans un milieu solide, certes, simplifié, mais maîtrisé en composition et structure, et fidèle aux procédés de fabrication et à la structure à des produits réels. La génoise a été choisie comme produit de référence.La première étape a consisté à développer un produit modèle constituant une base d’étude de la réactivité. Pour cela, une étude des fonctionnalités apportées par chaque ingrédient à chaque étape du procédé de fabrication a permis d’identifier les dérivés de cellulose comme candidats intéressants pour remplacer les ingrédients réactifs (oeuf, sucre et protéines de la farine). Une étude multiéchelles a permis de mieux comprendre l’impact des principales propriétés apportées par les dérivés de cellulose (viscosité à froid, stabilisation des interfaces, gélification à chaud) sur la structuration du produit. Enfin, le produit modèle a été validé comme étant non-réactif vis-à-vis de la réaction de Maillard et de caramélisation.Dans une seconde étape, des composés réactifs (glucose, leucine) ont été réintroduits dans le produit modèle et un suivi cinétique de marqueurs de la réactivité dans les vapeurs et dans le produit a été réalisé au cours de la cuisson. Ainsi, l’enrichissement du modèle en glucose + leucine a permis de suivre le développement de composés typiques de la réaction de Maillard (aldéhydes de Strecker et pyrazines), qui n’apparaissent pas dans le cas où le produit n’est enrichi qu’en glucose, où seuls les composés issus de la caramélisation ont été identifiés. De plus, la modification des conditions de cuisson (température, convection) a permis de mettre en évidence l’impact des transferts thermiques et du séchage sur les voies réactionnelles. Ces résultats ouvrent ainsi la voie à de futures études cinétiques, couplant expérimentation systématique et modélisation
In the food industry and notably in the field of cereal products, the type of ingredients used and their associated processes have several effects on the structure of the products and on the chemical reactions occurring during the manufacturing process. These reactions could have positive impacts (aroma, color) as well as negative outcomes (formation of potentially toxic compounds). Although being thoroughly studied in model systems, a better understanding of reactions in more realistic conditions would allow to improve the quality of the products. The aim of this work was to enable the study of chemical reactions occurring in a simplified solid system where the composition and structure were controlled while remaining representative regarding the conditions of the processes and the structure of the real product. Sponge cake was chosen as the product of reference.The first step consisted in developing a model product constituting a basis for studying the reactivity. In this regard, a study on new functionalities brought by each ingredient during each step of the manufacture process allowed to identify the cellulose derivatives as candidates to replace the reactive ingredients (eggs, sugar and wheat flour proteins). A multi-scale study allowed to better understand the impact of the main properties brought by the cellulose derivatives (viscosity at cold temperature, interface stabilization, gelation at high temperature) on the structure of the product. Finally, the model product was validated as a non-reactive media regarding the Maillard reaction and the caramelization.In a second step, reactive compounds (glucose and leucine) were placed in the model product and a kinetic monitoring on reaction markers was set up in the vapors and in the matrix during the baking. Thus, the addition of glucose and leucine in the model allowed to follow the formation of typical compounds coming from the Maillard reaction (Strecker’s aldehyde and pyrazines). These compounds did not developed when the model product was only enriched in glucose, whereas compounds generated by the caramelization reaction were identified. Moreover, changes in baking conditions (temperature, convection) allowed to emphasize the impact of heat transfer and drying on reaction pathways. These results pave the way of future kinetic studies, coupling systemic experiment and reaction modelling
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Verhoest, Grégory. "Développement et mise au point de modèles murins de xénogreffe de carcinome rénal à cellules claires, et évaluation de la réponse de l'association d'un antagoniste des récepteurs à l'angiotensine-II au sunitinib". Phd thesis, Université Rennes 1, 2014. http://tel.archives-ouvertes.fr/tel-01057292.

Texto completo
Resumen
Contexte : Les carcinomes rénaux à cellules claires (ccRCC) sont des tumeurs particulièrement agressives et de mauvais pronostic lorsqu'elles sont métastatiques. L'apport des traitements anti-angiogéniques et notamment des inhibiteurs de tyrosine kinases (TKI), a permis une amélioration nette en terme de survie de ces patients, mais parfois au prix d'effets secondaires tels que l'HTA. L'angiotensine-II stimule la croissance des cellules cancéreuses et la sécrétion de VEGF via le récepteur de type 1. Dans différents types de cancers, les antagonistes des récepteurs de type 1 de l'angiotensine-II (ARA-2) utilisés à visée anti-hypertensive ont pu démontrer une diminution de la prolifération cellulaire et une inhibition de la néo-angiogénèse tumorale. Objectif : Mettre au point différents modèles animaux de ccRCC et tester l'effet de l'association des traitements par sunitinib (TKI) et telmisartan (ARA-2). Matériels & Méthodes : Des souris Nude ont été injectées avec des cellules tumorales 786-O, permettant d'obtenir une tumeur sous-cutanée. Les souris ont été réparties en 4 groupes gavées quotidiennement pendant 4 semaines : avec le vecteur (DMSO), du Telmisartan, du Sunitinib ou une association Telmisartan + Sunitinib à doses thérapeutiques, puis euthanasiées pour analyse de la tumeur. Dans un 2ème temps, un autre modèle animal a été mis au point avec des cellules tumorales issues d'une lignée primaire. Résultats : L'association des traitements (TKI + ARA-2) dans le 1er modèle montrait une augmentation de la nécrose tumorale par diminution de la densité microvasculaire et de la sécrétion de VEGF circulant. Dans le modèle issu d'une lignée primaire, on notait une réduction du volume tumoral mais sans augmentation de la nécrose. Conclusion : Ce travail a permis de mettre au point 2 modèles de ccRCC. L'association d'un ARA-2 au sunitinib semble potentialiser l'effet anti-tumoral dans ces modèles expérimentaux. De plus amples études sont nécessaires pour comprendre les mécanismes impliqués.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía