Siga este enlace para ver otros tipos de publicaciones sobre el tema: Méthodes élémentaires.

Tesis sobre el tema "Méthodes élémentaires"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Méthodes élémentaires".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Poyet, Patrice. "Méthodes de discrimination des anomalies géochimiques multi élémentaires significatives". Nice, 1986. http://www.theses.fr/1986NICE4005.

Texto completo
Resumen
Développement d'un système susceptible de réaliser le traitement, l'intégration et la représentation des données géochimiques. Le but est d'améliorer la détection des anomalies géochimiques significatives. Exemple de prospection géochimique sans recouvrement de gisements d'uranium, à partir de données géochimiques des eaux et des roches
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Reignier, Denis. "Contributions théoriques à l'étude de quelques réactions élémentaires à trois atomes". Bordeaux 1, 2001. http://www.theses.fr/2001BOR12314.

Texto completo
Resumen
La première partie de ce travail concerne l'étude théorique des réactions d'intérêt astrochimique Al + 02, C + NO et C + 02 dans le domaine des basses températures (0 K < T < 300 K). De récentes mesures expérimentales, utilisant les techniques CRESU (Cinétique de Réaction en Écoulement Supersonique Uniforme) et de faisceaux moléculaires croisés, ont montré que la constante de vitesse de ces réactions augmente lorsque la température diminue et peut atteindre des valeurs importantes même à très basse température (jusqu'à ± 20 K). Les théories de capture adiabatique, adaptées pour décrire de telles réactions gouvernées par les forces à longue portée, nous ont permis de rendre compte de la dépendance en température de la constante de vitesse de ces réactions et de préciser notamment le rôle de la structure fine des réactifs. Dans la seconde partie consacrée à l'étude de la réaction de photo dissociation N02 hv NO + 0, nous avons déterminé les surfaces d'énergie potentielle (SEP) adiabatiques des deux premiers états électroniques de symétrie 2A' de N02. À partir de calculs ab initio de bonne qualité (niveau MRCI), nous avons construit deux SEP analytiques globales (i. E. Décrivant à la fois les régions d'états liés et dissociatifs dans le canal 0 + NO) pour ces deux états de N02, à l'aide de la méthode < Double Many-Body Expansion" (DMBE). Ces SEP nous ont ensuite permis de calculer la densité d'états de N02 et de proposer une interprétation de la brusque augmentation -observée expérimentalement - de cette densité au voisinage immédiat du seuil de dissociation. Nous avons également déterminé, par des calculs préliminaires de dynamique de photo dissociation (formalisme indépendant du temps) sur ces SEP adiabatiques, des distributions rotationnelles du photofragment N0, que nous avons comparées aux récentes mesures expérimentales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Hitti, Karim. "Simulation numérique de Volumes Élémentaires Représentatifs (VERs) complexes : Génération, Résolution et Homogénéisation". Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00667428.

Texto completo
Resumen
L'influence des hétérogénéités microstructurales sur le comportement d'un matériau est devenue une problématique industrielle de première importance, cet état de fait explique l'engouement actuel pour la prise en compte de ces hétérogénéités dans le cadre de la modélisation numérique. Ainsi, de nombreuses méthodes pour représenter de manière digitale un matériau virtuel statistiquement équivalent à la microstructure réelle et pour connecter cette représentation à des calculs éléments finis se sont développées ces dernières années. Les travaux réalisés durant cette thèse s'inscrivent en grande partie dans cette thématique. En effet, un générateur de microstructures virtuelles permettant de générer à la fois des microstructures polyédriques ou sphériques a été développé. Ce générateur est basé sur les diagrammes de Laguerre et une méthode frontale de remplissage, une approche level-set pour l'immersion de ces microstructures dans un maillage éléments finis et une technique d'adaptation anisotrope de maillage pour assurer une grande précision lors de cette immersion mais également lors de la réalisation de simulations éléments finis sur ces microstructures. La capacité de ces outils à respecter des données statistiques concernant les microstructures considérées est assurée par le couplage d'une méthode frontale à une méthode d'optimisation des défauts locaux selon la nature de la microstructure considérée. Une technique de coloration de graphe est également appliquée afin de limiter le nombre de fonctions level-set nécessaires à l'adaptation de maillage. En outre, le coût élevé d'une simulation micro-macro entièrement couplée peut-être significativement réduite en limitant les calculs à une analyse entièrement découplée. Dans ce contexte, la réponse d'un Volume Élémentaire Représentatif (VER) soumis à des conditions aux limites représentatives de ce que subit la matière en un point précis d'un calcul macroscopique reste l'approche la plus complète à l'heure actuelle. Dans le cadre de ce travail, nous nous sommes intéressés à deux types de VER pour deux applications différentes : la déformation de VERs de mousses polyédriques élastiques et le calcul du tenseur de perméabilité pour des VERs composés de fibres cylindriques hétérogènes mais monodirectionnelles. Plus précisément, pour la première de ces applications, des cas de compression biaxiale de mousses élastiques à cellules fermées en nids d'abeille ou irrégulières sont modélisés comme un problème d'interaction fluide structure (IFS) entre un fluide compressible (l'air à l'intérieur des cellules) et un solide élastique compressible (le squelette de la mousse). Une formulation monolithique est utilisée pour résoudre ce problème en regroupant les équations d'états régissant le solide et le fluide en un seul jeu d'équations résolu sur un maillage unique discrétisant les deux phases. Une telle stratégie donne lieu, pour la partie solide, à l'apparition d'un tenseur d'extra-contrainte dans les équations de Navier-Stokes. Ces équations sont ensuite résolues par une méthode éléments finis mixte avec une interpolation de type P1+/P1. Concernant la deuxième application, des écoulements dans des milieux fibreux sont simulés en considérant les fibres comme rigides. Ici encore, une formulation monolithique est adoptée. Ainsi, les équations de Stokes sont résolues sur l'ensemble du domaine de calcul en utilisant une méthode de pénalisation. Par homogénéisation, la loi de Darcy est utilisée pour obtenir le tenseur de perméabilité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Maerschalk, Thierry. "Study of Triple-GEM detector for the upgrade of the CMS muon spectrometer at LHC". Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/233187.

Texto completo
Resumen
This doctoral thesis is part of the upgrade of the CMS experiment at the Large HadronCollider of CERN, the LHC. CMS, together with the ATLAS experiment, led to thediscovery of the Brout-Englert-Higgs boson in 2012. But the LHC research program isnot over yet. Indeed, the LHC is intended to operate even at least 20 more years. Duringthis period, the luminosity will grow gradually up to five times its nominal value of 10 34cm −2 s −1 initially foreseen. This increase in luminosity requires the LHC experiments,like CMS, to upgrade their detectors as well as their data acquisition system. One of thenext major CMS upgrade is the addition of a new detector layer in the forward muonspectrometer of CMS. The technology that has been chosen by the CMS collaborationfor this upgrade is the Triple Gas Electron Multiplier (Triple-GEM) technology. Thisupgrade aims to maintain the trigger performance despite the increasing rate of particles(> 1 kHz/cm 2 ) and will also improve the reconstruction of muons tracks, thanks to aexcellent spatial resolution (∼ 250 μm). It is the study and characterization of thistechnology that is the subject of this thesis.This characterization of the Triple-GEM detectors starts with a detailed study of thetime resolution. This study has been performed using different Monte Carlo simulationslike GARFIELD, and has demonstrated that the Triple-GEM detectors equipped withthe new VFAT3 electronics (developed for this upgrade) fulfill the requirements for theCMS upgrade.Then we have studied different detector prototypes. First, we have built two small 10×10cm 2 prototypes and developed a test bench at the ULB laboratory. This test bench hasallowed us to study another important parameter of the Triple-GEM detectors: the gain.Later, we also had the opportunity to take part in the data taking and analysis of a testbeam campaign at CERN. The analysis of the data of this test beam is also presentedin detail.The last part of this work concerns the study of the spatial resolution. We have estimatedthe spatial resolution of the Triple-GEM detector equipped with a binary electronics byMonte Carlo simulations as well as analytically. This study has been extended to otherdetector technologies like the Micromegas and the silicon sensors.
Cette th`ese de doctorat s’inscrit dans le cadre de la mise `a niveau de l’exp ́erience CMSaupr`es du grand collisionneur de protons du CERN, le LHC. CMS, avec l’exp ́erienceATLAS, a permis la d ́ecouverte du boson de Brout-Englert-Higgs en 2012. Mais leprogramme de recherche du LHC n’est pas pour autant termin ́e. En effet, le LHC estdestin ́e `a fonctionner encore au moins 20 ans. Pendant cette p ́eriode, la luminosit ́e vacroˆıtre progressivement jusqu’`a atteindre environ cinq fois la valeur nominale de 10 34cm −2 s −1 initialement pr ́evue et ce d’ici 2025. Cette augmentation de luminosit ́e pousseles exp ́eriences du LHC, comme CMS, `a mettre `a jour les d ́etecteurs ainsi que leurssyst`emes d’acquisition de donn ́ees. Une des prochaines mises `a niveau majeures deCMS est l’addition d’une nouvelle couche de d ́etection dans le spectrom`etre `a muonvers l’avant. La technologie de d ́etection qui a ́et ́e choisie par la collaboration CMS estla technologie des Triple Gas Electron Multiplier (Triple-GEM). Cette mise `a niveaua pour but de maintenir les performances du syst`eme de d ́eclenchement et ce malgr ́el’augmentation de taux de particules (> 1 kHz/cm 2 ) et de permettre ́egalement, grˆacea la tr`es bonne r ́esolution spatiale des Triple-GEM (∼ 250 μm), l’am ́elioration de la re-construction des traces de muons. C’est l’ ́etude des caract ́eristiques de cette technologiequi est le sujet de cette th`ese.Cette caract ́erisation des d ́etecteurs Triple-GEM commence par une ́etude d ́etaill ́ee de lar ́esolution temporelle. Cette ́etude a ́et ́e r ́ealis ́ee `a l’aide de diff ́erentes simulations MonteCarlo telles que GARFIELD et a permis de montrer que les Triple-GEMs ́equip ́es de lanouvelle ́electronique VFAT3 (sp ́ecifiquement d ́evelop ́ee pour les Triple-GEMs) remplis-sent les conditions pour la mise `a niveau de CMS.Nous avons ensuite ́etudi ́e diff ́erents prototypes. Tout d’abord nous avons construit deuxpetits (10 × 10 cm 2 ) prototypes de Triple-GEM et d ́evelop ́e un banc de test au sein dulaboratoire de l’ULB. Ce banc de test nous a permis d’ ́etudier un autre param`etre impor-tant des d ́etecteurs Triple-GEM: le gain. Au cours de cette th`ese nous avons ́egalementparticip ́e `a la prise de donn ́ees et `a l’installation de diff ́erents tests en faisceau au CERN.L’analyse des donn ́ees du test en faisceaux d’octobre 2014 est aussi pr ́esent ́ee en d ́etail.La derni`ere partie de ce travail concerne l’ ́etude de la r ́esolution spatiale. Nous avonsestim ́e la r ́esolution spatiale par simulation de Monte Carlo ainsi que de mani`ere an-alytique pour des d ́etecteurs GEM munis d’une ́electronique binaire. Cette ́etude a ́egalement ́et ́e g ́en ́eralis ́ee `a d’autres d ́etecteurs tels que les Micromegas ou encore lescapteurs au silicium.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Alegret, Cyril. "Développement de méthodes génériques de corrélation entre les mesures électriques & physiques des composants et les étapes élémentaires de fabrication". Phd thesis, Grenoble 1, 2006. http://www.theses.fr/2006GRE10195.

Texto completo
Resumen
Pour les technologies sub-90nm, la complexité des structures est devenue telle que le contrôle des procédés de fabrication est aujourd'hui un secteur primordial dans le fonctionnement d'une usine de semi-conducteur. Dans ce contexte, deux grands défis sont proposés aux ingénieurs : Le premier est de rechercher la nature de la variabilité des performances électriques des circuits afin de les réduire. Une fois la variabilité réduite, le second objectif consiste à optimiser son contrôle afin de garantir les performances des circuits. Cette thèse vise à mettre en oeuvre une méthodologie globale d'analyse, s'appuyant sur le développement de méthodes statistiques avancés (outils multivariés, neuronaux) afin de corréler les mesures électriques et physiques des composants ainsi que les paramètres des équipements. Les résultats des modélisations débouchent sur l'optimisation de toutes les composantes liées au contrôle des procédés (Control Statistique des Procédés, Fault Detection and Classification, Run to Run)
For sub-90nm technologies, the complexity of the structures is so important that the control of the fabrication is became a essential activity for semiconductor fabs. In this context, two major challenges are proposed to the engineers : The first one is to characterise and to reduce the variability of the electrical properties of the structures. The second one consists in optimising the control of this variability in order to guaranty the circuit performances. This PhD thesis aims at proposing a global analysis methodology based on the development of advanced statistical methods (multivariate and neuronal algorithms) to correlate the electrical and physical measurements of the components and the equipment parameters collected during the processes. The models obtained lead to the optimisation of each components of the process control (Statistical Process Control, Fault Detection and Classification and Run to Run)
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Alegret, Cyril. "Développement de méthodes génériques de corrélation entre les mesures électriques & physiques des composants et les étapes élémentaires de fabrication". Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00122893.

Texto completo
Resumen
Pour les technologies sub-90nm, la complexité des structures est devenue telle que le contrôle des procédés de fabrication est aujourd'hui un secteur primordial dans le fonctionnement d'une usine de semi-conducteur. Dans ce contexte, deux grands défis sont proposés aux ingénieurs : Le premier est de rechercher la nature de la variabilité des performances électriques des circuits afin de les réduire. Une fois la variabilité réduite, le second objectif consiste à optimiser son contrôle afin de garantir les performances des circuits.
Cette thèse vise à mettre en oeuvre une méthodologie globale d'analyse, s'appuyant sur le développement de méthodes statistiques avancés (outils multivariés, neuronaux) afin de corréler les mesures électriques et physiques des composants ainsi que les paramètres des équipements. Les résultats des modélisations débouchent sur l'optimisation de toutes les composantes liées au contrôle des procédés (Control Statistique des Procédés, Fault Detection and Classification, Run to Run).
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Geneste, Grégory. "Mécanismes élémentaires de la croissance oxyde sur oxyde : étude ab initio et semi-empirique de MgO/MgO(001)". Toulouse 3, 2003. http://www.theses.fr/2003TOU30156.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Tahri, Aomar. "Contribution à l'étude de la méthanation des oxydes de carbone catalysée par du nickel dispersé sur silice : Étude en régime permanent de la cinétique réactionnelle et application de méthodes transitoires à l'identification de processus élémentaires". Nancy 1, 1987. http://www.theses.fr/1987NAN10148.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies". Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Texto completo
Resumen
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Zenoni, Florian. "Study of Triple-GEM detectors for the CMS muon spectrometer upgrade at LHC and study of the forward-backward charge asymmetry for the search of extra neutral gauge bosons". Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/229354.

Texto completo
Resumen
Cette thèse de doctorat a pour cadre l’expérience CMS auprès du grand collisionneur de protons du CERN, le LHC. Le LHC, qui a permis la découverte en 2012 du boson de Brout-Englert-Higgs, est destiné à fonctionner pour encore 20 ans, avec une luminosité qui croîtra progressivement pour atteindre d’ici 2025 la valeur de 7.5 x 10^34 cm^-2 s^-1, c'est à dire environ cinq fois la valeur initialement prévue. Ceci a pour conséquence que les expériences doivent s’adapter et mettre à niveau une série de leurs composants et détecteurs. Une des prochaines mises à niveau de l’expérience CMS concerne les détecteurs Triple Gas Electron Multiplier (GEM) qui sont actuellement en développement pour la partie avant du spectromètre à muons de l’expérience. Ces détecteurs seront installés dans CMS durant le deuxième long arrêt du LHC, en 2018-2019, appelé LS2. Cette mise à niveau a pour but de contrôler les taux de déclenchement d’événements pour la détection de muons, grâce à la haute performance de ces détecteurs Triple GEM en présence de taux de particules extrêmement élevés (>1 kHz/cm^2). De plus, grâce à sa très bonne résolution spatiale (~250 um), la technologie GEM peut améliorer la reconstruction des traces de muons et la capacité d’identification du détecteur avant.Le but de mon travail de recherche est d’estimer la sensitivité des Triple GEMs à l’environnement de radiation hostile dans CMS, essentiellement composé de neutrons et de photons produits lors des interactions entre les particules et les détecteurs constituant l’expérience CMS. L’estimation précise de cette sensitivité est très importante, car une sous-estimation pourrait avoir des effets désastreux pour l’efficacité des Triple GEMs une fois installés dans CMS. Pour valider mes simulations, j’ai également reproduit des résultats expérimentaux obtenus avec d’autres détecteurs similaires déjà installés dans CMS, tels que les Resistive Plate Chambers (RPC).La deuxième partie de mon travail concerne l’étude de la capacité de l’expérience CMS à discerner différents modèles de nouvelle physique prédisant l’existence de bosons vecteurs, appelés Z'. Ces modèles font partie des extensions plausibles du Modèle Standard. En particulier, l’analyse se concentre sur des simulations dans lesquelles le Z' se désintègre en deux muons, et sur l’impact que les mises à niveau avec les détecteurs Triple GEM apporteront à ces mesures tout le long de la phase de haute intensité du LHC. Mes simulations montrent que plus de 20% des événements simulés comptent au moins un muon dans la région en pseudo-rapidité (eta) de CMS couverte par les détecteurs Triple GEM. Les résultats préliminaires démontrent que, dans le case de modèles à 3 TeV/c^2, il sera possible dès la fin de la Phase I de distinguer un Z'I d'un Z'SSM avec un niveau de signification alpha > 3 sigma.
This PhD thesis takes place in the CMS experiment at CERN's Large Hadron Collider (LHC). The LHC allowed the discovery of the Brout-Englert-Higgs boson in 2012, and is designed to run for at least 20 years, with an increasing luminosity that will reach by 2025 a value of 7.5 x 10^34 cm^-2 s^-1, that is a yield five times greater than the one initially intended. As a consequence, the experiments must adapt and upgrade many of their components and particle detectors. One of the foreseen upgrades of the CMS experiment concerns the Triple Gas Electron Multiplier (GEM) detectors, currently in development for the forward muon spectrometer. These detectors will be installed in CMS during the second long LHC shutdown (LS2), in 2018-2019. The aim of this upgrade is to better control the event trigger rate at Level 1 for muon detection, thanks to the high performance of these Triple GEM detectors, in presence of very high particle rates (>1 kHz/cm^2). Moreover, thanks to its excellent spatial resolution (~250 um), the GEM technology can improve the muon track reconstruction and the identification capability of the forward detector.The goal of my research is to estimate the sensitivity of Triple GEMs to the hostile background radiation in CMS, essentially made of neutron and photons generated by the interaction between the particles and CMS detectors. The accurate evaluation of this sensitivity is very important, as an underestimation could have ruinous effects of the Triple GEMs efficiency, once they are installed in CMS. To validate my simulations, I have reproduced experimental results obtained with similar detectors already installed in CMS, such as the Resistive Plate Chambers (RPC).The second part of my work regards the study of the CMS experiment capability to discriminate between different models of new physics predicting the existence of neutral vector bosons called Z'. These models belong to plausible extensions of the Standard Model. In particular, the analysis is focused on simulated samples in which the Z' decays in two muons, and on the impact that the Triple GEM detectors upgrades will bring to these measurements during the high luminosity phase of the LHC, called Phase II. My simulations prove that more than 20% of the simulated events see at least one muon in the CMS pseudo-rapidity (eta) region covered by Triple GEM detectors. Preliminary results show that, in the case of 3 TeV/c^2 models, it will be possible already at the end of Phase I to discriminate a Z'I from a Z'SSM with a significance level alpha > 3 sigma.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Petuya-Poublan, Rémi. "Contribution à la description théorique de la dynamique des processus élémentaires hétérogènes : collisions de l'azote moléculaire et de l'hydrogène atomique avec des surfaces de tungstène". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0134/document.

Texto completo
Resumen
Les processus élémentaires hétérogènes à l’interface gaz-solide présentent un intérêt fondamental dans de nombreux domaines tels que la catalyse hétérogène, la chimie atmosphérique et des milieux interstellaires, la rentrée atmosphérique de véhicules spatiaux ou encore la description des interactions plama-paroi. Cette thèse a pour objet l’étude de la dynamique des processus de collision non réactive de l’azote N2 sur une surface de tungstène W(100) et des processus de recombinaison moléculaire de l’hydrogène H2 sur des surfaces de tungstène W(100) et W(110). Leur dynamique quasi classique est simulée au moyen de surfaces d’énergie potentielle préalablement construites à partir de calculs de théorie de la fonctionnelle de la densité. Un potentiel multi-adsorbats est notamment développé pour tenir compte du taux de couverture de surface afin d’étudier la compétition entre la recombinaison directe, de type Eley-Rideal et la recombinaison par « atomes chauds » après diffusion hyperthermique d’un atome sur la surface
Heterogeneous elementary processes at the gas-solid interface are ofgreat interest in many domains such as heterogeneous catalysis, atmospheric and interstellar media chemistry, spacecraft atmospheric re-entry and plasma-wall interactions description. This thesis focus on the dynamics of nitrogen, N2, non reactive scattering on a tungsten W(100) surface and hydrogen, H2, recombination processes on tungsten surfaces W(100) and W(110). The quasiclassical dynamics of these processes is simulated using potential energy surfaces based on density functional theory calculations. In particular, a multi-adsorbate potential is developed to include surface coverage in the dynamics simulation in order to scrutinize the interplay between both direct abstraction, the so-called Eley-Rideal recombination,and the Hot-Atom recombination process after hyperthermal diffusion on the surface
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Joly, Philippe. "Pour une éducation esthétique à l'école élémentaire". Université Marc Bloch (Strasbourg) (1971-2008), 1992. http://www.theses.fr/1992STR20035.

Texto completo
Resumen
L'objectif spécifique de l'éducation "esthétique" (qu'on limitera aux arts picturaux), distinguée de l'éducation "artistique", est d'aiguiser le regard et la curiosité des enfants. Il n'est pas de "former le goût des élèves" et de leur inculquer "ce qu'il faut aimer", mais de leur apprendre à dire pourquoi ils aiment - ou non, ou moins - telle oeuvre, et de leur faire trouver les mots justes et les raisons pour le dire, bref de les éduquer de telle sorte qu'ils aient vraiment "chacun ses goûts". En travaillant sur un lot de reproductions d'oeuvres d'art sur lesquelles on fait élaborer les élèves avec questionnaire, on propose une grille d'évaluation du jugement pictural enfantin, ses changements, son évolution à différents moments du cursus scolaire. Une recherche pratique sur une classe expérimentale vise à donner aux enseignants des orientations pour construire une progression structurée et décloisonnée dans ce domaine, notamment en ce qui concerne la lecture des oeuvres et le vocabulaire appréciatif, sans oublier la collaboration avec des partenaires culturels tels que les musées des Beaux-Arts
Specific aim of "aesthetic" education (limited to pictorial arts), distinc from the technical training in art, is to develop and sharpen children's perception and curiosity. The matter is not to "train the pupils taste" and to inculcate in them "what to like", but to teach them how to tell why they like - or not, or less - a picture, and make them find out the exact words and reasons to tell it, in short, to educate them in order that they could really have their own taste. In working on a set of reproductions of paintings, pupils can note down their judgement by the meaning of a questionnaire. An evaluation chart of children's abilities in art appreciation during the school years, is thus provided. A practical approach with an experimental class aims at giving teachers some directions to build a structured curriculum in this particular field, mostly concerning paintings reading and appreciative vocabulary, without forgetting the collaboration with cultural partners such as fine arts museums
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Gozé, Vincent. "Une version effective du théorème des nombres premiers de Wen Chao Lu". Electronic Thesis or Diss., Littoral, 2024. http://www.theses.fr/2024DUNK0725.

Texto completo
Resumen
Le théorème des nombres premiers, démontré pour la première fois en 1896 à l'aide de l'analyse complexe, donne le terme principal pour la répartition asymptotique des nombres premiers. Ce n'est qu'en 1949 que la première démonstration dite "élémentaire" fut publiée : elle repose uniquement sur l'analyse réelle. En 1999, Wen Chao Lu a obtenu de manière élémentaire un terme d'erreur dans le théorème des nombres premiers très proche de celui fourni par la région sans zéro de la fonction zêta de Riemann donnée par La Vallée Poussin à la fin du XIXe siècle. Dans cette thèse, nous rendons explicite le résultat de Lu afin d'une part, de donner le meilleur terme d'erreur obtenu par méthodes élémentaires à ce jour, et d'autre part, de déterminer les limites de sa méthode
The prime number theorem, first proved in 1896 using complex analysis, gives the main term for the asymptotic distribution of prime numbers. It was not until 1949 that the first so-called "elementary" proof was published: it rests strictly on real analysis.In 1999, Wen Chao Lu obtained by an elementary method an error term in the prime number theorem very close to the one provided by the zero-free region of the Riemann zeta function given by La Vallée Poussin at the end of the 19th century. In this thesis, we make Lu's result explicit in order, firstly, to give the best error term obtained by elementary methods so far, and secondly, to explore the limits of his method
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Wallet, Jacques. "Images animées et enseignement de la géographie pour les élèves de l'école élémentaire et du collège". Paris 7, 1994. http://www.theses.fr/1994PA070009.

Texto completo
Resumen
Le sujet de la recherche relève avant tout d'une approche didactique, puisqu'elle tente de cerner, dans le cadre d'une discipline scolaire : la géographie, la présence et les éventuels apports pédagogiques des films. Le film n'a jamais été, et n'est jamais devenu, l'un des documents de la tradition canonique de l'enseignement de la géographie comme tel ou tel type de carte ou de schéma. C'est la recherche d'éléments explicatifs à ce constat qui constitue, la problématique de cette recherche. Ces éléments renvoient à des domaines de recherche qui en règle générale relèvent d'études institutionnellement et scientifiquement distinctes. L'hypothèse retenue pour la recherche est que c'est moins dans le rapport complexe entre la géographie universitaire et la géographie scolaire qu'il faut trouver des éléments de réponse que dans l'histoire critique de "l'offre filmique" dans l'enseignement de la géographie à l'école élémentaire et au collège. La première partie de l'étude porte sur l'enjeu didactique et la place du film dans l'enseignement de la géographie. La deuxième partie de l'étude porte sur l'histoire du film de géographie depuis le début du siècle
The research's subjet is didactical. The monie has never been and never becuine a document of the tradition in french way to learn geography. The research tries to explain the position of a monie in a didactical project the story of the production of monies, four earliers documentanes, by "school monies" to new technologie, is the mean issue
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Belyanovskaya, Alexandra. "Composition élémentaire de mammifères dans les zones naturelles et anthropiques et et impacts potentiels avec la méthode USEtox". Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0049.

Texto completo
Resumen
L'hétérogénéité géochimique de la biosphère, due a des conditions naturelles et anthropiques différentes, est en train de changer de manière significative du fait du développement de l'homme et de la société. cependant, dans de nombreuses études, les données sur l'interaction des éléments chimiques dans ces cadres de différentes conditions écologiques locales sont absentes; peu d'attention est accordée a l'approche complexe, par exemple, l'utilisation du modèle d’évaluation des impacts sur les organismes vivants. la méthode de l'analyse du cycle de vie (acv) permet de mesurer l'ampleur et l'importance de l'impact sur l'environnement et l'organisme humain. le coefficient caractéristique (cf) - est une valeur tabulaire, proposée par le modèle, selon l'emplacement de la région. dans ce document, il est propose de modifier ce coefficient en introduisant les résultats de l'analyse biogéochimique de territoires présentant des situations écologiques différentes, afin de les classer plus précisément. cette modification détermine la pertinence de l’étude. l’objet de la recherche est déterminé par évaluation de l’état géo-écologique des zones locales de la Russie et du Kazakhstan avec l’aide des 'indicateurs de la composition élémentaire des organes et des tissus des mammifères et d'un classement de la toxicité des différents éléments a l'aide du modèle usetox. cette méthode permet d’élargir le modèle en utilisant des données locales sur la composition chimique du produit alimentaire - le porc -et ensuite peut être utilisée pour évaluer les risques sanitaires pour la population des territoires étudiés
The geochemical heterogeneity of the biosphere, due to different natural and anthropogenic conditions, is changing significantly as a result of the development of man and society. Modern geo-ecological studies of different territories prove the fact of close connections of living organisms with the environment. However, little attention is paid to the complex approach, for example with the use of the model of impact assessment on living organisms. The Life Cycle Assessment (LCA) method, is allowed the magnitude and significance of the impact on the environment and the human organism to be monitored. The characteristic coefficient (CF) - is a tabular value, proposed by the model, depending on the region's location. In this thesis, however, it is proposed to modify this coefficient by introducing the results of biogeochemical analysis of territories with different ecological situations, in order to rank them more precisely. It is this modification, which determines the relevance of the study. The PhD thesis is purposed to assess the geo-ecological state of local areas of Russia and Kazakhstan with the use of indicators of the elemental compositions of organs and tissues of mammals, and a ranking of the toxicity of individual elements using the USEtox model. The modification method of the USEtox impact assessment model, using the results of the chemical analysis, can be used as a local supplement in the assessment of toxic effects on the population
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Bédard, Jean-François. "La mesure de l'expression : physiognomonie et caractère dans la Nouvelle méthode de Jean-Jacques Lequeu". Thesis, McGill University, 1992. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=61158.

Texto completo
Resumen
The work of Jean-Jacques Lequeu (1757-1826) is often used by architectural historians to demonstrate the erosion of the principles of classical architecture at the end of the eighteenth century. The Nouvelle Methode appliquee aux Principes elementaires du dessin completed by Lequeu in 1792, a drawing method showing the correct proportions of the face obtained through geometry, reveal another Lequeu, one sympathetic to the architectural theories of his time. The similarities between the Nouvelle Methode and the Dissertation sur les especes naturelles by the Dutch naturalist Petrus Camper (1722-1789) show the importance of the notion of caractere in the structure of knowledge of the classical age as portrayed by Michel Foucault. Simultaneously a theory of physionomy and a theory of architecture, the Nouvelle Methode demonstrates that the theory of caractere in both disciplines, far from announcing the birth of the modern age, is central to the pursuit of order which sustained architecture in the classical age.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Lauze, François. "Sur la résolution minimale des idéaux d'arrangement de points génériques dans les espaces projectifs". Phd thesis, Université de Nice Sophia-Antipolis, 1994. http://tel.archives-ouvertes.fr/tel-00465375.

Texto completo
Resumen
Le but de ce travail est d'étudier la résolution minimale des idéaux d'arrangement de points en position générale dans les espaces projectifs. Carlos Simpson et André Hirschowitz réduisent le problème à un calcul de rang maximal (c'est à dire surjectivité ou injectivité) pour les morphismes de restriction $$ H^0(P^n,\wedge^k T_{P^n}(l))\to \wedge^k T_{P^n}(l)ı_{Z_1}\oplus\dots T_{P^n}(l)ı_{Z_s} $$ où $Z_1,\dots Z_z$ sont des points de $P^n$. Ils montrent ensuite que pour un grand nombre de points ou de façon équivalente pour un degré $l$ suffisamment grand, on a la propriété de rang maximal. Ils déduisent cette propriété , grâce µa la méthode d'Horace, d'un certain nombres de situations de rang maximal modulo les dimensions 2 et 3. Dans cette thèse on étudie et prouve systématiquement le rang maximal pour ces situations en dimension 2 et 3. On donne aussi une borne inférieure du degré pour laquelle ces énoncés sont valables. Le chapitre 6 montre comment, en raffinant les procédés de Simpson et Hirschowitz, obtenir une preuve de l'énonc¶e déjà connu pour $T_{P^3} (l)$. Le chapitre 7 reprend alors la méthode pour obtenir une preuve pour $T_{P^4} (l)$.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Guimarães, Thomazi Aurea Regina. "L'enseignant de l'école élémentaire et le curriculum de la lecture : enquête à Belo Horizonte (Brésil)". Paris 5, 2005. http://www.theses.fr/2005PA05H012.

Texto completo
Resumen
Cette recherche a comme objet les pratiques de lecture développées par les enseignants, à l'école primaire, au Brésil. Nous cherchons à connaître les possibilités de formation du lecteur à l'école, et nous centrons notre analyse sur la construction du curriculum de la lecture par chaque enseignant, à partir de leurs déclarations à propos des types de textes utilisés, des activitées développées dans la salle de classe et dans la bibliothèque de classe ou d'école. Nous analysons, ensuite, d'autres aspects concernant l'enseignant : sa formation, ses convictions pour former une élève lecteur, sa journée de travail, son planning et surtout son rapport personnel avec la lecture, dans l'enfance, dans la jeunesse et aujourd'hui. Notre référentiel théorique s'appuie sur la sociologie des enseignants, la sociologie du curriculum et la sociologie de la lecture. La méthodologie est fondée sur des entretiens, des questionnaires et des documents, traités par l'analyse de contenu
This research paper is aimed at the reading practices developed by teachers, preliminary school, in Brazil. We try to know the possibilities of reader formation at school and we focus our analysis on the making up of a reading curriculum for every teacher, based upon their declarations concerning the types of texts they use, activities engaged at the classrooms and at the library of the class or school. We then analyse other aspects concerning the teacher : his background, his beliefs in shaping a student reader, his workday, his planning, and above all his personal relationship with reading, at childhood, as a teenager and today. Or theoretical framework is based on the sociology of teachers, the sociology of curriculum and the sociology of reading. The methodology is grounded on interviews, answers to written questions and documents, handled through content analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Demesmay-Guilhin, Claire. "Spéciation de l'arsenic par couplages chromatographie en phase liquide et méthodes spectrales d'analyse élémentaire spécifiques : application à des sols et sédiments". Lyon 1, 1992. http://www.theses.fr/1992LYO10270.

Texto completo
Resumen
Compte tenu de la diversite des proprietes des composes d'arsenic presents dans l'environnement, la simple determination de la quantite totale en arsenic elementaire n'est aujourd'hui plus suffisante, et l'impact de l'arsenic ne peut etre reellement estime que si la nature et la concentration de chacune des especes sont evaluees precisement. Nous avons ainsi entrepris un travail de speciation de l'arsenic, c'est-a-dire de differenciation et de quantification des differents composes d'arsenic. Dans la premiere partie de notre travail, nous avons developpe des techniques de couplage entre la chromatographie liquide et des methodes de detection elementaires specifiques: spectrometrie de masse a plasma et absorption atomique apres generation d'hydrures post-colonne et atomisation dans un four en quartz. Ces deux techniques de couplage permettent la determination de six (ou quatre) composes d'arsenic en un temps d'analyse inferieur a dix minutes et avec des limites de detection de l'ordre de quelques dizaines a quelques centaines de picogrammes d'arsenic pour chacun des composes. L'analyse de solutions standards d'arsenic et de differents echantillons naturels a montre la reproductibilite et la fiabilite de ces deux methodes. Dans la deuxieme partie de ce memoire, nous nous sommes interesses plus particulierement a la speciation de l'arsenic dans les sols et sediments et avons developpe des methodes d'extraction permettant la mise en solution des composes d'arsenic sans modification des equilibres chimiques entre les especes
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Pansart, Lucie. "Algorithmes de chemin élémentaire : application aux échanges de reins". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM039.

Texto completo
Resumen
Cette thèse traite de problèmes de chemins élémentaires et leur application au problème d’échange de reins. Nous nous concentrons sur des programmes d’échange de reins qui incluent des donneurs altruistes, qui sont essentiels pour les patients avec une maladie rénale, mais représentent un défi pour les méthodes de recherche opérationnelle. Notre objectif est de développer un algorithme efficace qui pourra être utilisé pour résoudre des instances futures, qui sont susceptibles d’impliquer un grand nombre de participants. Nous rencontrons des problèmes étroitement lié au notre : problèmes de packing, de tournée de véhicules, de stable. Pour ce dernier, nous présentons une nouvelle formulation étendue et prouvons qu’elle est idéale et compacte pour les graphes parfaits sans griffe. Nous nous focalisons ensuite sur la conception d’une génération de colonnes dédiée au problème d’échange de reins et nous attaquons à son problème de pricing, NP-difficile. Nous abordons le problème du chemin élémentaire minimum avec contrainte de taille, qui modélise la recherche de chaînes de dons intéressantes à ajouter dans la phase du pricing. Nous étudions des approches dynamiques, en particulier la relaxation NG-route et l’heuristique de color coding, et les améliorons en exploitant la contrainte de taille et la faible densité des graphes considérés. Nous nous intéressons ensuite au color coding dans un contexte plus général, proposant de nouvelles stratégies randomisées qui apportent une garantie d’amélioration. Ces stratégies s’appuient sur un ordonnancement du graphe et introduisent un biais dans la loi de probabilité pour augmenter les chances de trouver une solution optimale
This thesis deals with elementary path problems and their application to the kidney exchange problem. We focus on kidney exchange programs including altruistic donors, which are crucial for patients with renal disease and challenging for operations research methods. The goal of this work is to develop an efficient algorithm that can be used to solve future instances, which are likely to involve a large number of donors and patients. While we progress on this topic, we encounter closely related problems on packing, vehicle routing and stable set. For this last problem, we introduce a new extended formulation and prove it is ideal and compact for claw-free perfect graphs by characterizing its polytope. We then concentrate on the design of a column generation dedicated to the kidney exchange problem and confront its NP-hard pricing problem. The specific problem that we address is the elementary path problem with length constraint, which models the search for interesting chains of donation to add during the pricing step. We investigate dynamic approaches, in particular the NG-route relaxation and the color coding heuristic, and improve them by exploiting the length constraint and sparsity of graphs. We study the color coding in a more general context, providing a guaranteed improvement by proposing new randomized strategies. They are based on ordering the graph before coloring it and introduce a bias in the probability distribution to increase the probability of finding an optimal solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Bloch-Michel, Valérie. "Logiciel d'estimation de paramètres cinétiques de processus élémentaires en phase gazeuse". Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL010N.

Texto completo
Resumen
Un logiciel d'estimation de paramètres cinétiques de réactions élémentaires en phase gazeuse, par les méthodes de la cinétique thermochimique de BENSON, a été mis au point. Ce logiciel permet de calculer le facteur préexponentiel et l'énergie d'activation des amorçages unimoléculaires et bimoléculaires, des combinaisons et dismutations de radicaux libres et des isomérisations radicalaires, et le facteur préexponentiel des réactions de métathèses, d'addition d'un radical libre sur une molécule insaturée, et de décomposition unimoléculaire d'un radical libre. Le calcul des données cinétiques des amorçages et des terminaisons est effectué à l'aide de la théorie des collisions, alors que les paramètres cinétiques des autres réactions sont calculés à partir de la théorie du complexe active. Le logiciel a été mis en œuvre pour des réactions élémentaires de pyrolyse et d'oxydation d'hydrocarbures. La comparaison des résultats calculés avec des valeurs d'origine expérimentale montre un accord satisfaisant. Le logiciel a été incorporé dans un code plus vaste de création de modèles cinétiques de combustion dans les moteurs
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Arnal, Mathieu. "Développement d'une évaluation génomique pour l'analyse de données longitudinales : application aux contrôles élémentaires chez les caprins laitiers". Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0124.

Texto completo
Resumen
L’amélioration génétique des caprins laitiers est basée, à ce jour, sur la mesure de la quantité et de la qualité de la production laitière des femelles en ferme, à intervalles de 4 à 5 semaines au cours de la lactation, selon des protocoles stricts. L’évaluation génétique de la quantité de lait repose sur l’estimation de la quantité de lait totale produite par lactation. Cette sélection à partir de la quantité totale de lait à la lactation a tendance à sélectionner des animaux avec une production au pic de lactation de plus en plus élevée. Une production importante en début de lactation peut être à l’origine, pour les femelles, de problèmes métaboliques. De plus, en caprins laitiers, dans un contexte de production saisonnée, une production laitière qui se maintient après le pic, i.e. persistante, permettrait une production laitière plus étalée, en lien avec les attentes du marché. Il y a donc un intérêt zootechnique et économique de vouloir sélectionner des chèvres laitières plus persistantes. Dans notre étude, l’approche consiste à modéliser la forme de la courbe de lactation à partir des informations recueillies lors de chaque contrôle en ferme. Les modèles permettant l’analyse de telles données longitudinales sont généralement appelés modèles de contrôles élémentaires. L’un des principaux intérêts, est une meilleure prise en compte d’effets d’environnement, affectant la production le jour du contrôle, avec un effet troupeau-jour de contrôle ne dépendant que des animaux présents lors du contrôle. Le deuxième avantage de ce type de modèle réside dans la modélisation de la plupart des effets génétiques et d’environnement sous forme de courbes ; il serait donc possible de sélectionner les animaux avec la meilleure valeur génétique pour la persistance. La mise au point de ces modèles nécessite l’étude préalable des effets d’environnement affectant la production laitière au cours du temps. Suite à une analyse descriptive détaillée des courbes de lactation des deux principales races caprines françaises (Alpine et Saanen), nous avons montré qu’il existait une variabilité de la forme de courbes de lactation, et en particulier que le mois de mise bas était impliqué dans les différentes formes de courbe. Nous avons ensuite proposé un modèle de régression aléatoire, proche de celui développé chez les bovins laitiers français. La modélisation proposée permet d’obtenir directement deux index génétiques : un premier correspondant à la valeur génétique de l’animal pour la quantité totale de lait au cours de la lactation et un deuxième correspondant à une valeur génétique de la persistance laitière de l’animal, et cela sans corrélation entre les deux. Le modèle développé permet de prendre en compte de façon disjointe les chèvres en primipares et les chèvres en multipares. Nous avons également étudié les corrélations entre index de différents caractères, au cours de la lactation ainsi que les corrélations entre persistance et fertilité à l’IA ou entre persistance et longévité. Dans une dernière partie, nous avons étendu le modèle d’évaluation génétique des contrôles élémentaires à un modèle d’évaluation génomique (Singlestep GBLUP) permettant d’exploiter l’ensemble des informations moléculaires disponibles (génotypages SNP 50K). Une validation de ce modèle et une comparaison au modèle actuel ont été réalisées. Les différences de moyennes des index estimés par année de naissance des boucs constituaient la principale différence entre le modèle Single-step GBLUP RRM et le Single-step GBLUP modèle à la lactation utilisé actuellement. Enfin, à partir du modèle Single-step GBLUP nous avons mis en évidence quelques régions du génome intéressantes liées à la persistance laitière
Genetic improvement of dairy goats is based on the measurement of the quantity and quality of milk production of females on farms, at intervals of 4 to 5 weeks during lactation, according to strict protocols. The genetic evaluation of the quantity of milk is based on the estimation of the total quantity of milk produced per lactation. This selection based on the total quantity of milk in lactation tends to select animals with increasingly high peak lactation production. High production at the beginning of lactation can cause metabolic problems for females. In addition, in the case of dairy goats, in a context of seasonal production, a milk production that is maintained after the peak, i.e. persistent, would allow a more spread out milk production, in line with market expectations. There is therefore a zootechnical and economic interest in wanting to select more persistent dairy goats. In our study, the approach consists in modelling the shape of the lactation curve based on the information collected during each farm test. Models allowing the analysis of such longitudinal data are generally called test-day models. One of the main interests is to take better account of environmental effects, affecting production on test-day, with a herd-test-day effect depending only on the animals present during the test. The second advantage of this type of model is that most genetic and environmental effects are modelled as curves, so it would be possible to select animals with the best genetic value for persistence. The development of these models requires the prior study of the environmental effects affecting milk production over time. Following a detailed descriptive analysis of the lactation curves of the two main French goat breeds (Alpine and Saanen), we showed that there was a variability in the shape of the lactation curves, and in particular the month of calving was involved in the different curve shapes. Then we proposed a random regression model, similar to that developed in French dairy cattle. The proposed modeling makes it possible to obtain two genetic indexes directly: one corresponding to the genetic value of the animal for the total quantity of milk during lactation and a second corresponding to a genetic value of the animal's milk persistency, without correlation between the two. The model proposed is more relevant than the current one because it takes into account, in a disjointed way, the goats in primiparous and the goats in multiparous. We also studied correlations between indexes of different traits during lactation and correlations between persistence and AI fertility or between persistence and longevity. In the last part of the thesis, we extended the genetic evaluation of test-day to a genomic evaluation model (Single-step GBLUP) allowing to exploit all available molecular information (genotyping SNP 50K). A validation of this model and a comparison with the current model was carried out. The main difference between the Single-step GBLUP RRM and the Single-step GBLUP lactation model currently in use was the differences in the averages of the estimated indexes per year of birth of the bucks. Finally, from the Single-step GBLUP model we have identified some interested regions of the genome linked to milk persistence
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Borchardt, Gaëlle. "L’influence des connaissances graphotactiques sur l’acquisition de l’orthographe lexicale : étude chez l’enfant d’école élémentaire et chez l’adulte". Thesis, Paris 5, 2012. http://www.theses.fr/2012PA05H114/document.

Texto completo
Resumen
L’objectif de cette thèse est d’étudier le rôle des connaissances orthographiques générales,appelées connaissances graphotactiques, dans l’acquisition de l’orthographe lexicale (i.e.,l’orthographe de mots spécifiques) chez des élèves de l’école élémentaire (CE2 et CM2) etdes adultes.Une première expérience (chapitre expérimental I) confirme des études antérieures montrantque des élèves de l’école élémentaire sont sensibles à diverses régularités graphotactiques,certaines plus difficilement repérées que d’autres (e.g., Danjon & Pacton, 2009 ; Pacton et al.,2001), et les prolonge en montrant que même des adultes ne semblent pas (systématiquement)recourir à des règles spécifiant par exemple que les consonnes doubles peuvent survenir avantmais pas après les consonne simples.Une seconde expérience (chapitre expérimental II) précise le rôle des connaissances enorthographique lexicale et celui des connaissances graphotactiques lors de l’apprentissageimplicite de l’orthographe de non-mots insérés dans des textes que des élèves de CM1 et CM2lisent pour les comprendre (situation de self-teaching, Share, 1995, 1999). Des analyses derégression montrent en effet que les deux types de connaissances orthographiques expliquentdes parts de variance indépendantes du niveau d’apprentissage de l’orthographe des non-mots,même après avoir contrôlé diverses habiletés (conscience phonémique, recodagephonologique, capacité à produire des orthographes phonologiquement plausibles).Les six expériences suivantes (chapitres expérimentaux III et IV) explorent si et comment lesconnaissances graphotactiques influencent l’apprentissage de l’orthographe lexicale dansdiverses situations d’apprentissage de non-mots en manipulant le degré de convergence entreles orthographes des non-mots et les régularités graphotactiques de la langue française. Deuxpropriétés graphotactiques sont manipulées, l’une de type probabiliste (certaines consonnessont plus fréquemment doublées que d’autres), l’autre descriptible sous forme de règle (lesconsonnes doubles peuvent survenir avant mais pas après les consonnes simples). Dans diverses situations d’apprentissage (implicite vs. explicite ; non-mots insérés dans des textesvs. présentés isolément ; lecture silencieuse vs. à haute voix) et de test (rappel vs.reconnaissance), les résultats montrent que des élèves de CE2 et CM2 et des adultesacquièrent des connaissances relatives à l’orthographe de mots spécifiques (e.g., la présenced’un doublet) mais se fondent également sur leurs connaissances relatives aux régularitésgraphotactiques pour reconstruire l’orthographe des mots. Ce processus de reconstruction explique que certaines orthographes sont plus difficiles à mémoriser que d’autres ainsi que lecaractère systématique de certaines erreurs. Par exemple, les élèves et les adultes, qui serappellent de la présence d’un doublet dans un item spécifique mais ne se rappellent pas de lalettre spécifique qui est doublée, semblent se fonder sur leur sensibilité au fait que certainesconsonnes sont plus souvent doublées que d’autres, ce qui explique que les erreurs detransposition d’une consonne rarement doublée vers une consonne fréquemment doublée(tiddunar orthographié TIDUNNAR) sont beaucoup plus nombreuses que les erreurs detransposition d’une consonne fréquemment doublée vers une consonne rarement doublée(tidunnar orthographié TIDDUNAR).L’ensemble de ces expériences contribue donc à une meilleure compréhension du rôledes connaissances graphotactiques dans l’acquisition et la production de l’orthographe demots spécifiques, et plus généralement, de l’intégration de différentes sources deconnaissances dans l’acquisition du langage écrit
Pas de résumé en anglais
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Georgiou, Aubin. "Modélisation à l'échelle mésoscopique de la cellule élémentaire d'un renfort composite 3D interlock à partir de tomographies à rayon X". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/70370.

Texto completo
Resumen
Ce mémoire présente les travaux de mise en œuvre d'un modèle numérique par éléments finis de la cellule unitaire représentative d'un composite interlock 3D, à partir de tomographies. Ce matériau se compose de torons tissés dans les directions chaine et trame, ainsi qu'à travers l'épaisseur. Ce type d'interlock 3X a été largement étudié ces dix dernières années, sans pour autant que des modèles numériques performants soient réalisés, ce qui rend nécessaire une modélisation numérique de sa cellule unitaire. Il présente pourtant des avantages vis-à-vis des autres types de composites, notamment grâce à l'absence du phénomène de délamination, cause principale de dégradation des composites. Ce travail présente la démarche et les moyens mis en œuvre pour obtenir la cellule unitaire numérique du matériau. Des tomographies de différents états du tissu sec, non compacté et compacté, ont été réalisées afin de générer un modèle éléments finis à partir du logiciel de traitement d'image AVIZO ainsi que du logiciel de génération de textile TEXGEN. Un modèle simplifié d'une tranche de cellule unitaire a été choisi afin de simuler et valider le procédé de compaction numérique avec le logiciel élément finis Abaqus. Les résultats du modèle de compaction ont été comparés aux tomographies du tissu sec compacté. Les résultats de cette simulation simplifiée sont prometteurs. La déformation et les déplacements des torons obtenus sur la cellule unitaire du tissu sec simulé sont très proches de ceux observés sur les tomographies du tissu compacté de la sorte.
This thesis presents the work conducted toward the development of a finite element model of the representative unit cell of a 3D interlock composite, based on tomographies. This material is composed of yarns woven in the warp and weft directions, as well as through the thickness. This kind of 3X interlock has been very little studied to date, which makes numerical modelling of its unit cell necessary. However, it present advantages over other types of composites, in particular the absence of delamination phenomenon, the main cause of composite degradation. This work presents the approach and the means employed to obtain the numerical unit cell of the material. Tomographies of different states of the dry, uncompacted and compacted fabric were carried out in order to generate a finite element model from the image processing software AVIZO and the textile generation software TEXGEN. A simplified model of a unit cell slice was chosen in order to simulate and validate the numerical compaction process with the Abaqus finite element software. The results of the compaction model were compared with tomographies of dry texile. The results of this simplified simulation are promising. The deformation and displacements of the yarns obtained on the unit cell of the simulated dry textile are very close to those observed on tomographies of the compacted textile.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Dimitriou, Konstantinos. "Etude des collisions d'ions et d'électrons avec atomes et molécules par la méthode des trajectoires classiques". Paris 11, 2001. http://www.theses.fr/2001PA112333.

Texto completo
Resumen
L'évaluation des sections efficaces des processus observés lors des collisions entre électrons, atomes, ions et molécules simples est le but de ce travail. La méthode Monte Carlo de trajectoires classiques (CTMC) qui a été souvent utilisée pour le calcul de telles sections efficaces est ici étendue pour traiter des collisions à quatre et cinq corps et appliquée à l'étude des collisions H-H, H+ -H2+, He++ -H2+, H+ -H2. Pour élargir le champ d'application, des calculs quantiques du type de combinaison linéaire des fonctions d'ondes atomiques (LCAO) et une évaluation des sections efficaces d'ionisation e - gaz rares ont été aussi effectués. Les sections efficaces d'ionisation et de transfert de charge(s) obtenues par ce travail ont été comparées avec celles venant des calculs disponibles dans la littérature et aussi de l'expérience. On a ainsi vérifié qu'on peut obtenir par la méthode CTMC des résultats fiables dans un grand domaine d'énergies de collision. Pendant ce travail, une étude détaillée des catégories de trajectoires qui constituent la solution du problème dynamique à peu de corps a été nécessaire
Cross section evaluation for the reactions observed in collisions between electrons, ions and simple molecules is the aim of this work. The classical trajectory Monte Carlo method (CTMC) which had been frequently used for calculating such cross sections is here extented in order to treat four-and five-body collisions and applied to the study of H-H, H+ -H2+, He++ -H2+, H+ -H2 collisions. In order to extend the apllication field, quantum calculations of the type of linear combinasion of atomic orbitals (LCAO) and an evaluation of e - rare gas ionization cross sections have been also carried out. The ionization and charge transfer cross sections obtained by this work have been compared with those coming from calculations avaible in the literature, but also with the experiemntal results. It has been so verified that using the CTMC method we can obtain reliable results in a wide domain of collision energies. During this work, a detailed study of the categories of trajectories which constitute the solution of the few-body dynamical systems has been necessary. .
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Blanchet, Florent. "Etude de la coupe en perçage par le biais d'essais élémentaires en coupe orthogonale : application aux composites carbone-époxy". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30164/document.

Texto completo
Resumen
L'assemblage de pièces de structures composites, notamment en carbone/époxy, est souvent réalisé par liaison boulonnée. Ceci nécessite le perçage des logements de fixations. Cette opération de perçage doit répondre à des contraintes de fiabilité, de productivité et de qualité d'usinage. L'opération de perçage doit donc être maitrisée, ce qui passe par une meilleure compréhension des phénomènes présents en perçage. Mais l'étude de ces phénomènes se heurte à des obstacles tels que l'aspect confiné de l'opération, la géométrie complexe et variable du foret, la variation de vitesse le long de l'arête principale de coupe... Afin de s'affranchir de ces obstacles, des essais élémentaires représentatifs de la coupe en perçage peuvent être proposés. Ce travail de thèse s'inscrit dans cette optique. Ce travail s'articule autour de trois axes. Le premier concerne une étude de la représentativité des différents essais élémentaires vis-à-vis du perçage. Un outil d'identification de géométrie d'outil est proposé ; il permet d'identifier l'évolution de la géométrie locale des outils coupants et ainsi de proposer des essais élémentaires qui soient géométriquement et cinématiquement représentatifs de la coupe en perçage. Le second axe développé propose une étude des phénomènes présents en coupe orthogonale quasi-statique. Cela permet de s'affranchir des effets liés à la vitesse. Dans ce cadre, des essais de corrélation d'images en coupe orthogonale sont proposés. Ils permettent l'analyse des champs de déplacements et de déformations. Une analyse des efforts générés, de la morphologie des copeaux et des états de surfaces obtenus en fonction de l'angle de coupe et de l'angle ?2 entre la vitesse de coupe et la direction des fibres est également réalisée. Deux types de modèles numériques, macro- mécanique et micro-mécanique, sont proposés. Ils sont confrontés aux résultats expérimentaux. Le dernier axe de travail présente l'analyse des phénomènes liés à la vitesse de coupe en coupe orthogonale. Le modèle macro-mécanique est modifié afin d'intégrer des phénomènes tels que la variation des contraintes à rupture de la matrice en fonction de la vitesse de déformation, ou encore l'évolution du frottement en fonction de la vitesse de glissement. Les résultats du modèle sont confrontés aux résultats expérimentaux
In aeronautical sector, assembly of CFRP composite structures requires the drilling of the fastener holes. Requirements of reliability, productivity and machining quality are imposed on the drilling process. The operation must be mastered, which requires a better understanding of the phenomena occurring during drilling. But the study of these phenomena faces several major challenges such as the confined aspect of the operation, the complex and variable geometry of the cutting tool, the speed variation along the main cutting edge... To overcome these obstacles, elementary testing representative of the drilling cutting phenomena could be implemented. This is the purpose of this work, which is based on three axes. The first is a study of the geometrical and kinematic representativeness of the elementary tests regarding the drilling operation. A tool geometry identification program is developed. It identifies the evolution of the local geometry of cutting tools along the main cutting edges and allows defining the elementary tests that are geometrically and kinematically representative of the drilling cutting. The second axis developed proposes a study of the phenomena occuring in quasi-static orthogonal cutting. Thus, the effects relative to the cutting speed are not considered. In this context, digital image correlation tests during orthogonal cutting are conducted. They lead to the analysis of the displacements and strains fields. Generated forces, chip morphology and machined surface texture are also investigated, in relation to the rake angle and the angle ?2 between the cutting speed and the direction of fibres. For this configuration, two types of numerical models, a macro-mechanical and a micro-mechanical one, are developed. A comparison is made in relation to experimental results. The last axis of this work concern the analysis of phenomena related to the cutting speed during orthogonal cutting. The macro-mechanical model is modified to include such phenomena as the variation of the matrix breaking stress as a function of strain rate, or the evolution of the friction coefficient according to the sliding velocity. The model results are compared to experimental results
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Ackerer, Julien. "Mécanismes et taux de dénudation d'un bassin versant élémentaire (Strengbach, France) : apport de l'étude couplée des méthodes de datation isotopique (déséquilibres U-Th-Ra, 10Be in situ) et des méthodes de modélisation hydrogéochimique (KIRMAT)". Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAH002/document.

Texto completo
Resumen
Lors de ce travail de thèse, la combinaison des méthodes de la géochimie analytique et isotopique avec les approches modélisatrices a permis d’apporter de nouvelles connaissances à la compréhension de la zone critique et du régolithe. Pour l’étude du régolithe, ce travail présente une méthodologie permettant de réaliser sur un même profil d’altération les analyses de la géochimie élémentaire, de la minéralogie, ainsi que des isotopes de la série de l’uranium (U-Th-Ra) et de l’isotope cosmogénique du 10Be in situ. Les résultats obtenus montrent l’importance de la bonne résolution spatiale de l’échantillonnage pour pouvoir pleinement exploiter les outils de la série U-Th-Ra et du 10Be in situ, notamment pour déterminer d’une manière indépendante les paramètres clés que sont les taux de production et de dénudation du régolithe à long terme. Les deux profils d’altération réalisés dans cette étude montrent de plus que (1) la structure du régolithe est relativement simple sur les positions sommitales et permet une interprétation continue des données géochimiques et minéralogiques et (2) les processus de pente tendent à augmenter l’hétérogénéité spatiale du régolithe et des processus d’altération. D’une façon complémentaire, le suivi et la modélisation hydrogéochimique des eaux de surface permettent d’étudier les processus d’altération actuels, et de comprendre les mécanismes impliqués dans leurs variabilités récentes. Ce travail a notamment montré le lien pouvant exister entre les modifications enregistrées en surface dans les solutions de sol et l’évolution temporelle des certaines propriétés chimiques des eaux de source (pH, concentration en calcium). Les simulations réalisées ont également permis de comprendre la faible variabilité des flux d’altération globaux exportés par les sources, en relation avec la relative stabilité des concentrations de sodium et de silice dissoute sur la période récente allant de 1990 à 2010. Cette étude a finalement montré l’importance du couplage des méthodes apportant des informations sur les processus d’altération et d’érosion à différentes échelles de temps et d’espace, en particulier pour évaluer correctement la dynamique du régolithe et pour replacer le fonctionnement actuel d’un bassin versant vis-à-vis de son évolution à long terme
In this PhD work, the combination of the geochemical analytic and isotopic approaches with the modeling approaches has allowed to bring new insights to the understanding of the critical zone and the regolith. Concerning the regolith, this work presents a methodology to perform the analyses of the elemental geochemistry, of the mineralogy, as well as of the U-Th-Ra isotopes and of the in situ 10Be cosmogenic isotope along a single weathering profile. The obtained results highlight the importance of the sampling spatial resolution for an exhaustive interpretation of the U-Th-Ra and of the in situ 10Be data, especially to independently determine the key parameters of the long term regolith production and denudation rates. The two weathering profiles realized in this study furthermore show that (1) the regolith structure is relatively simple on ridge-tops and allows a continuous interpretation of the geochemical and of the mineralogical data and (2) the slope processes tend to increase the spatial heterogeneity of the regolith and of the weathering processes. In addition, the monitoring and the modeling of the surface waters allow to investigate the current weathering processes, and to understand the mechanisms involved in their recent variability. This work shows the relationship that can exist between the modifications recorded at the surface in the soil solutions and the temporal evolution of some chemical properties of the spring waters (pH, calcium concentration). The simulations also allow to understand the weak variability of the global weathering fluxes exported by the springs, in relation with the relative stability of the sodium and of the dissolved silica concentrations over the period 1990-2010. This study also demonstrates the interest of the coupling of methods providing information on the weathering and the erosion processes at different time and space scales, in particular to correctly evaluate the regolith dynamic and to position the present-day functioning of a watershed with respect to its long term evolution
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Ragheb, Diana. "Développement de la méthode PIXE à haute énergie auprès du cyclotron ARRONAX". Phd thesis, Ecole des Mines de Nantes, 2014. http://tel.archives-ouvertes.fr/tel-01062444.

Texto completo
Resumen
PIXE, Particle Induced X-ray Emission, est une méthode d'analyse multiélémentaire, rapide, non destructive, basée sur la détection des rayons X caractéristiques émis suite à l'interaction de particules chargées avec la matière. Cette méthode est usuellement utilisée avec des protons accélérés à une énergie de l'ordre de quelques MeV dans des domaines d'applications variés, atteignant une limite de détection de l'ordre de quelques μg/g (ppm). Cependant, la profondeur d'analyse est relativement limitée. Grâce au cyclotron ARRONAX, nous pouvons utiliser des protons ou des particules alpha jusqu'à une énergie de 70 MeV pour mettre en œuvre la technique PIXE à haute énergie. Avec de telles énergies, nous excitons préférentiellement les raies X K, plus énergétiques que les raies L utilisées dans la PIXE classique pour l'analyse des éléments lourds. L'analyse d'échantillons épais, en profondeur, est ainsi accessible. Pour l'analyse des éléments légers, nous pouvons utiliser la détection de rayons gamma émis pas les noyaux excités en combinant les méthodes PIGE et PIXE. Nous allons tout d'abord présenter les caractéristiques et les principes d'analyse de la méthode PIXE à haute énergie que nous avons développée à ARRONAX. Nous détaillerons ensuite les performances atteintes, notamment en termes de limite de détection dans différentes conditions expérimentales. Enfin, nous présenterons les résultats obtenus pour l'analyse d'échantillons multicouches et la quantification d'éléments traces dans des échantillons épais.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Waksman, Sylvie Yona. "Les céramiques byzantines des fouilles de Pergame : caractérisation des productions locales et importées par analyse élémentaire par les méthodes PIXE et INAA et par pétrographie". Université Louis Pasteur (Strasbourg) (1971-2008), 1995. http://www.theses.fr/1995STR13153.

Texto completo
Resumen
Les fouilles de Pergame, en Asie Mineure, ont mis au jour de nombreuses céramiques datées du 12ème - 14ème siècles. Parmi celles-ci, pièces inachevées, ratés de cuisson et pernettes attestent d'une production locale sur le site à l'époque byzantine. Un échantillonnage représentatif constitué de 160 tessons a été soumis à l'analyse élémentaire par les méthodes PIXE (Particle induced X-ray emission) et INAA (instrumental neutron activation analysis). L'application de techniques statistiques multivariées aux résultats d'analyse a permis de classer les tessons par groupes de composition similaire et de distinguer les céramiques fabriquées à Pergame des céramiques importées. Plusieurs groupes de productions locales sont attestés, correspondant à des céramiques de catégorie et d'époque de fabrication différentes. La caractérisation géochimique des pâtes, complétée par des examens pétrographiques et minéralogiques, indique que des matières premières spécifiques ont été utilisées pour fabriquer chacun de ces produits. Les données analytiques relatives aux céramiques produites à Pergame pourront servir de référence pour des études de provenance ultérieures. Du fait de la rareté de tels groupes de référence, les céramiques importées à Pergame ne peuvent être attribuées à leur lieu d'origine. Parmi les types de céramiques diffusées à grande distance dans le monde byzantin, des importations de quelques exemplaires de "sgraffito fin" et de "Zeuxippus ware" sont identifiés. Ce dernier type a été une source d'influence stylistique pour les ateliers de Pergame, car les analyses montrent que des imitations de "Zeuxippus ware" y ont été fabriquées. Ces imitations ont probablement elles-même connu une diffusion régionale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

El, Hajjar Ragheb Diana. "Développement de la méthode PIXE à haute énergie auprès du cyclotron ARRONAX". Thesis, Nantes, Ecole des Mines, 2014. http://www.theses.fr/2014EMNA0137/document.

Texto completo
Resumen
PIXE, Particle Induced X-ray Emission, est une méthode d’analyse multiélémentaire, rapide, non destructive, basée sur la détection des rayons X caractéristiques émis suite à l’interaction de particules chargées avec la matière. Cette méthode est usuellement utilisée avec des protons accélérés à une énergie de l’ordre de quelques MeV dans des domaines d’applications variés, atteignant une limite de détection de l’ordre de quelques μg/g (ppm). Cependant, la profondeur d’analyse est relativement limitée. Grâce au cyclotron ARRONAX, nous pouvons utiliser des protons ou des particules alpha jusqu’à une énergie de 70 MeV pour mettre en œuvre la technique PIXE à haute énergie. Avec de telles énergies, nous excitons préférentiellement les raies X K, plus énergétiques que les raies L utilisées dans la PIXE classique pour l’analyse des éléments lourds. L’analyse d’échantillons épais, en profondeur, est ainsi accessible. Pour l’analyse des éléments légers, nous pouvons utiliser la détection de rayons gamma émis pas les noyaux excités en combinant les méthodes PIGE et PIXE. Nous allons tout d’abord présenter les caractéristiques et les principes d’analyse de la méthode PIXE à haute énergie que nous avons développée à ARRONAX. Nous détaillerons ensuite les performances atteintes, notamment en termes de limite de détection dans différentes conditions expérimentales. Enfin, nous présenterons les résultats obtenus pour l’analyse d’échantillons multicouches et la quantification d’éléments traces dans des échantillons épais
Particle Induced X-ray Emission (PIXE) is a fast, nondestructive, multi-elemental analysis technique. It is based on the detection of characteristic X-rays due to the interaction of accelerated charged particles with matter. This method is successfully used in various application fields using low energy protons (energies around few MeV), reaching a limit of detection of the order the μg/g (ppm). At this low energy, the depth of analysis is limited. At the ARRONAX cyclotron, protons and alpha particles are delivered with energy up to 70 MeV, allowing the development of the High Energy PIXE technique. Thanks to these beams, we mainly produce KX-rays, more energetic than the LX-rays used with standard PIXE for the heavy elements analysis. Thus, in depth analysis in thick materials is achievable. For light element analysis, the PIGE technique, based on the detection of gamma rays emitted by excited nuclei, may be used in combination with PIXE. First of all, we will introduce the characteristics and principles of high energy PIXE analysis that we have developed at ARRONAX. Then we will detail the performance achieved, particularly in terms of detection limit in various experimental conditions. Finally, we present the results obtained for the analysis of multilayer samples and quantification of trace elements in thick samples
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Serrero, Françoise. "Vitruve 1982-1995, les annees jean marc regard sur une ecole publique qui reflechit a la construction des savoirs et a l'apprentissage de la citoyennete". Paris 7, 1999. http://www.theses.fr/1999PA070105.

Texto completo
Resumen
Au carrefour de l'ethnodeveloppement de robert jaulin et de l'ethnomethodologie de yves lecerf telles que ces deux disciplines furent developpees dans les annees 1980/1990 par le departement d'ethnologie de l'universite de paris 7, et dans la lignee de la recherche-action en science de l'education, cette these s'efforce de saisir dans sa diversite et ses contradictions un moment de l'ecole primaire publique vitruve (paris 20ʿ) qui travaille depuis 1962 a produire de l'innovation pedagogique dans la tradition de l'education nouvelle. Par la presentation integrale d'entretiens et de reunions d'equipe enregistres au magnetophone, par le recit de ses propres processus de decouverte, une analyse de sa demarche collaborative et une enquete documentee sur les sources de la pensee d'un enseignantrenovateur, jean marc, l'auteur propose un rapport a l'ecoute et aux lectures possibles vers une histoire de l'histoire des idees. Le discours de jean marc est presente et analyse selon deux axes et deux periodes : 1/ 1992-93 : jean marc, instituteur de la republique raconte et analyse sa pratique sur l'apprentissage de la citoyennete et de la democratie et sur l'evolution du statut de l'enfant. 2/ 1994-95 : jean marc, praticien-chercheur essaye de transmettre a l'equipe d'instituteurs qui co-gere l'ecole avec lui, les methodes de sa recherche et ses principes de coherence. La recherche de jean marc porte sur la "globalisation" et tente d'harmoniser les acquisitions, la construction du social et la demarche de projet a l'aide des traditions positivistes, rationalistes et marxistes de la france des annees 70. La recherche de l'auteur s'attache a proposer des moyens pour multiplier les lectures possibles par l'introduction de plusieurs tables des matieres, d'un appareil de notes important, par la mise en concordance des concepts et l'etablissement de liens hypertextes. Elle doit conduire a la realisation d'une archive cd rom.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Perrot, Camille. "Microstructure et Macro-Comportement Acoustique : Approche par reconstruction d'une Cellule Élémentaire Représentative". Phd thesis, INSA de Lyon, 2006. http://tel.archives-ouvertes.fr/tel-00123464.

Texto completo
Resumen
La question fondamentale de la détermination des propriétés acoustiques de milieux poreux à partir de leur géométrie locale est examinée dans cette thèse de doctorat, à partir d'un échantillon de mousse d'aluminium à cellules ouvertes ayant été analysé par microtomographie axiale à rayons-X. Plusieurs propriétés géométriques sont mesurées pour caractériser l'échantillon expérimental à l'échelle de la cellule. Cette information est utilisée de manière à reconstruire un milieu poreux au moyen d'unités cellulaires idéalisées tri- et bi- dimensionnelles. La dépendance en fréquences des champs de températures et de vitesses gouvernant la propagation et la dissipation des ondes acoustiques à travers un milieu poreux rigide est calculée par simulation de mouvement Brownien et par la méthode des éléments finis, respectivement. Le comportement macroscopique est obtenu par moyennes spatiales des champs locaux. Nos résultats sont comparés à des données expérimentales obtenues par des mesures au tube d'impédance. Premièrement, cette approche conduit à l'identification des paramètres macroscopiques du model semi-phénoménologique de Pride-Lafarge. Deuxièmement, elle fournit un accès direct aux perméabilités dynamiques thermique et visqueuse. Néanmoins, le modèle bidimensionnel sous-estime la perméabilité visqueuse statique ainsi que la longueur caractéristique visqueuse; ce qui requiert donc une implémentation tridimensionnelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Garcia, Sanchez David. "Modélisation de la demande énergétique des bâtiments à l'échelle urbaine : contribution de l'analyse de sensibilité à l'élaboration de modèles flexibles". Phd thesis, Ecole des Mines de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00800205.

Texto completo
Resumen
Pour répondre aux enjeux énergétiques et climatiques, une des échelles d'action pertinentes est désormais celle du quartier ou de la ville. Des besoins de connaissance, d'outils d'aide à la décision et d'évaluation à cette échelle se manifestent de plus en plus. Un des volets concerne la modélisation de la demande d'énergie des bâtiments résidentiels, préalable à la mise en place d'actions de rénovation de l'existant ou à la valorisation de sources d'énergie locales. La diversité de situations de terrains, d'objectifs d'acteurs et de contextes de disponibilité de données incitent à rechercher des modèles flexibles, aptes à produire de l'information pour différentes applications, à partir de jeux alternatifs de données d'entrée, combinant des modèles de natures diverses (notamment physiques et statistiques) selon les besoins. Dans cet esprit, le présent travail cherche à explorer le potentiel de méthodes dites ascendantes, s'appuyant sur des modèles développés à l'origine pour la simulation à l'échelle d'un bâtiment isolé, mais extrapolés ici pour le parc de bâtiments d'une zone urbaine sur la base de bâtiments types. Les deux questions clés abordées sont celles de la sélection des bâtiments types et de la reconstitution des données d'entrée pertinentes sur le plan statistique pour la zone étudiée. Des techniques d'analyse de sensibilité, en particulier la méthode des effets élémentaires de Morris, ont été appliquées à un code de calcul thermique de bâtiment (ESP-r). Elles ont mis en évidence une réponse non linéaire du modèle, notamment du fait des interactions entre paramètres et de la dispersion des paramètres d'entrée. Elles ont permis d'identifier les paramètres les plus sensibles et les plus en interaction (concernant les bâtiments eux-mêmes, leur environnement ou leurs habitants), sur lesquels doit être concentré le travail de collecte ou de reconstitution statistique. Un modèle, dénommé MEDUS, de reconstitution de la distribution des besoins de chaleur sur un quartier à partir de trois typologies de bâtiments, a été développé et testé sur le secteur St-Félix à Nantes. Il est alimenté par des données INSEE à l'échelle d'un IRIS. Ses résultats sont analysés, à la fois sous l'angle de la pertinence des typologies choisies et dans une perspective d'application à l'échelle du quartier.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Glanowski, Thomas. "Compréhension et modélisation des mécanismes élémentaires d’endommagement en fatigue d’élastomères renforcés au noir de carbone". Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2019. http://www.theses.fr/2019ENTA0009.

Texto completo
Resumen
Les propriétés en fatigue d’élastomères renforcés au noir de carbone sont fortement conditionnées par leurs populations d’inclusions, qui sont générées par une formulation complexe et les étapes successives du procédé de fabrication (mélangeage, injection et réticulation). L’optimisation de ces propriétés implique d’abord être capable de décrire les caractéristiques statistiques de ces populations d’inclusions en termes de nature, taille, géométrie, orientation et dispersion spatiale. Ensuite, une compréhension fine des mécanismes de ruine est requise afin de définir la criticité des inclusions en terme de tenue mécanique en fonction de leurs caractéristiques, en particulier sous chargement cyclique. Cette étude présente d’abord les outils développés, qui reposent sur une analyse fine de données de micro-tomographies aux rayons X. Les résultats obtenus sur les populations d’inclusions et l’endommagement induit par ces dernières permettent de dégager le potentiel de ces outils et leurs limites actuelles, pour les matériaux considérés. L’existence d’inclusions atypiques, qui n’avaient jusque-là jamais été recensées dans la littérature, a ainsi pu être découverte. Le mécanisme de cavitation apparaît être le plus critique vis-à-vis de la fatigue puisqu’il semble mener à des micro-fissures se propageant dans la matrice. Une comparaison de la criticité des paramètres des inclusions vis-à-vis d’un critère en cavitation est réalisée graçe à une analyse paramétrique par éléments finis. Enfin, des mesures thermographiques à l’échelle des inclusions illustrent les investiguations complémentaires nécessaires à une meilleure compréhension des mécanismes d’endommagement à cette échelle
The fatigue properties of carbon black filled elastomers are strongly related to the inclusions’ population, induced by complex recipes and the successive stages of the manufacturing process (mixing, injection and curing). The improvement of these properties involves at first an ability to describe the statistical features of these inclusions’ population in terms of nature, size, geometry, orientation and spatial distribution. Then, a detailed understanding of the damage mechanisms is required in order to define the mechanical criticality of inclusions according to their characteristics under cyclic loading. This study presents at first the tools developed, based on a detailed analysis of X-ray micro-tomography data. The obtained results on the inclusion’s populations and the damage induced allow highlighting the potential of these tools and their current limits for the studied materials. Atypical inclusions, unknown in the litterature, has been discovered. The cavitation mechanism appears to be the most critical regarding fatigue because it leads to micro-cracks that propagate in the matrix. A comparison of the criticality of the inclusions’ parameters regarding a cavitation criterion is carried out with a parametric study using finite elements simulations. Finally, thermographic measurements at the inclusions’s scale show the additional investiguations needed for a better understanding of the damage mechanisms at this scale
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Mesradi, Mohammed Reda. "Mesures expérimentales et simulation Monte Carlo de la fonction de réponse d'un détecteur Si(Li) : application à l'analyse quantitative multi-élémentaire par XRF et PIXE". Strasbourg, 2009. http://www.theses.fr/2009STRA6188.

Texto completo
Resumen
Dans le but de diversifier les chaines de mesures quantitatives dans le group RaMsEs, les méthodes d’analyse XRF (X-ray fluorescence) et PIXE (Particle Induced X-ray Emession) ont été développées pour la mesure des échantillons environnementaux. Dans une grande partie de ce travail de thèse la simulation Monte-Carlo a été utilisée pour valider l’ensemble des résultats expérimentaux. La methode XRF a été utilisé a l’aide d’une source radioactive d’241Am émettant des rayonnements Gamma de 60 keV. La methode PIXE est développée a l’aide d’un accélérateur 4 MV de type Van de Graaff, qui délivre des protons d’énergies entre 2 et 4 MeV auprès du laboratoire InESS (Institut d'Electronique du Solide et des Systèmes) à Strasbourg. La détermination de la composition de l’échantillon est base sur la mesure des rayonnements de fluorescence X émis par ce dernier a l’aide du détecteur Si(Li). Pour la methode XRF l’auto-absorption des rayonnements de fluorescence a été déterminée expérimentalement par la methode décrite dans [Leroux et al. , 1966; Tertian and Claisse, 1982], est vérifiée par simulation en utilisant les deux codes MCNP et GEANT. Pour PIXE l’auto-absorption est déterminée par MCNP. L’efficacité intrinsèque du détecteur a été déterminée par trois méthodes : avec des sources radioactives, XRF en utilisant la source d’ 241Am et PIXE par des protons de 2 et 3. 8 MeV. Les résultats expérimentaux ont été comparé avec des calcules effectuée par MCNP et GEANT
In order to diversify the analytical capabilities of the RaMsEs group by the X-ray fluorescence methods XRF and PIXE, quantitative analyses are being developed for environmental samples. Monte Carlo simulations are being used to validate some of the results. The XRF experiments are being performed using 241Am as the primary source of electromagnetic radiation. PIXE experiments are done with protons delivered by the 4 MV Van de Graaff accelerator of the Institut d'Electronique du Solide et des Systèmes (InESS) Laboratory of Strasbourg. Determination of the elemental composition of a sample is based on the measurement of X-rays emitted by the elements present in the sample in conjunction with the detector response and, for all except thin targets, the self-absorption of X-rays in the target (matrix effect). In XRF the self-absorption was experimentally determined by a method described in [Leroux et al. , 1966; Tertian and Claisse, 1982] and by simulations with the MCNP code. For PIXE the self-absorption was determined by MCNP. The intrinsic efficiency of the Si(Li) detector has been determined by three methods: with calibrated radioactive sources, XRF by 241Am of metal foils and PIXE with 2 and 3. 8 MeV protons. The experimental results were comforted with MCNP and GEANT simulations
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Martiano, Sandie. "Pratiques et représentations de l'écrit chez les élèves de cycle III de l'école élémentaire au regard de différents modèles pédagogiques". Paris 12, 2005. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990003940910204611&vid=upec.

Texto completo
Resumen
L'enjeu de cette recherche consiste à saisir l'influence de la mise en oeuvre de différents modèles pédagogiques sur les pratiques et les représentations de l'écriture chez les élèves. Il s'agit d'identifier le lien existant entre les paramètres caractéristiques de ces modèles et l'évolution des pratiques et représentations de l'écrit des élèves. Nos investigations ont porté sur cinq classes de 3ème année de cycle III. Divers types de données ont été analysées : des observations de séances, des enregistrements audio des échanges en classe entière ou en petits groupes, des questionnaires écrits destinés aux élèves afin de recueillir leurs représentations de l'écrit et du travail de groupe, des textes d'élèves et des entretiens semi-directifs conduits avec les enseignantes. Les résultats de cette étude montrent que l'évolution des représentations et des pratiques des élèves est fonction de la présence de certains paramètres ou de combinaisons de paramètres constitutifs des dispositifs
The purpose of the study is to grasp the influence of the implementation of various pedagogical models on the practices and representations of writing among pupils. The point is to identify the existing correlation between the characteristic parameters of these models and the evolution of the practices and representations of writing among pupils. Our research was carried on five groups of third-year pupils in cycle III. Various data have been analyzed : class observations, audio recordings of activities with the whole group or with smaller groups, written questionnaires filled by the pupils to collect their representations of writing and of group-work, pupils' texts and semi-conducted interviews led with the collaboration of the teachers. The results of this study display that the evolution of practices ans representations of writing is conditioned by the presence of some parameters or by the combination of several parameters that are typical of the pedagogical models
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Khdir, Younis Khalid. "Non-linear numerical homogenization : application to elasto-plastic materials". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10023/document.

Texto completo
Resumen
Ce travail de thèse se veut une contribution à l’homogénéisation numérique des milieux élasto-plastiques hétérogènes aléatoires via des calculs sur des grands volumes. La thèse comporte deux parties principales. La première est dédiée à la réponse élasto-plastique macroscopique des composites, à distribution aléatoire de la seconde phase, sollicités en traction uniaxiale. La deuxième est focalisée sur la réponse macroscopique à la limite d’écoulement des milieux poreux aléatoires sur une large gamme de triaxialités. Dans la première partie, nous décrivons une méthode d’homogénéisation numérique pour estimer la réponse élasto-plastique macroscopique de milieux composites aléatoires à deux phases. La méthode est basée sur des simulations éléments finis utilisant des cellules cubiques tridimensionnelles de différentes tailles mais plus petites que le volume élémentaire représentatif de la microstructure. Dans une seconde partie, nous décrivons une étude d’homogénéisation numérique par éléments finis sur des cellules cubiques tridimensionnelles afin de prédire la surface d’écoulement macroscopique de milieux poreux aléatoires contenant une ou deux populations de vides. La représentativité des résultats est examinée en utilisant des cellules cubiques contenant des vides sphéroïdales, répartis et orientés aléatoirement. Les résultats numériques sont comparés à des critères d’écoulement existants de type Gurson
This PhD dissertation deals with the numerical homogenization of heterogeneous elastic-plastic random media via large volume computations. The dissertation is presented in two main parts. The first part is dedicated to the effective elastic-plastic response of random two-phase composites stretched under uniaxial loading. The second part is focused on the effective yield response of random porous media over a wide range of stress triaxialities. In the first part, we describe a computational homogenization methodology to estimate the effective elastic-plastic response of random two-phase composite media. The method is based on finite element simulations using three-dimensional cubic cells of different size but smaller than the deterministic representative volume element of the microstructure. In the second part, we describe using the finite element method a computational homogenization study of three-dimensional cubic cells in order to estimate the effective yield surface of random porous media containing one or two populations of voids. The representativity of the overall yield surface estimates is examined using cubic cells containing randomly distributed and oriented spheroidal voids. The computational results are compared with some existing Gurson-type yield criteria
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

El, Moumen Ahmed. "Prévision du comportement des matériaux hétérogènes basée sur l’homogénéisation numérique : modélisation, visualisation et étude morphologique". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10077/document.

Texto completo
Resumen
L’homogénéisation est une technique de passage Micro-Macro en tenant compte de l’influence des paramètres morphologiques, mécaniques et statistiques de la microstructure représentative d’un matériau hétérogène. La modélisation numérique a contribué fortement au développement de cette technique en vue de déterminer les propriétés physico-mécaniques des matériaux hétérogènes bi et multiphasiques. L’objectif principal de ce travail est la prédiction du comportement macroscopique élastique et thermique de matériaux hétérogènes. Les comportements mécaniques et thermiques ont été déterminés numériquement puis comparés aux résultats expérimentaux et analytiques. La variation du volume élémentaire représentatif (VER) en fonction de la fraction volumique et du contraste a été analysée. Cette étude a mis en évidence l’intérêt d’une détermination rigoureuse de la taille optimale du VER. En effet, celle-ci doit prendre en compte plusieurs paramètres tels que la fraction volumique, le contraste, le type de la propriété et la morphologie de l’hétérogénéité. Un nouveau concept de morphologie équivalente a été proposé. Ce concept introduit le principe d’équivalence des caractéristiques élastiques et thermiques des matériaux hétérogènes d’une microstructure de morphologie complexe avec celles d’une microstructure contenant des particules sphériques. Ce travail a conduit à l’élaboration d’une démarche globale de design microstructural en intégrant la morphologie réelle des phases des microstructures hétérogènes intégrant à la fois la visualisation des images, l’étude morphologique et la modélisation géométrique et numérique
The homogenization is a technique of Micro-Macro passage taking into account the influence of morphological, mechanical and statistical parameters of the representative microstructure of an heterogeneous material. Numerical modeling has contributed significantly to the development of this technique to determine the physical and mechanical properties of bi-and multi-phase heterogenous materials. The main objective of this work is the prediction of the macroscopic elastic and thermal behaviors of heterogeneous materials. The mechanical and thermal behaviors was determined numerically and compared with experimental and analytical results. The variation of the representative volume element (RVE) versus volume fraction and the contrast was analyzed. This study showed the importance of a rigorous determination of the optimal RVE size. Indeed, it must take into account several parameters such as : volume fraction, contrast, type of property and the morphology of the heterogeneity. A new concept of the equivalent morphology was proposed. This concept introduces the equivalence of the elastic and thermal characteristics of a microstructure of heterogeneous materials with complex morphology and those of a microstructure containing spherical particles. This work led us to developement of a comprehensive approach to microstructural design by integrating the real morphology of heterogeneous microstructure phases incorporating at the same time the image visualization, the morphological study and the geometric and numerical modeling
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Ouaouicha, Hassan. "Simulation du fonctionnement logique de FELIN : algorithmes de calcul simultané de racines de polynômes". Phd thesis, Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00324430.

Texto completo
Resumen
Présentation d'une méthodologie de simulation du fonctionnement logique du coprocesseur arithmétique FELIN. Étude des méthodes de Durand-Kerner et d'Ehrlich pour la recherche simultanée de toutes les racines d'un polynôme à coefficients complexes. Elles sont ensuite comparées à cinq variantes algorithmiques. Une étude comparative est proposée. L'étude expérimentale de ces différentes méthodes est menée sur une architecture vectorielle
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Guan, Shian. "Étude de la synthèse de dioxyde de vanadium : propriétés physico-chimiques, dopages élémentaire et applications sous forme de films". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0443.

Texto completo
Resumen
L’oxyde VO2 est un matériau prometteur pour son utilisation en tant que film pour fenêtres intelligentes en raison de sa transition réversible métal isolant à 68°C. Cette transition est accompagnée par d’importantes modifications des propriétés optiques avec passage d'un état transparent à basse température à un état plus opaque du proche infrarouge. D’un point de vue cristallographique, la transition implique une transformation de deux phases cristallines: la phase monoclinique (M) et la phase rutile (R).Les verrous technologiques limitant l'utilisation commerciale de cet oxyde sont sa température de transition élevée et sa faible stabilité thermique et chimique. Plus important encore, il n’existe toujours pas de méthode reproductible et peu coûteuse pour la synthèse des particules de VO2.Deux méthodes de synthèse de poudre de VO2 sont proposées. Dans la première méthode, des poudres de VO2 (M) à cristallinité ajustée ont été préparées par un traitement thermique en deux étapes: une décomposition rapide du VEG dans l'air conduisant à la formation de cristaux de VO2 de qualité cristalline médiocre, suivie d'un traitement de post-recuit à des températures plus élevées sous vide dynamique afin que la cristallinité augmente. La deuxième méthode, appelée méthode de carbo-réduction, repose sur le rôle réducteur du carbone. Ici, la suie est choisie pour effectuer une réduction directe d’un oxyde précurseur V2O5 élaboré préalablement et de taille de cristallite nanométrique. La comparaison de scellé et dynamique permet une meilleure compréhension du mécanisme de réduction. La taille moyenne des particules de VO2 obtenues vari de 5,3 um à 415 nm selon la température et la durée du recuit opérées. De plus, les ions métalliques Al3+, Ti4+ et Nb5+ ont été avec succès au sein des oxyde VO2. Les ions Nb5+ présentent l'effet de diminution de la température de transition le plus efficace (Tc= 25°C).Les effets du dopage en Nb sur les propriétés des oxydes VO2, sous tous leurs aspects : morphologie, distorsion des cristaux, stabilité thermique, capacité calorifique, résistivité électrique et susceptibilité magnétique, ont été pleinement étudiés. Enfin, une étude approfondie des propriétés magnétiques est aussi présentée, notamment en se concentrant sur les' impacts de la concentration en dopant et de la taille des particules.La mise en forme en film mince à base de VO2 a été entreprise avec la volonté, de conserver un bon compromis entre la transmittance lumineuse (Tlum) et la capacité de modulation de l’énergie solaire (ΔTsol) de ces films. Par dip-coating, des films VO2 à « structure en îles » ont été fabriqués en suivant notre stratégie de carbo-réduction. Un surfactant : PVP, est utilisé à la fois comme stabilisant de surface et agent réducteur. Pour moduler le taux de couverture par les îles fonctionnels (VO2) de la surface des substrats transparents, trois paramètres d’élaboration ont été modifiés : (i) la concentration de la suspension ; (ii) l’épaisseur de couches de film de V2O5@PVP; (iii) le nombre de couches de VO2 lors de la répétition de la boucle de revêtement par centrifugation / recuit.Enfin, la force motrice de la transition de phase des oxydes de type VO2 n’est toujours pas claire : certains auteurs proposent à cette transition une origine structurale (modèle de Peierls), d’autres énoncent que la transition procède d’une corrélation complexe électron-électron (modèle de Mott). Nous avons également exposé notre point de vue sur cette transition métal-isolant VO2. Dans la limite d'une approche géométrique simple, mais avec une approche originale, les principales forces motrices impliquées dans la transition MIT de VO2 ont été évaluées. Notre approche basée sur le modèle de valence de liaison, nous a permis de montrer que la forme allotropique la plus stable (monoclinique ou rutile) à une température donnée, est celle présentant pour une température donnée le volume de maille unitaire le plus important
VO2 oxide is a promising material for energy-saving smart windows due to its reversible metal-to-insulator transition at 68℃, accompanied by large optical changes from a low temperature transparent state to a more blocking state at high temperature in the near-infrared region. From a crystallographic point of view, the VO2 transition occurs between two crystal phases: monoclinic (M) and rutile (R) phases.The limiting factors for a commercial use are the high transition temperature, unpopular yellow color (film) and poor thermal and chemical stability. Most importantly, there is still lack of a reproducible and low-cost method for VO2 particles synthesis.Two synthesis methods for VO2 powder are proposed. Firstly, VO2 (M) powders with tuned crystallinity were prepared through a two-step thermal treatment: a fast VEG decomposition in air leads to the formation of poor crystal VO2, followed by a post-annealing treatment at higher temperatures in vacuum for a full-crystallization. The second method, named as carbo-thermal reduction method, is based on the reducing role of carbon. Herein soot is chosen for a direct reduction of homemade V2O5 nano-powder. The comparison of sealed or dynamic vacuum systems allows further understanding of the reductive mechanism. The obtained VO2 particles size varied from 5.3 um to 415 nm by adjusting the annealing temperature and time. In addition, Al3+, Ti4+ and Nb5+ metal ions can be doped into VO2, successfully. Nb5+ shows the most efficient effect on decreasing of the transition temperature down to Tc= 25°C.The doping effects of Nb on VO2 are fully investigated on several aspects, including the morphology, crystal distortion, thermal stability, heat capacity and resistivity. Finally, a deep investigation of the magnetic properties with respect to the impact of the doping concentration and the particle size is proposed.The shaping step into thin films, is performance using a dip coating process from VO2 suspensions. This step is investigated to tackle down the trade-off relationship between luminous transmittance (Tlum) and solar-energy modulation ability (ΔTsol) in VO2-based thin films. Zero dimensional island structured VO2 films are fabricated by taking advantage of the reductive strategy using carbon as developed in previous part. PVP is used as a surface stabilizer and reducing agent. To tune the functional materials VO2’s surface coverage on substrate, three elaboration parameters were changed: (i) the suspension concentration; (ii) the V2O5@PVP film layer thickness; (iii) the number of VO2 layers through repeating the spin-coating/annealing loop.Finally, the driving force of the phase transition of VO2 type oxides is still unclear: as far as distortion is concerned, some authors propose to explain this transition a distortional induced structural origin (Peierls model), other state that the transition proceeds by a complex electron-electron correlation (Mott model). We discuss our point of view on this metal-insulator transition of VO2 oxides. In the limits of a simple geometrical approach, we describe here with a new approach, the main driving forces involved in the MIT transition of VO2 oxides. This approach, based on the binding valence model, a well-established model, has allowed us to show that the phase transition is certainly consistent with a maximization of the lattice energy due to a maximization of the unit-cell volume of the VO2 oxides, in other words, the most stable allotropic form is that presenting for a given temperature the largest unit-cell volume
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Rozanski, Adrian. "Sur la représentativité, la taille minimale du VER et les propriétés effectives de transport des matériaux composites aléatoires". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10137/document.

Texto completo
Resumen
Dans cette thèse, on s’intéresse à quelques aspects spécifiques des matériaux composites aléatoires : la taille minimale du volume élémentaire représentatif et la détermination des propriétés effectives de transport. L’objectif principal est de proposer une méthode numérique efficace permettant une détermination rapide des propriétés effectives. Les propriétés de type transport sont considérées. Il est montré que cette classe de propriétés peuvent être déterminées soit en réalisant des calculs sur un échantillon de grande taille soit en faisant moyenne sur un nombre suffisant de petites réalisations de microstructures. Cependant, pour un type de microstructure donné, la taille des ces petites réalisations ne peut pas être inférieure à une certaine limite minimale. Celle-ci est fortement influencées par plusieurs facteurs tel que type de microstructure, fractions volumiques des constituants, contrastes de propriétés entre phases, nombre de réalisation et précision acquise. Par ailleurs, deux types de représentativités sont étudiées : représentativité géométrique et celle en rapport avec les propriétés de transport. Par conséquent, deux critères distincts de taille minimale sont proposés en se basant sur des propriétés des fonctions de corrélation à deux-points. Comparant à d’autres méthodes proposées dans de large littératures, le critère proposé ici comporte un avantage car il tient compte de la morphologie de microstructure. En conséquence, des calculs numériques comme ceux par les éléments finis ne sont pas nécessaires pour la détermination de la taille minimale de REV. La validation de la méthodologie proposée est effectuée sur plusieurs exemples de microstructures 2D
The thesis focuses on random composites and some specific features such as: the minimum size of a representative volume element (RVE) and the determination of effective transport properties. The main objective is to formulate a computationally efficient method which would allow for quick determination of effective properties. The effective properties of transport are considered. It is shown that this class of properties can be estimated either by performing calculations over one large sample or by averaging over a sufficient number of smaller microstructure realizations. However, for a given type of microstructure; the size of such smaller realizations can not be smaller than some critical minimum size. It is shown that this critical size of RVE is strongly affected by several parameters. These are: microstructure type, volume fractions of constituents, contrast in mechanical properties of composite phases, number of performed realizations as well as a desired accuracy. Furthermore, two separate types of representativity are introduced: geometrical representativity and representativity with respect to overall transport properties. Therefore, two distinct criteria for the minimum size of RVE are formulated based on the properties of the two-point correlation function. Comparing to other methods proposed in wide literature, the criterion formulated in the thesis gives an advantage: the condition proposed includes microstructure morphology. Therefore, in order to determine the minimum size of RVE none numerical calculations like those of FE are necessary. A validation of proposed methodology is performed on several examples of 2D microstructures
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Wali, Abderrahmen. "Analyse expérimentale et modélisation multi-échelle du comportement mécanique de mélanges Polycarbonate/Polypropylène : effet de la morphologie". Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10077.

Texto completo
Resumen
L’objectif de ce travail est la caractérisation expérimentale et la modélisation du comportement mécanique des mélanges de polymères immiscibles à base de PC et de PP. Une microstructure majoritairement sphérique dans la plupart des mélanges PC/PP révèle une faible adhésion. Ceci se traduit par une déviation négative des propriétés mécaniques par rapport au % de PP ajouté. La solution de ce problème consiste à ajouter un troisième composant qui peut favoriser l’adhésion à l’interface. La présence de PP-g-MA, malgré sa faible rigidité et sa fragilité, a permis d’améliorer les propriétés mécaniques du mélange. Une approche multi-échelle est développée pour modéliser le comportement effectif du mélange PC/PP en utilisant deux types de modèles différents. Le premier est basé sur l’homogénéisation analytique et le deuxième est défini dans le cadre de l’homogénéisation numérique. La loi statistique de la répartition spatiale de la phase minoritaire a été déterminée à partir des images MEB. Cette loi a permis de générer un volume élémentaire représentatif (VER). Le comportement des constituants a été défini comme élasto-plastique. L’hypothèse d’une interface parfaite ne permet pas de rendre compte du comportement mécanique des mélanges de manière satisfaisante. Afin d’y remédier, un modèle d’endommagement interfacial a été introduit par des surfaces cohésives avec une loi de traction-séparation. Le modèle est en bon accord avec les résultats expérimentaux. Finalement, une étude paramétrique a été réalisée pour mettre en évidence les effets de la forme, du nombre et de l’orientation des nodules de la phase minoritaire sur les propriétés mécaniques non linéaires du mélange
The objective of this work is to perform experimental characterization and to model the mechanical behaviour of immiscible PC/PP blends. A predominantly spherical microstructure, in the most PC / PP blends, reveals low adhesion due to high interfacial tension between two phases which was observed under a scanning electron microscope (SEM). This results in a negative deviation of the mechanical tensile properties accordingly to the % of PP. One of the possible solutions is to add a third component that can improve adhesion between two phases. In this work PP-g-MA was chosen. Despite its low rigidity and brittleness, it has partially improved the mechanical properties of the blends. A multi-scale approach was applied to model the homogenised behaviour of the PC / PP blends using two different types of models. The first one is based on analytical homogenization and the second one will be defined in the context of numerical homogenization. The statistical distribution law for the size of the dispersed phase was determined from the SEM images. This law was applied for representative volume element (RVE) generation. The behaviour of the constituents has been defined as elastoplastic. Initially assumed hypothesis of a perfect interface did not describe the mechanical behaviour of the blends in a satisfactory manner. In order to improve this, a model introducing cohesive surfaces to simulate interfacial damage is developed using traction-separation law. The model is in good agreement with the experimental results. Finally, parametric study was carried out to highlight the effect of the shape, the number and the orientation of dispersed phase on the nonlinear response of blends
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Fournier, Léonie. "Stratégies directes et indirectes d'usage de la langue : l'exemple d'élèves d'école élémentaire en filière franco-allemande". Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAC010.

Texto completo
Resumen
Nous définissons les stratégies d'usage de la langue de la façon suivante : il s’agit de stratégies langagières que les élèves appliquent en résolvant des exercices en langue cible (par exemple de DEL 2). Afin d’analyser ces stratégies langagières, nous menons une étude qualitative auprès de 14 écoliers suivant un cursus franco-allemand à Baden-Baden. Nous demandons aux élèves de résoudre des exercices de français tirés des Évaluations nationales des acquis des élèves. Nous appliquons la méthode de la pensée à voix haute. Les élèves choisissent s'ils verbalisent leurs pensées en langue allemande ou française. L'objectif principal de notre étude est d'analyser et d'éliciter les stratégies d'usage de la langue.Environ 1000 stratégies ont été observées et codées avec le logiciel MAXQDA. Les stratégies cognitives sont les stratégies qui ont été appliquées le plus souvent par les élèves testés - en tout presque 350 fois. La langue de base choisie par les élèves pour les protocoles à voix haute était le français et pas l'allemand
This thesis reports on an empirical study of 3rd and 4th grade students in a German-French bilingual school. The study consisted of research subjects solving exercises by using the thinkaloud method, after which film and transcription analysis allowed for a detailed examination of the strategies used during the exercises. Such strategies have been termed "language usagestrategies" and have been distinguished from learning and communication strategies. This distinction is important because when students use their L2 in this context, their goal is not to learn the language or to communicate, rather, it is to solve the exercise. The students used and combined many cognitive, compensatory, metacognitive, social and affective strategies during the Think aloud Protocols. Also the individual interviews revealed that the students manifested a large number of language usage strategies, suggesting that they are conscious of strategy usage when using their L2
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Ismaël, Amina. "Une évaluation des performances analytiques de la spectroscopie sur plasma induit par laser (LIBS)". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14357/document.

Texto completo
Resumen
La spectroscopie sur plasma induit par laser (LIBS) est une technique d'analyse élémentaire couplant l'ablation laser dans le cas des échantillons solides, à la spectroscopie d'émission atomique. Malgré de nombreux avantages qui en font une technique de plus en plus attractive, la spectroscopie LIBS n'est pas encore reconnue comme méthode d'analyse quantitative. En effet, les problèmes d'hétérogénéité des échantillons, d'effets matrice, d'auto-absorption des raies d'émission et surtout de manque de répétabilité participent à la dégradation des performances analytiques de la spectroscopie LIBS. Dans le but de faire évoluer la technique, ces travaux de thèse consistent à réaliser un cas particulier de démonstration de l'évaluation des performances analytiques d'un système LIBS de laboratoire en intégrant des notions de qualité. L'exemple porte ici sur l'analyse d'échantillons d'aciers certifiés. Une première étude concerne le déroulement de l'optimisation du système pour l'analyse quantitative. L'effet des différents paramètres expérimentaux sur le signal LIBS étant complexe, un protocole méthodique est indispensable. Une étude paramétrique est donc ici proposée en vue de déterminer les conditions expérimentales les plus propices à l'analyse quantitative. Une fois optimisée, la méthode LIBS est ensuite caractérisée grâce aux principes classiques de la validation de méthode. La justesse ainsi que la fidélité de la méthode sont évaluées dans des conditions de répétabilité et de précision intermédiaire. Cette dernière étude montre des résultats prometteurs pour la technique. L'application d'une carte de contrôle montre néanmoins un manque de stabilité du système de laboratoire et permet d'enclencher des actions correctives en vue d'améliorer ses performances analytiques
Laser-Induced Breakdown Spectroscopy (LIBS) is an elemental analytical technique which combines laser ablation with atomic emission spectroscopy. LIBS spectroscopy has many advantages but is not recognized as a fully quantitative method. Indeed, the problem of samples' heterogeneity, matrix effects, self-absorption of emission lines and the lack of repeatability deteriorate the analytical performances of LIBS. In order to improve this technique, the work presented in this thesis includes an example of analytical performances evaluation with the use of quality notions of a laboratory LIBS system. The method is here specially applied to the analysis of certified steel samples. A first study deals with the optimization of the LIBS system for the quantitative analysis. As the effect of the different experimental parameters on LIBS signal is complex, a methodical protocol is necessary. Here, a parametric study is proposed to determine the experimental conditions suitable for quantitative analysis. Once optimized, the LIBS method is then characterized with basics of method validation. The trueness and the precision of the method are evaluated in conditions of repeatability and intermediate precision. This study shows promising results for LIBS technique. The application of a control chart reveals however an instability of the laboratory system and enables to introduce corrective actions to improve its analytical performances
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Knoop, Ludvig de. "Development of quantitative in situ transmission electron microscopy for nanoindentation and cold-field emission". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3041/.

Texto completo
Resumen
Cette thèse porte sur le développement d'analyse quantitative d'expérience in situ de microscopie électronique en transmission (MET). Nous avons utilisé un porte objet spécial, qui combine les fonctions de polarisation électrique locale et tests de micro-mécanique. La méthode des éléments finis (MEF) a été mise en œuvre afin de comparer les résultats issus de la modélisation avec les résultats expérimentaux. En plus des techniques d'imagerie classique, l'holographie électronique a été employée pour mesurer des champs électriques et de déformation. La première partie traite de l'émission de champ d'une nanopointe faite d'un cône de carbone (CCnT). Ce nouveau type de matériaux pourrait remplacer les pointes de tungstène qui sont utilisés dans les canons d'électrons les plus avancés. Quand un champ électrique suffisamment fort est appliqué au CCnT, les électrons peuvent passer à travers la barrière d'énergie avec le vide par effet tunnel, ce qui correspond au phénomène d'émission de champ. En combinant holographie électronique avec les simulations MEF, une valeur quantitative du champ électrique local a été obtenue pour l'émission (2,5 V/nm). En faisant appel aux équations de Fowler-Nordheim, une valeur de la fonction de travail de sortie du CCnT est déterminée (4,8±0,3 eV). Nous avons également mesuré les charges sur le CCnT, avant et après le début de l'émission de champ. La deuxième partie porte sur la déformation plastique d'un film mince d'Al pour tester les interactions des dislocation - interface. Une dislocation à proximité d'une interface avec un matériau plus rigide doit être repoussée par celle-ci. Ici, nous constatons que les dislocations qui vont vers l'interface oxydée sont absorbées par cette interface rigide, même à température ambiante. La contrainte locale est déterminée par une combinaison de mesures de forces par le capteur et de calculs MEF. Enfin, des résultats préliminaires de combiner indentation in situ et holographie électronique en champ sombre sont présentés
This thesis has focused on the development of quantitative in situ transmission electron microscopy (TEM) techniques. We have used a special nano-probe sample holder, which allows local electrical biasing and micro-mechanical testing. The finite element method (FEM) was used to compare models with the experimental results. In addition to conventional imaging techniques, electron holography has been used to measure electric fields and strains. The first part addresses cold-field emission from a carbon cone nanotip (CCnT). This novel type of carbon structure may present an alternative to W-based cold-field emission sources, which are used in the most advanced electron guns today. When a sufficiently strong electric field is applied to the CCnT, electrons can tunnel through the energy barrier with the vacuum, which corresponds to the phenomenon of cold-field emission. Using electron holography and FEM, a quantified value of the local electric field at the onset of field emission was found (2. 5 V/nm). Combining this with one of the Fowler-Nordheim equations, the exit work function of the CCnT was determined to be 4. 8±0. 3 eV. The number of charges on the CCnT before and after the onset of field emission was also measured. The second part focuses on the plastic deformation of Al thin films to test dislocation-interface interactions. A dislocation close to an interface with a stiffer material should be repelled by it. Here, we find to the contrary that dislocations moving towards the oxidized interface are absorbed, even at room temperature. The stress was derived from a combination of load-cell measurements and FEM calculations. Finally, preliminary experiments to combine in situ indentation and dark-field electron holography are reported
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Holste, Angela Sarah. "Développement des méthodes bio analytique pour l’analyse quantitative et qualitative des peptides et protéines marqués par le couplage de la chromatographie et la spectrométrie de masse". Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3004/document.

Texto completo
Resumen
Cette thèse est le résultat d’une cotutelle entre l'Université de Pau et des Pays de l'Adour (UPPA) à Pau, en France et l'Université Christian Albrecht (CAU) à Kiel, en Allemagne. Dans le cadre de cette collaboration internationale, des méthodes bio-analytiques sont développées pour analyser quantitativement et qualitativement des peptides et protéines marquées par le couplage de la chromatographie avec la spectrométrie de masse. Les peptides et les digestats des protéines sont marquées selon un protocole optimisé par des lanthanides en utilisant des composés à base de DOTA. La séparation des peptides est réalisée par IP-RP-nanoHPLC. Des données complémentaires sont acquises par MALDI-MS pour l'identification et par ICP-MS pour la quantification. Dans ce contexte, une étape de pré-nettoyage en ligne est développée et mise en œuvre dans le protocole de séparation par nanoHPLC. Cette étape permet l'élimination efficace des réactifs appliqués en excès et ainsi la diminution du bruit de fond lié à la présence de métaux lors des analyses par ICP-MS. Les données obtenues sont alors plus facile à interpréter, la sensibilité des signaux des peptides n’étant par ailleurs pas modifié. L'extraction en phase solide (SPE) appliquée comme alternative entraîne des pertes importantes de peptides et peut être considérée comme inadaptée pour l'analyse quantitative. Des additifs pour éluants de nanoHPLC, tels que l'EDTA et le HFBA sont testés et jugés non bénéfiques pour l'analyse des échantillons peptidiques normaux. HFBA peut être reconsidéré pour une application spéciale sur des peptides très hydrophiles. Des peptides marqués sont développés. Leur utilisation en quantité connue pourrait permettre la quantification rapide et simple d'un échantillon de digestat à faible complexité. De plus, cet ensemble de peptides permet la superposition fiable des chromatogrammes, et ainsi de comparer des données complémentaires obtenues par l’analyse d’échantillon par ICP-MS et MALDI-MS. Expériences d'application avec le couplage laser femtoseconde avec ICP-MS sont effectuées sur des plaques métalliques de MALDI MS et montrent des résultats très prometteurs. Pour cela, les échantillons préalablement identifiés par MALDI-MS sont analysés par fsLA-ICP-MS. Les premières tentatives de quantification sur la plaque en acier modifiée sont satisfaisantes et donnent des résultats répondant aux attentes. L’optimisation des paramètres de MALDI-MS facilite l’identification des peptides
This PhD thesis was a Cotutelle between the Université de Pau et des Pays de l’Adour (UPPA) in Pau, France and the Christian-Albrechts University (CAU) in Kiel, Germany. In the course of this international collaboration, bio-analytical methods for the quantitative and qualitative analysis of labelled peptides and proteins were developed, which were based on the hyphenation of chromatography with mass spectrometry. Peptides and protein digests were lanthanide labelled using DOTA-based compounds according to an optimised protocol. Separation on the peptide level was performed using IP-RP-nanoHPLC. Complementary data sets were acquired using MALDI-MS for identification and ICP-MS for quantification. In this context, an online precleaning step was developed and implemented in the nanoHPLC separation routine, which allowed for effective removal of excess reagents. This lead to lowered metal backgrounds during ICP-MS measurements and thus better data interpretability, while guarding peptide recovery at a maximum level. An alternative offline purification using solid phase extraction (SPE) resulted in important peptide losses and can be considered unsuitable for quantitative analysis. Additives to the nanoHPLC eluents, such as HFBA and EDTA were tested and not deemed beneficial for the analysis of normal peptide samples. HFBA can be reconsidered for special application on very hydrophilic peptide species. A set of labelled peptides was developed, which due to application of known quantities could be employed for quick and simple quantification of a low complexity digest sample. In addition this peptide set allowed for the reliable superposition of chromatograms, enabling sample comparability especially for complementary ICP-MS and MALDI-MS data. Experiments for application of fsLA-ICP-MS on MALDI-MS target plates were conducted and showed very promising results. For this purpose, samples that were already identified using MALDI-MS were supposed to be remeasured using fsLA-ICP-MS. First quantification attempts on the modified steel target plate were successful and in the range of expectance. Adjusted parameters for MALDI-MS allowed for proper peptide identifications
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Dirrenberger, Justin. "Propriétés effectives de matériaux architecturés". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00797363.

Texto completo
Resumen
Les matériaux architecturés font émerger de nouvelles possibilités en termes de propriétés structurales et fonctionnelles, repoussant ainsi les limites des cartes d'Ashby. Le terme "matériaux architecturés" inclus toute microstructure conçue de façon astucieuse, de sorte que certaines de ses propriétés soient optimisées. Les exemples sont nombreux : composites fibreux et particulaires, matériaux cellulaires, structures sandwiches, matériaux tissés, structures treillis, etc. Un enjeu de taille pour l'emploi de tels matériaux est la prédiction de leurs propriétés effectives. Dans ce travail, deux types de microstructures sont considérées : des structures auxétiques périodiques et des milieux fibreux aléatoires. Les auxétiques sont des matériaux apparus au milieu des années 1980, présentant un coefficient de Poisson négatif. On attend des auxétiques qu'ils présentent des propriétés mécaniques améliorées, comme le module de cisaillement ou la résistance à l'indentation. Les milieux fibreux aléatoires considérés dans ce travail sont constitués de fibres 3D infinies interpénétrantes aléatoirement distribuées et orientées. Ce type de structure aléatoire est très défavorable à la détermination d'une taille de volume élémentaire statistiquement représentatif. Pour les deux types de matériaux, l'homogénéisation numérique à l'aide de la méthode des éléments finis est implémentée dans le but d'estimer les propriétés thermiques et mécaniques effectives.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

De, francqueville Foucault. "Etude micromécanique du lien entre endommagement local et comportement macroscopique de propergols solides". Thesis, Institut polytechnique de Paris, 2019. http://www.theses.fr/2019IPPAX004.

Texto completo
Resumen
L'objectif de ce projet de recherche est le développement de simulations numériques de l'endommagement de propergols solides, qui sont dédiés à la propulsion anaérobique, afin d'identifier quelles propriétés affectent leur comportement. Pour étudier l'effet de la géométrie des différentes particules énergétiques, des microstructures 3D sont générées avec une dispersion aléatoire d'inclusions monomodales, sphériques ou polyédriques, à très forte fraction volumique (55%). Dans le cas des sphères, les propriétés élastiques des volumes élémentaires représentatifs (VER) sont confrontées à un modèle analytique et à des caractérisations expérimentales de composites modèles, démontrant une cohérence remarquable entre les trois approches. Par la suite, la réponse linéaire des VER contenant des polyèdres est comparée à celle des particules sphériques, démontrant un effet très limité de la géométrie des charges. L'endommagement de ces matériaux étant majoritairement dû aux décohésions matrice/particules, une loi de zone cohésive bilinéaire est implémentée avec une régularisation visqueuse et un affichage de l'état d'endommagement des interfaces. L'influence du premier ordre des paramètres de zone cohésive, tant sur le comportement global que l'endommagement local, peut alors être démontrée. Si les difficultés de convergence numérique ne permettent pas d'envisager une confrontation quantitative avec les données expérimentales, les tendances spécifiques de ces dernières sont remarquablement reproduites, que ce soit à l'échelle des particules ou du matériau. Une étude paramétrique permet de mettre en évidence l'influence des paramètres de zone cohésive sur la réponse globale. L'analyse de l'impact de la géométrie des particules sur le comportement endommagé conduit au même effet du second ordre observé précédemment. Enfin, une étude des propriétés de quasi-propergols, représentatifs des propergols les plus communs, est proposée. En suivant un processus industriel de caractérisation, leurs propriétés d’interface sont identifiées qualitativement, en s'appuyant sur les tendances suggérées par les simulations. Afin de compléter cette analyse, des caractérisations non conventionnelles sont proposées, permettant de valider sa cohérence et de fournir de nouveaux éléments d'identification des propriétés d'adhésions
The goal of this present project is the development of numerical tools for simulating damage of solid propellants, which are used for anaerobic propulsion. It should allow identifying which properties disturb their behavior. To study the effect of energetic particles shapes, 3D microstructures are generated with a random dispersion of monosized spheres or polyhedra at high volume fraction (55%). In case of spheres, the elastic properties of the representative volume elements (RVE) are confronted with an analytical model and experimental characterizations of model composites, with a remarkable coherence of the three approaches. Then, the linear behavior of REV filled with polyhedra is compared to the one in case of spheres, highlighting only a limited effect of particles shapes. Damage of those materials being mostly due to matrix/filler debounding, a bilinear cohesive zone model with a viscous regularization and posting of interfaces damage state is implemented. The first order influence of the cohesive zone parameters either on the mechanical response or on the local damage is demonstrated. If convergence troubles prevent any quantitative confrontation with experimental data, their specific trends are well reproduced at either the particles or the global scales. A parameter study highlights also the impact of each cohesive zone parameter on the global behavior. Study of the damaged behavior, depending on particles shape, leads again to a second order impact. Finally, analyses of quasi-propellants, representative of common propellants, are proposed. Following the industrial characterization process, the interfaces properties are identified qualitatively based on the trends of the simulations. This analysis is completed by non-conventional characterization techniques to validate its coherence and to offer exhaustive information on the adhesives properties
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Sellier, Virginie. "Développement de méthodes de traçage sédimentaire pour quantifier l'impact des mines de nickel sur l’hyper-sédimentation des rivières et l'envasement des lagons de Nouvelle-Calédonie Investigating the use of fallout and geogenic radionuclides as potential tracing properties to quantify the sources of suspended sediment in a mining catchment in New Caledonia, South Pacific Combining visible-based-colour parameters and geochemical tracers to improve sediment source discrimination in a mining catchment (New Caledonia, South Pacific Islands) Reconstructing the impact of nickel mining activities on sediment supply to the rivers and the lagoon of South Pacific Islands: lessons learnt from the Thio early mining site (New Caledonia)". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASV013.

Texto completo
Resumen
La Nouvelle-Calédonie, île située au Sud-Ouest de l’Océan Pacifique et actuel 6e producteur mondial de nickel, est confrontée à une pollution sédimentaire sans précédent de ses cours d’eau. En effet, l’exploitation minière débutée dès les années 1880 a fortement amplifié les processus d’érosion des sols et de transport sédimentaire. Une hyper-sédimentation des hydro-systèmes calédoniens a notamment été constatée suite au déploiement de l’activité minière sur l’archipel. Bien que ce phénomène constitue un facteur aggravant les problèmes d’inondation caractéristiques de ces régions tropicales, les contributions sédimentaires générées par l’exploitation minière restent encore inconnues à ce jour et sont pourtant importantes pour guider la mise en œuvre de mesures visant à réduire ces apports sédimentaires.À cette fin, une étude de traçage sédimentaire qualifiée de fingerprinting a été menée sur un bassin « pilote » : le bassin versant de Thio (397 km²), considéré comme le « berceau » de l’activité minière en Nouvelle-Calédonie. Différents marqueurs tels que les radionucléides, la géochimie élémentaire ou la « couleur » ont été testés pour quantifier les contributions des sources minières aux apports sédimentaires générés par deux crues cycloniques récentes (dépression tropicale en 2015, cyclone Cook en 2017). Une carotte sédimentaire a également été prélevée dans la plaine inondable de la rivière Thio afin de reconstruire l’évolution temporelle des contributions des sources minières. Les résultats de cette étude montrent que les contributions des sources minières dominent, avec une contribution moyenne comprise entre 65-68% pour la crue de 2015 et entre 83-88% pour celle de 2017. L’impact de la variabilité spatiale des précipitations a notamment été mis en évidence pour expliquer les variations des contributions de ces sources. Les variations temporelles des contributions des sources minières déduites de l’analyse de la carotte sédimentaire ont, quant à elles, pu être associées aux différentes périodes historiques de l’exploitation minière sur le bassin versant de Thio (pré-mécanisation, mécanisation, post-mécanisation de l’activité minière). Les contributions des sources minières restent, là encore, dominantes avec une contribution moyenne le long du profil sédimentaire de 74%. La méthode de traçage validée a ensuite été testée sur quatre autres bassins versants de Nouvelle-Calédonie afin d’évaluer la transposabilité de cette approche
New Caledonia, an island located in the south-western Pacific Ocean and currently the world's sixth largest producer of nickel, is facing unprecedented sedimentary pollution of its river systems. Indeed, nickel mining that started in the 1880s accelerated soil erosion and sediment transport processes. Hyper-sedimentation of the Caledonian hydro-systems has been observed after the deployment of mining activities on the archipelago. Although this phenomenon exacerbates the flooding problems experienced in these tropical regions, the sediment contributions generated by nickel mining remain unknown and are nevertheless required to guide the implementation of control measures to reduce these sediment inputs.To this end, a sediment fingerprinting study was carried out in a "pilot" catchment: the Thio River catchment (397 km²), considered as one of the first areas exploited for nickel mining in New Caledonia. Different tracers such as radionuclides, elemental geochemistry or "colour" properties were tested to trace and quantify the mining source contributions to the sediment inputs generated during two recent cyclonic flood events (tropical depression in 2015, cyclone Cook in 2017). A sediment core was also collected in the floodplain of the Thio River catchment to reconstruct the temporal evolution of these mining source contributions. The results of this study show that mining sources dominated sediment inputs with an average contribution ranging from 65-68% for the 2015 flood event to 83-88% for the 2017 flood event. The impact of the spatial variability of precipitation was highlighted to explain the variations in the contributions of these sources across the catchment. The temporal variations in the contributions of the mining sources deduced from the analysis of the sediment core were interpreted at the light of the mining history in the Thio River catchment (pre-mechanization, mechanization, post-mechanization of mining activity). The contributions of mining sources were again dominant with an average contribution along the sedimentary profile of 74 %. Once validated, this tracing method has been tested in four other catchments of New Caledonia in order to evaluate the validity of the approach in other contexts
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Azi, Nabila. "Méthodes exactes et heuristiques pour le problème de tournées de véhicules avec fenêtres de temps et réutilisation de véhicules". Thèse, 2010. http://hdl.handle.net/1866/4876.

Texto completo
Resumen
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
This thesis studies vehicle routing problems with time windows, where a gain is associated with each customer and where the objective is to maximize the total gain collected minus the routing costs. Furthermore. the same vehicle might be assigned to different routes during the planning horizon. This problem has received little attention in the literature in spite of its importance in practice. For example, in the home delivery of perishable goods (like food), routes of short duration must be combined to form complete workdays. We believe that this type of problem will become increasingly important in the future with the advent of electronic services, like e-groceries, where customers can order goods through the Internet and get these goods delivered at home. In the first chapter of this thesis, we present a review of vehicle routing problems with gains, as well as vehicle routing problems with multiple use of vehicles. We discuss the general classes of problem-solving approaches for these problems, namely, exact methods, heuristics and metaheuristics. We also introduce dynamic vehicle routing problems, where new information is revealed as the routes are executed. In the second chapter, we describe an exact algorithm for a vehicle routing problem with time windows and multiple use of vehicles, where the first objective is to maximize the number of served customers. To this end, the problem is modeled as a vehicle routing problem with gains. The exact algorithm is based on column generation, coupled with an elementary shortest path algorithm with resource constraints. To solve realistic instances in reasonable computation times, a heuristic approach is required. The third chapter proposes an adaptative large neighborhood search where the various hierarchical levels of the problem are exploited (i.e., complete vehicle workdays, routes within workdays and customers within routes). The fourth chapter deals with the dynamic case. In this chapter, a strategy for accepting or rejecting new customer requests is proposed. This strategy is based on the generation of multiple scenarios for different realizations of the requests in the future. An opportunity cost for serving a new request is then computed, based on an evaluation of the scenarios with and without the new request. Finally, the last chapter summarizes the contributions of this thesis and proposes future research avenues.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía