Dissertations / Theses on the topic 'Boxe – Simulation par ordinateur'

To see the other types of publications on this topic, follow the link: Boxe – Simulation par ordinateur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Boxe – Simulation par ordinateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Younes, Mohamed. "Apprentissage et stimulation des stratégies de sport (boxe) pour l'entraînement en réalité virtuelle." Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS014.

Full text
Abstract:
Cette thèse étudie l’extraction et la simulation des interactions entre combattants, principalement pour la boxe, en utilisant des techniques d’apprentissage profond : l’estimation du mouvement humain à partir de vidéos, l’apprentissage par imitation basé sur l’apprentissage par renforcement, et la simulation de personnages basée sur la physique. Dans le contexte de l’analyse sportive à partir de vidéos, un protocole de référence est proposé dans lequel diverses méthodes contemporaines d’extraction de poses humaines en 2D sont évaluées pour leur précision à dériver des informations positionnelles à partir d’enregistrements vidéo RVB de boxeurs lors de mouvements complexes et dans des circonstances de tournage défavorables. Dans une deuxième partie, la thèse se concentre sur la reproduction d’interactions réalistes entre boxeurs à partir de données de mouvement et d’interaction grâce à une méthodologie innovante permettant d’imiter les interactions et les mouvements de plusieurs personnages simulés physiquement à partir de données de capture de mouvement non organisées. Initialement, cette technique a été démontrée pour simuler une boxe légère entre deux combattants sans contact physique significatif. Par la suite, elle a été étendue pour prendre en compte des données d’interaction supplémentaires concernant la boxe avec du contact physique réel et d’autres activités de combat, ainsi que pour gérer les instructions de l’utilisateur et les restrictions d’interaction
This thesis investigates the extraction and simulation of fighter interactions, mainly for boxing, by utilizing deep learning techniques: human motion estimation from videos, reinforcement learning-based imitation learning, and physics-based character simulation. In the context of sport analysis from videos, a benchmark protocol is proposed where various contemporary 2D human pose extraction methods are evaluated for their precision in deriving positional information from RGB video recordings of boxers during complex movements and unfavorable filming circumstances. In a second part, the thesis focuses on replicating realistic fighter interactions given motion and interaction data through an innovative methodology for imitating interactions and motions among multiple physically simulated characters derived from unorganized motion capture data. Initially, this technique was demonstrated for simulating light shadow-boxing between two fighters without significant physical contact. Subsequently, it was expanded to accommodate additional interaction data featuring boxing with actual physical contact and other combat activities, along with handling user instructions and interaction restrictions
APA, Harvard, Vancouver, ISO, and other styles
2

Fritsch, Andreas. "Multiscale explanation of elasticity and strength of bone and bone replacement materials made of hydroxyapatite, glass-ceramics, or titanium : a continuum micromechanics approach=mehrskalige erklärung der elastizit ät und festigkeit von knochen und knochenersatzmaterialien aus hydroxyapatit, glas-keramik oder titanium: ein kontinuumsmikromechanischer ansatz." Paris Est, 2009. http://pastel.archives-ouvertes.fr/docs/00/50/13/47/PDF/These_Fritsch_anglais.pdf.

Full text
Abstract:
Knochen ist ein hierarchisch aufgebautes Material, gekennzeichnet durch eine erstaunliche Variabilität und Diversität. Knochenersatz- oder Biomaterialien sind wichtige Komponenten für künstliche Organe und werden auch als Gerüste für Tissue Engineering eingesetzt. Das Ziel dieser Dissertation ist die Vorhersage der Festigkeit von Knochen und Knochenersatzmaterialien auf Grund ihrer Zusammensetzung und Mikrostruktur mittels Mehrskalenmodellen. Die theoretischen Entwicklungen werden durch umfangreiche Experimente an kortikalen Knochen sowie an Biomaterialien aus Hydroxyapatit, Glas-Keramik und Titanium untermauert
Bone is a hierarchically organized material, characterized by an astonishing variability and diversity. Bone replacement or biomaterials are critical components in artificial organs, and they are also used as scaffolds in tissue engineering. The aim of this thesis is the prediction of the strength of bone and bone replacement materials, from their composition and microstructure, by means of multiscale models. The theoretical developments are supported by comprehensive experiments on cortical bone and on biomaterials made of hydroxyapatite, glass-ceramic, and titanium
APA, Harvard, Vancouver, ISO, and other styles
3

Nicolle, Cyril. "Mise en forme de poudres de bore par compression isostatique à chaud : détermination des propriétés rhéologiques et simulation numérique du procédé." Dijon, 1999. http://www.theses.fr/1999DIJOS058.

Full text
Abstract:
La compression isostatique à chaud (CIC) est le seul procédé qui permette d'élaborer des échantillons totalement denses en bore pur. A partir d'une poudre de bore compactée de facon isostatique à froid, on obtient un échantillon en cru qui est placé dans un conteneur en titane. Un cycle de CIC à une température de 1500°C et avec une pression d'argon de 150 MPa est alors applique à cet échantillon. Afin d'optimiser le cycle de CIC et pour prévoir la déformée finale d'une pièce, on a recours à la simulation numérique du procédé en utilisant un code de calcul par éléments finis. La modélisation du comportement mécanique de la poudre de bore à haute température est alors nécessaire. Pour ce faire un grand nombre d'essais de CIC et de compression uniaxiale ont été effectués pour des densités relatives de 0,65 à 1 et des températures de 1300 à 1550°C. La loi d'Abouaf, qui a été utilisée pour cette modélisation, permet de décrire correctement l'ensemble des résultats expérimentaux. Par ailleurs, la taille des grains des échantillons densifiés a été analysée par microscopie électronique à balayage, par EBSD et par microscopie optique, et on a pu montrer qu'il n'y avait pas d'évolution de la microstructure du bore pendant le procédé de CIC. La simulation numérique des deux expériences, compression uniaxiale et CIC, a ensuite été réalisée avec le modèle identifié pour le bore à l'aide du logiciel Zébulon 7. Dans le premier cas, on utilise cet outil pour interpréter les résultats expérimentaux avec des hypothèses réalistes. Dans le cas de la CIC, on peut prédire la déformée et la densité finale d'une pièce. Ces calculs ont été effectués pour les cylindres expérimentaux et pour une pièce de validation en forme de tube, et les résultats sont en bon accord avec les observations expérimentales.
APA, Harvard, Vancouver, ISO, and other styles
4

Pelletier, Bertrand. "Modélisation et simulation numérique de l'exo-diffusion du bore dans les oxydes encapsulés des technologies CMOS déca-nanométriques." Electronic Thesis or Diss., Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10060.

Full text
Abstract:
Cette étude s’est portée sur l’interaction des empilements diélectriques nitrure/oxyde avec la répartition du bore dans les zones sources et drain après le recuit d’activation. L’utilisation des procédés de dépôt des couches de nitrure et d’oxyde réalisées à basse température a permis de limiter l’impact de ces étapes de dépôt sur les performances électriques du dispositif. En revanche, des budgets thermiques de dépôt plus faibles induisent également une concentration d’hydrogène plus importante dans les films. Cette accumulation d’hydrogène dans les couches diélectriques en contact avec les zones source et drain augmente la quantité de bore pouvant diffuser depuis le silicium vers l’oxyde, ce phénomène entraine des modifications de la répartition du bore dans les zones implantées et par conséquent une modification des performances électriques du transistor. Au cours de ces travaux nous avons développé un modèle physique couplant les échanges d’hydrogène durant le recuit entre les couches de diélectrique et la diffusion du bore entre le substrat et l’oxyde. Ce modèle a été validé d’une part en simulant les profils de bore après recuit en fonction des différentes conditions de dépôt nitrure et oxyde, et d’autre part en couplant des mesures de contrainte mécanique avec des mesures de désorption thermique d’hydrogène. Ces travaux ont mis en évidence deux mécanismes de régulation de l’hydrogène dans la couche d’oxyde pendant le recuit. Le premier est le rôle de l’encapsulation du nitrure, la diffusion de l’hydrogène dans les nitrures étant plus faible que dans l’oxyde une partie de l’hydrogène dans l’oxyde en dessous est bloqué dans la couche durant le recuit. Le deuxième est le rôle du nitrure comme source d’hydrogène dans l’empilement
This study has focused on the interaction of dielectric stacks nitride/oxide with the boron distribution in the source and drain areas after the activation annealing. The low temperature deposition processes of nitride and oxide layers limit the impact of these deposition steps on the electrical performance of the device. However the thermal budgets of lower deposit also induce a higher concentration of hydrogen. This hydrogen accumulation in the dielectric layer in contact with the source and drain regions increases the boron diffusion into the silicon oxide and causing modification of the boron distribution into the implanted zones and therefore an electrical performance modification of the device. In this work we developed a physical model combining the hydrogen exchange during annealing between the dielectric layers and boron out-diffusion between the substrate and silicon oxide. This model was validated firstly by simulating the profiles of boron after annealing for different deposition conditions nitride and oxide, and also by coupling measurements of mechanical stress with hydrogen thermal desorption spectroscopy (TDS). This research revealed two mechanisms of hydrogen regulation in oxide layer during annealing. First, the role of nitride encapsulation, hydrogen diffusion in nitride layer is lower than in oxide so hydrogen cannot degas out during anneal. The second is the role of nitride as a hydrogen source into the stack
APA, Harvard, Vancouver, ISO, and other styles
5

Afnouch, Marwa. "Machine Learning Applications in Medical Diagnosis, case study : bone metastasis." Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2023. http://www.theses.fr/2023UPHF0039.

Full text
Abstract:
Les métastases sont un groupe de cellules anormales qui se développe en dehors des limites de l’organe d’origine et se propagent à d’autres organes. En particulier, les métastases osseuses proviennent d’un organe du corps, tel que le sein, le poumon ou la prostate, et se propagent à l’os. Bien que cette maladie ait été découverte il y a plus d’un siècle, elle n’est toujours pas bien définie et les traitements existants sont peu efficaces, probablement parce qu’elle est difficile et longue à détecter. Pour aider les médecins, les nouvelles techniques d’apprentissage automatique sont une solution pour améliorer la précision globale. Cette thèse vise à aider les radiologues à détecter systématiquement les métastases osseuses à l’aide d’algorithmes d’apprentissage automatique. Cependant, La découverte de biais méthodologiques dans les études sur le diagnostic des métastases osseuses et l’absence de consensus sur l’interprétabilité de l’apprentissage automatique ont déplacé l’objectif de cette thèse. Elle se concentre désormais principalement sur la collecte de données et sur la résolution des problèmes de validation et d’interprétabilité de l’apprentissage automatique. Afin d’évaluer correctement la capacité de l’apprentissage automatique à détecter les métastases osseuses, trois études expérimentales ont été menées. La première propose une nouvelle approche de segmentation soutenue par un mécanisme d’attention pour localiser les lésions osseuses. La deuxième est une étude des méthodes d’apprentissage automatique pour l’identification des cas de métastases osseuses. Enfin, la dernière étude met en évidence le manque de robustesse de la classification à l’aide de méthodes d’apprentissage automatique et propose une méthode pour améliorer la précision basée à la fois sur l’approche CNN et Transformer. Les résultats expérimentaux de cette thèse sont évalués sur l’ensemble de données BM-Seg que nous avons introduit, qui est le premier ensemble de données de référence pour la segmentation et la classification des métastases osseuses à l’aide de tomodensitogrammes. Cette base de données open source a été utilisé pour améliorer la reproductibilité des expériences d’apprentissage automatique. Les résultats trouvés lors des différentes études préliminaires sont encourageants et prometteurs
Metastases are a group of abnormal cells that develop outside the original organ bound aries and spread to other organs. In particular, bone metastases originate in one organ of the body, such as the breast, lung, or prostate, and spread to the bone. Although this disease was discovered more than a century ago, it is still not well defined, and exist ing treatments are weakly effective, possibly because it is difficult and time-consuming to detect. To help physicians, new machine learning technologies promise to improve overall accuracy. This dissertation aims to help radiologists routinely detect bone metas tases using machine learning algorithms. The discovery of methodological biases in studies of bone metastasis diagnosis and the lack of consensus on the interpretability of machine learning have shifted the focus of this dissertation. It now focuses primarily on data collection and overcoming the challenges of validation and interpretability of machine learning. In order to properly assess the ability of machine learning to detect bone metastases, three experimental studies were conducted. The first proposing a novel segmentation approach supported by an attention mechanism to localize bone lesions. The second is a study of machine learning methods for identifying bone metastases cases. Finally, the last study highlights the lack of robustness of classification using machine learning methods and proposes a method to improve accuracy based on both CNN and Transformer approaches. The experimental results of this dissertation are evaluated on our introduced BM-Seg dataset, which is the first benchmark dataset for bone metasta sis segmentation and classification using CT-scans. This novel open-source dataset was used to improve the reproducibility of machine learning experiments. The results of the various preliminary studies are encouraging and promising
APA, Harvard, Vancouver, ISO, and other styles
6

Normand, Stéphane. "Conception, réalisation et caractérisation d'un dispositif de détection neutronique basé sur l'utilisation de scintillateurs plastiques dopés au Bore." Phd thesis, Université de Caen, 2001. http://tel.archives-ouvertes.fr/tel-00396150.

Full text
Abstract:
Le travail présenté dans ce mémoire de thèse concerne l'étude, la réalisation et la caractérisation de scintillateurs plastiques dopés au Bore. Leur mise en œuvre au sein de dispositifs de détection de neutrons rapides et thermiques y est examinée.
Dans une première partie, le processus de fabrication et la méthode de dopage en éléments borés sont présentés de façon détaillée. Différentes analyses physico-chimiques (I.R., UV-vis et RMN) ont été utilisées pour caractériser le matériau obtenu et pour confirmer sa composition et sa structure. De plus, une série d'expériences sous rayonnements alpha et sous faisceaux de protons a permis de mesurer les caractéristiques de scintillation. L'émission lumineuse peut ainsi être déterminée grâce à la relation semi-empirique de Birks.
Une seconde partie rend compte de la modélisation complète de l'ensemble du détecteur : interaction rayonnement - matière, émission et parcours de la lumière, formation du signal. Le code de calcul MCNP (Monte Carlo N-Particles) a été couplé à un code de génération et de propagation de lumière développé au cours de ce travail. Ces moyens de simulation ont permis d'optimiser les dimensions du détecteur pour la détection neutronique et de cerner l'influence de la géométrie sur la collecte des photons de scintillation. L'efficacité de détection et la durée de vie des neutrons dans ce type de détecteurs ont été estimées. Les mesures confirment la validité des simulations.
Une troisième partie fait état des méthodes de discrimination neutron - gamma analogique (méthode du passage par zéro) et numérique (méthode de la comparaison de charges) mises en œuvre pour ce scintillateur. Leurs performances respectives sont comparées et discutées.
La dernière partie concerne les applications qui peuvent bénéficier de l'utilisation de scintillateurs plastiques dopés au Bore, comme les fibres scintillantes dopées, la spectrométrie neutronique ou encore les systèmes de mesures des multiplicités neutroniques.
APA, Harvard, Vancouver, ISO, and other styles
7

Barkad, Hassan Ali. "Conception et réalisation de photodétecteurs X-UV à base de matériaux à large bande interdite destinés à des applications spatiales." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10095/document.

Full text
Abstract:
Les photodétecteurs ultraviolets actuels à base de silicium montrent des limitations inhérentes à la technologie en dépit de leur continuelle amélioration depuis ces dernières décennies. En collaboration avec l’Observatoire Royal de Belgique dans le cadre du projet LYRA (et BOLD), nous avons démontré la maturité des semiconducteurs à large bande interdite pour des applications dans les domaines spatiale et physique des hautes énergies. La disponibilité de ces nouveaux matériaux permet de surpasser les technologies existantes. En effet, de part leurs propriétés physiques et chimiques exceptionnelles, le diamant par exemple, est un des candidats idéal. Sa large bande interdite le rend insensible à la lumière visible et infrarouge (solarblind) et son excellente robustesse face aux radiations rend ce matériau très attractif pour des applications spatiales. Parallèlement à ce matériau, de nouveaux semiconducteurs nitrures à large bande interdite (AlN, BN) présentent des propriétés tout aussi remarquables et commencent à être élaborés avec succès. Le but de ce travail a été de concevoir et de fabriquer de nouveaux photodétecteurs UV innovants à base de ces matériaux. Cette activité a débuté par la simulation des propriétés de transports des matériaux à structure wurtzite par des modèles de types Monte Carlo, puis d’optimiser les performances des composants à élaborer par éléments finis au moyen du logiciel COMSOL® en tenant compte du matériau, de la géométrie de la structure, du design technologique, de la nature des électrodes (taille, contacts ohmiques, Schottky…), du couplage électro-thermique dans certain cas ainsi que des radiations incidentes. Différents capteurs UV ont ensuite été élaborés en salle blanche puis caractérisés sous rayonnement X-EUV d’une part et DUV-UV d’autre part. Les caractéristiques optoélectroniques (stabilité, fiabilité, sensibilité aux rayonnements UV, courant d'obscurité…) et les performances obtenues sont alors exposées pour chacun des matériaux étudiés. L’ensemble de ce travail a permis d’établir plusieurs performances à l’état de l’art sur diamant, AlN et BN et a contribué au développement du premier radiomètre solaire LYRA dans le domaine EUV au moyen de ces photodiodes diamant destinés au satellite PROBA2
Currently, ultraviolet photodetectors based on silicon have shown limitations inherent to their technology in spite of their continual improvement for these last years. In collaboration with the Royal Observatory of Belgium within the LYRA (and BOLD) project, the maturity of the semiconductors with wide band gap is shown for specific applications in the space field and high-energy physics. The availability of these new materials makes it possible to exceed existing technologies. These materials present robustness, a radiation hardness and their wide band gap provide insensibility to visible and infrared lights. Indeed, because of their exceptional physical and chemical properties, diamond for example, is one of the ideal candidates from the point of view of fundamental research and technological applications. Furthermore, new nitrides semiconductors with wide band gap (AlN, BN) are now elaborated successfully and present remarkable properties such as diamond.The goal of this work was to design and to fabricate new UV photodetectors based on these materials. This work begins with determination of the transport properties of these semiconductors materials versus temperature by Monte Carlo simulation in order to optimize the performances of the photodetectors by means of a finite elements software based on COMSOL® by taking into account the material type, the geometry of the structure, the technological design, the nature of the electrodes (size, ohmic contacts, Schottky contacts, symmetry…) as well as incidental radiations. A physical-thermal coupling is implemented in some cases to determine the impact of thermal effects in device working behaviour. Various UV detectors are elaborated in clean room and characterized under X-EUV radiation on the one hand and DUV-UV on the other hand. The characteristics (stability, reliability, sensitivity to the radiations UV, dark current…) and the obtained performances are then described for each studied material. This work made it possible to establish several state of the art performances on diamond, AlN and BN and contributed to the development of the first solar EUV radiometer LYRA onboard PROBA2 satellite
APA, Harvard, Vancouver, ISO, and other styles
8

Leblond, Sylvain. "Structure des isotopes de bore et de carbone riches en neutrons aux limites de la stabilité." Caen, 2015. http://www.theses.fr/2015CAEN2058.

Full text
Abstract:
Les noyaux non liés 18B et 21C sont étudiés suite à une expérience réalisée au RIBF-RIKEN en utilisant le nouveau spectromètre SAMURAI couplé au détecteur neutron NEBULA. Ces systèmes furent sondés grâce à des réactions de knock-out d'un neutron , d'un proton et de deux protons, à partir de faisceaux secondaires de 22C, 22N, et 23O pour le 21C et de 19B , 19C, et 20N pour le 18B. La masse invariante fut reconstruite à partir des moments du fragment chargé (17B, 20C) et du neutron. Afin de pouvoir interpréter les résultats, une simulation complète du dispositif expérimental fut utilisée. L'étalonnage des détecteurs et les techniques d’analyse furent testés en sondant l'état fondamental connu du 16B. Dans le cas du 18B trois états furent observés : un état s virtuel (as < -50 fm), résonance l=2 à Er =0. 77 +- 0. 09 MeV et une résonance l=0 à Er = 1. 6 +- 0. 6 MeV. Ces résultats plaident en faveur d'un mélange de configuration des niveaux neutron 2s1/2 et 1d5/2. En ce qui concerne le 21C, deux états résonnant respectivement situés à Er = 0. 8 +- 0. 15 MeV (l = 0) et Er = 1. 5 +-0. 1 MeV (l=2) furent observés. L'ordre confirme les résultats théoriques prédisant l'inversion des niveaux 5/2+ et 1/2+. Une analyse en impulsion reconstruite des systèmes 18B et 21C, produits par la réaction de knock-out d’un neutron a été réalisée. Les résultats soutiennent un mélange de configurations neutrons de valence (2s1/2)2 et (1d5/2)2 pour ces deux noyaux à halo
The unbound nuclei 18B and 21C have been studied in an experiment undertaken at the RIBF-RIKEN using the recently commissioned SAMUARI spectrometer and NEBULA neutron array. The two systems were probed using single-neutron and single and two-proton knockout from secondary beams of 22C, 22N, et 23O respectively in the case of 21C and 19B, 19C and 20N for 18B. The invariant mass spectra were reconstructed from the momentum of the fragment (17B, 20C) and neutron. In order to interpret the results a complete simulation of the experimental setup was utilised. The analysis procedures as well as the calibrations were verified through a measurement of the well-known ground state of 16B. In the case of 18B three states were observed: an s-wave virtual state (as < -50 fm), an l=2 resonance at Er =0. 77 +- 0. 09 MeV and an l=0 resonance at Er = 1. 6 +- 0. 6 MeV. These results suggest that the low-lying level structure of 18B is governed by a competition between the neutron 2s1/2 and 1d5/2 configurations. In the case of 21C resonances were observed at Er = 0. 8 +- 0. 15 MeV (l = 0) and Er = 1. 5 +-0. 1 MeV (l=2), a result which confirms predictions of an inversion of the 5/2+ and 1/2+ levels. Finally an analysis of the momentum distributions for 18B and 21C produced in single-neutron knockout was carried out. The results indicate that the valence neutrons 19B and 22C are in mixed (2s1/2)2 and (1d5/2)2 configurations
APA, Harvard, Vancouver, ISO, and other styles
9

Pelletier, Bertrand. "Modélisation et simulation numérique de l'exo-diffusion du bore dans les oxydes encapsulés des technologies CMOS déca-nanométriques." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10060/document.

Full text
Abstract:
Cette étude s’est portée sur l’interaction des empilements diélectriques nitrure/oxyde avec la répartition du bore dans les zones sources et drain après le recuit d’activation. L’utilisation des procédés de dépôt des couches de nitrure et d’oxyde réalisées à basse température a permis de limiter l’impact de ces étapes de dépôt sur les performances électriques du dispositif. En revanche, des budgets thermiques de dépôt plus faibles induisent également une concentration d’hydrogène plus importante dans les films. Cette accumulation d’hydrogène dans les couches diélectriques en contact avec les zones source et drain augmente la quantité de bore pouvant diffuser depuis le silicium vers l’oxyde, ce phénomène entraine des modifications de la répartition du bore dans les zones implantées et par conséquent une modification des performances électriques du transistor. Au cours de ces travaux nous avons développé un modèle physique couplant les échanges d’hydrogène durant le recuit entre les couches de diélectrique et la diffusion du bore entre le substrat et l’oxyde. Ce modèle a été validé d’une part en simulant les profils de bore après recuit en fonction des différentes conditions de dépôt nitrure et oxyde, et d’autre part en couplant des mesures de contrainte mécanique avec des mesures de désorption thermique d’hydrogène. Ces travaux ont mis en évidence deux mécanismes de régulation de l’hydrogène dans la couche d’oxyde pendant le recuit. Le premier est le rôle de l’encapsulation du nitrure, la diffusion de l’hydrogène dans les nitrures étant plus faible que dans l’oxyde une partie de l’hydrogène dans l’oxyde en dessous est bloqué dans la couche durant le recuit. Le deuxième est le rôle du nitrure comme source d’hydrogène dans l’empilement
This study has focused on the interaction of dielectric stacks nitride/oxide with the boron distribution in the source and drain areas after the activation annealing. The low temperature deposition processes of nitride and oxide layers limit the impact of these deposition steps on the electrical performance of the device. However the thermal budgets of lower deposit also induce a higher concentration of hydrogen. This hydrogen accumulation in the dielectric layer in contact with the source and drain regions increases the boron diffusion into the silicon oxide and causing modification of the boron distribution into the implanted zones and therefore an electrical performance modification of the device. In this work we developed a physical model combining the hydrogen exchange during annealing between the dielectric layers and boron out-diffusion between the substrate and silicon oxide. This model was validated firstly by simulating the profiles of boron after annealing for different deposition conditions nitride and oxide, and also by coupling measurements of mechanical stress with hydrogen thermal desorption spectroscopy (TDS). This research revealed two mechanisms of hydrogen regulation in oxide layer during annealing. First, the role of nitride encapsulation, hydrogen diffusion in nitride layer is lower than in oxide so hydrogen cannot degas out during anneal. The second is the role of nitride as a hydrogen source into the stack
APA, Harvard, Vancouver, ISO, and other styles
10

Tran, Van Truong. "Propriétés électroniques et thermoélectriques des hétérostructures planaires de graphène et de nitrure de bore." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS133/document.

Full text
Abstract:
Les excellentes propriétés électroniques, thermiques et mécaniques du graphène confèrent à ce matériau planaire (bi-dimensionnel) un énorme potentiel applicatif, notamment en électronique. Néanmoins, ce matériau présente de sérieux inconvénients qui pourraient limiter son champ d'applications. Par exemple, sa structure de bandes électronique sans bande interdite rend difficile le blocage du courant dans un dispositif. De plus, pour les applications thermoélectriques, sa forte conductance thermique est aussi une forte limitation. Il y a donc beaucoup de défis à relever pour rendre ce matériau vraiment utile pour des applications. Cette thèse porte sur l'étude des propriétés électroniques et thermoélectriques dans les hétérostructures planaires constituées de graphène et de nitrure de bore hexagonal (BN). Différentes configuration de ce nouveau matériau hybride permettent de moduler la bande interdite, la conductance thermique et le coefficient Seebeck. Cette étude a été menée au moyen de calculs atomistiques basés sur les approches des liaisons fortes (TB) et du modèle à constantes de force (FC). Le transport d'électrons et de phonons a été simulé dans le formalisme des fonctions de Green hors équilibre. Les résultats montrent que, grâce à la modulation de la bande interdite, des transistors à base d'hétérostructures de BN et de graphène peuvent présenter un très bon rapport courant passant / bloqué d'environ 10⁴ à 10⁵. En outre, nous montrons l'existence d'états quantiques hybrides à l'interface zigzag entre le graphène et le BN donnant lieu à des propriétés de transport électronique très intéressantes. Enfin, ce travail montre qu'en agençant correctement des nano-flocons de BN sur les côtés d'un nanoruban de graphène, la conductance des phonons peut être fortement réduite alors que l'ouverture de bande interdite conduit à un accroissement important du coefficient Seebeck. Il en résulte qu'un facteur de mérite thermoélectrique ZT plus grand que l'unité peut être réalisé à température ambiante
Graphene is a fascinating 2-dimensional material exhibiting outstanding electronic, thermal and mechanical properties. Is this expected to have a huge potential for a wide range of applications, in particular in electronics. However, this material also suffers from a strong drawback for most electronic devices due to the gapless character of its band structure, which makes it difficult to switch off the current. For thermoelectric applications, the high thermal conductance of this material is also a strong limitation. Hence, many challenges have to be taken up to make it useful for actual applications. This thesis work focuses on the theoretical investigation of a new strategy to modulate and control the properties of graphene that consists in assembling in-plane heterostructures of graphene and Boron Nitride (BN). It allows us to tune on a wide range the bandgap, the thermal conductance and the Seebeck coefficient of the resulting hybrid nanomaterial. The work is performed using atomistic simulations based on tight binding (TB), force constant (FC) models for electrons and phonons, respectively, coupled with the Green's function formalism for transport calculation. The results show that thanks to the tunable bandgap, it is possible to design graphene/BN based transistors exhibiting high on/off current ratio in the range 10⁴-10⁵. We also predict the existence hybrid quantum states at the zigzag interface between graphene and BN with appealing electron transport. Finally this work shows that by designing properly a graphene ribbon decorated with BN nanoflakes, the phonon conductance is strongly reduced while the bandgap opening leads to significant enhancement of Seebeck coefficient. It results in a thermoelectric figure of merit ZT larger than one at room temperature
APA, Harvard, Vancouver, ISO, and other styles
11

Alibert, Julien. "Une nouvelle source pour l'interférométrie atomique avec un condensat de Bose-Einstein double espèce." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30350/document.

Full text
Abstract:
L'interférométrie atomique a démontré sa capacité à effectuer des mesures de grande précision, notamment pour la réalisation de capteurs inertiels, les tests de physique fondamentale ou la mesure de constantes fondamentales. Une piste pour l'amélioration de la sensibilité des interféromètres atomiques est la réduction de la dispersion en vitesse de la source en utilisant un ensemble d'atomes ultra-froids pour augmenter le temps d'interrogation des atomes et accroitre la séparation spatiale entre les bras de l'interféromètre. Un nouvel interféromètre atomique à bras séparés est en construction au Laboratoire Collisions Agrégats et Réactivité de Toulouse. Ce dispositif répond à deux objectifs. Premièrement sa conception a pour but l'étude et le développement de nouveaux types de sources de condensat de Bose-Einstein (C.B.E.) double espèce de rubidium 85 et 87 adaptées à l'interférométrie. Cette source de C.B.E. repose sur l'utilisation de puces pour la manipulation et le refroidissement des atomes. Cette technologie est compacte et consomment peu d'énergie, ce qui est adaptée aux applications spatiales. L'autre objectif est d'utiliser cet interféromètre pour tester la neutralité de la matière via l'effet Aharonov-Bohm scalaire. Dans ce manuscrit je commence par exposer et justifer les choix techniques fait lors du dimensionnement et de la construction de la source de C.B.E. double isotopes. Par la suite, je présente les premiers résultats expérimentaux accompagnés de simulations numériques et d'explications théoriques. Lors de la première étape de refroidissement laser nous produisons un nuage de rubidium 87 et 85 contenant 4 × 10^10 atomes à une température de 10 µK avec un taux de cycle de 1 s. A la suite du refroidissement laser 8 × 10^9 atomes sont chargés dans le piège magnétique millimétrique de surface. Différentes expériences de caractérisation sont réalisées et expliquées à la lumières de simulations numériques. L'étude des fréquences de piégeage et de la profondeur a révélé les limites du premier prototype de piège millimétrique que nous avons réalisé au laboratoire. Cependant ces développements expérimentaux et théoriques servent à développer et implémenter dans le dispositif une nouvelle génération de puce à échelle micrométrique
Atom interferometry has shown its interest for high precision measurements, such as inertial sensors, tests of fundamental physics or fundamental constant measurements. A way to improve sensitivity of such device is to reduce speed dispersion of the atomic cloud. The use of ultra-cold atoms allows increasing the interogation time of atoms and the spatial separation between the interferometer arms. The building of a new atom interferometer with separated arms is ongoing in the laboratory "Collisions Agrégats et Réactivité" at Toulouse. This new setup must meet two objectives. One aim of its conception is to study and develop a new kind of double species Bose-Einstein condensate (B.E.C.) source for atom interferometry with rubidium 87 and 85. This B.E.C. source relies on atom chip technology to cool down and manipulate atoms. This technology is compact and low power consuming, therefore suitable for transportable applications in space. A second aim is to use this interferometer to fix new boundary on the experimental value of atom neutrality thanks to the scalar Aharonov-Bohm effect. In this manuscript I start by exposing and justifying technical choices made for the design of the double isotope B.E.C. source. Then I present the first experimental results compared with numerical simulations and theoretical explanations. During the first laser cooling stage we produce a cloud including 4 × 10^10 rubidium atoms of both isotopes (87 and 85) at 10 µK. This operation can be repeated every second. Following the laser cooling 8×10^9 atoms are loaded into a millimeter sized magnetic trap. Various experiments were performed to characterize the trap. Studies of the trap frequency and depth revealed the limitations of this first prototype. However these theoretical and experimental developments led to design and future implementation of a new generation of micro-chip in our apparatus
APA, Harvard, Vancouver, ISO, and other styles
12

Djian, Francis. "Modélisation thermique des thermostats pour oscillateurs à quartz et applications." Besançon, 1991. http://www.theses.fr/1991BESA2021.

Full text
Abstract:
Pour remédier à la sensibilité aux perturbations thermiques des oscillateurs à quartz très stables on utilise des enceintes thermostatées. L'étude réalisée dans cette thèse à pour objet la modélisation thermique de ces dispositifs. L'approche développée est celle des constantes localisées : la structure thermique est modélisée par un réseau de résistances thermiques et de capacités calorifiques. Les méthodes analytiques et expérimentales d'évaluation des coefficients thermiques ont été étudiées en tenant compte des échanges par conduction, rayonnement et convection. Le modèle permet de simuler les variations de température et de déterminer les fonctions de transfert entre les différents éléments de la structure thermique: oscillateur à quartz, sont d'asservissement, milieu ambiant. . . Ces méthodes ont été appliquées à une enceinte thermostatée commerciale et à une structure de test. Un programme de simulation et un dispositif expérimental ont été développés et ont montré la validité de la modélisation et ses limites. Grace aux techniques de modélisation développées, la possibilité d'une amélioration de la régulation à peu être étudiée. Elle consiste à compenser les effets des perturbations thermiques sur l'oscillateur à quartz par action sur la température de consigne, la méthode de synthèse de cette compensation à été décrire et appliquée avec succès à une enceinte thermostatée commerciale
APA, Harvard, Vancouver, ISO, and other styles
13

Béraud, Nicolas. "Fabrication assistée par ordinateur pour le procédé EBM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI052/document.

Full text
Abstract:
Le procédé de fabrication par fusion de poudre à l'aide d'un faisceau d'électrons est appelé procédé Electron Beam Melting (EBM). Il permet la fabrication de pièces métalliques à partir de poudres. Grâce au niveau de qualité (géométrique et mécanique) des pièces produites, le procédé peut être utilisé afin de produire des pièces fonctionnelles et non plus uniquement des prototypes. Ce procédé, ainsi que les autres procédés additifs métalliques, permettent d'envisager le passage de l'impression 3D à la fabrication additive métallique.L'utilisation de la fabrication additive dans un contexte industriel impose le respect de critères en termes de qualité, coût et délai des pièces produites. L'ensemble des étapes numériques de mise en production d'une pièce constitue la chaîne numérique. Cette dernière a un impact fort sur l'ensemble de ces trois critères. Ainsi, cette thèse apporte une réponse à la question suivante :Comment la fabrication assistée par ordinateur peut-elle améliorer le triptyque qualité, coût, délai du procédé de fabrication EBM?Le problème est abordé par la question sous-jacente suivante :Quelles caractéristiques doit posséder un environnement de fabrication assistée par ordinateur adapté au procédé EBM ?Pour répondre à cette question, la chaîne numérique actuelle est analysée . Les principales limites identifiées sont :- l'utilisation de fichiers au format STL- l’impossibilité d’optimiser le procédé à différentes échelles- l’impossibilité de simuler le procédé EBMAfin de résoudre l'ensemble des problèmes énoncés, un environnement de FAO est proposé. Celui-ci permet de centraliser l'ensemble des opérations de mise en production au sein d'un environnement unique. Il autorise le travail avec l'ensemble des formats de fichiers reconnus comme les formats natifs des logiciels de CAO ou le format STEP. Des développements informatiques permettent de concrétiser l’environnement proposé.L'implémentation de l'environnement de FAO a mis en évidence le rôle fondamental de la simulation au sein de celui-ci. Il a donc fallu répondre à la question :Comment obtenir une simulation du procédé EBM permettant sa mise au point hors ligne en temps raisonnable ?Bien que la simulation du procédé EBM est largement traitée dans la littérature scientifique, les études proposées reposent sur la méthode des éléments finis et le temps de calcul nécessaire n'est pas compatible avec une utilisation au sein d'un environnement de FAO. Un type de simulation alternatif a donc été créé : une simulation par abaques. Elle est constituée d’une simulation par la méthode des éléments finis qui permet d'obtenir des cartes de températures pour des cas de chauffes et de refroidissements standards. Ces cartes de températures sont ensuite transformées en abaques. La simulation par abaques est vue comme la succession d'une multitude de cas standards. Ainsi l'algorithme de simulation par abaques cherche l'abaque le plus proche de la situation simulée, afin d’estimer les températures au pas de temps suivant.Cette méthode de simulation a permis une réduction des temps de calcul tout en gardant une précision suffisante pour pouvoir être utilisée pour optimiser les paramètres de fabrication.Grâce à une telle simulation, un outil d'optimisation des stratégies de fusion a pu être créé. Il permet d’améliorer la qualité des pièces produites en calculant des stratégies de fusion respectant certains critères thermiques.Les apports majeurs de ces travaux de thèses sont :- l'établissement d'un cahier des charges pour une chaîne numérique performante en EBM- le développement d'un environnement de FAO adapté au procédé EBM- la mise au point d'une simulation rapide du procédé EBM basée sur des abaques- la création d'un outil d'optimisation des stratégies de fusion
The Electron Beam Melting (EBM) process allows to build metallic parts from powder. Thanks to the geometric and mechanical quality of the parts produced, the EBM process can be used to manufacture functional parts and not only prototypes. This process, with other additive metallic processes, make it possible to consider a transition from 3D printing to metallic additive manufacturing.The use of additive manufacturing in an industrial environment requires compliance with quality, cost and time criteria for the parts produced. The production of manufactured parts involves a series of numerical stages which is called the numerical chain. The numerical chain has a significant impact on the three criteria mentioned above. Thus, this thesis provides an answer to the following question:How Computer Aided Manufacturing can improve the quality, cost and time of the EBM manufacturing process?This problem is addressed through the following underlying question:What are the required characteristics for a Computer Aided Manufacturing system adapted to the EBM process?In order to answer this question, the current numerical chain is analyzed. Three main limitations are found:- the use of STL files format- the process cannot be optimized at different scales- the process cannot be simulatedTo solve these issues, a CAM environment is proposed. It allows the centralization of all numerical operations in a single environment. All supported formats can be used within this environment, such as native CAD file formats or STEP format. Software developments are done to prove the feasibility of such an environment.The CAM environment implementation reveals the crucial role of simulation in this system. It is therefore necessary to answer this second question:How to obtain an EBM process simulation allowing the development of parameters, virtually?Although EBM simulation is a recurrent subject in scientific literature, existing studies are based on the finite elements method but the calculation time needed is too important to be used in an CAM environment. Thus, an alternative type of simulation is created in this thesis: a simulation based on abacus. It is composed of a finite elements model, that allows heat maps generation for standards cases of heating and cooling. These heat maps are then transformed in abacus. The simulation algorithm based on abacus search the nearest abacus from the simulated situation in order to estimate the temperatures at the next time step.This simulation method was used to reduce the calculation time while keeping a sufficient precision to optimize process parameters.With the simulation based on abacus, a tool for the optimization of melting strategies is developed. This tool allows quality improvement for the produced parts through the calculation of melting strategies according to thermic criteria.To summarize, the main contributions of this work are:- the definition of requirements specifications of a powerful numerical chain for the EBM process- the development of a CAM environment adapted to the EBM process- the proposal of a fast simulation for the EBM process, based on abacus- the development of a tool for the optimization of melting strategies
APA, Harvard, Vancouver, ISO, and other styles
14

Back, Christophe. "Étude de la cristallisation des verres métalliques Ni₈₁B₁₉ et (FeCr) ₇₇B₂₃ par diffusion neutronique et simulations numériques." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL109N.

Full text
Abstract:
Le verre métallique Ni₈₁B₁₉ cristallise en une seule étape par formation simultanée des phases cristallines Ni et Ni₃B de type cémentite le verre métallique (FeCr) ₇₇B₂₃ forme de façon polymorphe la phase (FeCr). La forme des cristallites est ovoïde. Et l'amorphe est constitué d'une multitude de domaines d'un nanomètre d'extension ordonnés mais désorientés les uns par rapport aux autres. La diffusion neutronique aux petits angles met en évidence la présence d'inhomogénéités chimiques déjà présentes dans l'amorphe qui s'amplifient pendant la cristallisation. Les simulations numériques de Ni₈₁B₁₉ amorphe par la technique de Monte Carlo Inverse ont permis de construire des amas en excellent accord avec les partielles de Lamparter. Dans ces amas, les atomes de bore occupent soit le centre d'un tétrakaidécaèdre soit le centre d'un antiprisme d'Archimède. Ces environnements de type prismatique sont connectés les uns aux autres par des arêtes. L’ordre à courte distance (prisme de nickel autour du bore) et à moyenne distance (connexion par les arêtes) du cristal Ni₃B est présent, mais pas l'ordre à longue distance. De plus, une structure amorphe présentant des inhomogénéités chimiques (zones sans atome de bore) est compatible avec les données expérimentales. Ces simulations valident le modèle du maclage chimique. En particulier, la partition des éléments aurait lieu pendant l'amorphisation ou même avant, dans l'état liquide. La cristallisation peut donc se produire sans faire appel à la diffusion à longue distance. La technique de Monte Carlo inverse sans les conditions périodiques a permis de faire croitre des cristallites au sein de l'amorphe. Les données issues de diffusion neutronique ne sont pas utilisées pour contrôler l'optimisation mais elles sont globalement reproduites
APA, Harvard, Vancouver, ISO, and other styles
15

Louin, Jean-Charles. "Effets d'hétérogénéités de teneur en carbone sur les cinétiques de transformations de phase et sur la genèse des contraintes internes lors du refroidissement d'aciers." Vandoeuvre-les-Nancy, INPL, 2003. http://www.theses.fr/2003INPL077N.

Full text
Abstract:
Lors de la fabrication d'une pièce industrielle, le traitement thermique est une opération qui nécessite de maîtriser à la fois les microstructures obtenues et les contraintes et déformations résiduelles. La simulation numérique est un outil précieux pour une meilleure optimisation de ces traitements. Dans ce contexte, l'objectif de notre étude a été de contribuer au développement d'un outil de calcul permettant de prévoir les microstructures, les déformations et les contraintes au cours du traitement thermique de pièces en acier pouvant contenir des hétérogénéités de composition chimique en particulier de teneur en carbone. Nous avons d'abord développé le modèle de calcul des cinétiques de transformation de phases des aciers existant au laboratoire pour prendre en compte l'effet de l'enrichissement en carbone de l'austnite lors de sa décomposition partielle en ferrite sur les transformations ultérieures. Des calculs thermiques, métallurgiques et mécaniques couplés ont ensuite permis une analyse détaillée de l'effet de gradients de teneur en carbone à l'échelle macroscopique sur la genèse des microstructures et des contraintes internes au cours du refroidissement. Nous avons en particulier quantifié les effets possibles de macro et mésoségrégations de solidification dans des cylindres très massifs de taille proche de celle d'un lingot. Une validation expérimentale des résultats de simulation numérique a été mise en place pour des éprouvettes cylindriques supposées homogènes en composition chimique (acier 40CrMnMo8) puis pour une éprouvette chimiquement hétérogène spécialement conçue et fabriquée pour notre étude. Au préalable, les caractérisations expérimentales de l'acier ont permis de construire le jeu de données complet nécessaire aux simulations. Les résultats expérimentaux et calculés ont permis de bien mettre en évidence le rôle de l'hétérogénéité chimique. Enfin, une bonne corrélation calcul- expérience a été obtenue pour la déformation au cours du refroidissement d'une éprouvette 3D en forme de croissant
Heat treatment is a process that needs the control of both final microstructures and residual stresses and deformations. Numerical simulation is a useful tool for a better optimization of this process. The aim of our work was to contribute to the development of a numerical tool for the prediction of microstructures, stresses and strains during cooling of pieces that may contain chemical heterogeneities, particularly carbon content heterogeneities. Firstly, an existing model for the prediction of transformation kinetics in steels has been further developped in order to take into account the effects of the carbon content enrichment of austenite due to a partial ferritic transformation on the subsequent transformations. Coupled thermal, metallurgical, mechanical calculations have then been performed to study the effects of carbon content gradients on the microstructural evolutions and on the residual stresses development during cooling. Particularly, the possible effects of solidification macro and mesosegregations have been quantified in massive cylinders with sizes close to the size of an ingot. Secondly, experimental validations have been performed for homogeneous cylindrical specimen (40CrMnMo8 steel) and for a chemically heterogeneous specimen specifically designed for our study. The complete set of input data necessary for the simulations has been established from experimental characterizations of the steel. The role of chemical heterogeneity has been analysed through the experimental and calculated results. Finally, a good correlation has been obtained between measurements and calculation of the deformation during cooling of a 3D "croissant" shaped specimen
APA, Harvard, Vancouver, ISO, and other styles
16

Sech, Nicolas Le. "Photocathodes à base de nanotubes de carbone sur substrats semi-conducteurs de type III-V. Application aux amplificateurs hyperfréquence." Palaiseau, Ecole polytechnique, 2010. http://pastel.archives-ouvertes.fr/docs/00/50/14/43/PDF/These_N_Le_Sech.pdf.

Full text
Abstract:
On trouve sur la plateforme de théses en lignes Tel le résuma suivant : Ce travail de thèse porte sur l'étude et le développement de sources électroniques à base de nanotubes de carbone modulées par voie optique appelées photocatodes. L'objectif de ces dernières est de les utiliser dans les tubes à ondes progressives, en remplacement des sources thermoïoniques actuelles, qui émettent un faisceau d'électrons continu. Ce nouveau type de dispositif permettrait de développer une nouvelle génération d'amplificateurs hyperfréquence large bande, plus compacts, plus légers et ayant un fort rendement pour les satellites de communication. Ces sources modulées reposent sur l'association de nanotubes de carbone avec des photodiodes P-i-Ns. Les photodiodes agissent comme des sources de courant tandis que les nanotubes jouent le rôle d'émetteurs d'électrons. Une modulation optique des photodiodes induit ainsi une émission modulée du faisceau d'électrons. Des études théoriques, couplées à des simulations, ont abouti à la compréhension détaillée du fonctionnement des photocathodes et à la connaissance de leurs performances. Par ailleurs, des résultats traitent de la fréquence de coupure qui limite le dispositif mais apportent néanmoins des perspectives d'améliorations. La fabrication des photocathodes a été menée à terme grâce à la mise au point de trois nouveaux procédés technologiques : une passivation des photodiodes InP-InGaAs-InP par une bi-couche de Slice/Nitrure de Silicium empêchant toute gravure ionique du substrat pendant la croissance des nanotubes. Une technique de croissance de nanotubes de carbone à basse température (550 °C-600 °C) limitant la diffusion des dopants dans les matériaux semiconducteurs de type III-V. Un recuit LASER des nanotubes de carbone améliorant leur qualité cristalline et diminuant leur résistivité. Enfin, les caractérisations du courant en fonction de la tension et les mesures fréquentielles des échantillons ont confirmé les résultats annoncés par la théorie. Une modulation du faisceau électronique contrôlée par voie optique a pu être mesurée jusqu'à 1. 1 GHz, même si la fréquence de coupure actuelle se limite à 400 MHz. La réalisation des photocatodes a ainsi pu être démontrée. De surcroît, les résultats prometteurs aux vues des perspectives d'évolutions, permettent d'envisager une intégration proche des photocathodes dans un tube à ondes progressives.
APA, Harvard, Vancouver, ISO, and other styles
17

Bazizi, El Mehdi. "Modélisation physique et simulation de défauts étendus et diffusion des dopants dans le Si, SOI, SiGe pour les MOS avancés." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00509153.

Full text
Abstract:
Dans les transistors MOS avancés, la réalisation de jonctions ultraminces (<15 nm) abruptes et fortement dopées par implantation ionique de dopant reste la voie privilégiée pour l'élaboration des extensions source/drain (S/D). Cependant, au cours du recuit d'activation, cette méthode s'accompagne de la formation de défauts étendus de type interstitiel et d'agglomérats défauts-dopants qui sont à l'origine de problèmes majeurs tels que la diffusion accélérée et transitoire (TED) des dopants et la dégradation des propriétés électriques des jonctions. L'objectif de cette thèse a été de modéliser de façon globale ces différents phénomènes physiques afin de prédire la distribution des dopants dans les extensions S/D. Pour ce faire, nous avons d'abord simulé la croissance compétitive de type maturation d'Ostwald que se livrent ces défauts au cours du recuit et nous l'avons couplée à la diffusion des dopants, notamment dans les cas d'intérêt technologique, lorsque l'étape d'implantations à forte dose cause la formation d'agglomérats défauts-dopants engendrant une immobilisation et une inactivation partielle du dopant dans le silicium. Nous avons ensuite étendu les modèles développés dans le silicium aux cas de nouveaux matériaux tels que le SOI (Silicon-On-Insulator) ou le SiGe (alliage silicium/germanium). Enfin, les modèles élaborés et calibrés pour la fabrication des jonctions ultra-fines ont été validés en simulant électriquement les technologies industrielles en développement à STMicroelectronics-Crolles : C65 SOI et SiGe 45, avec une attention particulière aux effets de petites géométries tels que le SCE (Short Channel Effects) et le DIBL (Drain-Induced Barrier Lowering).
APA, Harvard, Vancouver, ISO, and other styles
18

Fauchet, Gauthier. "Modélisation en deux points de la turbulence isotrope compressible et validation à l'aide de simulations numériques." Lyon 1, 1998. http://www.theses.fr/1998LYO10027.

Full text
Abstract:
Cette etude s'inscrit dans la continuite de travaux menes au laboratoire de mecanique des fluides et d'acoustique sur la modelisation spectrale de la turbulence isotrope compressible (marion (1988), bataille (1994)). Le modele precedemment developpe (modele e. D. Q. N. M. ) predit des dependances avec le mach turbulent (m#t) des quantites compressibles (telles que l'energie compressible et la dissipation dilatationnelle) en m#2#t. Or une etude du systeme des equations servant a deriver le modele montre une dependance en m#4#t de ces quantites (en accord avec la theorie pseudo-son de ristorcelli (1995)). Ceci nous a amene a remettre en cause la forme retenue par l'e. D. Q. N. M. Pour la decorrelation temporelle des champs (en exp(-t)) et a retenir une forme en exp(-t#2). Cette modelisation conduit a des dependances avec le mach turbulent coherentes avec le systeme initial. De plus, des comparaisons avec des simulations numeriques directes permettent de valider le modele. Un developpement analytique du modele, pour une faible compressibilite, est propose. Celui-ci permet de donner la forme et le niveau du spectre compressible en fonction des quantites caracteristiques de la turbulence incompressible. Il conduit a une relation liant la dissipation dilatationnelle a la dissipation solenoidale, relation susceptible d'etre utilisee au niveau des modeles en un point. Cette etude permet egalement de donner une forme analytique de la production acoustique. Cette forme est en accord avec les theories existant en acoustique. En particulier, la puissance totale rayonnee est trouvee proportionnelle a #s m#5#t. Enfin, des extensions du modele sont etudiees : un modele prenant en compte la convection de la masse volumique et un modele exprime en termes de spectres d'energie sont proposes.
APA, Harvard, Vancouver, ISO, and other styles
19

Menezla, Rabea. "Réalisation d'un logiciel de résolution de l'équation de poisson à trois dimensions : Simulation numérique tridimensionnelle du claquage des composants à jonctions P-N." Ecully, Ecole centrale de Lyon, 1990. http://www.theses.fr/1990ECDL0027.

Full text
Abstract:
Les simulations numeriques sont couramment utilisees au moment de la conception des dispositifs electroniques pour etudier leur comportement sous certaines conditions d'environnement. La modelisation du fonctionnement du systeme a etudier au moyen d'equations mathematiques representant son comportement physique est a la base de tout programme de simulation. Cette these a porte sur la realisation d'un simulateur numerique tridimensionnel de la tenue en tension des composants electroniques discrets ou integres, realises dans une technologie de type planar. Le logiciel concu traite particulierement les effets de courbure apparaissant aux bordures des masques de diffusions et entrainant un claquage de type spherique ou cylindrique. Son objectif est d'etudier le claquage par avalanche survenant dans les dispositifs a jonctions p-n polarisees en inverse (en particulier le claquage spherique), et de donner la distribution de potentiel dans le volume du dispostif d'etude. Les tests de validation du logiciel numerique tridimensionnel clac3 ont porte essentiellement sur l'etude du claquage des diodes a jonctions p-n et des jonctions drain-substrat des transistors pmos
APA, Harvard, Vancouver, ISO, and other styles
20

Joly, Cécile. "Simulations numériques d'un jet rond turbulent et de son interaction avec un tourbillon de sillage." Université de Marne-la-Vallée, 2002. http://www.theses.fr/2002MARN0147.

Full text
Abstract:
Le contexte général de cette étude concerne l’impact des traînées de condensation, ces fameux panaches blancs fréquemment observés dans le sillage des avions, sur l’atmosphère. D’un point de vue aérodynamique, la formation des traînées de condensation se caractérise par l’interaction entre un jet turbulent et un tourbillon de sillage. L’objectif de cette thèse est de contribuer à une meilleure compréhension des phénomènes thermiques et dynamiques mis en jeu dans cet écoulement. Ce travail repose sur la résolution numérique des équations de Navier-Stokes, et de conservation de l’énergie, formulées pour le cas d’un écoulement tridimensionnel, instationnaire et compressible. Deux approches sont considérées: la simulation numérique directe et la simulation des grandes échelles. Une simulation temporelle de la transition à la turbulence d’un jet rond non-isotherme est effectuée sans tenir compte du champ tourbillonnaire. A l’issue de cette simulation, un modèle de tourbillon de sillage est superposé à l’écoulement de jet. La première partie de cette thèse présente les deux approches, les différents modèles de sous-maille choisis pour les simulations des grandes échelles, ainsi que les méthodes numériques employées. La deuxième partie est consacrée à la simulation de l’écoulement de jet, et ici, l’objectif est de déterminer le modèle de sous-maille approprié à cette configuration d’écoulement. La troisième partie est dédiée à la simulation de l’interaction entre le jet et le tourbillon de sillage. Les résultats sont comparés à ceux issue d’une campagne d’essais. Les simulations ont démontré le développement de grosses structures de la turbulence autour du cœur tourbillonnaire, dans lesquelles se concentre le champ de température
The general context of this study concerns the impact of contrails, these famous white plumes frequently observed in the aircraft wake, on the atmosphere. From an aerodynamic point of view, the formation of the contrails is characterised by the interaction between a turbulent jet and a wing-tip vortex. The aim of this thesis is to contribute to a better understanding of the thermal and dynamic phenomena involved in this flow. This work is based on the numerical resolution of the three-dimensional, unsteady and compressible Navier-Stokes and energy conservation equations. Two approaches are considered: the direct numerical simulation and the large eddy simulation. A temporal simulation of the transition to turbulence of a non-isothermal jet is performed without accounting for the vortex flow field. A the end of this simulation, a vortex model is superimposed on the jet flow field. The first part of this thesis describes the two approaches, the different subgrid models chosen for the large eddy simulations, and the numerical techniques employed. The second part is devoted to the jet flow simulation, and here the objective is to determine the subgrid model appropriated to this flow configuration. The third part is dedicated to the simulation of interaction between the jet and the vortex. Results are compared to experimental data. The simulations have demonstrated the development of large scale structures all around the vortex core. The temperature field concentrates in the large scale structures
APA, Harvard, Vancouver, ISO, and other styles
21

Quatravaux, Thibault. "Évolution de la modélisation du procédé VAR : contribution à la description de la dispersion inclusionnaire dans le puits liquide et à la prévention de défauts de solidification." Vandoeuvre-les-Nancy, INPL, 2004. http://www.theses.fr/2004INPL037N.

Full text
Abstract:
Cette thèse s'articule autour de la modélisation du procédé de refusion à l'arc sous vide (V AR) à l'aide du code de calcul SOLAR. Le premier objectif de l'étude concerne l'amélioration de la description de certains phénomènes physiques au cours de l'élaboration, afin d'étendre les applications du logiciel aux simulations de refusions d'aciers. L'évolution de la modélisation des phénomènes de transfert dans le lingot secondaire comprend trois améliorations principales: - la modélisation du transfert thermique latéral, afin de tenir compte du phénomène de retrait entre la paroi du lingot et la lingotière, de la possibilité d'y injecter un gaz neutre et du réchauffement de l'eau dans le circuit de refroidissement en fonction de son débit, - une amélioration de la modélisation de la turbulence, le modèle k-E simplifié initialement implémenté dans le code ne permettant pas de décrire correctement l'écoulement du métal liquide dans le puits, - une nouvelle méthode de simulation de la croissance du lingot, reposant sur une opération cyclique de scission puis de croissance/migration des volumes de contrôle, qui respecte l'aspect continu de la croissance du lingot secondaire et autorise un affinement du maillage près de la surface libre. Le modèle amélioré a pu être finalement validé par comparaison avec des résultats expérimentaux issus de quatre refusions réalisées sur site industriel. Le second objectif vise à caractériser la qualité des produits élaborés en termes de propreté inclusionnaire et de risque de présence de veines ségrégées. Pour décrire le comportement inclusionnaire dans le puits liquide, un modèle trajectographique adapté aux écoulements turbulents a été validé puis implémenté dans le code. Différents comportements de particules ont été mis en évidence. Une éttlde sur le risque d'apparition de freckles a permis de retenir un critère particulièrement bien adapté au procédé. Une généralisation de ce critère, proposée dans ce travail, permettrait d'indiquer l'orientation privilégiée de ces canaux de ségrégation
This thesis deals with the modelling of Vacuum Arc Remelting process (VAR) using the numerical software SOLAR. The first aim of the study is a better description of several physical phenomena which occur during melting, in order to extend the application of the software to simulate the remelting of steel. The evolution in the modelling of transport phenomena in the secondary ingot is based on three major improvements: - lateral thermal transfer modelling, in order to take into account the formation of a gap between the ingot and the mould walls, a possible injection of a neutral gas, and the heating of water in the coolant circuit, according to its flow, - a better turbulence model, since the k-E model implemented previously in the numerical code was not accurate enough to correctly descri~ the flow of the liquid metal in the pool, - a new method to simulate the ingot growth, based on a cyclic operation of splitting and growth/migration of control volumes, which reproduces the continuous growth of the secondary ingot and allows for the refinement of the mesh close to the free surface. Finally, the improved model has been validated by comparison with experimental results provided from four remeltings carried out on full-scale furnaces. The second objective is the characterization of the quality of the manufactured products in terms of inclusion cleanliness and risk of freckles segregated channel generation. Ln order to describe the behaviour of inclusions in the liquid pool, a trajectory model, adapted to account for turbulent flows, was validated and then implemented in the code. Various particle behaviours were distinguished. A study on the risk of freckles generation led to the establishment of a criterion particularly weIl adapted to the process. A generalization of this criterion, suggested in this work, would allow the prediction of the probable orientation of such segregated channels
APA, Harvard, Vancouver, ISO, and other styles
22

Ribot, Bénédicte. "Modélisation numérique d'un système de ventilation d'un tunnel routier par une trappe de désenfumage dans le cas d'un incendie." Lyon 1, 1999. http://www.theses.fr/1999LYO10195.

Full text
Abstract:
L'etude presentee dans ce memoire porte sur la modelisation numerique par la methode des volumes finis d'ecoulements tridimensionnels, turbulents, stationnaires, compressibles en milieux confines comme le sont ceux generes par les systemes de ventilation dans les tunnels routiers en cas d'incendie. L'objectif est de developper et valider des methodes de calcul pour representer les phenomenes physiques intervenant lors d'une aspiration par une trappe de desenfumage d'une nappe stratifiee. L'ensemble des travaux donne des informations et indications sur les conditions de modelisation d'aspiration de fumees par des trappes de desenfumage de tunnels routiers et sur les performances du code cfxf3d pour predire ces ecoulements. L'independance du maillage, l'effet de la nature de la condition limite pour traduire une extraction et l'influence de certains parametres (debit d'aspiration et le nombre de trappes) sont examines. Une etude phenomenologique des ecoulements au sein du tunnel est aussi traitee caracterisant la structure des fumees soumises a un courant d'air longitudinal. Un modele simplifie permettant de reproduire les effets induits par une trappe d'aspiration sur l'ecoulement au sein du tunnel et base sur la notion de puits (de masse, de quantite de mouvement et d'enthalpie) est propose. L'elaboration de ce modele et l'evaluation de ses performances sont effectuees en prenant en compte une trappe d'aspiration, puis trois trappes. Les temps de calcul sont alors fortement reduits. Ces etudes sont completees par une confrontation entre resultats numeriques et experimentaux. Les essais selectionnes ont ete realises sur une maquette de tunnel a l'echelle 1/20 e m e. Des informations interessantes sur la validation des modeles employes et des hypotheses faites sont obtenues. Notamment, il est montre que le modele de turbulence k- standard reproduit correctement les phenomenes d'aspiration de fumees sans ajustement particulier des valeurs des constantes.
APA, Harvard, Vancouver, ISO, and other styles
23

Yu, Qizhi. "Modèles de rivières animées pour l'exploration intéractive de paysages." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0126.

Full text
Abstract:
Dans cette thèse, nous avons proposé un modèle multi-échelle pour l'animation de rivière. Nous avons présenté un nouveau modèle pour chaque échelle. A l'échelle macro, nous avons proposé une méthode procédurale permettant de générer une rivière réaliste à la volée. A l'échelle méso nous avons amélioré un modèle phénoménologique basé sur une représentation vectorielle des ondes de choc près des obstacles, et proposé une methode pour la reconstruction adaptative de la surface de l'eau. A l'échelle micro, nous avons présenté une méthode adaptative pour texturer des surfaces de grande étendue avec des performances indépendantes de la scène. Nous avons également propos é une méthode d'advection de texture. Ces deux modèles reposent sur notre schéma d'échantillonnage adaptatif. En combinant ces modèles, nous avons pu animer des rivières de taille mondiale en temps réel, tout en étant contr?olable. Les performances de notre système sont indépendantes de la scène. La vitesse procédurale et l'échantillonage en espace écran permettent à notre système de fonctionner sur des domaines illimités. Les utilisateurs peuvent observer la rivière de très près ou de très loin à tout moment. Des vagues très détaillées peuvent être affichées. Les différents parties des rivières sont continues dans l'espace et dans le temps, même lors de l'exploration ou de l'édition de la rivière par un utilisateur. Cela signifie que l'utilisateur peut éditer les lits des rivières ou ajouter des îles à la volée sans interrompre l'animation. La vitesse de la rivière change dès que l'utilisateur en édite les caractéristiques, et l'utilisateur peut auss modifier son apparence avec des textures
Rivers are ubiquitous in nature, and thus are an important component of the visual simulation of nature scenes. In nature, rivers are dynamic, therefore animation of rivers is necessary in these visual simulation applications. However, animation of rivers is a challenging problem. It incorporates multi-scale surface details and flow motion, and many phenomena involved have complex underlying physical causes. River animation is particular difficult in emerging interactive applications like Google Earth or games, which allow users to explore a very large scene and observe rivers at a very small scale or a very large scale at any moment. Controlling the design of water simulations is another hard problem. The goal of this dissertation is to achieve real-time, scalable, and controllable river animation with a detailed and space-time continuous appearance. To achieve this goal, we break down the river animation problem into macro-, meso-, and micro-scale subproblems from coarse to fine. We propose appropriate models for each scale that capture relevant surface details and fluid motion. In the macro-scale, we propose a procedural method that can compute velocities of rivers with curved banks, branchings and islands on the fly. In themeso-scale, we propose an improved featured-based simulationmethod to generate the crests of the quasi-stationary waves that obstaclesmake. We also propose a method for constructing an adaptive and feature-aligned water surface according to the given wave crests. In the micro-scale, we propose the use of wave sprites, a sprite-based texture model, to represent advected details with stationary spectrum properties on flow surfaces. Armed with wave sprites and a dynamic adaptive sampling scheme, we can texture the surface of a very large or even unbounded river with scene-independent performance. In addition, we propose a Lagrangian texture advection method that has other applications beyond river animation. We demonstrate that combining our models in three scales helps us incorporate visually convincing animated rivers into a very large terrain in real-time interactive applications
APA, Harvard, Vancouver, ISO, and other styles
24

Diener, Julien. "Acquisition et génération du mouvement de plantes." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0080.

Full text
Abstract:
Le but principal de ma thèse a été de développer des techniques innovantes pour l'animation de plantes. Deux approches ont été explorés : la reproduction du mouvement réel et la simulation temps réel. Premièrement, j'ai combiné des méthodes de suivi par ordinateur avec une interface utilisateur dans le but d’extraire des données fiables à partir de vidéos. Ensuite, une méthode statistique a été conçue pour estimer une structure hiérarchique de branches qui est utilisée pour reproduire le mouvement sur un large éventail de modèles virtuels. Deuxièmement, j'ai développé une nouvelle technique d'animation pour calculer la réponse des plantes à un vent contrôlable interactivement. La contribution principale a été de montrer que de simples approximations du modèle de charge aérodynamique mène à une réduction considérable du coût de la simulation. L'algorithme obtenu profite pleinement des capacités offertes par les cartes graphiques permettant l'animation de milliers d'arbres en temps réel
The primary goal of my Ph. D. Has been to develop innovative animation techniques for virtual plants. Two main approaches have been explored: the reproduction real motion and real-time simulation. First, I have mixed vision algorithms and user interface in order to extract reliable motion data from videos. An innovative method has then been designed to estimate a valid hierarchical structure of branches using statistical study which is used to retarget the video movement on a wide range of virtual plants. Second, I have developed new animation method that computes the response of plants to interactively controllable wind. The main contribution has been to show that simple approximations of the wind load model leads to a drastic reduction of the run-time computations. The simulation algorithm takes full advantage of the parallel processing capabilities of computer graphics cards allowing the animation of thousand trees in real-time
APA, Harvard, Vancouver, ISO, and other styles
25

Benchamma, Mérièm. "Réalisation d'un simulateur d'étude et de faisabilité pour la radiothérapie externe dynamique." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30013.

Full text
Abstract:
Afin de concentrer une dose homogene sur la tumeur tout en minimisant l'irradiation des structures anatomiques saines par l'utilisation de faisceaux non-coplanaires, un simulateur-entraineur prefacant un futur systeme de conduite de protocoles d'irradiations dynamiques a ete realise pour etudier la faisabilite therapeutique de cette technique et en preparer l'utilisation clinique. Limitee au probleme balistique d'irradiation d'un volume cible approche par une sphere, la definition des positions de la source d'irradiation est obtenue par visualisation interactive des intersections des faisceaux et du volume cible. Les contraintes cliniques, conduisant a la recherche d'une concentration uniforme des radiations dans le volume cible tout en epargnant au mieux les organes critiques et les tissus sains, et les contraintes d'anti-collision des elements du dispositif d'irradiation lors des mouvements constituent les regles a satisfaire par les faisceaux candidats. Les differents faisceaux retenus peuvent egalement etre ajustes en deplacant independamment les machoires du collimateur et en effectuant des rotations de ce dernier. Egalement, pour limiter les zones des structures anatomiques saines exposees aux radiations, le contour de la region a proteger peut-etre dessine sur la coupe scanographique passant par l'isocentre afin de permettre le calcul et la transmission a une table tracante via la liaison serie rs 232 de la forme du cache pour y etre dessinee a l'echelle reelle
APA, Harvard, Vancouver, ISO, and other styles
26

Chen, Haifeng. "Système de simulation de spectres de masse assisté par ordinateur." Paris 7, 2003. http://www.theses.fr/2003PA077143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Farissier, Pierre. "Etude d'un modèle cartographique adapté à la simulation des écoulements en rivières." Lyon 1, 1993. http://www.theses.fr/1993LYO10278.

Full text
Abstract:
Le but de cette these est d'etudier un modele cartographique de l'ensemble de la vallee d'une riviere et tel que la surface generee puisse servir de support a des simulations d'ecoulement. Ce modele cartographique est independant des differentes modelisations hydrauliques, assure la coherence hydraulique de la surface de la vallee reconstituee et peut servir de pre et post-processeur pour des codes de calculs hydrauliques. Les donnees requises sont un ensemble reduit de sections en travers du cours d'eau. La surface de la vallee est consideree comme provenant d'un morphogenese purement hydraulique. Cette hypothese permet de definir cette surface comme un ensemble de trajectoires d'ecoulement, ces trajectoires s'appuyant sur des sections en travers. On obtient un modele de surface biparametrique. La surface de la vallee est construite en trois etapes: interpolation des sections en travers de donnees, reparametrage de ces sections pour definir les points d'appuis des trajectoires d'ecoulement et interpolation de ces trajectoires. La surface obtenue est alors discretisee sous la forme d'un maillage qui conserve la topologie de la vallee. Le modele cartographique extrait les donnees geometriques necessaires aux codes de calculs hydrauliques puis utilise les resultats des simulations d'ecoulement pour determiner les zones inondees. La validation du modele cartographique a ete faite sur plusieurs rivieres
APA, Harvard, Vancouver, ISO, and other styles
28

Bonelli, Stéphane. "Contribution à la résolution de problèmes élastoplastiques de mécanique des sols et d'écoulements non saturés par la méthode des éléments finis." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22038.

Full text
Abstract:
Cette étude s'est déroulée au sein de l'équipe "Modèles Numériques" de l'institut méditerranéen de technologie. Elle s'inscrit dans la motivation actuelle de la communauté scientifique, dont le CEMAGREF, a pouvoir bien simuler un ouvrage de type barrage en terre. Le choix d'un bon modèle de sol (difficulté majeure) n'est pas discute dans ce travail. L'effort est essentiellement porté sur les outils numériques permettant de dégager plus de temps sur la pré- ou post-étude (le vrai problème d'ingénierie), en réalisant des simulations fortement non linéaires avec un confort appréciable et une précision satisfaisante. L'écriture des lois de bilan d'un milieu poreux déformable polyphasique permet de lister les hypothèses sous-jacentes des modeles usuels, d'introduire les outils de travail heuristiques (principe de Terzaghi, loi de Darcy), et de mettre en évidence les lacunes actuelles de compréhension, de modélisation et d'identification. On tente une approche unifiée des outils classiques utilises en élastoplasticité pour décrire le comportement mécanique des sols satures parfaitement draines. Le modèle CJS (Cambou/Jafari/Sidoroff) pour les sols non cohérents est expose. L'étude formelle des lois élastoplastiques multimécanismes non standard est réalisée: après une rapide analyse de l'existence et de l'unicité en vitesse de variables internes pour une vitesse de déformation donnée, on met le problème sous la forme connue d'une équation différentielle ordinaire ou algébrique. La résolution numérique de problèmes aux limites de type élastoplastique ou écoulement non sature est exposée; elle est mise en oeuvre dans le code aux éléments finis SIC. 2 developpé a l'université de technologie de Compiègne. On propose plusieurs méthodes originales, que l'on compare a d'autres codes de calcul, a des résultats expérimentaux ou a des relevés in situ.
APA, Harvard, Vancouver, ISO, and other styles
29

Fiorot, Guilherme Henrique. "On unsteady open-channel flows : a contribution to nonstationary sediment transport in runoff flows and to unstable non-Newtonian mudflow studies." Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0020/document.

Full text
Abstract:
L'objectif général de cette thèse est l'étude de d'écoulement instationnaire du type coulée de boue dans des canaux naturels. La pluie, source du débit liquide, entraine le ruissellement, responsable du mouillage du sol, de la réduction de sa cohésion et de l'érosion des petites particules de sédiments. A partir de là, le transport de sédiments peut augmenter avec le débit et la pente du sol jusqu'à ce que la concentration en particules atteignent des niveau très importants dans la composition du fluide. Dans une première partie, un banc expérimental a été conçu pour simuler des écoulements ruissellants sur un lit mobile. Un système de mesure a été inventé et implémenté pour mesurer le débit solide instantané et le frottement instantané. Ces systèmes sont utilisés pour étudier l'effet des ondes de surface libre sur le transport de sédiments. Ces données sont employées pour corréler les charactéristiques entr l'écoulement et le transport solide. L'analyse des résultats permet d'observer que pour un écoulement moyen donné, la présence des ondes réduit la quantité moyenne des sédiments transportés. Dans une deuxième partie, la dynamique des écoulements très concentrés est étudiée grâce à un modèle de roll waves de première ordre pour les écoulements laminaires des fluides de type Herschel-Bulkley. Les résultats présentés indiquent que des roll wave sont certainement présentes dans un événement naturel publié et pris comme cas d'étude. Les propriétés des ondes prédites sont estimées avec un écart de 8% par rapport à l'amplitude moyenne mesurée. Finalement, la solution théorique pour le profil de vitesse est modifiée pour prendre en considération l'effet de la porosité. La solution mathématique est comparée à des simulations faites avec FLUENT. Une analyse paramétrique est effectuée, et la comparaison avec le cas d'étude déjà publié est améliorée. En conclusion générale, les phénomènes instationnaires qui peuvent apparaitre lors de l'évolution d'une coulée de boue affectent la dynamique générale du système couplé (écoulement-transport sédimentaire) par rapport au cas permanent et uniforme. Vérifier que ce type de phénomènes peut apparaître lors d'un événement naturel comme les coulées de boue doit être un étape importante d'un projet d'ingénierie, afin de limiter les risques de dommages
This thesis was motivated by the need to better understand time-dependent features related to mudflow evolution on natural sloped channels. Basically, the research is focused on events that are confined in channels formed due to the topography. The rain, source of the liquid discharge, generates the runoff flow which is responsible for wetting the soil surface, promoting reduction of soil cohesiveness and erosion of small particles such as clay and sand. From this point, the sediment transport can increase as small water flows merge and form greater streams. The scenario keeps its evolution until i reaches high concentration of particles in the fluid mixture. In the first part, to study the non-permanent feature of sediment transport, an open-channel experiment was designed for simulating runoff flow over a mobile bed. A measurement system was designed and constructed to instantaneously inspect the solid discharge of particles and the flow friction at the bed. This apparatus is further used to explore the influence of free-surface waves on the sediment transport. Hydraulic properties of flows are qualitatively and quantitatively studied and data are used to correlate characteristics of flow and sediment transport. A set of experimental runs is presented and explored. Analysis of results shows that for fixed flow conditions, waves induce an overall smaller quantity of transported sediment. In a second part, the dynamics of high concentrated flows is addressed and this thesis attempts to appl a first-order roll-wave model for Herschel-Bulkley laminar fluid flow to a registered natural event. Results presented point out that roll waves could have occurred during this already published case-study event. Simulations could predict wave heights within 8% on uncertainty with respect to the mea amplitude of measured waves. Finally a new theoretical solution for the velocity profile is proposed taking into account the porosity of the bed. Results are then compared with numerical simulation performed in FLUENT. A parametric analysis is employed and the case-study is once again evaluated. A: general conclusion, the non-permanent phenomena that can appear during the evolution of a mudflow event affect the overall dynamics of the coupled system (hydraulic-sediment transport) in comparison to the steady and uniform case. Verifying that such phenomena could appear should indeed be an important part in hydraulic engineering projects, especially when dealing with lives, which is the case of mud flows
APA, Harvard, Vancouver, ISO, and other styles
30

Chaillat, Stéphanie. "Méthode multipôle rapide pour les équations intégrales de frontière en élastodynamique 3-D : application à la propagation d’ondes sismiques." Paris Est, 2008. http://pastel.paristech.org/5233/01/these_chaillat.pdf.

Full text
Abstract:
La simulation de la propagation d’ondes pour des configurations 3D est un domaine de recherche très actif. Le principal avantage de la BEM est de ne discrétiser que les frontières du domaine. Elle est ainsi bien adaptée aux domaines infinis. Cependant, la BEM classique conduit à des matrices pleines et donc à des coûts de calcul et mémoire importants. La FMM a permis d’augmenter de manière significative les capacités de la BEM dans beaucoup de domaines d’application. Dans ce travail, la FMM est étendue aux équations de l’élastodynamique 3D dans le domaine fréquentiel, pour des domaines homogènes puis, grâce à une stratégie de couplage BE-BE, aux problèmes multi-domaines. D’autres améliorations de la méthode sont aussi présentées: préconditionnement, réduction du nombre de moments, développement multipôle pour les fonctions de Green du demiespace. Des applications en sismologie sont présentées pour des modèles canoniques ainsi qu’au modèle de la vallée de Grenoble
Simulating wave propagation in 3D configurations is becoming a very active area of research. The main advantage of the BEM is that only the domain boundaries are discretized. As a result, this method is well suited to dealing with unbounded domains. However, the standard BEM leads to fully-populated matrices, which results in high computational costs in CPU time and memory requirements. The Fast Multipole Method (FMM) has dramatically improved the capabilities of BEMs for many areas of application. In this thesis, the FMM is extended to 3D frequencydomain elastodynamics in homogeneous and piecewise-homogeneous media (using in the latter case a FMM-based BE-BE coupling). Improvements of the present FM-BEM are also presented: preconditioning, reduction of the number of moments, and formulation of a multipole expansion for the half space fundamental solutions. Seismological applications are given for canonical problems and the Grenoble valley case
APA, Harvard, Vancouver, ISO, and other styles
31

Reimeringer, Michael. "Une méthodologie et des outils pour concevoir en tenant compte de la simulation." Reims, 2009. http://www.theses.fr/2009REIMS001.

Full text
Abstract:
Les progrès effectués dans les modèles et les logiciels et la puissance des matériels font de la simulation un outil incontournable de la conception. Il est en effet indéniable que l'utilisation des logiciels de simulation, sous toutes leurs formes, apportent des avantages importants: études de solutions alternatives, optimisation des produits, réduction voire disparition des prototypes physiques, évaluation de modes de fabrication, diminution des coûts et des délais. Si l'on ne peut plus imaginer de conception sans appels fréquents à la simulation, l'intégration des calculs dans le processus de conception ne peut se faire sans définir les étapes et les liaisons entre les différents logiciels. Aujourd'hui cette étape de liaison entre ces différents outils n'est pas ou n'est encore que très partielle et l'aspect méthodologique est très souvent occulté
Simulation becomes incontrovertible due to the many advancement made in model, software and material. The use of simulation tools supply many advantages: study of alternative solutions, optimization of product, decrease or disparition of physical prototypes, assessment of manufacturing process, and reduction of cost and delay. Nowadays design is often done without considering subsequent step like simulation. However this step is indispensable
APA, Harvard, Vancouver, ISO, and other styles
32

Charentenay, Julien de. "Simulation numérique d'écoulements réactifs instationnaires à faibles nombres de Mach." Châtenay-Malabry, Ecole centrale de Paris, 2002. http://www.theses.fr/2002ECAP0724.

Full text
Abstract:
Au cours de ce travail, l'étude du front de flamme est réalisée grâce à la simulation d'écoulements réactifs multi-espèces. Dans ce cadre, deux codes de simulation numérique directe bases respectivement sur les équations compressibles et sur l'hypothèse des faibles nombres de MAachsont comparés sur trois cas de complexité croissante. Le post-traitement des résultats obtenus montre que les flammes obtenues avec l'approche des faibles nombres de mach sont très similaires à celles obtenues avec l'approche compressible, tout en réduisant sensiblement le temps de calcul. Le code de simulation numérique directe base sur la formulation des faibles nombres de Mach a permis d'étudier l'influence des modelés de transport dans le cas des flammes prémélangées turbulentes. Les simulations d'interactions flammes / tourbillons et flammes / turbulence ont mis en évidence que les flammes obtenues en prenant en compte l'effet Soret sont plus plissées que lorsque l'on néglige cet effet. Toutefois, le traitement statistique de ces résultats n'a pas permis d'identifier avec certitude l'impact des modèles de transport détaillés sur la modélisation de ces flammes. Afin de confronter simulations et expériences, les méthodes numériques utilisées dans les codes de simulation numérique directe ont été modifiées pour utiliser des maillages lâches et irréguliers et de grands pas de temps. L'impact de ces modifications est identifié sur deux cas-tests simples : l'erreur observée est de l'ordre de 7%. La comparaison des simulations et des mesures expérimentales dans le cas d'une flamme a structures cohérentes montre que la fréquence des instabilités est parfaitement reproduite par ce calcul simplifie, mais que la taille de ces structures est sous-estimée par la simulation. Le processus de combustion est globalement très bien reproduit, comme le montrent les profils de température et d'espèces.
APA, Harvard, Vancouver, ISO, and other styles
33

Dubois, Jean-Luc. "L'abstraction fonctionnelle des parties contrôles des circuits pour l'accélération de simulateurs générés : une contribution au développement d'outils de C.A.O. de l'architecture matérielle." Lille 1, 1991. http://www.theses.fr/1991LIL10037.

Full text
Abstract:
L'accroissement incessant de complexité des circuits nécessite la définition de méthodes et d'outils, en particulier de simulation, toujours plus puissants. La génération de simulateurs, c'est-à-dire la traduction de la description d'un circuit en un programme écrit dans un langage de haut niveau, permet d'ajouter la portabilité à l'avantage majeur des méthodes de compilation qui est l'efficacité. L'inconvénient de cette technique réside dans l'importance de la taille des simulateurs produits et est dû à l'emploi du schéma trop classique de traduction d'un algorithme en un autre. Ce problème est évité grâce à la transformation des parties contrôles de circuits avant la génération. Le modèle résultant est alors constitué d'une partie contrôle essentiellement sous forme de données et d'une partie opérative sous forme algorithme. L'emploi de cette méthode, qui ne dépend pas du langage de description utilisé, permet a la fois la réduction de la taille des simulateurs et l'accélération de leur exécution
APA, Harvard, Vancouver, ISO, and other styles
34

Boyère, Emmanuel. "Contribution à la modélisation numérique thermomécanique tridimensionnelle du forgeage." Paris, ENMP, 1999. http://www.theses.fr/1999ENMP0915.

Full text
Abstract:
Le developpement des methodes industrielles et de la recherche appliquee ont fait passer la forge d'une technique transmise par l'experience a l'etat de technologie. Parmi les modeles qui puissent decrire la forge, la thermomecanique des milieux continus, alliee au calcul numerique par la methode des elements finis, s'est averee depuis vingt ans un outil de plus en plus puissant, au fur et a mesure de la croissance des moyens informatiques. On est donc parti du code elements finis forge3 developpe au cemef et deja employe dans les bureaux d'etude de forges francaises et etrangeres. L'objectif etait de developper quelques points du logiciel pour le rendre encore plus industriel. L'etude a conduit a la programmation d'un module de post-traitement des calculs pour suivre le deplacement de points materiels lors du forgeage et permettre l'examen visuel de la deformation de marquages dessines dans la matiere. Elle a permis l'ajout au code d'une procedure d'integration temporelle, dite rk2, d'ordre 2 en temps. On a montre que c'est un point de passage oblige pour la simulation de procedes tels que le laminage circulaire. Une methode de calcul global du probleme couple des deformations dans la piece et du deplacement des outils flottants, qui ne sont pas pilotes par le forgeron, a ete programmee et etudiee dans le code. Enfin une methode de point fixe iterative a ete introduite dans le logiciel pour le calcul des temperatures d'outils dans la perspective de passer a une resolution globale du probleme thermique.
APA, Harvard, Vancouver, ISO, and other styles
35

Jamme, Stéphane. "Étude de l'interaction entre une turbulence homogène isotrope et une onde de choc." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT046H.

Full text
Abstract:
Ce travail met en lumière l'ensemble des mécanismes physiques fondamentaux caractéristiques du phénomène d'interaction entre une turbulence homogène isotrope libre et une onde de choc droite. Un outil numérique permettant la simulation directe de cette configuration d'écoulement est d'abord développé. Différents calculs sont ensuite conduits, donnant lieu à une compréhension précise et détaillée des évolutions observées pour les principales grandeurs statistiques de l'écoulement turbulent au cours de l'interaction avec le choc. L'influence de la nature de la turbulence incidente sur son comportement à travers la discontinuité est également mise en évidence. Nous utilisons pour cela la décomposition modale de Kovasznay qui permet de dégager les effets de la compressibilité sur le processus d'interaction. Une approche théorique est par ailleurs réalisée en s'appuyant sur une analyse linéaire non visqueuse du phénomène. Des comparaisons avec les résultats de simulation numérique directe sont effectuées et d'avèrent très convaincantes sur le plan qualitatif. La majorité des mécanismes fondamentaux inhérents au phénomène d'interaction choc / turbulence sont mis en évidence avec cette approche théorique qui se révèle ainsi très performante pour la configuration étudiée. Au bilan, on dispose d'une base de données susceptible d'être confrontée aux modèles classiques de turbulence compressible. Ce travail constitue également un point de départ indispensable à l'étude de configurations plus complexes telles que l'interaction choc / couche limite turbulente.
APA, Harvard, Vancouver, ISO, and other styles
36

Albaki, Rachida. "Contribution à l'étude des propriétés dynamiques des métaux liquides simples par simulation numérique et modèles analytiques." Metz, 2002. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2002/Albaki.Rachida.SMZ0205.pdf.

Full text
Abstract:
Le but de ce travail est de fournir une description du comportement structural et dynamique des métaux liquides simples. Les résultats présentés se rapportent aux métaux alcalins et alcalino-terreux. Une première partie de l'étude consiste à mettre au point et à tester la description des interactions interatomiques dans ces métaux. La transférabilité de l'état solide à̧ l'état liquide du pseudopotentiel de Fiolhais a ainsi été démontré. En effet, les résultats de dynamique moléculaire pour la structure statique des éléments étudiés sont en accord avec l'expérience. Dans une deuxième partie, les propriétés dynamiques individuelles (fonction d'autocorrélation des vitesses, densité spectrale, fonction mémoire, coefficient d'autodiffusion) obtenues par simulation sont comparées à des modèles analytiques et aux mesures expérimentales, lorsqu'elles existent. L'influence sur ces propriétés de la température et de la densité est discutée. Quant aux propriétés dynamiques collectives (facteur de structure dynamique, fonction de duffusion intermédiaire), elles sont étudiées en utilisant des modèles analytiques tels les modèles viscoélastique et hydrodynamique, ainsi que celui du couplage des modes. Ces modèles sont discutés par rapport à l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
37

Gassenbauer, Václav. "Illumination coherence for ligh transport simulation." Rennes 1, 2011. http://www.theses.fr/2011REN1S098.

Full text
Abstract:
Simulation of light transport in a scene is an essential task in realistic image synthesis. However, an accurate simulation of light as it bounces in the scene is time consuming. It has been shown that a key to speeding up light transport simulation algorithms is to take advantage of the high degree of spatial, angular, and temporal coherence. In this thesis we make three contributions in this area. First, we propose spatial directional radiance caching (SDRC) for accelerating the light transport simulation in scenes with glossy surfaces. The SDRC algorithm takes advantage of the smoothness of shading on glossy surfaces by interpolating the indirect illumination from a set of sparsely distributed radiance samples that are both spatially and directionally close. In the next part of the thesis, we propose an efficient and accurate local principal component analysis (LPCA) algorithm for dimensionality reduction and data compression of large data sets. To achieve efficiency our new algorithm, called SortCluster-LPCA, passes various information from previous iteration to the next. Improved accuracy is achieved through better initial seeding of cluster centroids in LPCA. Finally, we describe a work in progress focusing on the development of an algorithm for interactive relighting of animation sequences with indirect illumination. We formulate the relighting problem as a large 3D array expressing light propagation in a scene over multiple frames. We suggest an adaptive algorithm to make the pre-computation tractable exploiting coherence in light transport
La simulation de la propagation de la lumière dans une scène est une tâche essentielle en synthèse d'images réalistes. Cependant, une simulation correcte de la lumière ainsi que ses différents rebonds dans la scène reste couteuse en temps de calcul. Premièrement, nous proposons l'algorithme de cache de luminance spatial et directionnel SDRC. L'algorithme SDRC tire parti du fait que les variations d'éclairage sont douces sur les surfaces brillantes. L'éclairage en un point de la scène est alors calculé en interpolant l'éclairage indirect connu pour un ensemble d'échantillons de luminance spatialement proches et de directions similaires. Dans la partie suivante, nous présentons un algorithme efficace et précis d'analyse locale en composantes principales LPCA pour réduire la dimension et compresser un grandensemble de données. Pour améliorer l'efficacité de notre nouvel algoritme celui-ci propage les informations issues d'une itération à une itération suivante. En choisissant une meilleure graine initiale pour les centroïdes des clusters dans LPCA, la précision de la méthode est améliorée et produit une meilleure classification des données. Enfin, nous décrivons des travaux en cours de réalisation concernant une méthode de ré-éclairage interactif d'une séquence animée en prenant en compte l'éclairage indirect. Le problème de ré-éclairage est représenté sous la forme d'une grande matrice 3D représentant la propagation de la lumière dans la scène pour plusieurs images de la séquence. Un algorithme adaptatif pré-calcule la propagation de la lumière en exploitant les cohérences potentielles
APA, Harvard, Vancouver, ISO, and other styles
38

Zhang, Xiao Hui. "Simulation avancée des circuits micro-ondes." Paris 12, 1989. http://www.theses.fr/1989PA120040.

Full text
Abstract:
Les objectifs de cette these sont les suivants: 1) realiser une etude theorique de la ligne de transmission aux multiconducteurs dans les multicouches dielectriques. Selon l'approximation quasi-tem, un systeme d'equations differentielles est formule en construisant une fonction de green dans l'espace equivalent homogene, et en le considerant comme un probleme de champs electrostatiques. La methode des moments est utilisee pour sa resolution. Ce travail a conduit a un nouveau logiciel d'aide a la conception microline. Microline est integre dans le progiciel de simulation et d'optimisation des circuits micro-ondes esope, en lui donnant un atout special pour pouvoir traiter des mmics; 2) realiser une etude de simulation des reseaux electroniques non lineaires dans le domaine tempo-frequentiel et mettre au point un algorithme a la fois efficace et robuste du point de vue du calcul non lineaire, et adapte aux structures d'un simulateur de circuits lineaires existant, dans le but de le transformer en un simulateur de circuits micro-ondes non lineaires. Une nouvelle implantation de la methode harmonic balance est proposee ainsi qu'un nouvel algorithme de resolution bgsnl (bloc gauss seidel newton like) qui a conduit a la realisation d'un progiciel industriel de simulation de circuits micro-ondes non lineaires esope non lineaire
APA, Harvard, Vancouver, ISO, and other styles
39

Vettorel, Thomas. "Polymer crystallization studies by computer simulation." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/VETTOREL_Thomas_2005.pdf.

Full text
Abstract:
Les polymères semi-cristallins sont des systèmes d'un grand intérêt industriel de par leur très nombreuses applications, et constituent également un riche sujet d'étude du fait de la complexité des structures formées au cours de la cristallisation, ainsi que des mécanismes à l'œuvre lors de celle-ci. Nous avons étudié la cristallisation des polymères par simulation numérique de plusieurs façons différentes : des simulations détaillées à l'échelle atomique nous ont permis de reproduire la structure cristalline de chaînes courtes d'alcanes à basse température, dont la simulation lors d'un réchauffement permet de retrouver une phase transitoire bien caractérisée expérimentalement. Le même modèle a été utilisé pour simuler le processus de cristallisation à partir du fondu au cours d'un refroidissement; ce type de simulations réaliste ne permet pas de reproduire des structures cristallines en un temps de simulation restreint. Afin de pouvoir reproduire efficacement des structures semi-cristallines aux caractéristiques réalistes, nous avons utilisé un autre type de simulations numériques nous permettant de considérer des échelles de longueur et de temps plus importantes : ce modèle coarse-grained a permis d'étudier le phénomène de cristallisation en détail, à l'aide de différents paramètres d'ordre caractérisant le cristal et son évolution au cours du temps. Nous avons aussi procédé à une étude détaillée des facteurs de structure du fondu de polymères à haute température de manière à déterminer quelle est l'influence de la structure du liquide sur la formation du cristal. Ces différentes études permettent une meilleure compréhension de l'influence sur le phénomène de cristallisation des différents paramètres utilisés dans la définition des modèles de simulation numérique
Semi-crystalline polymers are of great interest for industrial purposes, and the complex structures they involve as well as the mechanisms leading to the formation of crystals make their study very challenging. We investigated polymer crystallization by computer simulation via different methods: An atomisticly detailed model was used to reproduce the crystalline structure of short alkanes at low temperature, and continuous heating simulations gave rise to a transient phase that is well characterized in experiments. The same realistic model was used to simulate continuous cooling of the melt, but could not yield crystalline structures in a limited simulation time. In order to reproduce efficiently the characteristic features of semi-crystalline polymers, we used another simulation model which addresses larger length and time scales: This coarse-grained model allowed us to study the crystallization phenomenon in detail with several order parameters to characterize the crystal and its time evolution. The detailed study of the structure factors of the high-temperature melt has also been investigated so as to determine the influence of the liquid phase structure on crystal formation. These different studies yield a better understanding of the influence on crystallization of the various parameters entering the definitions of the simulation models
APA, Harvard, Vancouver, ISO, and other styles
40

Brocail, Julien. "Analyse expérimentale et numérique du contact à l'interface outil-copeau lors de l'usinage à grande vitesse des métaux." Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/6c282378-ea86-4bf0-8c06-48498e37e0da.

Full text
Abstract:
L'étude porte sur la caractérisation de l'interface outil-copeau lors de l'usinage à grande vitesse des métaux. Des études récentes montre que la modélisation de l'usinage grande vitesse nécessite la détermination d'une loi d'interface tenant compte des paramètres de contact (la pression de contact, la vitesse de glissement et la température d'interface) pour décrire plus précisément les paramètres du procédé (les efforts de coupe et la forme du copeau). Des essais de caractérisation basse vitesse, reproduisant les conditions mécaniques et thermiques du contact en pointe de l'outil lors d'une opération d'usinage grande vitesse, sont réalisés avec le test de compression-translation. Le banc a été adapté pour permettre une étude thermomécanique du contact. De nouveaux lopins et de nouveaux contacteurs ont permis de répondre aux exigences de cette étude. Une loi d'interface, dépendante de la pression de contact, de la vitesse de glissement et de la température d'interface a été définie pour le couple tribologique acier AISI 1045 / Carbure non revêtu. Cette loi implémentée dans un modèle numérique de la coupe orthogonale (développé sur Abaqus) offre des améliorations intéressantes. Une étude de sensibilité, menée avec ce modèle, a permis de déterminer les tolérances maximales d'identification des paramètres rhéologiques de la loi de Johnson-Cook, ou des paramètres de contact. Des expériences réalisées sur les aciers AISI 1045 et AISI 304L ont permis de déterminer les paramètres thermiques de contact tels que le coefficient de partage  et la résistance thermique de contact RTC. Le modèle numérique du test montre l'influence de ces paramètres sur le coefficient de frottement
The study relates to the characterization of the tool-chip interface during the high-speed machining of metals. The existing numerical approaches do not generate good correlations of the process variables, such as the cutting forces and the shape of the chip. Recent studies show that the determination of an interfacial law according to the contact parameters (contact pressure, sliding velocity and interfacial temperature) is necessary to describe more precisely the process parameters. Experiments were carried out on the upsetting sliding test that reproduces the mechanics and thermals contact conditions of the HSM process at the tool tip. This specific device has been adapted and the antagonists have been modified for this study. A friction law according to the contact pressure, the sliding velocity, and the interfacial temperature was defined for the tribological system AISI 1045 steel / uncoated carbide. This law implemented in a numerical model of orthogonal cutting (developed in Abaqus) offers interesting improvements
APA, Harvard, Vancouver, ISO, and other styles
41

Mohamed, Kamel. "Simulation numérique en volume finis, de problèmes d'écoulements multidimensionnels raides, par un schéma de flux à deux pas." Paris 13, 2005. http://www.theses.fr/2005PA132020.

Full text
Abstract:
Cette thèse est consacrée à la simulation numérique de problèmes d'écoulements de fluides raides régis par des systèmes de lois de bilan non homogènes, dans des configurations monodimensionnelles et bidimensionnelles. La méthode numérique utilisee est une extension d'un schéma à deux pas (SRNH), comportant un paramètre ajustable, propose par le professeur F. Benkhaldoun dans un cadre monodimensionnel. Ainsi, en un premier temps on a introduit une variante S RN H R, obtenue en remplaçant la vitesse numérique par la vitesse de Rusanov locale, en vue de l'extension du schéma au cas bidimensionnel. Par la suite, une analyse de stabilité du schéma, révèle que celui-ci peut être d'ordre 1 au 2 selon la valeur du paramètre Une stratégie de variation de ce paramètre, basée sur la théorie des limiteurs a alors été adoptée. Le schéma peut ainsi être rendu d'ordre 1 dans les zones a forte variation de l'écoulement, et d'ordre 2, la ou l'écoulement est régulier, Ensuite on a établi les conditions pour que ce schéma respecte la propriété exacte introduite par Bermudez et Vazquez, Une étude d'implémentation des conditions aux limites, adaptée a ce schéma, a également été menée en se basant sur les invariants de Riemann. Dans la deuxieme partie de la thèse, on a appliqué ce schéma à des systèmes monophasiques homogènes et non homogènes. Par exemple on a réalisé la simulation des problèmes de rupture de barrage sur une marche, pour des configurations ID et 2D, en menant en particulier une étude de convergence numérique via la détermination des courbes d'erreurs. Enfin, on a utilisé le schéma pour la simulation numérique de systèmes diphasiques ( Ransom ID et 2D)
This thesis is devoted to the numerical simulation of stiff fluid flows, governed by sys¬tems of conservation laws with source terms (non homogeneous systems). Both one dimensional and two-dimensional configurations are considered. The numerical method used is an extension of the two steps flux scheme (SRNH), which depends on a local adjustable parameter aj+i and which has been proposed by professor F. Benkhaldoun in the one dimensional framework. In a first part of the work, aiming to extend the scheme to the two-dimensional case, we introduce an alternative scheme (SRNHR), which is obtained from SRNH by replacing the numerical velocity, by the local physical Rusanov velocity. Thereafter, the stability analysis of the scheme, shows that the new scheme can be of order 1 or 2 according to the value of the parameter 0j+1. A strategy of variation of this parameter, based on limiters theory was then adopted. The scheme can thus be turned to order 1 in the regions where the flow has a strong variation, and to order 2 in the regions where the flow is regular. After this step, we established the conditions so that this scheme respects the exact C-property introduced by Bermudez and Vazquez. A study of boundary conditions, adapted to this kind of two steps schemes, has also been carried out using the Riemann invariants. In the second part of the thesis, we applied this new scheme to homogeneous and non¬homogeneous monophasic systems. For example, we performed the numerical simulation of shallow water phenomena with bottom topography in both one and two dimensions. We also carried out a numerical convergence study by plotting the error curves. Finally, we used the scheme for the numerical simulation of two phase flow models (Ransom ID and 2D)
APA, Harvard, Vancouver, ISO, and other styles
42

Dridi, Samia. "Essais de caractérisation des structures tissées." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0041/these.pdf.

Full text
Abstract:
Dans ce travail, on s'intéresse à l'étude et la modélisation de comportement mécanique de structure tissée. On commence par présenter les propriétés des matériaux testés grâce aux essais de caractérisation. Une base des données expérimentales est constituée afin d'analyser le comportement mécanique du tissu sous certaines sollicitations, et en particulier le cisaillement, moyennant la technique de corrélation d'image. Ensuite, en adoptant une approche hyperélastique, un modèle simplifié est développé permettant d'étudier numériquement l'influence de rapport des rigidités de traction et de cisaillement sur le comportement mécanique tissu suite à une extension à 45. Enfin, en se basant sur approche phénoménologique, une loi de comportement hyperélastique en puissance est proposée. Ce modèle est implanté dans une routine Vumat d'Abaqus/Explicit. Il est identifié à partir des essais de traction et de cisaillement et validé par certains cas de mise en forme des renforts tissés
In this work, we interested to the study and the modelling of mechanical behaviour of weave structure. We begin by presenting the properties of tested materials thanks to tests of characterization. An experimental data base is established to analyze the mechanical behaviour of fabric under some solicitations, in particular the shear, using the technique of digital image correlation. Then, by adopting a hyperelastic approach, a simplified model is developed allowing to study numerically the influence of the report of tensile and shearing rigidities on the mechanical behaviour of woven fabric, further to an extension in 45. Finally, by basing on phenomenological approach, a hyperelastic behaviour law is proposed. This model is implanted in a routine Vumat. It is identified from the tensile and the shearing tests and validated by certain cases of composite reinforcement forming
APA, Harvard, Vancouver, ISO, and other styles
43

Barrero, Daniel. "Simulation et visualisation de phénomènes naturels pour la synthèse d'images." Toulouse 3, 2001. http://www.theses.fr/2001TOU30001.

Full text
Abstract:
Les phenomenes naturels sont omnipresents dans notre environnement et leurs comportements se rappelent a nous tous les jours. La plupart du temps ils sont visibles a l'il nu et comprennent une serie de phenomenes tres divers dont les plus connus sont ceux correspondant a des milieux participants. Ce sont ceux auxquels on a affaire le plus souvent dans notre vie quotidienne : le brouillard matinal, l'evolution des nuages, la fumee de cigarette ou le feu dans la cheminee. Ainsi, il va de soi, que lorsqu'on veut recreer une scene quelconque a l'aide de l'ordinateur, il est essentiel que les phenomenes naturels soient pris en compte. En consequence, dans le domaine de la synthese d'images, le developpement d'un modele convaincant des phenomenes naturels est devenu l'un des problemes les plus attirants. Etant donne la diversite et la complexite de ces phenomenes, la plupart des modeles existants ne concernent que les phenomenes les plus courants, dont les milieux participants plus specialement. En effet, vu l'ubiquite de ces derniers depuis quelques annees il y a eu un interet croissant pour reproduire de facon plus precise les milieux participants et leurs comportements dans le but de generer des images de plus en plus realistes. Comme resultat, differentes approches avec plusieurs degres de compromis vis a vis des modeles physiques ont ete proposes pour essayer de les representer. Le travail de cette these s'inscrit dans cette perspective. Ainsi, dans un premier temps, nous avons developpe un nouveau modele pour la representation des milieux participants turbulents permettant de representer les differents phenomenes optiques et dynamiques s'y deroulant de facon tres realiste. La technique developpee pour representer le comportement
APA, Harvard, Vancouver, ISO, and other styles
44

Guilminot, Virginie. "La synthèse d'image animée : au-delà d'une simulation réaliste." Paris 8, 1996. http://www.theses.fr/1996PA081159.

Full text
Abstract:
L'esthétique réaliste très marquée d'une grande partie des images de synthèse en a peu à peu fait son principal signe de qualité. Cette thèse mixte vise, d'une part à comprendre la présence prononcée du réalisme au sein d'images entièrement fabriquées par ordinateur et, d'autre part à proposer des alternatives à cette esthétique dominante. De nombreux modèles scientifiques, inspirés de la réalité, hantent les logiciels d'animation 3D. L'auteur d'images de synthèse a un rôle prépondérant à jouer dans le combat de ces modèles : sa sensibilité et son intuition peuvent lui permettre d'échapper au moule "réaliste" imposé par l'outil. C'est là mon hypothèse principale. Le réalisme règne sur les domaines de prédilection de la synthèse d'image 3D : la recherche, la TV, le cinéma, sont atteints mais aussi, la fiction, les écoles et même souvent la création. Pourtant, des auteurs ont réussi à y échapper. Il sont peu nombreux, mais ce sont les pionniers. Citons trois d'entre eux : Joan Staveley, Tamás Waliczky, Michel Bret. Leur démarche sont différentes dans leur forme mais semblables dans leur volonté de sortir, et même sauver, l'infographie de la simulation réaliste. Mon désir est identique. Durant l'élaboration de cette thèse mixte, j'ai réalisé et fabriqué trois films courts, en images de synthèse tridimensionnelles. Mon but a été de privilégier la sensibilité plutôt que la prouesse technologique perpétuellement tournée vers les défis réalistes. Il est possible d'éviter le piège du réalisme. En narguant les critères des diffuseurs et en manipulant effrontément les logiciels, il est possible d'obtenir des images de synthèse différentes. Peu à peu, une nouvelle façon de penser les outils apparaît, et peut-être avec elle, des films et des auteurs qui vont bousculer l'ordre établi de la simulation réaliste
A majority of 3d films and computer graphics respect a realistic aesthetic. On one hand, I will analyse why such totally made images initiate a film or reality and on the other hand, I will try to offer alternativity in order to create an other aesthetic, not being realistic. Softwares need numerous scientific formulas, therefore the author, while manipuling it, will be the main actor to change the situation. This is the main point. Realism exists in every 3d application, such as research, tv, cinema, fiction, school and even often in creation. A few artists managed to escape from realism, i. E. : Joan Stavely, Tamas Waliczky or Michel Bret. Each has its own way of working but they all aim at the same: not to reach realistic simulation. I agree on this point and illustrate my thinking, I made three 3d films with more sensitivity than technical challenge. It is possible to avoid the trap of realism. Indeed, by manipulating and divert the software, one can obtain different 3d computer graphics. Step by step, a new approach to handle and to develop tools apears, and thanks to this, authors can create films other than realistic.
APA, Harvard, Vancouver, ISO, and other styles
45

Nguegang, Bertrand Vidal. "Contribution à la simulation numérique du couplage thermomécanique en grandes déformations : Application à la simulation en mise en forme des structures volumiques." Dijon, 1996. http://www.theses.fr/1996DIJOS022.

Full text
Abstract:
Le travail décrit dans le présent mémoire a pour but l'étude précise du couplage thermomécanique pour les problèmes à comportement matériel de type dissipatif (élastoplasticité, élastoviscoplasticité, comportement rigide viscoplastique). Nous nous sommes donc intéressés à la modélisation, puis à la simulation numérique de problèmes anisothermes régis par les équations d'équilibre mécanique, l'équation de la chaleur et les équations constitutives thermomécaniques et thermiques. Les problèmes analyses sont non-stationnaires et incluent des chargements quasistatiques. Les effets convectifs ne sont pas pris en compte ni dans l'équation de la chaleur ni dans les équations de mouvement. Le problème de couplage thermomécanique, pour des structures 2D est discrétisé, d'une part spatialement par la méthode des éléments finis, et d'autre part temporellement par la méthode des différences finies. Pour éviter les inconvénients numériques inhérents aux méthodes de couplage fort, deux méthodes séquentielles qui consistent à découpler itérativement les problèmes mécaniques et thermiques pour les résoudre dans un ordre donne sont proposées et étudiées en détail dans le cadre du problème pose: il s'agit de la méthode séquentielle isotherme et de la méthode séquentielle isentropique. Ces deux méthodes découplent le problème couple initial en deux sous problèmes : l’un purement mécanique, isotherme pour la première et isentropique pour la seconde, dont la solution fournit une configuration d'équilibre donnée. L'autre purement thermique, défini sur la configuration d'équilibré du problème mécanique supposé fixe. Apres la validation des deux algorithmes par de nombreux exemples académiques, ils sont utilisés pour la simulation numérique d'essais thermomécaniques reproduisant des situations rencontrées dans des procédés de mise en forme de pièces massives. Les résultats obtenus sont satisfaisants.
APA, Harvard, Vancouver, ISO, and other styles
46

Corvisier, Philippe. "Ecoulement de fluides thixotropes dans des conduites droites ou présentant des singularités." Nancy 1, 2001. http://www.theses.fr/2001NAN10188.

Full text
Abstract:
L'objectif de cette étude est la compréhension de l'interaction entre l'organisation de la structure interne d'un fluide thixotrope et le développement de l'écoulement. Trois situations ont été considérées : écoulement en conduite droite, dans des singularités ou démarrage. Des profils de vitesse ont été mesurés grâce à la technique de vélocimétrie par images de particules (PIV). Un aplatissement des profils de vitesse, une large zone de recirculation ou un écoulement bouchon ont été observés successivement. Une caractérisation rhéologique a ensuite été menée. Le comportement du fluide est décrit par un modèle de Quemada à cinétique structurelle fractionnaire. Enfin, un travail de simulation a été réalisé par l'adaptation du code Fluent 4. 5 au traitement de la thixotropie par l'adjonction de sous programmes. Une bonne concordance entre les résultats numériques et expérimentaux a été observée. Ainsi, les phénomènes observés ont pu être expliqués grâce à une analyse du champ de structure
The aim of this study is to put the focus on the interaction between the reorganization of the internal structure of a thixotropic fluid and the velocity field. Three cases were considered : a flow in a straight pipe, an entry flow and a start up flow. Velocity profiles were measured by particle image velocimetry (PIV). A flatness of velocity profiles, large vortex zones and a plug flow were observed. Then, a rheological study was conducted. It shows that a modified Quemada model with a fractional kinetic for the structural parameter l could be used. Moreover, to have a better understanding of the observed phenomenon in the pipe and to generalize the results, numerical simulations were performed. The finite volume code Fluent 4. 5 was adapted to deal with thixotropy by adding user defined subroutines. A good agreement between numerical and experimental results was observed. Moreover, the flow development was investigated by the analysis of the structural field
APA, Harvard, Vancouver, ISO, and other styles
47

Rohani, Seyed Yahya. "Simulation numérique du comportement des matériaux granulaires." Metz, 1995. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1995/Rohani.Seyed_Yahya.SMZ9541.pdf.

Full text
Abstract:
La théorie des milieux continus n'étant pas suffisante pour expliquer le comportement des matériaux granulaires, il est nécessaire de tenir compte de la nature discrète de ces milieux. Une méthode qui répond à ce souci est la méthode des éléments distincts. La simulation numérique du comportement des matériaux analogiques de Schneebeli (2d) et des matériaux granulaires (3d) est effectuée par la méthode des éléments distincts en utilisant le programme trubal afin de reproduire numériquement certains essais expérimentaux de caractérisation des matériaux granulaires. Les essais de compression biaxiale et de cisaillement simple sont effectués avec des rouleaux de P. V. C. Et de verre et l'essai triaxial est simulé avec des billes de verre. Les résultats expérimentaux valident la méthode exploitée et permettent ainsi d'obtenir par le calcul les paramètres caractéristiques des matériaux: l'angle de frottement interne et la variation de volume pour différents chemins de chargement. L'exploitation des résultats numériques met en évidence le role fondamental du frottement intergranulaire et de la densité du matériau, pour caractériser le milieu granulaire, tout en permettant l'analyse des phénomènes de dilatance, de localisation et de bande de cisaillement. Enfin nous avons appliqué cette étude au comportement des matériaux granulaires soumis aux effets de poussée et butée, et dans le cas du stockage des matériaux ensilés
The theory of continuous media is not sufficient to explain the behaviour of granular materials, so it is necessary to consider the discrete nature of such media. A method that answers such questions is the distinc element method. The numerical simulation of the behaviour of Schneebeli analogical material (2D) and of granular materials (3D) is done by the distinct element method and by using the trubal program in order to reproduce numerically, certain experimental tests of the characterization of granular materials. The biaxial compression test and the simple shear test are done with rolls of PVC and glass and the trixial test is simulated with glass balls. The experimental results validate the method used and enable us to obtain the characteristic parameters of materials by different kinds of loading. The exploitation of numerical results highlights the fundamental role of the intergrain friction and the material density in order to characterize the granular media, enabling the analysis of the phenomenon of dilatance, localization and shear band. Finally, we applied this study to the behaviour of granular materials under push and trust effects, and in the case of ensiled materials
APA, Harvard, Vancouver, ISO, and other styles
48

Zhang, Cun-Xiao. "Simulation numerique d'ecoulement turbulents autour d'un obstacle." Nantes, 1991. http://www.theses.fr/1991NANT2061.

Full text
Abstract:
Un code destine au calcul des ecoulements turbulents autour des batiments, baptise chensi, a ete developpe et valide sur differents cas reels. La discretisation des termes de convection dans les equations de la quantite de mouvement et de transport de k- est effectuee avec un schema en amont pondere dans le plan de calcul, le couplage vitesse-pression utilise la methode de compressibilite artificielle, l'algorithme est explicite en temps, sa convergence est acceleree par l'introduction d'un pas de temps evolutif et local. Le modele de turbulence est du type de k-. On utilise une loi de paroi afin d'eviter la resolution du systeme des equations pour la sous-couche visqueuse. Le code a ete applique au developpement d'une couche limite du a un changement de rugosite, a un ecoulement sur une marche descendante, sur une marche montante et au-dessus d'un bloc bidimensionnel. Enfin les cas d'un ecoulement tridimensionnel autour d'un obstacle cubique et parallelepipedique ont ete traites. La structure de l'ecoulement, le champ de vitesse et le champ de pression sont correctement predits par le modele. Cependant le calcul numerique sous-estime l'energie turbulente. L'extension du sillage dans les simulations tridimensionnelles est sous-estimee par la simulation. Les differentes sources d'incertitude ont ete analysees
APA, Harvard, Vancouver, ISO, and other styles
49

Koval, Junior Georg. "Comportement d’interface des matériaux granulaires." Paris Est, 2008. http://pastel.paristech.org/4192/01/KOVAL.pdf.

Full text
Abstract:
Cette thèse se consacre au comportement d’interface des matériaux granulaires, et particulièrement au phénomène de localisation des déformations au voisinage d’une paroi. À l’aide d’une géométrie annulaire à vitesse de cisaillement et pression de confinement imposées, on confronte des approches expérimentale et numérique. L’approche expérimentale est composée par des expériences avec des matériaux modèles dans deux appareils de cisaillement simple annulaire (ACSA et mini-ACSA). On relie les mesures globales des contraintes et des variations volumiques aux mesures de déformation du milieu granulaire obtenues par corrélation d’images (ACSA) et par imagerie par résonance magnétique (mini-ACSA). L’approche numérique consiste en des simulations discrètes bidimensionnelles (dynamique moléculaire). On étudie l’influence de la géométrie et de la rugosité des parois dans le comportement des interfaces granulaires. En simulation, on complète l’étude avec l’analyse des effets inertiels
In this thesis, we analyze the interface behavior of granular materials, and particularly the phenomenon of shear strain localization in the vicinity of a wall. Using an annular geometry with imposed shear velocity and confining pressure, we compare experimental and numerical approaches to describe this behavior. The experimental approach is composed of experiments with model materials in two annular simple shear devices (ACSA and mini-ACSA). We connect measurements of shear strain of the granular medium, obtained by correlation imaging velocimetry (ACSA) and by magnetic resonance imaging (mini-ACSA) to global measurements of the stress and volume variations. The numerical approach consists of two-dimensional discrete simulations (molecular dynamics). We study the influence of the geometry and the surface roughness on the behavior of the granular interfaces. In simulation, we complete the study with the analysis of inertial effects
APA, Harvard, Vancouver, ISO, and other styles
50

Lhuillier, Emmanuel. "Transports electronique dans les super-réseaux : applications aux détecteurs infrarouges à grandes longueur d'onde." Palaiseau, Ecole polytechnique, 2010. http://pastel.archives-ouvertes.fr/docs/00/52/86/65/PDF/THESE_EL.pdf.

Full text
Abstract:
L'imagerie infrarouge bas flux requiert des détecteurs grandes longueurs d'onde de hautes performances. Les détecteurs à puits quantiques (QWIP), de par la maturité de GaAs, la facilité à ajuster la longueur d'onde détectée sur une très large gamme et la possibilité de réaliser de larges matrices uniformes constituent d'excellents candidats pour ces applications. Afin de confirmer leur intérêt nous avons procédé à la caractérisation électro-optique fine d'un composant QWIP détectant à 15µm. Les performances mesurées ont été utilisées pour simuler celles d'une caméra basée sur ce détecteur et dédiée à un scénario faible flux et ont permis de valider la capacité de la filière QWIP à répondre à de telles missions infrarouges. Ces simulations ont aussi mis en évidence le rôle extrêmement préjudiciable joué par le courant d'obscurité. Nous avons alors mis au point une simulation basée sur un code de diffusion entre états localisés qui nous a permis de mieux appréhender le transport dans ces structures. Un important travail de développement de l'outil de simulation a été nécessaire. Ce code a révélé le rôle déterminant du profil de dopage sur le niveau de courant d'obscurité. Nous avons ainsi pu réaliser de nouvelles structures aux profils de dopage optimisés et dont le niveau de courant d'obscurité est abaissé de 50%. Nous avons par ailleurs pu apporter une interprétation quantique à la forme des courbes I(V) observée. Mais notre code de simulation s'avère plus généralement un outil puissant de simulation du transport dans les hétérostructures. L'influence des défauts de croissance (défauts d'interface et désordre) a pu être quantifiée et nous avons pu apporter les premières prédictions de performances de QCD THz. Enfin l'influence des effets non locaux sur le transport a été étudiée. L'observation de dents de scie sur les courbes I(V) de QWIP a pu être modélisée et son influence sur la détectivité évaluée
The low flux infrared imaging needs performant high wavelength detectors. Quantum Well Infrared Photodetectors (QWIP), thanks to the maturity of GaAs, the possibility to adjust the detected wavelength on a large range and to realize large uniform matrix are good candidate for such applications. In order to validate this interest, we have performed an electro-optic characterization of a 15µm sample. These measurements have been used to simulate the performance of a camera based on this QWIP and used in a low infrared photons flux scenario. We predict that this QWIP would succeed. Nevertheless these simulations also underline the detrimental role of the dark current. Thus we have developed a simulation tool based on a hoping approach between localized states, which provide us a better understanding of the transport in these heterostructures. The code has in particular underlines the role plays by the electron –ionized impurities interaction, which make the dark current very sensitive to the doping profile. Using this tool we have designed new structures, with optimized doping profile, in which the scattering rate has been decreased by a factor two. Moreover we have identified a quantum origin to the plateau shape of the I(V) curve. This code is more generally a useful simulation tool for the transport in hétérostructures. The influence of growth defects (non ideal interface and disorder) has been quantized and we have performed the first evaluation of The R0A in a THz QCD. Finally non local transport effects have been investigated. Saw teeth observation on the I(V) curves have been modeled and their influence on the detectivty estimated
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography