Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Calculs par la foule.

Dissertationen zum Thema „Calculs par la foule“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Calculs par la foule" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Javet, Ludovic. „Privacy-preserving distributed queries compatible with opportunistic networks“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG038.

Der volle Inhalt der Quelle
Annotation:
Dans la société actuelle, où l'IoT et les plateformes numériques transforment notre vie quotidienne, les données personnelles sont générées à profusion et leur utilisation échappe souvent à notre contrôle. Des législations récentes comme le RGPD en Europe proposent des solutions concrètes pour réguler ces nouvelles pratiques et protéger notre vie privée. Parallèlement, sur le plan technique, de nouvelles architectures émergent pour répondre à ce besoin urgent de se réapproprier nos propres données personnelles. C'est le cas des systèmes de gestion des données personnelles (PDMS) qui offrent un moyen décentralisé de stocker et de gérer les données personnelles, permettant aux individus d'avoir un meilleur contrôle sur leur vie numérique.Cette thèse explore l'utilisation distribuée de ces PDMS dans un contexte de réseau opportuniste, où les messages sont transférés d'un appareil à l'autre sans nécessiter d'infrastructure. L'objectif est de permettre la mise en œuvre de traitements complexes croisant les données de milliers d'individus, tout en garantissant la sécurité et la tolérance aux pannes des exécutions.L'approche proposée utilise les environnements d'exécution de confiance pour définir un nouveau paradigme informatique, intitulé Edgelet computing, qui satisfait à la fois les propriétés de validité, de résilience et de confidentialité. Les contributions comprennent (1) des mécanismes de sécurité pour protéger les exécutions contre les attaques malveillantes visant à piller les données personnelles, (2) des stratégies de résilience pour tolérer les défaillances et les pertes de messages induites par l'environnement décentralisé, (3) des validations approfondies et des démonstrations pratiques des méthodes proposées
In today's society, where IoT and digital platforms are transforming our daily lives, personal data is generated in profusion and its usage is often beyond our control. Recent legislations like the GDPR in Europe propose concrete solutions to regulate these new practices and protect our privacy. Meanwhile, on the technical side, new architectures are emerging to respond to this urgent need to reclaim our own personal data. This is the case of Personal Data Management Systems (PDMS) which offer a decentralized way to store and manage personal data, empowering individuals with greater control over their digital lives.This thesis explores the distributed use of these PDMS in an Opportunistic Network context, where messages are transferred from one device to another without the need for any infrastructure. The objective is to enable the implementation of complex processing crossing data from thousands of individuals, while guaranteeing the security and fault tolerance of the executions.The proposed approach leverages the Trusted Execution Environments to define a new computing paradigm, entitled Edgelet computing, that satisfies both validity, resiliency and privacy properties. Contributions include: (1) security mechanisms to protect executions from malicious attacks seeking to plunder personal data, (2) resiliency strategies to tolerate failures and message losses induced by the fully decentralized environment, (3) extensive validations and practical demonstrations of the proposed methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Dessarce, Rémi. „Calculs par lancer des rayons“. Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10161.

Der volle Inhalt der Quelle
Annotation:
Les techniques de lancer de rayons ont été développées initialement dans le cadre du calcul d'images de synthèse. Par la suite, d'autres méthodes de rayons de type Monte-Carlo ont été utilisées pour la résolution de problèmes en optique et électromagnétisme. Nous présentons ici une méthode de calcul de la surface équivalente RADAR (S. E. R. ) d'un objet 3D à l'aide d'une méthode de lancer de rayon
L’emploi des méthodes asymptotiques nous permet d'obtenir une formulation moderne de l'optique géométrique qui constitue le fondement théorique de toutes les méthodes de rayons
La mise en œuvre d'une méthode de lancer de rayons en électromagnétisme passe par la maitrise d'une modélisation géométrique sophistiquée. Il nous faudra, en effet, satisfaire à des contraintes de précision importantes dues à l'instabilité des trajectoires mais aussi parvenir à effectuer un suivi d'informations d'ordre 2 (courbures) le long du trajet de chaque rayon. C’est pourquoi nous travaillerons sur une modélisation de l'objet 3D à base de surfaces polynomiales ou rationnelles
Nous présentons deux méthodes d'intersection rayon/surface de Bézier. La première, introduite par l. Biard est basée sur l'implicitisation de la surface. Nous présentons ses limitations en termes de coûts et de stabilité et nous proposons une alternative à l'aide d'une méthode de subdivision d'un système algébrique étendue au cas des surfaces de Bézier rationnelles
Pour les surfaces de révolution, nous avons traite le problème grâce a une formulation semi-implicite permettant de ramener le problème de l'intersection rayon/surface de révolution a la recherche des racines positives d'un polynôme univarié
Au total, nous présentons un code autonome complet permettant le calcul de la S. E. R. D'une géométrie 3D. D’autre part, les nouvelles méthodes d'intersection rayon/objet ont été intégrées au sein d'un logiciel de calcul d'images de synthèse
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Fagette, Antoine. „Détection de foule et analyse de comportement par analyse vidéo“. Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066709.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la similitude entre un fluide et une foule et sur l'adaptation de l’algorithme de Particle Video pour le suivi et l'analyse de foule, ce qui aboutit à la conception d'un système complet pour l'analyse de la foule. Cette thèse en étudie trois aspects : la détection de la foule, l'estimation de sa densité et le tracking des flux afin d'obtenir des caractéristiques de comportement.L’algorithme de détection de la foule est une méthode totalement non supervisée pour la détection et la localisation des foules denses dans des images non-contextualisées. Après avoir calculé des vecteurs de features multi-échelles, une classification binaire est effectuée afin d'identifier la foule et l'arrière-plan.L'algorithme d'estimation de densité s'attaque au problème de l'apprentissage de modèles de régression dans le cas de larges foules denses. L'apprentissage est alors impossible sur données réelles car la vérité terrain est indisponible. Notre méthode repose donc sur l'utilisation de données synthétiques pour la phase d'apprentissage et prouve que le modèle de régression obtenu est valable sur données réelles.Pour notre adaptation de l’algorithme de Particle Video nous considérons le nuage de particules comme statistiquement représentatif de la foule. De ce fait, chaque particule possède des propriétés physiques qui nous permettent d'évaluer la validité de son comportement en fonction de celui attendu d'un piéton et d’optimiser son mouvement guidé par le flot optique. Trois applications en découlent : détection des zones d’entrée-sortie de la foule, détection des occlusions dynamiques et mise en relation des zones d'entrée et de sortie selon les flux de piétons
This thesis focuses on the similarity between a fluid and a crowd and on the adaptation of the particle video algorithm for crowd tracking and analysis. This interrogation ended up with the design of a complete system for crowd analysis out of which, this thesis has addressed three main problems: the detection of the crowd, the estimation of its density and the tracking of the flow in order to derive some behavior features.The contribution to crowd detection introduces a totally unsupervised method for the detection and location of dense crowds in images without context-awareness. After retrieving multi-scale texture-related feature vectors from the image, a binary classification is conducted to identify the crowd and the background.The density estimation algorithm is tackling the problem of learning regression models when it comes to large dense crowds. In such cases, the learning is impossible on real data as the ground truth is not available. Our method relies on the use of synthetic data for the learning phase and proves that the regression model obtained is valid for a use on real data.Our adaptation of the particle video algorithm leads us to consider the cloud of particles as statistically representative of the crowd. Therefore, each particle has physical properties that enable us to assess the validity of its behavior according to the one expected from a pedestrian, and to optimize its motion guided by the optical flow. This leads us to three applications: the detection of the entry and exit areas of the crowd in the image, the detection of dynamic occlusions and the possibility to link entry areas with exit ones, according to the flow of the pedestrians
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Fagette, Antoine. „Détection de foule et analyse de comportement par analyse vidéo“. Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066709.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la similitude entre un fluide et une foule et sur l'adaptation de l’algorithme de Particle Video pour le suivi et l'analyse de foule, ce qui aboutit à la conception d'un système complet pour l'analyse de la foule. Cette thèse en étudie trois aspects : la détection de la foule, l'estimation de sa densité et le tracking des flux afin d'obtenir des caractéristiques de comportement.L’algorithme de détection de la foule est une méthode totalement non supervisée pour la détection et la localisation des foules denses dans des images non-contextualisées. Après avoir calculé des vecteurs de features multi-échelles, une classification binaire est effectuée afin d'identifier la foule et l'arrière-plan.L'algorithme d'estimation de densité s'attaque au problème de l'apprentissage de modèles de régression dans le cas de larges foules denses. L'apprentissage est alors impossible sur données réelles car la vérité terrain est indisponible. Notre méthode repose donc sur l'utilisation de données synthétiques pour la phase d'apprentissage et prouve que le modèle de régression obtenu est valable sur données réelles.Pour notre adaptation de l’algorithme de Particle Video nous considérons le nuage de particules comme statistiquement représentatif de la foule. De ce fait, chaque particule possède des propriétés physiques qui nous permettent d'évaluer la validité de son comportement en fonction de celui attendu d'un piéton et d’optimiser son mouvement guidé par le flot optique. Trois applications en découlent : détection des zones d’entrée-sortie de la foule, détection des occlusions dynamiques et mise en relation des zones d'entrée et de sortie selon les flux de piétons
This thesis focuses on the similarity between a fluid and a crowd and on the adaptation of the particle video algorithm for crowd tracking and analysis. This interrogation ended up with the design of a complete system for crowd analysis out of which, this thesis has addressed three main problems: the detection of the crowd, the estimation of its density and the tracking of the flow in order to derive some behavior features.The contribution to crowd detection introduces a totally unsupervised method for the detection and location of dense crowds in images without context-awareness. After retrieving multi-scale texture-related feature vectors from the image, a binary classification is conducted to identify the crowd and the background.The density estimation algorithm is tackling the problem of learning regression models when it comes to large dense crowds. In such cases, the learning is impossible on real data as the ground truth is not available. Our method relies on the use of synthetic data for the learning phase and proves that the regression model obtained is valid for a use on real data.Our adaptation of the particle video algorithm leads us to consider the cloud of particles as statistically representative of the crowd. Therefore, each particle has physical properties that enable us to assess the validity of its behavior according to the one expected from a pedestrian, and to optimize its motion guided by the optical flow. This leads us to three applications: the detection of the entry and exit areas of the crowd in the image, the detection of dynamic occlusions and the possibility to link entry areas with exit ones, according to the flow of the pedestrians
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

GABANOTI, PATRICE. „Fragmentation in vitro des calculs biliaires par laser pulse“. Lyon 1, 1991. http://www.theses.fr/1991LYO1M304.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Varignon, Julien. „Étude du couplage magnéto-électrique par des calculs ab initio“. Phd thesis, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-00651567.

Der volle Inhalt der Quelle
Annotation:
Dans les matériaux multiferroïques présentant un couplage magnéto-électrique, il est possible de contrôler l'état magnétique par l'application d'un champ électrique et inversement. Les matériaux multiferroïques de type I présentent des transitions de phase ferroélectrique et de mise en ordre magnétique décorrélées. Dans les matériaux de type II, la ferroélectricité est induite par un ordre magnétique. Malgré l'existence de nombreux modèles, les mécanismes microscopiques du couplage magnéto-électrique restent aujourd'hui mal connus. Dans le cadre de cette thèse, nous avons étudié les mécanismes présidant le couplage magnéto-électrique à l'aide de calculs ab-initio sur deux matériaux multiferroïques : YMnO3 (type I) et MnWO4 (type II). Nous avons développé une méthode visant à évaluer le couplage magnétique en fonction d'un champ électrique appliqué. Nous avons également déterminé l'influence du magnétisme sur les spectres de phonons. Pour le composé YMnO3, le couplage spin-orbite est négligeable dans le couplage magnéto-électrique et ce dernier est principalement gouverné par des effets électrostrictifs et magnétostrictifs. Pour le composé MnWO4, bien que la contribution de l'interaction de spin-orbite soit calculée faible dans l'amplitude du couplage magnéto-électrique, cette dernière est cruciale à la multiferroïcité de ce matériau par la structure magnétique qu'elle impose. Nous avons déterminé que les déplacements atomiques engendrés par l'application d'un champ électrique sont les amplificateurs de cette dernière interaction dans l'intensité du couplage magnéto-électrique de MnWO4.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Roche, Jean-Christophe. „Localisation spatiale par subdivision pour l'accélération des calculs en radiométrie :“. Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006752.

Der volle Inhalt der Quelle
Annotation:
La physique de la lumière ainsi que les outils géométriques pour la Conception Assistée par Ordinateur sont à la base des logiciels de simulation des phénomènes lumineux pour la fabrication des systèmes optiques. Ce n'est pas sans difficulté que les industriels conçoivent ces logiciels dont un des principaux handicaps est que les simulations sont très coûteuses en temps. L'objectif principal de ce travail est de rechercher et développer des algorithmes de calcul plus performants. Dans un premier temps, on décrit précisément le modèle du transport des photons dans ce contexte, composé de l'équation de Boltzmann accompagné de conditions de bord, et qui, dans le cas de milieux homogènes par morceaux, se ramène à l'équation de radiosité. Ensuite, on présente les outils géométriques utilisés dans le modeleur hybride CSG (Constructive Solid Geometry) et BRep (Boundary Representation) ainsi que les algorithmes de base nécessaires à la recherche d'intersections entre des demi-droites et des objets géométriques. Puis, un tour d'horizon des méthodes d'accélération des calculs en radiométrie par localisation spatiale est présenté. En tenant compte des contraintes industrielles, une telle méthode d'accélération est alors adaptée au contexte puis développée dans un environnement logiciel existant. Des expérimentations numériques montrent l'efficacité des nouvelles bibliothèques. Enfin, une étude théorique des complexités en temps et en mémoire liées aux méthodes de localisation spatiale, faisant intervenir les sommes de Minkowski d'ensembles géométriques, débouche sur une stratégie consistant à minimiser la complexité en temps pour choisir les paramètres de localisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Varignon, Julien. „Etude du couplage magnéto-électrique par des calculs ab initio“. Caen, 2011. http://www.theses.fr/2011CAEN2035.

Der volle Inhalt der Quelle
Annotation:
Dans les matériaux multiferroïques présentant un couplage magnéto-électrique, il est possible de contrôler l’état magnétique par l’application d’un champ électrique et inversement. Les matériaux multiferroïques de type I présentent des transitions de phase ferroélectrique et de mise en ordre magnétique décorrélées. Dans les matériaux de type II, la ferroélectricité est induite par un ordre magnétique. Malgré l’existence de nombreux modèles, les mécanismes microscopiques du couplage magnéto-électrique restent aujourd’hui mal connus. Dans le cadre de cette thèse, nous avons étudié les mécanismes présidant le couplage magnéto-électrique à l’aide de calculs ab-initio sur deux matériaux multiferroïques : YMnO3 (type I) et MnWO4 (type II). Nous avons développé une méthode visant à évaluer le couplage magnétique en fonction d’un champ électrique appliqué. Nous avons également déterminé l’influence du magnétisme sur les spectres de phonons. Pour le composé YMnO3, le couplage spin-orbite est négligeable dans le couplage magnéto-électrique et ce dernier est principalement gouverné par des effets électrostrictifs et magnétostrictifs. Pour le composé MnWO4, bien que la contribution de l’interaction de spin-orbite soit calculée faible dans l’amplitude du couplage magnéto-électrique, cette dernière est cruciale à la multiferroïcité de ce matériau par la structure magnétique qu’elle impose. Nous avons déterminé que les déplacements atomiques engendrés par l’application d’un champ électrique sont les amplificateurs de cette dernière interaction dans l’intensité du couplage magnéto-électrique de MnWO4
In multiferroic magnetoelectric materials, magnetic properties can be controlled by applying an electric field and conversely. Those materials are generally divided into two classes: for the type I, ferroelectric and magnetic phase transitions are uncorrelated whereas for the type II, ferroelectricity is a consequence of a particular magnetic arrangement. In spite of numerous models, the microscopic mechanisms of the magnetoelectric coupling remain unknown. In the frame of this thesis, we have studied the mechanisms governing the magnetoelectric coupling with ab initio calculations on two multiferroic compounds: YMnO3 (type I) and MnWO4 (type II). We have developed a method to study the influence of an applied electric field on the magnetic coupling. We have also studied the influence of magnetism on phonons. For YMnO3, spin-orbit interaction is found negligible into the magnetoelectric coupling and this latter is found to be principally governed by magnetostrictives and electrostrictives effects. For MnWO4, in spite of spin-orbit interaction is found to have a small intensity into the magnetoelectric coupling, this latter remains essential for the multiferroicity of this compound. We have determined that atomic displacements induced by the electric field increase the effects on the intensity of the magnetoelectric coupling
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Kesteloot, Stephan. „Réhabilitation des ouvrages d'assainissement par matériaux composites : étude expérimentale et dimensionnement par calculs numériques“. Artois, 2005. http://www.theses.fr/2005ARTO0202.

Der volle Inhalt der Quelle
Annotation:
Les ouvrages d'assainissement représentent un patrimoine important d'ouvrages. En France, 10% du linéaire total est estimé par les maîtres d'ouvrages comme nécessitant des travaux de restructuration. Après avoir recensé les causes et conséquences des pathologies existantes dans le domaine des ouvrages d'assainissement de type visitable, les techniques de réhabilitation actuelles seront détaillées. Ces techniques sont appliquées sur la totalité de la périphérie de l'ouvrage engendrant un coût de réhabilitation élevé. De ce fait, il est proposé de transposer les techniques de réparation et de renforcement par collage de plats composites à base de fibre de carbone (CFRP) aux ouvrages d'assainissement de type visitable. Dans la seconde partie de notre travail, est menée une vaste étude expérimentale sur les matériaux. Cette étude permet de valider l'utilisation des CFRP en ambiance saturée en eau concernant le domaine de l'assainissement. Ces essais ont mis en évidence l'utilité d'un coefficient de sécurité adapté à l'humidité des parements et de son environnement. Au vu des résultats des essais, un coefficient de l'ordre de 1,40 doit être pris en compte lors de l'application du procédé sur parement humide. Des essais, à l'échelle 1, sont ensuite effectués sur des ovoïdes T180 en béton armé non renforcé, pour déterminer leur mécanisme de ruine. Ensuite, se basant sur les résultats de la modélisation en élasticité non-linéaire par éléments finis réalisée à l'aide du logiciel URUS, des essais sont menés sur des ovoïdes renforcés par CFRP de façon continue en clé de voûte des ovoïdes. Au vu des résultats et pour limiter les coûts de renforcement, le nombre de plats collées est diminué en réalisant des calculs numériques en trois dimension (3D). Une diminution de 1/3 des renforts est alors envisageable, avec une disposition des lamelles avec espacement. Cette disposition des plats composites est ensuite validée par des essais à l'échelle 1. Pour vérifier l'application du procédé in-situ, des essais de collage ont été effectués sur un ouvrage endommagé en service
The sewerage systems represent a significant inheritance of works. In France, 10% of the linear total is considered by the building owners like requiring work of reorganization. After having listed the causes and consequences of existing pathologies in the field of the drainage systems of the type man-entry, the current techniques of rehabilitation will be detailed. These techniques are applied to the totality of the periphery of the work generating a high cost of rehabilitation. So it is proposed to transpose the techniques of repair and reinforcement by joining of composite dishes containing carbon fibre (CFRP) to the sewerage systems of the type worth visiting. In the second part of our work, a vast experimental study on materials is undertaken. This study makes it possible to validate the use of the CFRP in environment saturated with water concerning the field with the cleansing. These tests highlighted the utility of a its environment and safety coefficient adapted to the moisture of the facings. Within sight of the results of the tests, a coefficient of about 1,40 must be taken into account during the application of the process on wet facing. Tests, on scale 1, are then carried out on ovoid reinforced concrete T180 not reinforced, to determine their mechanism of ruin. Then, basing itself on the results of modelling in non-linear elasticity by finite elements realized using software URUS, of the tests are carried out on the ovoid ones reinforced by CFRP continuously out of keystone of the ovoid ones. Within sight of the results and to limit the costs of reinforcement, the number of dishes stuck is fallen by carrying out numerical calculations into three dimensions (3d). A reduction of 1/3 of the reinforcements is then possible, with a provision of the plates with spacing. This provision of the composite dishes is then validated by tests on scale 1. To check the application of the process in-situ, of the tests of joining were carried out on a work damaged in service
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Parret-fréaud, Augustin. „Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00846069.

Der volle Inhalt der Quelle
Annotation:
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Truchet, Guillaume. „Développements et validation de calculs à énergie continue pondérés par l'importance“. Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI037/document.

Der volle Inhalt der Quelle
Annotation:
L'un des enjeux actuel de la neutronique concerne la propagation rigoureuse des incertitudes d'entrée (e.g. données nucléaires, tolérances de fabrications, etc.) aux résultats finaux calculés par les codes (e.g. keff, taux de réaction, etc.). Pour propager les incertitudes, il est de coutume de faire l'hypothèse de petites variations autour d'une référence et de calculer, dans un premier temps, des profils de sensibilités. Or, les codes Monte-Carlo, qui se sont imposés comme des références de calcul, ne possèdent pas -- ou n'ont intégré que très récemment -- un moyen direct de calculer des sensibilités et donc de réaliser un calcul précis d'incertitudes. Les approches déterministes, elles, permettent le calcul de ces sensibilités mais introduisent parfois de très fortes hypothèses, notamment sur la géométrie.Le premier objectif de se travail de thèse est d'introduire dans le code Monte Carlo du CEA de transport des neutrons, TRIPOLI-4, des méthodes à même de calculer des profils de sensibilités du keff aux données nucléaires ou à toute autre perturbation. Pour cela, il a d'abord été nécessaire de mettre en place le calcul du flux adjoint d'un milieu critique. Pour la première fois, et grâce aux développements informatiques de ce travail, il a été possible de calculer dans un cas réel, concret, et applicatif, des spectres de flux adjoints en un point quelconque d'un réacteur. Ceci a été réalisé à l'aide de la probabilité itérée de fission (Iterated Fission Probability ou IFP) qui assimile le flux adjoint à l'importance d'un neutron dans un réacteur exactement critique. Ce calcul de flux adjoint a, par la suite, ouvert la porte au premier développement d'une méthode de calcul de « perturbations exacte » en Monte Carlo, théorie qui permet de s'affranchir des hypothèses de petites variations, et qui ouvre la porte à certaines applications jusqu'alors difficiles à analyser.Au delà de l'analyse poussée de la méthode IFP et de son application au calcul de flux adjoint, cette thèse propose également, d'obtenir dans le code TRIPOLI-4, les paramètres cinétiques d'un réacteur pondérés par le flux adjoint ou bien des aires de migration. A cette fin, l'implémentation reprend et améliore un algorithme déjà développé par la communauté scientifique pour estimer des perturbations au premier ordre
A key issue in nowadays Reactor Physics is to propagate input data uncertainties (e.g. nuclear data, manufacturing tolerances, etc.) to nuclear codes final results (e.g. keff, reaction rate, etc.). In order to propagate uncertainties, one typically assumes small variations around a reference and evaluates at first sensitivity profiles. Problem is that nuclear Monte Carlo codes are not -- or were not until very recently -- able to straightforwardly process such sensitivity profiles, even thought they are considered as reference codes.First goal of this PhD thesis is to implement a method to calculate keff-sensitivity profiles to nuclear data or any perturbations in TRIPOLI-4, the CEA Monte Carlo neutrons transport code. To achieve such a goal, a method has first been developed to calculate the adjoint flux using the Iterated Fission Probability (IFP) principle that states that the adjoint flux at a given phase space point is proportional to the neutron importance in a just critical core after several power iterations. Thanks to our developments, it has been made possible, for the fist time, to calculate the continuous adjoint flux for an actual and complete reactor core configuration. From that new feature, we have elaborated a new method able to forwardly apply the exact perturbation theory in Monte Carlo codes. Exact perturbation theory does not rely on small variations which makes possible to calculate very complex experiments.Finally and after a deep analysis of the IFP method, this PhD thesis also reproduces and improves an already used method to calculate adjoint weighted kinetic parameters as well as reference migrations areas
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Parret-Fréaud, Augustin. „Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine“. Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0022/document.

Der volle Inhalt der Quelle
Annotation:
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2
The control of the quality of mechanical computations arouses a growing interest in both design and certification processes. It relies on error estimators the use of which leads to often prohibitive additional numerical costs on large computations. The present work puts forward a new procedure enabling to obtain a guaranteed estimation of discretization error in the setting of linear elastic problems solved by domain decomposition approaches. The method relies on the extension of the constitutive relation error concept to the framework of non-overlapping domain decomposition through the recovery of admissible interface fields. Its development within the framework of the FETI and BDD approaches allows to obtain a relevant estimation of discretization error well before the convergence of the solver linked to the domain decomposition. An extension of the estimation procedure to heterogeneous problems is also proposed. The behaviour of the method is illustrated and assessed on several numerical examples in 2 dimension
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Donadio, Sébastien. „Optimisation itérative de bibliothèques de calculs par division hiérarchique de codes“. Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0009.

Der volle Inhalt der Quelle
Annotation:
The increasing complexity of hardware features incorporated in modern processors makes high performance code generation very challenging. Library generators such as ATLAS, FFTW and SPIRAL overcome this issue by empirically searching in the space of possible program versions for the one that performs the best. This thesis explores fully automatic solution to adapt a compute-intensive application to the target architecture. We show that generative programming is a practical tool to implement a new hierarchical compilation approach for the generation of high performance code. Our general-purpose approach can be applied to generic loop structures. Our approach relies on the decomposition of the original loop nest into simpler kernels. These kernels are much simpler to optimize and furthermore, using such codes makes the performance trade off problem much simpler to express and to solve. We propose a new approach for the generation of performance libraries based on this decomposition method
La complexité grandissante des architectures ne simplifie pas la tâche des compilateurs à générer du code performant. Les générateurs de bibliothèques comme ATLAS, FFTW et SPIRAL ont réussi à intégrer cette difficulté par l'utilisation de recherche itérative. Cette dernière génère différentes versions de programmes et sélectionne la meilleure d'entre elles. Cette thèse explore une solution automatique pour adapter les applications de calculs intensifs à l'architecture complexe des machines. Nous montrerons qu'une approche générative peut être un outil utile à l'implémentation d'une nouvelle approche de compilation hiérarchique pour la génération de code efficace. Cette approche, non spécifique, peut être appliquée sur des structures de boucle générales qu'elle divisera en des fragments de code plus simples à optimiser pour un compilateur. Nous proposerons une nouvelle approche de génération de bibliothèques qui s'appuiera sur la recomposition de ces codes avec un modèle très simplifié
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Moschetta, Jean-Marc. „Calculs d'écoulements supersoniques turbulents par résolution des équations de Navier-Stokes parabolisées“. Toulouse, INPT, 1991. http://www.theses.fr/1991INPT099H.

Der volle Inhalt der Quelle
Annotation:
Une methode de resolution des equations de navier-stokes parabolisees (pns) a ete elaboree pour calculer des ecoulements supersoniques visqueux bidimensionnels et tridimensionnels. Une strategie de marche en espace est mise en uvre au moyen d'un algorithme implicite base sur le schema decentre du premier ordre de roe et du schema tvd du second ordre d'osher-chakravarthy. Le modele algebrique de baldwin-lomax permet de rendre compte des effets de la turbulence compressible tandis que le probleme de l'adaptation du modele k-epsilon fortement couple aux equations pns est aborde. Plusieurs calculs de validation allant de l'ecoulement bidimensionnel sur la plaque plane a l'ecoulement tridimensionnel autour d'un fuselage de missile en incidence comportant des decollements transversaux sont decrits et permettent de demontrer la robustesse et la qualite de la methode
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Masson, Kevin. „Synthèse thermique de composés carbocycliques à huit chaînons supportée par calculs DFT“. Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0461.

Der volle Inhalt der Quelle
Annotation:
Les cycles totalement carbonés à huit chaînons constituent, encore de nos jours, un motif complexe à synthétiser en raison de leur forte tension de cycle inhérente. En parallèle, les petits cycles carbonés à trois chaînons sont des molécules hautement valorisables car il s’agit d’éléments permettant d’atteindre une grande complexité moléculaire dans une démarche à économie d’atome et souvent par le biais de réactions originales. Cette réactivité, issue du relâchement de la tension de cycle, permet d’accéder à des synthèses de molécule-cibles de façon rapide, contrôlée et compatible avec une montée en échelle. Dans ce contexte, une nouvelle classe de cyclopropane donneur-accepteur (CDA) a récemment été développée au sein du laboratoire et fait appel d’une part, à un motif cyclopropanol protégé par un éther silylé (donneur) et, d’autre part, à un ester α,β-insaturé (accepteur). Ce composé peut aisément être valorisé par voie purement thermique, pour conduire avec de bons rendements, à des cyclooctadiènes hautement fonctionnalisés. Les expériences menées au sein du laboratoire ont démontré que le réarrangement des CDA est totalement régiosélectif et hautement diastéréosélectif. Nous avons pu construire une large librairie de dérivés cycliques à huit atomes de carbone par réarrangement des CDAs sans métaux de transition ni réactifs additionnels. Une étude mécanistique effectuée sur des CDA représentatifs ont permis de mieux comprendre les mécanismes réactionnels impliqués et nous avons également pu mettre en évidence la formation de trans-cyclooctadiènes, intermédiaires connus pour leur grande réactivité
Eight-membered carbocyclic systems are widely represented motifs in natural and bio-active molecules. However, they remain under-represented in both marketed drugs and in drug discovery programs. This is mostly due to the well-known challenge of making them, due to the inherent ring strain. On the other hand, small rings represent a valuable three-atoms building element in the search to reach molecular complexity in an atom economical manner and often participate in fascinating chemical transformations. This release of ring tension usually allows for a scalable, rapid and controlled synthetic access to the expected target molecules. In this context, a new class of donor-acceptor cyclopropane (DAC) has recently been developed in the laboratory combining a silyl protected cyclopropanol with an α,β-unsaturated ester. Gratifyingly, the latter delivered polyfunctionalized cyclooctadienes in good yields in purely thermal conditions. The experiments ran in the laboratory demonstrated that the thermal rearrangement of DACs is totally regioselective and highly diastereoselective. A small library of highly substituted cyclooctanoïds was obtained without the need of any reagent nor transition metals. Finally, mechanistic investigations performed on selected DACs allowed us to better understand the course of the reaction and highlighted the formation of highly reactive trans-cyclooctadienes as intermediates, known for their high and unusual reactivity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Laffay, Pierre-Olivier Neveu Alain Quéméner Olivier. „Sous-structuration de systèmes thermiques par modes de branche“. S. l. : Evry-Val d'Essonne, 2008. http://www.biblio.univ-evry.fr/theses/2008/2008EVRY0020.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Donon, Jeremy. „Caractérisation de paires d’ions par spectroscopies IR, UV et rayons X, interprétées par calculs de chimie quantique“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS106.

Der volle Inhalt der Quelle
Annotation:
Les paires d'ions sont omniprésentes dans la nature, depuis l'eau de mer, les aérosols, jusqu'aux organismes vivants. Elles influencent les propriétés des solutions concentrées en ions, et jouent ainsi un rôle majeur dans divers réactions chimiques et processus biologiques. Cependant, la caractérisation des paires d’ions se heurte à une double difficulté : d'une part, plusieurs types de paires coexistent, et d'autre part, ce sont des espèces transitoires en solution. Dans ce contexte, ce travail présente plusieurs études menées selon trois axes de recherche principaux grâce à une approche originale en phase gazeuse, puis en solution. Le premier axe consiste à étudier les effets du champ électrique produit par la paire d’ions sur la spectroscopie d’un chromophore UV en phase gazeuse (effets Stark). Les groupes ioniques sont capables de produire un champ électrique suffisamment élevé pour induire des effets Stark électroniques significatifs sur un chromophore UV situé à proximité. Cette étude est menée sur des systèmes modèles de formule générale (C₆H₅-(CH₂)n₋COO⁻,M⁺) avec M = Li, Na, K, Rb, Cs et n = 1-3, permettant de faire varier le champ électrique ressenti par le chromophore UV. Ces différents systèmes sont étudiés en phase gazeuse par spectroscopie UV combinée à des calculs de chimie quantique, ainsi que par des expériences de spectroscopie IR sélective en conformation. Grâce à cette approche, des attributions conformationnelles précises peuvent être proposées pour des transitions électroniques séparées de quelques cm-1, sur la base de l’analyse des effets Stark observés sur le spectre UV, sans recourir à la spectroscopie IR, ni aux calculs de fréquences. Il s’agit ensuite de comprendre les effets d’environnement sur les paires d’ions par des expériences de microsolvatation en phase gazeuse. La paire d’ions d’acétate de sodium [CH₃-COO⁻,Na⁺] est étudiée pour la première fois dans un complexe trimère avec le p-xylène par spectroscopie IR. Des expériences de microhydratation sont ensuite réalisées sur des paires d’ions chargées ([CH₃-COO⁻,M²⁺] ; M = Ca, Ba), mettant en évidence deux comportements différents en fonction de la nature du dication. Les différentes expériences montrent que la signature IR du groupement carboxylate est sensible à son environnement proche, mais également à l’environnement du cation qui lui est apparié. Le dernier axe consiste à détecter et identifier les structures formées par les ions dans les solutions électrolytiques par spectroscopies IR et RX. Une première analyse est effectuée sur des solutions électrolytiques ([CH₃-COO⁻,M⁺] ; M = Li, Na et K) par spectroscopie IR-TF en variant la concentration en ions. Une étude théorique est ensuite réalisée dans l’objectif de proposer un spectre théorique pour chaque type de paires, et de les confronter aux spectres expérimentaux en solution. L’approche repose sur le calcul de la signature IR de paires ([CH₃-COO⁻,M⁺] ; M = Li, Na, K, Rb et Cs) et de l’anion libre, entourés successivement de molécules d’eau explicites décrites au niveau chimie quantique, puis au niveau champ de force et enfin par un modèle de solvant continu. Pour chaque type de paires, des familles spectroscopiques compatibles avec les données expérimentales sont identifiées. Cette approche originale ouvre la voie vers l’identification des structures supramoléculaires dans les solutions électrolytiques. Enfin, la première expérience FZRET en micro-jet liquide est réalisée sur une solution d’acétate de potassium, donnant accès à une mesure de la distribution des distances entre cations et anions appariés. Au cours de ces études, différentes méthodes sont employées allant de l’expérience à la théorie, de la phase gazeuse à la solution. Cette thèse illustre la nécessité de combiner plusieurs méthodes afin d’obtenir des données complémentaires permettant une meilleure caractérisation de l’organisation supramoléculaire des ions et de leur environnement
Ion pairs are ubiquitous in nature, from sea water, aerosols, to living organisms. They influence the properties of concentrated ion solutions, and thus play a crucial role in various chemical reactions and biological processes. However, the characterization of ion pairs faces some difficulties: on one hand, several types of pairs coexist, and on the other hand, they are transient species in solution. In this context, this work presents several studies carried out according to three main research studies, backed by an original approach in the gas phase, and then in solution. Firstly, the effects of the electric field produced by the ion pair on the UV spectroscopy of a chromophore in gas phase (Stark effects) are studied. The ion groups can produce an electric field high enough to induce significant electronic Stark effects on a nearby UV chromophore. This study is conducted on model systems (C₆H₅-(CH₂)n-COO⁻,M⁺) with M = Li, Na, K, Rb, Cs and n = 1-3, allowing to vary the electric field experienced by the UV chromophore. These different systems are studied in the gas phase by UV spectroscopy combined with quantum chemistry calculations, as well as by conformation selective IR spectroscopy. Based on the analysis of the electronic Stark effects, precise conformational assignments can be proposed for electronic transitions separated by a few cm-1, without resorting to IR spectroscopy, or frequency calculations. The next study is focused mainly on understanding the environmental effects on ion pairs by microsolvation experiments in gas phase. The pair of sodium acetate ions [CH₃-COO⁻,Na⁺] is studied for the first time in a trimer complex with p-xylene by IR spectroscopy. Microhydration experiments are then carried out on charged ion pairs ([CH₃-COO⁻,M²⁺]; M = Ca, Ba), highlighting two different behaviours depending on the nature of the cation. The final research is to detect and identify the structures formed by the ions in electrolytic solutions by IR and RX spectroscopy. The first experiment is carried out on electrolytic solutions ([CH₃-COO⁻,M⁺]; M = Li, Na and K) by TF-IR spectroscopy by varying the ion concentration. A theoretical study is then carried out in order to propose a theoretical spectrum for each type of pair, and to confront them with experimental spectra in solution. The approach is based on the calculation of the IR signature of pairs ([CH₃-COO⁻,M⁺]; M = Li, Na, K, Rb and Cs) and free anion in solution, where the first solvation layer were described at the quantum level, followed by a solvent continuum. For each type of pair, spectroscopic families, consistent with the experimental data, are identified. This original approach paves way to the identification of supramolecular structures in electrolytic solutions. Finally, the first FZRET experiment in liquid micro-jet is carried out on a potassium acetate solution, providing access to a measurement of the distance distribution between cations and paired anions.In these studies, different methods are used ranging from experiment to theory, from the gas phase to solution. This work illustrates the need to combine several methods in order to obtain additional data and allow a better characterization of the supramolecular organisation of ions and their environment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Durinck, Julien. „Modélisation de la plasticité de la forsterite par calculs à l'échelle atomique et par dynamique des dislocations“. Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9fd43a9a-26ef-450b-93e3-5ad8c43033b0.

Der volle Inhalt der Quelle
Annotation:
L'étude de la déformation plastique de l'olivine constitue un point important dans la compréhension de la dynamique interne de la Terre. Ce minéral se déforme essentiellement par glissement de dislocations de vecteurs de Burgers [100] et [001] et, pour la première fois dans le domaine de la minéralogie physique, nous avons abordé le problème en adoptant une approche numérique. A l' échelle atomique, la question importante de l' anisotropie plastique peut être éclairée par l'approche des fautes d'empilement généralisées, calculées par ab initio, qui permet de remonter à la limite d'élasticité théorique. Cette méthode a également permis d'expliquer l'influence de la pression sur les mécanismes de déformation de l'olivine, récemment mise en évidence expérimentalement. Le modèle de Peierls-Nabarro constitue une alternative à la modélisation directe des cœurs de dislocation. Grâce à ce dernier, l'étalement du cœur et les contraintes de Peierls des dislocations de vecteurs de Burgers [001] et [100] ont pu être déterminées. A l'échelle mésoscopique, nous avons adapté une simulation tridimensionnelle de la dynamique des dislocations à la structure de l'olivine pour modéliser la plasticité du monocristal. Le modèle de formation et propagation de doubles décrochements permet de décrire la mobilité des dislocations soumises à de la friction de réseau et son utilisation a mis en évidence un effet de la contrainte sur l'anisotropie plastique. Les dislocations ne constituent pas des obstacles forts entre elles (pas de formation de jonction, ni d'interactions colinéaires) et le glissement dévié apparaît comme étant un mécanisme manquant qu'il faudra étudier en détail dans le futur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Lemercier, Samuel. „Simulation du comportement de suivi dans une foule de piétons à travers l'expérience, l'analyse et la modélisation“. Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00724072.

Der volle Inhalt der Quelle
Annotation:
La simulation réaliste de foule est un problème ouvert et difficile à cause de la multitude d'informations qui sont prises en compte par un humain pour déterminer sa trajectoire de marche. Dans cette thèse nous cherchons à modéliser puis à simuler de manière aussi réaliste que possible les interactions de suivis entre individus se déplaçant dans les foules. Nous proposons une approche en trois grandes étapes. Dans un premier temps, nous constituons une base de données cinématiques pour observer le comportement de suivi lors du déplacement de groupes de piétons à partir d'un procédé expérimental original utilisant la technologie de capture de mouvements optoélectronique. Le traitement des données acquises requiert le développement d'une méthode spécifique de reconstruction des données brutes. La base de données ainsi obtenue représente le premier résultat de notre travail. Dans un deuxième temps, nous proposons une analyse détaillée de ces données. Nous mettons en évidence d'une part, la nature des interactions locales entre les sujets, et d'autre part les phénomènes globaux qui émergent de la combinaison de ces interactions dont en particulier la formation de vague de vitesses qui se propagent. Cette analyse constitue notre deuxième résultat majeur et conduit à notre troisième et dernier résultat : un modèle numérique d'interaction locale de suivi que nous calibrons sur les données expérimentales acquises. Les résultats de simulation sont finalement évalués quant à leur capacité à reproduire les phénomènes macroscopiques observés et analysés. Enfin, nous montrons des cas d'usage pratique de notre modèle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Lemercier, Samuel. „Simulation du comportement de suivi dans une foule de piétons à travers l'expérience, l'analyse et la modélisation“. Phd thesis, Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/03ce7038-80f3-4c57-bf93-47adc49be8fd.

Der volle Inhalt der Quelle
Annotation:
La simulation réaliste de foule est un problème ouvert et difficile à cause de la multitude d'informations qui sont prises en compte par un humain pour déterminer sa trajectoire de marche. Dans cette thèse nous cherchons à modéliser puis à simuler de manière aussi réaliste que possible les interactions de suivis entre individus se déplaçant dans les foules. Nous proposons une approche en trois grandes étapes. Dans un premier temps, nous constituons une base de données cinématiques pour observer le comportement de suivi lors du déplacement de groupes de piétons à partir d'un procédé expérimental original utilisant la technologie de capture de mouvements optoélectronique. Le traitement des données acquises requiert le développement d'une méthode spécifique de reconstruction des données brutes. La base de données ainsi obtenue représente le premier résultat de notre travail. Dans un deuxième temps, nous proposons une analyse détaillée de ces données. Nous mettons en évidence d'une part, la nature des interactions locales entre les sujets, et d'autre part les phénomènes globaux qui émergent de la combinaison de ces interactions dont en particulier la formation de vague de vitesses qui se propagent. Cette analyse constitue notre deuxième résultat majeur et conduit à notre troisième et dernier résultat : un modèle numérique d'interaction locale de suivi que nous calibrons sur les données expérimentales acquises. Les résultats de simulation sont finalement évalués quant à leur capacité à reproduire les phénomènes macroscopiques observés et analysés. Enfin, nous montrons des cas d'usage pratique de notre modèle
Realistic crowd simulation is an open and challenging problem due to the high quantity of information that is taken into account by a human to determine his walking trajectory. In this thesis, we aim at modeling and simulating the following interactions between individuals moving in crowds. We propose an approach in three major steps. Firstly, we build up a kinematic database to observe following behaviors during pedestrian groups movement from an original experimental process using motion capture. Acquired data treatment requires to develop a specific reconstruction method of the raw data. The obtained database is our first result. Secondly, we propose a detailed analysis of these data. We highlight both the nature of the local interactions between participants and the global patterns that emerge from the combination of these interactions, in particular, the formation of propagating speed waves. This analysis is our second major result and leads up to our third and last result : a numerical model of following behavior between pedestrians calibrated on our experimental data. Simulation results are evaluated on their capacity to reproduce the macroscopic patterns we have observed and analyzed. We finally show different applications of our model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Albrecht, David. „Simulation par éléments finis à partir de calculs ab-initio du comportement ferroélectrique“. Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00545426.

Der volle Inhalt der Quelle
Annotation:
Les propriétés des matériaux ferroélectriques proviennent principalement de l'influencedes conditions aux limites et des déformations sur la polarisation. Cette influence est encoreplus grande à de petites échelles ou des structures particulières de la polarisation apparaissent,comme les vortex dans les cubes quantiques ou des structures en rayures dans lescouches minces. Pour le calcul, à très basses échelles, de telles structures de polarisation, lesHamiltonien effectifs, basés sur les calculs ab-initio sont les plus utilisés. Parallèlement Lesmodèles continus sont préconisés à plus grandes échelles. Néanmoins, il n'existe pas de lienentre ces deux modèles. Le but de cette thèse est alors de construire une approche permettantde relier ces deux modèles et par cela même ces différentes échelles.Notre modèle se base sur un Hamiltonien effectif écrit pour le titanate de baryum enfonction de la polarisation et des déformations. Cet Hamiltonien est reformulé de façon àdécrire un milieu continu. Les difficultés de cette reformulation proviennent des interactionsnon locales. Le résultat est alors un système d'équations aux dérivées partielles, décrivantl'équilibre et les conditions aux limites. La température est ensuite introduite de façon effectivedans les coefficients de ces équations. Notre modèle ressemble fortement aux modèlesde Landau.Une telle approche est appliquée dans les cubes quantiques et les couches minces óu l'organisationdes domaines dépend de la taille. Les résultats montrent l'implication de la méthodedes éléments finis sur la précision. La formation de vortex dans les cubes quantiquesest bien reproduite. L'agencement en domaines de polarisation alternée dans les couchesminces est elle aussi bien reproduite pour les couches minces. De plus en augmentant l'épaisseurde ces couches minces, la périodicité de cet agencement alterné est modifié, comportementdécrit par la loi de Kittel qui est ici calculée et comparée aux résultats expérimentaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Brochu, David. „Étude de la sensibilité des explosifs plastiques par des calculs de mécanique moléculaire“. Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30558/30558.pdf.

Der volle Inhalt der Quelle
Annotation:
La sensibilité des explosifs plastiques est un problème majeur des matériaux énergétiques. Dans ce travail, des modèles d’explosifs plastics ont été créés dans le but de corréler leurs paramètres énergétiques à leur sensibilité. Trois formulations basées sur le RDX ont été simulé contenant le HTPB-DOA, l’Estane et l’EVA comme matrice polymérique. Un nouveau modèle moléculaire a été développé basé sur une seule chaine polymérique avec une procédure de minimisation/compression. Des simulations ont été lancées en utilisant des conditions similaires à celles trouvé expérimentalement dans les points chauds. Les modèles résultants ont été analysés au niveau de l’énergie potentielle et conformationnelle et comparé avec les valeurs de sensibilité (Test d’impact et test Gap) rapporté dans la littérature. L’effet des groupements des chaines HTPB a été analysé pour la corréler avec la sensibilité. Les résultats préliminaires montrent une bonne corrélation entre la sensibilité et les valeurs des modélisations moléculaires.
Sensitivity of plastics explosives is one of the most important problems with energetic materials. In this work, models of plastic-bonded explosives were created with the aim of correlating their energetics to their sensitivity. Three representative RDX-based formulations were simulated where HTPB-DOA, Estane and EVA were used as the polymeric phase for the simulations. A new molecular model was develop using single chain system with a compression–minimization iterative procedure. Molecular mechanics simulations were carried using conditions similar to those found experimentally in hot-spots. Resulting models were analysed in terms of potential energy and conformational and compared to sensitivity values (Drop Weight Impact Test and GAP test) reported in the literature. Then the effect of the chain groups in HTPB was analysis to correlate with sensitivity. Preliminary models show a good correlation between sensitivity of explosives and molecular modelling data.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Lacroix, Jean-François. „Conception de catalyseur pour la carboxylation du diméthyle éther assistée par calculs DFT“. Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5403.

Der volle Inhalt der Quelle
Annotation:
Résumé : Au cours de ce projet, la faisabilité de l’insertion du CO[indice inférieur 2] dans une fonction éther aliphatique à été démontrée pour la première fois. Cette découverte à été effectuée suite à la résolution cinétique et thermodynamique de la décarboxylation du diméthyle carbonate (DMC) en diméthyle éther (DME) et CO[indice inférieur 2] à la surface d’un catalyseur faujasite échangé avec du zinc(II) (Zn-FAU). Un profile réversible typique aux carbonates a été observé, soit que le CO[indice inférieur 2] est relâché à plus haute température et inséré aux plus basses températures. La structure de l’état de transition entre le DMC et DME a ensuite été résolue en corrélant des calculs en modélisation moléculaire aux mesures thermodynamiques effectuées entre le DMC et Zn-FAU. La méthode de calcul développée lors de l’analyse mécanistique a ensuite été appliquée à l’évaluation théorique de plusieurs structures catalytiques, ce qui a permis d’identifier les paramètres structurels des catalyseurs qui sont favorables à la réaction de carboxylation du DME. // Abstract : In this study, the feasibility of the insertion of CO[subscript 2] in an aliphatic ether function was demonstrated for the first time. This finding results from a thermodynamic and kinetic study on dimethyl carbonate (DMC) decarboxylation into dimethyl ether (DME) and CO[subscript 2] at the surface of a zinc(II) exchanged faujasite catalyst. The typical reversible profile of carbonates synthesis chemistry was observed, higher temperature being favorable to CO[subscript 2] release and lower temperature being favorable to CO[subscript 2] insertion. A structural resolution of the rate determining transition structure between DMC and DME was then achieved by correlating molecular modelling calculations to the thermodynamic measurements on DMC decarboxylation. The calculation method developed during the mechanistical analysis was further applied to theoretical catalyst activity screening, which allowed determining structural catalytic sites parameters that favor DME carboxylation over DMC decarboxylation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

SHEN, WEN ZHONG. „Calculs d'ecoulements tourbillonnaires visqueux incompressibles par une methode de couplage differences finies/particulaire“. Paris 11, 1993. http://www.theses.fr/1993PA112066.

Der volle Inhalt der Quelle
Annotation:
Cette these est consacree a developper une methodologie dans le but de simuler des ecoulements externes visqueux incompressibles bidimensionnels. Un point essentiel de ce travail est de coupler deux techniques numeriques differentes: une methode particulaire dans les regions situees loin des parois solides ou les effets visqueux sont domines par les effets convectifs, et une methode de differences finies (ou d'elements finis) dans les regions proches des parois ou les effets visqueux sont preponderants. Un autre point essentiel est d'avoir developpe une methode particulaire pour traiter des problemes hyperboliques lineaires d'ordre 1 avec des conditions aux limites de type dirichlet. Quelques exemples sont presentes (profils en tandem, eolienne darrieus, cylindre interagissant avec une houle incidente sous une surface libre, transfert de la chaleur de convection forcee et mixte). Cette methode s'avere etre particulierement interessante dans le cas d'ecoulement autour de plusieurs profils en mouvements relatifs les uns par rapport aux autres
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Bailac, Laura. „Composés organiques fluorés : Étude par RMN multinoyaux {1H, 13C, 19F} et calculs DFT“. Rouen, 2016. http://www.theses.fr/2016ROUES008.

Der volle Inhalt der Quelle
Annotation:
Depuis plus de 40 ans, les composés fluorés sont en plein essor dans le milieu pharmaceutique, le diagnostic, la chimie agro-alimentaire et les matériaux polymères. La connaissance de la structure 3D de ces composés peut s'avérer importante notamment dans le cas d'étude d'interactions entre molécules. La RMN est un outil de choix pour la caractérisation structurale de produits de synthèse et de composés naturels. De plus, le fluor 19 possède des propriétés magnétiques remarquables qui en font une sonde intéressante pour la caractérisation structurale par RMN de composés organiques fluorés. Au cours de ce travail, une étude structurale approfondie de composés organiques fluorés par RMN et DFT a été réalisée. Des expériences RMN récentes, utilisant des impulsions sélectives et des gradients d'encodage telles que les expériences 1D Pure Shift et 2D G-SERF, ont permis d'extraire des données spectroscopiques précises telles que des déplacements chimiques et des constantes de couplage scalaire homo- et hétéro-nucléaire. Ces données spectroscopiques ont été complétées par des données structurales (distances interatomiques, angles dièdres) obtenues par optimisation de la géométrie des composés par DFT. Dans la seconde partie de ce travail, les données obtenues par RMN ont servi de point d'étalonnage pour développer un modèle de calcul DFT à l'aide d'un "benchmark" permettant de prédire, à partir de la structure 3D, les couplages scalaires hétéro-nucléaires nJHF pour les familles de composés étudiés. Cette méthode permet également de déterminer les différentes contributions qui composent le couplage scalaire. L'accès au poids de chacune de ces contributions pour un couplage donné permet une meilleure compréhension du mécanisme de transmission de ce couplage, en particulier dans le cas de couplages scalaires à longue distance
For more than 40 years, fluorinated compounds have become increasingly important in the field of pharmaceutical, food chemistry and polymers. The knowledge of the 3D structure of those compounds can be of great importance especially in the case of molecule interaction studies. NMR is the most powerful method for the structural characterization of synthetic and natural compounds. Moreover, fluorine 19 owns remarkable magnetic properties which make it an interesting probe for the structural characterization of fluorinated organic compounds by NMR. During this project, a thorough structural study of fluorinated compounds by NMR and DFT has been realized. Recent NMR experiments, using selective pulses and encoding gradient such as the 1D Pure Shift and 2D G-SERF experiments, helped extract very accurate spectroscopic data such as chemical shifts and homo- and heteronuclear scalar coupling constants. Those spectroscopic data have been then completed by structural data such as internuclear distances and dihedral angles obtained by DFT geometry optimization of those compounds. In the second part of this work, the data obtained by NMR were used to develop a DFT computational model using a benchmark to predict, from the 3D structure, the heteronuclear coupling constants nJHF. This model also allows to determine the different contributions composing the scalar coupling. The access to each contribution's weight for a given coupling allows a better understanding of the mechanism of coupling's transmission, in particular in the case of long distance scalar couplings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Girard, Guillaume. „Caractérisation structurale de systèmes désordonnés par RMN de l’état solide et calculs DFT“. Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10081.

Der volle Inhalt der Quelle
Annotation:
La combinaison de la spectroscopie RMN de l'état solide avec des calculs DFT du type GIAO/GIPAW constitue, de nos jours, une nouvelle approche afin de caractériser la structure de systèmes moléculaires ou cristallisés simples. Ce travail de thèse est consacré à l'application de cette méthodologie à des matériaux plus complexes, en particulier à des systèmes présentant un désordre local. Ainsi, ce manuscrit traite, dans un premier temps, de la caractérisation structurale de composés cristallins à base de niobiophosphate par l'association de résultats issue de la RMN du 31P/93Nb et de calculs DFT-GIPAW. Ainsi, le désordre cationique d'une structure particulière a pu être parfaitement identifié et caractérisé par l'utilisation d'une approche combinatoire associant RMN du 31P et des calculs DFT-GIPAW. Parallèlement, une nouvelle méthodologie combinant la RMN des solides en 17O et calculs DFT-GIAO a été développée en vue de caractériser la structure d'un précatalyseur organométallique à base d'oxo-tungstène supporté sur de la silice amorphe. Cette approche a été validée dans un premier temps par l'étude de composés moléculaires de structure proche. La réponse RMN en 17O des groupements oxo présents sur ces espèces est en effet spécifique du complexe étudié et les calculs GIAO réalisés ont permis de reproduire avec une grande précision les paramètres RMN anisotropes associés à ces groupements. Grâce à cette méthodologie, nous avons pu vérifier la nature et la structure de l'espèce greffée, tout en confirmant de façon non ambiguë le mode de greffage en surface de la silice
The combination of solid-state NMR spectroscopy with GIAO/GIPAW-DFT calculations is nowadays a well-established method to characterize the atomic structure of simple molecular and crystalline compounds. The present work is dedicated to the application of this methodology to more complex systems, in particular those with local disorder. In a first part, this manuscript is dedicated to the structural characterization of niobiophosphate based materials by 31P/93Nb solid-state NMR and DFT-GIPAW calculations. The cationic disorder of one of these phases has been identified and characterized by the use of a combinatory approach associating 31P solid-state NMR and DFT-GIPAW calculations. In parallel, a new methodology combining 17O solid-state NMR and DFT-GIAO calculations has been proposed in order to characterize the structure of one oxo-tungsten based precatalyst supported on amorphous silica. This approach was initially validated by studying molecular oxo-tungsten based molecular compounds. The 17O-NMR response of each oxo group is, in fact, specific to the studied compound and the related anisotropic NMR parameters can be reproduced with high accuracy by DFT-GIAO calculation. Finally, this methodology allowed us to verify the nature and structure of the supported species by taking into account different grafting pathways
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Couka, Enguerrand. „Modélisation des propriétés optiques de peintures par microstructures aléatoires et calculs numériques FFT“. Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0034/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans la thématique classique de l'homogénéisation des milieux hétérogènes linéaires et a pour but l'étude et la prédiction du comportement optique de couches de peintures. L'objectif est double : d'une part caractériser et modéliser la microstructure hétérogène des matériaux utilisés dans les revêtements de peinture, d'autre part prédire le comportement optique de ces matériaux par des moyens numériques, et étudier l'influence de la morphologie sur les propriétés optiques. Ces travaux ont été faits dans le cadre du projet LIMA (Lumière Interaction Matière Aspect), soutenu par l'Agence Nationale de la Recherche et en partenariat avec le groupe PSA. Des images acquises par microscopie électronique à balayage (MEB) sont obtenues de différentes couches de peintures. On y distingue différentes échelles pigmentaires : microscopique et nanoscopique. Des images représentatives des échelles sont alors sélectionnées et segmentées, pour permettre la prise de mesures morphologiques. Ces mesures permettent l'élaboration de modèles aléatoires propres à chacune des échelles. Ces modèles sont ensuite validés, et optimisés pour le cas du modèle nanoscopique à deux échelles. La prédiction du comportement optique des modèles aléatoires de matériaux hétérogènes se fait ici avec l'utilisation de méthodes utilisant les transformées de Fourier rapides (FFT). La théorie de l'optique des milieux composites est rappelée, ainsi que les contraintes et limites des méthodes FFT. L'approximation quasi-statique est une contrainte, impliquant l'application de la méthode FFT au seul modèle nanoscopique. Le comportement optique du modèle nanoscopique optimisé est calculé numériquement, et comparé à celui mesuré de la peinture qui a servi de référence. Les fonctions diélectriques des matériaux constituants de la peinture ont été mesurées à l'ellipsomètre spectroscopique au Musée de Minéralogie des Mines de Paris. Les réponses mesurée et calculées sont comparées entre elles et à des estimations analytiques. Une caractérisation statistique est également faite sur le modèle aléatoire et sur les champs locaux de déplacement diélectrique, par le calcul du volume élémentaire représentatif (VER)
This work presents a numerical and theoretical study of the optical properties of paint layers, in the classical framework of homogenization of heterogeneous media. Objectives are : describing and modeling the heterogenous microstructures used in paint coatings, and predicting the optical response of such materials by numerical ways, depending of the pigments morphology. This work was carried out as part of the LIMA project (Light Interaction Materials Aspect), in partnership with the Agence Nationale de la Recherche and the PSA company. Images of differents paint layers are acquired by scanning electron microscopy (SEM). Different length scales are considered for the microstructures and pigments : microscopic and nanoscopic. Representatives images of these scales are chosen and segmented in order to estimate morphological measurements. Using these measurements, random models are developed depending on the scales. These models, of a multiscale nature, are optimized and validated. The prediction of the optical behaviour of random models describing heterogenous materials is carried out using numerical process based on fast Fourier transforms (FFT). Optics of composite materials theory is introduced, as well as the limits of FFT methods. The quasi-static approximation is a constraint which implies the use of the FFT method on the nanoscopic model only. Dielectric functions of the components of the paint have been measured on macroscopic samples at the Museum of Mineralogy of Mines de Paris by spectroscopic ellipsometry. The optical response of the optimized nanoscopic model is computed and compared to ellipsometry measurements carried out on a reference paint layer. The computed and measured responses are also compared with analytical estimates. In addition, a statistical characterization is made on the random model and the local dielectrical displacement fields, by using the representative volume element (RVE)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Bakry, Marc. „Fiabilité et optimisation des calculs obtenus par des formulations intégrales en propagation d'ondes“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY013/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on se propose de participer à la popularisation des méthodes de résolution de problèmes de propagation d'onde basées sur des formulations intégrales en fournissant des indicateurs d'erreur a posteriori utilisable dans le cadre d'algorithmes de raffinement autoadaptatif. Le développement de tels indicateurs est complexe du fait de la non-localité des normes associées aux espaces de Sobolev et des opérateurs entrant en jeu. Des indicateurs de la littérature sont étendus au cas de la propagation d'une onde acoustique. On étend les preuves de convergence quasi-optimale (de la littérature) des algorithmes autoadaptatifs associés dans ce cas. On propose alors une nouvelle approche par rapport à la littérature qui consiste à utiliser une technique de localisation des normes, non pas basée sur des inégalités inverses, mais sur l'utilisation d'un opérateur Λ de localisation bien choisi.On peut alors construire des indicateurs d'erreur a posteriori fiables, efficaces, locaux et asymptotiquement exacts par rapport à la norme de Galerkin de l'erreur. On donne ensuite une méthode pour la construction de tels indicateurs. Les applications numériques sur des géométries 2D et 3D confirment l'exactitude asymptotique ainsi que l'optimalité du guidage de l'algorithme autoadaptatif.On étend ensuite ces indicateurs au cas de la propagation d'une onde électromagnétique. Plus précisément, on s'intéresse au cas de l'EFIE. On propose des généralisations des indicateurs de la littérature. On effectue la preuve de convergence quasi-optimale dans le cas d'un indicateur basé sur une localisation de la norme du résidu. On utilise le principe du Λ pour obtenir le premier indicateur d'erreur fiable, efficace et local pour cette équation. On en propose une seconde forme qui est également, théoriquement asymptotiquement exacte
The aim of this work is to participate to the popularization of methods for the resolution of wave propagation problems based on integral equations formulations by developping a posteriori error estimates in the context of autoadaptive mesh refinement strategies. The development of such estimates is difficult because of the non-locality of the norms associated to the Sobolev spaces and of the involved integral operators. Estimates from the literature are extended in the case of the propagation of an acoustic wave. The proofs of quasi-optimal convergence of the autoadaptive algorithms are established. We then introduce a new approach with respect to the literature which is based on a new norm-localization technique based on the use of a well-chosen Λ operator and not on inverse inequalities as it was the case previously.We then establish new a posteriori error estimates which are reliable, efficient, local and asymptotically exact with respect to the Galerkin norm of the error. We give a method for the construction of such estimates. Numerical applications on 2D and 3D geometries confirm the asymptotic exactness and the optimality of the autoadaptive algorithm.These estimates are extended in the case of the propagation of an electromagnetic wave. More precisely, we are interested in the EFIE. We suggest generalization of the estimates of the literature. A proof for quasi-optimal convergence is given for an estimate based on a localization of the norm of the residual. The principle of Λ is used to construct the first reliable, efficient, local error estimate for this equation. We give a second forme which is eventually theoretically asymptotically exact
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

SANGARE, MOUSTAPHA. „Amelioration de la qualite des calculs elements finis par l'analyse auto-adaptative. Controle de la precision, et optimisation des calculs elasto-statiques de structures en plaques et coques par la methode p. )“. Paris, CNAM, 1994. http://www.theses.fr/1994CNAM0186.

Der volle Inhalt der Quelle
Annotation:
L'amelioration de la qualite des resultats de calculs elements finis par l'analyse auto-adaptative est, depuis quelques annees, un aspect tres important de la phase de conception d'un systeme mecanique. Apres examen de nombreux procedes d'estimation et d'amelioration de la fiabilite des calculs realises, cette etude se consacre aux possibilites offertes par l'optimisation de discretisations grace a la methode p. Pour la modelisation de structures mecaniques elasto-statiques, nous evoquons le concept d'elements finis dits p-hierarchises. A ce titre, dans un premier temps, la formulation et l'implantation d'un p-element quadrilateral de plaque et de coque sont discutees. Cet element tridimensionnel degenere a neuf nuds possede des fonctions d'interpolation (de type lagrange) dont les degres peuvent etre fixes de maniere adaptable dans son plan ainsi que dans sa direction transverse. Dans un second temps, nous proposons: d'une part, deux methodes d'estimation ou d'indication de l'erreur commise au niveau des elements d'un maillage prealablement defini. Ces methodes sont issues de l'analyse des residus des equations d'equilibre du probleme mecanique. D'autre part, des criteres d'adaptation bidirectionnelle optimisee des degres de polynomes des elements a modifier. Des exemples d'applications numeriques (y compris des exemples industriels) sont presentes dans le but d'eprouver l'element implante ainsi que l'algorithme d'analyse auto-adaptative mis en uvre
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Amir, Yazdani Ali. „Fiabilité des calculs par éléments finis en mécanique des solides, estimateurs d'erreurs a posteriori“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0001/NQ43045.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Dréan, Pascal. „Caractérisation de molécules phosphorées ou arséniées par spectroscopie de rotation et calculs ab initio“. Lille 1, 1995. http://www.theses.fr/1995LIL10113.

Der volle Inhalt der Quelle
Annotation:
Des dérivées des phosphine et arsine ont été caractérisées par spectroscopie de rotation et calculs ab initio. Le spectre de rotation de la méthylidynephosphine et de ses espèces isotopiques a été analysé. La constante sextique de distorsion centrifuge H a été déterminée. Une structure à l'équilibre a été calculée à partir de l'étude des spectres des états excites. Nous avons caractérisé pour la première fois un arsaalcyne non stabilise : l'éthylidynearsine. La constante de rotation b et les constantes de distorsion centrifuge jusqu'aux termes sextiques ont été déterminées. L'identification des spectres de sept espèces isotopiques a permis l'obtention d'une structure fiable. Les phosphines et arsines suivantes ont été caractérisées : vinylphosphine, vinyllarsine, éthylarsine et éthynylarsine. On montre l'utilité des calculs ab initio pour l'identification des spectres. La série complète des monohalogénophosphines a été analysée. En particulier la bromophosphine a pour la première fois été détectée. Les structures de quelques phosphines halogénées sont présentées. Enfin, le spectre de rotation du trifluorure d'arsenic AsF3 a été mesuré et le dédoublement des transitions k = 3 analysé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Aggery, Alain. „Calculs de référence avec un maillage multigroupe fin sur des assemblages critiques par APOLLO2“. Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11023.

Der volle Inhalt der Quelle
Annotation:
Cette these a eu pour objectif d'ajouter au code de transport neutronique multigroupe apollo2 la capacite d'effectuer des calculs de reference deterministes multi-filieres par l'utilisation d'un maillage energetique tres fin a plusieurs milliers de groupes. Ce nouvel outil de reference permet de valider le modele d'autoprotection utilise dans les applications industrielles, de realiser des calculs d'evolution, des calculs d'effets differentiels, des calculs a laplacien critique, ou encore d'evaluer avec precision les donnees necessaires au modele d'autoprotection. Le code apollo2 est un code concu a l'origine pour effectuer des calculs industriels a l'aide de maillages energetiques d'une centaine de groupes. C'est pourquoi, dans le format actuel des bibliotheques de sections efficaces, presque toutes les valeurs des matrices de transfert multigroupes sont stockees. Ce format n'est pas adapte a un nombre important de groupes (en terme de place memoire), il a donc fallu determiner un nouveau format de matrices de transfert et modifier le code en consequence. Dans le nouveau format que nous avons determine, seules quelques valeurs des matrices de transfert sont conservees (le choix de ces valeurs resultant du choix d'une precision de reconstruction), les autres valeurs devant etre recalculees par interpolation lineaire, reduisant ainsi considerablement la taille de ces matrices. Il a fallu ensuite montrer que le code apollo2 travaillant avec un maillage multigroupe fin offrait la possibilite d'effectuer des calculs de reference multi-filieres sur des assemblages. Pour cela, nous avons realise avec succes un grand nombre de calculs de validation pour lesquels nous avons compare les resultats d'apollo2 sur le maillage universel a 11276 groupes aux resultats de codes de monte carlo (mcnp, tripoli4).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Bibas, Hervé. „Réarrangement vinylcétène-acylallène et réaction rétro-ène : identification des entités moléculaires par spectrométrie IR-TF en matrices cryogéniques“. Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX30019.

Der volle Inhalt der Quelle
Annotation:
Les composes alkoxyvinylcetenes ont ete generes par thermolyse eclair ou par photolyse des 3-alkoxycyclobutenones. A une temperature superieure a 650c, les differents cetenes subissent un rearrangement 1,3 des groupes alkoxy pour former les esters alleniques correspondants. La mise en evidence de telles migrations a alors ete obtenue en utilisant la technique d'isolement en matrice suivie par spectroscopie ir-tf. Dans le cas ethoxy, l'ethoxyvinylcetene s'est decompose en acetylcetene a temperature plus elevee. La conversion aminovinylcetene - allenecarboxamide a ete observee des 500c lors de la decomposition thermique de la 3-(n,n-dimethylamino)cyclobutenone. La migration 1,3-cl du chlorure de 2,3-butadienoyle dans les conditions de thermolyse a egalement ete observee des 370c. En accord avec les donnees experimentales, les barrieres d'activation calculees (au niveau g2(mp2,svp) pour la migration 1,3-ome et 1,3-nme#2 dans le sens vinylcetene-acylallene sont de 169 et de 129 kj mol#-#1 respectivement. Dans le cas chloro, la barriere d'activation est, elle, estimee a 157 kj mol#-#1. A une temperature de thermolyse plus elevee (> 800c), les esters alleniques se decomposent selon une reaction retro-ene pour donner le vinylcetene non-substitue et le formaldehyde ou l'acetaldehyde. Une reaction similaire a egalement ete observee dans le cas dimethylamino mais cette fois des 500c. La thermolyse eclair des derives -methyl, -alkoxy- et -methyl, -methylthio-5-methylene de l'acide de meldrum a egalement ete entreprise. Bien que leur decomposition thermique ait deja fait l'objet d'une etude, un certain nombre d'informations a pu etre obtenu. Dans le cas methylthio, en plus de la formation du methylthiomethylmethylene-cetene et de la 5-methyl-thiophen-3(2h)-one (connus de la litterature), le derive du carboxycetene a ete observe. L'etude du derive methoxy a egalement permis de confirmer la formation des derives du methylenecetene et du carboxycetene. La thermolyse eclair du derive ethoxy a, quant a elle, conduit a la formation de l'ethoxymethylmethylenecetene, qui, a plus haute temperature, se decompose en acetylcetene
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Setiyanto. „Puissance déposée par les rayonnements gamma dans le réacteur Siloé : mesures par calorimétrie et calculs par le code GAMSET ; applications aux expériences complexes“. Grenoble INPG, 1991. http://www.theses.fr/1991INPG0036.

Der volle Inhalt der Quelle
Annotation:
L'objectif est d'ameliorer la connaissance de la puissance deposee dans les dispositifs experimentaux par les rayonnements de reacteur nucleaire, notamment par les gammas. Apres un rappel des lois regissant l'absorption par la matiere de l'energievehiculee par ces rayonnements, deux problemes sont poses: comment interpreter les mesures calorimetriques, et comment passer des ces mesures aux puissances deposees dans les experiences complexes. En premiere partie, la methode de mesures calorimetriques est qualifiee par simulations numeriques et par l'experience. En deuxieme partie le code gamset est decrit: partant d'hypotheses physiques simplifiees, ce code semi-empirique est ajuste et qualifie par l'experience. Il est specialement adapte a siloe et aux reacteurs du meme type, et utilise une bibliotheque de constantes physiques appropriee; il permet de calculer facilement la repartition de puissance dans les couronnes d'une experience a symetrie de revolution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Ben, Romdhanne Bilel. „Simulation des réseaux à grande échelle sur les architectures de calculs hétérogènes“. Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0088.

Der volle Inhalt der Quelle
Annotation:
La simulation est une étape primordiale dans l'évolution des systèmes en réseaux. L’évolutivité et l’efficacité des outils de simulation est une clef principale de l’objectivité des résultats obtenue, étant donné la complexité croissante des nouveaux des réseaux sans-fils. La simulation a évènement discret est parfaitement adéquate au passage à l'échelle, cependant les architectures logiciel existantes ne profitent pas des avancées récente du matériel informatique comme les processeurs parallèle et les coprocesseurs graphique. Dans ce contexte, l'objectif de cette thèse est de proposer des mécanismes d'optimisation qui permettent de surpasser les limitations des approches actuelles en combinant l’utilisation des ressources de calcules hétérogène. Pour répondre à la problématique de l’efficacité, nous proposons de changer la représentation d'événement, d'une représentation bijective (évènement-descripteur) à une représentation injective (groupe d'évènements-descripteur). Cette approche permet de réduire la complexité de l'ordonnancement d'une part et de maximiser la capacité d'exécuter massivement des évènements en parallèle d'autre part. Dans ce sens, nous proposons une approche d'ordonnancement d'évènements hybride qui se base sur un enrichissement du descripteur pour maximiser le degré de parallélisme en combinons la capacité de calcule du CPU et du GPU dans une même simulation. Les résultats comparatives montre un gain en terme de temps de simulation de l’ordre de 100x en comparaison avec une exécution équivalente sur CPU uniquement. Pour répondre à la problématique d’évolutivité du système, nous proposons une nouvelle architecture distribuée basée sur trois acteurs
The simulation is a primary step on the evaluation process of modern networked systems. The scalability and efficiency of such a tool in view of increasing complexity of the emerging networks is a key to derive valuable results. The discrete event simulation is recognized as the most scalable model that copes with both parallel and distributed architecture. Nevertheless, the recent hardware provides new heterogeneous computing resources that can be exploited in parallel.The main scope of this thesis is to provide a new mechanisms and optimizations that enable efficient and scalable parallel simulation using heterogeneous computing node architecture including multicore CPU and GPU. To address the efficiency, we propose to describe the events that only differs in their data as a single entry to reduce the event management cost. At the run time, the proposed hybrid scheduler will dispatch and inject the events on the most appropriate computing target based on the event descriptor and the current load obtained through a feedback mechanisms such that the hardware usage rate is maximized. Results have shown a significant gain of 100 times compared to traditional CPU based approaches. In order to increase the scalability of the system, we propose a new simulation model, denoted as general purpose coordinator-master-worker, to address jointly the challenge of distributed and parallel simulation at different levels. The performance of a distributed simulation that relies on the GP-CMW architecture tends toward the maximal theoretical efficiency in a homogeneous deployment. The scalability of such a simulation model is validated on the largest European GPU-based supercomputer
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Gaudry, Emilie. „Structure locale autour des impuretés dans les gemmes, étudiée par spectroscopies et calculs ab initio“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00131051.

Der volle Inhalt der Quelle
Annotation:
Le corindon pur, de formule alpha-Al_2O_3, et le béryl, de formule
Be_3Si_6Al_2O_18, sont des minéraux incolores. Ils deviennent colorés lorsque des ions paramagétiques sont présents en impureté. Le rubis (alpha-Al_2O_3 dopé avec du chrome) est rouge, l'émeraude (Be_3Si_6Al_12O_18 dopé avec du chrome) est verte. Le corindon dopé avec du fer est jaune, il est rose s'il est dopé avec du titane. Le saphir bleu contient à la fois du fer et du titane (alpha-Al_2O_3:Fe-Ti). La couleur est généralement interprétée dans le cadre de la théorie du champ cristallin. Elle doit donc s'expliquer par un champ cristallin spécifique autour de ces ions colorants, correspondant dans chaque cas à une structure locale (cristallographique et electronique) précise.

Notre objectif est de décrire précisément l'environnement autour des
impuretés dans les gemmes. Pour cela, nous effectuons à la fois des expériences d'absorption de rayons X, et des calculs ab initio. La structure cristallographique locale déduite des mesures expérimentales est comparée à celle déduite d'un calcul de relaxation de structure par minimisation d'énergie. La comparaison directe entre les spectres d'absorption de rayons X calculés et expérimentaux nous donne des informations à la fois sur la structure cristallographique et électronique locale. Tous ces calculs utilisent la théorie de la fonctionnelle de la densité.

Cette étude révèle que l'introduction d'une impureté dans une structure conduit à des modifications très locales du cristal autour de l'impureté. Les atomes d'oxygène de la sphère de coordination de l'impureté M (M = Fe ou Cr) dans alpha-Al_2O_3 adoptent un arrangement similaire à celui autour de M dans alpha-M_2O_3.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

BARANGER, CHRISTOPHE. „Methodes de resolution parallele de grands systemes appliquees aux calculs de structures par elements finis“. Compiègne, 1995. http://www.theses.fr/1996COMP8495.

Der volle Inhalt der Quelle
Annotation:
Depuis quelques annees, nous assistons a la generalisation de la modelisation des phenomenes lineaires, non lineaires, du contact, de la plasticite et a l'explosion des besoins en puissance de calcul de ces simulations numeriques. L'objectif de cette these est la resolution de grands systemes lineaires creux issus de la methode des elements finis, contexte couramment rencontre dans l'industrie aujourd'hui. Nous presentons dans ce memoire le cadre theorique ainsi que l'extension d'une architecture logicielle pour la resolution de grands systemes creux sur un calculateur parallele virtuel, eventuellement constitue par un reseau de stations de travail. Les parties constituantes de ce travail portent respectivement sur le contexte du parallelisme aujourd'hui et les divers modes de stockage de matrices creuses. Nous etudions ensuite les principales methodes numeriques pour resoudre les grands systemes lineaires creux, la parallelisation des principales etapes communes a ces algorithmes, l'implementation des versions paralleles de ces etapes et leur validation sur deux types de problemes de calcul de structure (un probleme d'elasticite lineaire tridimensionnel et un probleme d'optimisation de maillage sur une structure complexe). L'architecture logicielle developpee a partir d'un cahier des charges precis possede une grande capacite d'evolution. Les resultats obtenus confirment l'interet economique et scientifique de l'utilisation d'un reseau de stations comme machine parallele bon marche
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Gaudry, Émilie. „Structure locale autour des impuretés dans les gemmes, étudiée par spectroscopies et calculs AB initio“. Paris 6, 2004. https://tel.archives-ouvertes.fr/tel-00131051.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Rodet, Thomas. „Algorithmes rapides de reconstruction en tomographie par compression des calculs : application à la tomofluoroscopie 3D“. Grenoble INPG, 2002. http://www.theses.fr/2002INPG0104.

Der volle Inhalt der Quelle
Annotation:
La tomographie dynamique à rayons X est une modalité qui est en forte progression ces dernières années. Elle consiste à reconstruire une séquence d'images et non plus une seule image statique. Ces données dynamiques permettent d'étudier les évolutions dans le temps liées soit au mouvement naturel des organes, soit à la progression d'instruments d'intervention chirurgicale. La reconstruction tomographique de données 4D (trois dimensions spatiales et une temporelle) nécessite une centaine de GigaFLOPS (Floating Operation Per Seconde ) en utilisant une approche standard. Cette thèse propose deux nouvelles méthodes de reconstructions accélérées originales visant à réduire le nombre d'opérations de reconstruction. La première méthode consiste à accélérer les calculs sans perte théorique information. Elle est basée sur une décomposition en blocs de la transformée de Fourier de l'image à reconstruire. L'accélérationrepose sur la réduction du nombre de rétroprojections associées à chaque bloc. La seconde permet une aaccélération avec une perte contrôlée de l'information. Elle est basée sur une décomposition hiérarchique de l'image à l'aide de la transformée en ondelettes. Pour accélérer les calculs nous ne rétroprojetons pas les coefficients d'ondelettes négligeables. Le support des valeurs négligeables est déterminé par prédiction d'une structure (zerotree) qui repose sur l'hypothèse que si un coefficient d'ondelette basse fréquence est négligeable alors tous les coefficients d'ondelette de même localisation de plus hautes fréquences le sont aussi. Nous avons validé ces approches sur des données simulées. Nous avons ainsi atteint des facteurs d'accélération comparables dans les deux cas (entre 2 et 3). Cependant, l'approche basée sur la décomposition en ondelettes garantit une meilleur qualité des images
X-rays dynamic tomography is a method which is in strong progression over the last years. It consists in reconstructing a sequence of images rather than one static image. These dynamic data make it possible to study the time evolutions related either to the natural organs motion, or to the surgical instruments motion during image-guided interventional procedures. The tomographic reconstruction of data 4D (three space dimensions and temporal) requires a hundred GigaFLOPS (Floating Operation Per Seconde) when using a standard approach. This thesis proposes two original accelerated reconstruction methods aiming at reducing the number of operations of reconstruction. The first method consists in accelerating computations without theoretical loss of information (lossless approach). It is based on a decomposition in blocks of the Fourier transform of the image to be reconstructed. Acceleration is based on the reduction of the number of rétroprojections associated with each block. The second method allows an acceleration with a controlled loss of information (lossy approach). It is based on a hierarchical decomposition of the image using the wavelet transform. To accelerate computation we do not back-project the unsignificant wavelet coefficients. The support of the unsignificant values is determined by prediction of a structure (zerotree) which suppose that if a low frequency wavelet coefficient is unsignificant, then all the wavelet coefficients of the same localization of high frequencies are also unsignificant. We validated these approaches on simulated data. We reached comparable speed up factors in both cases (between 2 and 3). However, the lossy approach guarantees better a image quality
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Haza, Elisabeth. „Ouvrages en terre renforcés par géosynthétiques, sollicités localement en tête : expérimentation et méthode de calculs“. Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00785909.

Der volle Inhalt der Quelle
Annotation:
Les massifs en terre renforcés par géosynthétiques, à parement souple, sont couramment utilisés en France pour leur fonction de soutènement. L'étude présentée dans ce mémoire se focalise sur leur capacité à remplir également la fonction de portance lorsque le massif est chargé localement en tête. L'ouvrage rassemble ainsi toutes les fonctions d'une culée de pont. Une expérimentation en vraie grandeur est présentée en détail (programme GAR.D.E.N.) : deux différents profils instrumentés sont menés à la rupture à l'aide d'un chargement localisé en tête. Une méthode de prédimensionnement de ce type d'ouvrage est proposée. Il s'agit de l'adaptation de la méthode double-blocs basée sur le principe du calcul à l'équilibre limite. Cette méthode est en effet assez largement utilisée pour l'étude de la stabilité d'ouvrages non surchargés ou uniformément surchargés. Deux axes de développement sont abordés. D'une part le caractère déformable des renforcements est pris en compte. D'autre part, l'action localisée du chargement en partie supérieure du massif est modélisée par une nouvelle répartition de ces efforts qui assurent l'équilibre du massif renforcé surchargé. Ces approches sont satisfaisantes en comparaison aux données expérimentales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Haza, Elisabeth. „Ouvrages en terre renforcés par géosynthétiques, sollicités localement en tête : expérimentation et méthode de calculs“. Phd thesis, Université Joseph Fourier (Grenoble ; 1971-2015), 1997. http://www.theses.fr/1997GRE10206.

Der volle Inhalt der Quelle
Annotation:
Les massifs en terre renforces par geosynthetiques, a parement souple, sont couramment utilises en france pour leur fonction de soutenement. Leur capacite a remplir egalement la fonction de portance est en cours d'etude au l. I. R. I. G. M. De grenoble. L'etude presentee dans ce memoire se focalise sur cette fonction lorsque le massif est charge localement en tete. L'ouvrage rassemble ainsi toutes les fonctions d'une culee de pont. Une experimentation en vraie grandeur est presentee en detail (programme g. A. R. D. E. N. ) : deux differents profils instrumentes sont menes a la rupture a l'aide d'un chargement localise en tete. Les resultats experimentaux permettent de mieux apprehender le comportement en grandes deformations (a la rupture) et en petites deformations (en service) de ces massifs. Les renforcements, en partie superieure du massif, sont tres fortement sollicites par la dalle qui poinconne le massif. Une methode de predimensionnement de ce type d'ouvrage est proposee. Il s'agit de l'adaptation de la methode double-blocs basee sur le principe du calcul a l'equilibre limite. Cette methode est en effet assez largement utilisee pour l'etude de la stabilite d'ouvrages non surcharges ou uniformement surcharges. Deux axes de developpement sont abordes. D'une part le caractere deformable des renforcements est pris en compte. Cela se traduit par une inclinaison des efforts mobilises par les renforcements le long des lignes de cisaillement. D'autre part, l'action localisee du chargement en partie superieure du massif est modelisee par une nouvelle repartition de ces efforts qui assurent l'equilibre du massif renforce surcharge. Ces approches sont satisfaisantes en comparaison aux donnees experimentales, a l'etat de service ou de rupture des ouvrages. Nos perspectives sont d'affiner cette methode de predimensionnement et de la valider d'apres des donnees experimentales complementaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Voarino, Philippe. „Lumière diffuse et microsphères multicouches : calculs et réalisations“. Phd thesis, Aix-Marseille 3, 2004. http://tel.archives-ouvertes.fr/tel-00083581.

Der volle Inhalt der Quelle
Annotation:
Nous avons développé des codes de calcul basés sur la théorie de Mie, pour prédire la réponse angulaire et spectrale de microsphères revêtues d'empilements multicouches concentriques, diélectriques ou métalliques. L'influence des paramètres est tout d'abord analysée avec précision : effet de taille, effet du revêtement, tolérance sur le rayon... L'analogie avec les fonctions optiques classiques (antireflet, miroir, filtres, séparateurs...) a retenu notre attention, et l'on montre qu'elle existe jusqu'à des rayons de l'ordre de 3 Μm, valeur critique en dessous de laquelle les résonances prédominent. Une étude colorimétrique a également permis de quantifier nombre d'effets colorés spécifiques à ces sphères multicouches.
La deuxième partie de notre travail a consisté en la réalisation des micro-composants. Pour cela nous avons entièrement mis au point une technologie de pulvérisation par faisceau d'ions (IBS), pour fabriquer des couches minces optiques métalliques ou diélectriques. Pour revêtir les microsphères, nous les animons d'un mouvement aléatoire conféré par une membrane vibrante. Les résultats montrent que notre procédé fonctionne très correctement pour une fabrication en série, ouvrant ainsi la porte à des poudres optiques interférentielles. Ensuite le problème de la caractérisation est traité à l'aide d'un diffusomètre laser et d'un spectro-diffusomètre, pour tenter de mesurer une sphère isolée ou des collections de microsphères.
De façon générale, ce travail trouve des applications dans la couleur et cosmétique, la visualisation, la furtivité et les télécom, le biomédical...
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Bouajila, Wissam. „Modélisation des chambres de combustion de lanceurs (matériaux & calculs)“. Paris 6, 2008. http://www.theses.fr/2008PA066553.

Der volle Inhalt der Quelle
Annotation:
Développer des lanceurs réutilisable revient principalement à augmenter la durée de vie du moteur, et plus particulièrement celle de la paroi de la chambre de combustion, élément le plus critique du moteur. Parmi les nombreuses solutions explorées dans la littérature, ce travail de recherche s’oriente sur la caractérisation mécano-chimique d’un matériau prometteur, candidat pour la fabrication des parois de la chambre de combustion : l’alliage de cuivre Cu4Cr2Nb obtenu par plasma formage sous vide. La détermination de ses propriétés thermomécaniques ainsi que l’influence de l’environnement sur celles-ci doivent être déterminés afin d’établir une décision sur l’utilisation de ce matériau. Afin d’être au plus près des conditions d’exploitation de la paroi de la chambre de combustion (i. E. Hautes températures et vitesses de déformation, paroi fine et environnement sous hydrogène), des essais de disques utilisant de fins disques plats sous pression gazeuse ont été réalisés pour caractériser les propriétés mécaniques du matériau. Une méthode de calcul basée sur des hypothèses relatives à la déformation du disque est utilisée afin de déterminer les propriétés mécaniques vraies du matériau à partir des données de l’expérience. La pertinence ainsi que la précision des résultats obtenus ont été vérifiés avec plusieurs matériaux ayant des comportements mécaniques différents. Les propriétés thermomécaniques de l’alliage Cu4Cr2Nb ont été déterminées à des températures de 300K à 1100K et pour des vitesses de déformation moyennes de 5. 10-4 à 5. 10-1 s-1. La fragilisation par l’hydrogène externe (FHE) ainsi que la fragilisation par l’hydrogène interne (FHI) de l’alliage Cu4Cr2Nb ont été mesurées à trois températures significatives 300K, 700K et 1100K et pour différentes vitesses moyennes de déformation. Une diminution de la résistance de l’alliage Cu4Cr2Nb (environ -10%) a été mesurée en environnement hydrogène pour des conditions d’essai particulières. Le comportement mécanique de l’alliage Cu4Cr2Nb a été modélisé à l’aide de la loi de comportement élasto-viscoplastique de Chaboche, particulièrement adaptée à la description de comportements cycliques. Le modèle de Chaboche a été adapté car l’essai de disque nous permet d’atteindre de très hautes vitesses de déformation : la dépendance du modèle à la vitesse de déformation est définie à travers l’amplitude d’écrouissage en plus de la contrainte visqueuse. Les différentes simulations utilisant une modélisation par éléments finis de l’essai de disque intégrant la loi de Chaboche modifiée ont fourni des résultats en très bonne adéquation avec l’expérience pour l’alliage Cu4Cu2Nb sur de larges gammes de températures et de vitesses de déformation. D’après les nombreuses comparaisons réalisées avec succès, toutes les méthodologies expérimentales ainsi que les méthodes de calcul et de simulations associées peuvent être utilisées pour la caractérisation du comportement mécanique et la sensibilité à l’environnement d’autres métaux avec une bonne fiabilité et précision.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Ohanessian, Gilles. „Étude théorique de la délocalisation électronique par la méthode Valence Bond“. Paris 11, 1986. http://www.theses.fr/1986PA112218.

Der volle Inhalt der Quelle
Annotation:
La structure électronique des molécules à électrons délocalisés est étudiée par la méthode Valence Bond. Dans la première partie, un modèle général pour décrire la compétition entre localisation et délocalisation est proposé sur la base de diagrammes de corrélation de fonctions Valence Bond e Son application aux molécules conjuguées indique que leurs systèmes pi sont instables dans leurs géométries expérimentales, et cette prédiction est vérifiée par des calculs ab initia. Une description unifiée de cette tendance à la localisation et de la stabilisation par résonance dans les systèmes pi et les agrégats à un électron actif par centre est proposée. Dans la deuxième partie, une méthode approchée d'obtention de fonctions Valence Bond pour les électrons délocalisés est développée. Elle consiste à corriger les poids des structures résonantes calculés à partir d'une fonction SCF par des multiplicateurs de liaisons locales, essentiellement destinés à réduire l'importance des situations ioniques. Cette méthode est ensuite utilisée pour une réinvestigation critique de la théorie de la résonance en chimie organique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Faix-Gantier, Aurélie. „Phénoménologie et calculs numériques de la propagation d'une flamme prémélangée hydrogène-air pauvre dans un milieu turbulent“. Poitiers, 2001. http://www.theses.fr/2001POIT2327.

Der volle Inhalt der Quelle
Annotation:
Ce travail de doctorat a pour objet l'étude de la propagation d'une zone de combustion dans un milieu turbulent constitué d'un mélange pauvre hydrogène-air. Le but est de préciser les caractéristiques d'une telle propagation ainsi que les modèles de combustion et de turbulence nécessaires à l'étude numérique de celle-ci, compte-tenu des spécificités introduites par la nature des mélanges combustibles et les caractéristiques du confinement dans lequel s'effectue la propagation. Le champ d'application d'une telle étude est la prévention des accidents et la maîtrise du risque hydrogène dans les enceintes de réacteurs nucléaires
This thesis concerns the study of flame propagation in a turbulent flow of lean hydrogen-air mixtures. The aim is to precise the characteristics of propagation as well as combustion and turbulence models able to take into account the pecularities of these mixtures. This research work is related to the prevention of firehazards associated with accidental release of hydrogen within the reactor of a nuclear power plant. In a first part, the scales (the flame velocity and thickness) associated with the laminar flame propagation in hydrogen-air mixtures are studied. A specific attention is devoted to the intrinsic instability properties of such flames. Then, the turbulence scales potentially present within a reactor are estimated in order to allow for the determination of the regimes of combustion that might be present within the reactor and among which the flamelet regime appears to be conceivable. In a second part, starting with the analysis of the propagation properties of a mean reaction zone calculated with a flamelet model, we show that, with an adequate tuning of the parameter appearing in the mean reaction rate expression, it is possible to predict numerically the turbulent flame speeds available with the litterature
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Hauville, Frédéric. „Optimisation des méthodes de calculs d'écoulements tourbillonnaires instationnaires“. Phd thesis, Université du Havre, 1996. http://tel.archives-ouvertes.fr/tel-00125000.

Der volle Inhalt der Quelle
Annotation:
Nous étudions les écoulements à l'aide des méthodes de calcul décrivant le transport du tourbillon. Ces méthodes sont basées sur une discrétisation volumique des zones tourbillonnaires en particules que l'on suit dans leur mouvement. Ces dernières portent un vecteur tourbillon qui évolue dans le temps en fonction des distorsions locales du champ de vitesse. Ces modélisations numériques d'écoulements tourbillonnaires instationnaires en formulation lagrangienne présentent la particularité d'être bien adaptées à la description de phénomènes complexes, mais ont la réputation d'être coûteuses en temps de calcul.

Le cadre général de cette thèse est l'amélioration de l'efficacité de ces méthodes sous trois aspects :
- décomposition linéaire / non linéaire
- approximation par domaine
- la programmation parallèle (PVM).

Des applications concernant des problèmes d'énergie éoliens, soit sur des générateurs à hélice (éolienne), soit sur les voiles de bateau pour l'interaction fluide/structure sont développés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Le, Bacq Olivier. „Contribution à l'étude quantitative des défauts dans les métaux de transition par les calculs de structure électronique : calculs ab-inition et développement de modèles de liaisons fortes spd“. Grenoble INPG, 1999. http://www.theses.fr/1999INPG0011.

Der volle Inhalt der Quelle
Annotation:
Nous avons developpe des modeles de liaisons fortes spd pour le zirconium en ajustant les parametres des integrales de saut et des energies de site sur les structures de bande ab initio, calculees en fp-lmto. Le modele le plus complet, avec une dependance explicite en fonction de l'environnement des energies de sites, reproduit les proprietes d'equilibre, les stabilites relatives des differentes phases, les energies de formation de lacune avant et apres relaxation et la stabilisation sous pression de la phase. En imposant des valeurs constantes aux energies de site, aucune amelioration significative n'a pu etre apportee par rapport au modele d, qui s'avere etre un autre bon compromis. Les calculs ab initio (methodes fp-lmto et pseudopotentiels) montrent que les energies de formation de lacune non relaxees dependent peu de la structure cristallographique (cubique centree ou hexagonale compacte) pour l'ensemble des metaux du groupe iv (ti, zr et hf) ; une relaxation importante a ete mise en evidence dans -zr.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Gamha, Habiba. „Calculs par éléments finis des structures élasto-viscoplastiques : analyse comparative et application à la fatigue thermique“. Compiègne, 1990. http://www.theses.fr/1990COMPD310.

Der volle Inhalt der Quelle
Annotation:
Ce travail a été réalisé dans le cadre d'une collaboration avec la division « Matériaux » au sein de l’U. A CNRS 849. Il présente la réalisation d'un programme de calcul des structures par éléments finis pour l'étude des pièces soumises à des chargements cycliques à haute température. Nous rappelons d'abord les principaux aspects du comportement viscoplastique et les lois destinées à la modélisation du comportement viscoplastique cyclique des matériaux. Nous résumons les différentes méthodes d'intégration numérique des lois constitutives et nous détaillons celles que nous avons choisies pour notre étude. Les problèmes liés au calcul du pas d'intégration sont abordés. La formulation des problèmes de calcul des structures en viscoplasticité utilise la méthode des éléments finis. Le comportement des deux algorithmes choisis est illustré sur un ensemble de tests définis dans le cadre du « GIS GRECO » pour la validation des codes de calcul en viscoplasticité. Une comparaison du rapport coût-précision des deux algorithmes est effectuée à partir d'étude de convergences réalisées sur ces cas-tests. Nous nous intéressons aussi au comportement réalisés sur ces cas-tests. Nous nous intéressons aussi au comportement plastique du matériau que nous considérons comme un cas limite du comportement viscoplastique. Nous abordons aussi les problèmes liés à la fatigue thermique. Enfin, nous illustrons le comportement de l'algorithme implicite dans le cas des non-linéarités géométriques associées au comportement thermo-viscoplastique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Bteich, Sabath. „Caractérisation de précurseurs d’aérosols et leurs hydrates par spectroscopie microonde, infrarouge et calculs de chimie quantique“. Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10169/document.

Der volle Inhalt der Quelle
Annotation:
La formation des aérosols dans l’atmosphère suit des processus complexes. La spectroscopie de rotation couplée à des calculs de chimie quantique permet de caractériser et de modéliser en laboratoire les propriétés physico-chimiques des précurseurs gazeux, à l’échelle moléculaire. L’objectif de ce travail est de comprendre le processus d’hydratation et de dimérisation. Dans ce contexte, nous avons d’abord étudié la molécule de méthyleglyoxal qui est un précurseur d’aérosols organiques secondaires. Les spectres de rotation centimétrique et millimétrique ont été enregistrés et analysés. Nous avons mis en évidence et modélisé à la précision expérimentale le mouvement de grande amplitude associé à la rotation interne du groupe méthyle, dans l’état fondamental. Ensuite nous avons enregistré le spectre de rotation de cette même molécule en présence d’eau avec un spectromètre à impulsions microondes couplé à un jet supersonique. Deux monohydrates du méthyleglyoxal ont été observés. Avec le support de calculs de structure (effectués ab initio et avec la méthode de la fonctionnelle de densité) nous avons déterminé la position des sites de microsolvatation (sur la fonction cétone) et l’énergie d’hydratation. Nous avons également observé et caractérisé des produits de dégradation (diol et tétrol). La dernière partie de la thèse a été consacrée à l’étude du dimère cyclique de l’acide formique. Cette molécule, abondante dans l’atmosphère, a été étudiée par spectroscopie infrarouge. Nous avons enregistré six bandes rovibrationnelles à haute résolution sur le dispositif Jet−AILES au synchrotron SOLEIL. La brillance du rayonnement a permis d’observer en particulier la bande fondamentale v24 dans l’infrarouge lointain. Le spectre a révélé la présence d’un mouvement de grande amplitude associé à l’échange de protons, ce qui rend l’analyse des spectres très complexe. Des résultats préliminaires et encourageants ont été obtenus
The formation of aerosols in the atmosphere follows complex processes. Rotation spectroscopy coupled with quantum chemistry calculations allows laboratory characterization and modeling of the physicochemical properties of gaseous precursors on a molecular scale. The aim of this work is to understand the process of hydration and dimerization. In this context, we first studied the methylglyoxal molecule, which is a precursor of secondary organic aerosols. The centimeter and millimeter rotation spectra were recorded and analyzed. We modeled to the experimental accuracy the large amplitude motion associated to the internal rotation of the methyl group at the ground state. Then, we recorded the spectrum of rotation of the same molecule in the presence of water with a microwave pulse spectrometer coupled to a supersonic jet. Two monohydrates were observed. With the support of structural calculations (performed with ab initio and the functional density method), we determined the position of the microsolvation sites (on the ketone function) and the energy of hydration. We observed and characterized the degradation products (diol and tetrol) as well. The last part of the thesis was devoted to the study of the cyclic dimer of the formic acid. This molecule, abundant in the atmosphere, was studied by the infrared spectroscopy. We recorded six rovibrational bands with high resolution by the Jet-AILES equipment at the SOLEIL synchrotron. The brightness of the radiation made it possible to observe, in particular, the fundamental band 24 in the far infrared. The spectrum revealed the presence of a large amplitude motion associated with the exchange of proton, which makes spectrum analysis very complex. Preliminary and encouraging results were obtained
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Morinière, Véronique. „Etude des mécanismes aérodynamiques de réduction des bruits de jets subsoniques par injection de masse : analyses globale et spectrale des champs rayonnés“. Poitiers, 1996. http://www.theses.fr/1996POIT2260.

Der volle Inhalt der Quelle
Annotation:
Les etudes developpees consistent en la prevision numerique du bruit de jets libres subsoniques soumis a une injection de masse et de sa repartition spectrale. Les objectifs sont d'une part, l'analyse des mecanismes de reduction de bruit de jets par injection de masse, et d'autre part la determination de conditions d'injection conduisant a une reduction sonore. On se place dans le cadre de l'analogie de lighthill, et on considere une turbulence homogene avec un fort cisaillement moyen. La resolution de l'equation de lighthill se fait par une methode integrale, par consequent la modelisation de la turbulence est statistique. On dispose finalement de la puissance acoustique globale, du spectre sonore et de la repartition des sources acoustiques. La puissance acoustique est estimee a partir de la formule de lilley et la repartition des sources sonores est donne par le modele de davies. Le modele numerique du contenu frequentiel de l'emission sonore prend en compte la structure intrinseque de l'ecoulement. De ce fait, le rayonnement acoustique est module par celui des structures a grandes echelles en modelisant le champ turbulent spatio-temporel et en definissant le volume source equivalent. Les grandeurs turbulentes necessaires pour le calcul acoustique sont donnees par un code de calcul base sur le modele de turbulence k-. L'analyse des mecanismes de reduction sonore montre que celle-ci est liee a la turbulence, au cisaillement moyen et a l'intensite des sources acoustiques. On montre ainsi qu'il est possible a partir d'un calcul aerodynamique, base sur le modele k-, et d'une modelisation aeroacoustique de developper des methodes de prevision de bruit qui etendent le champ des applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie