To see the other types of publications on this topic, follow the link: Calcul quantique par mesure.

Dissertations / Theses on the topic 'Calcul quantique par mesure'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Calcul quantique par mesure.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Booth, Robert Ivan. "Measurement-based quantum computation beyond qubits." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS022.

Full text
Abstract:
Le calcul quantique par mesure (MBQC) est un modèle alternatif de calcul quantique, qui utilise les propriétés de la mesure de systèmes quantiques intriqués pour effectuer des transformations sur une entrée. Il diffère fondamentalement du modèle de circuit quantique standard en ce que les calculs basés par mesures sont naturellement irréversibles. C'est conséquence inévitable de la description quantique de la mesures, mais qui soulève une question évidente : quand est-ce qu'un MBQC met-il en œuvre un calcul réversible ? Le m-calcul est un modèle formel pour les MBQC qui a la caractéristique remarquable que chaque calcul peut être relié de manière canonique à un graphe. Cela permet d'utiliser les outils de la théorie des graphes pour raisonner sur les problèmes de MBQC, tels que la question de la réversibilité, et l'étude de MBQC qui en résulte a eu un large éventail d'applications. Cependant, la grande majorité des travaux sur le MBQC se sont concentrés sur des architectures utilisant le système quantique le plus simple possible : le qubit. La question de savoir dans quelle mesure ces travaux peuvent être transposés à d'autres systèmes quantiques reste ouverte. Dans cette thèse, nous commençons à aborder cette question, en considérons le cas des qudits lorsque la dimension locale est un nombre premier impair, et des systèmes à variables continues familiers de la physique quantique des particules libres. Dans chaque cas, nous introduisons un m-calcul et lui donnons une interprétation appropriée en termes d'opérations quantiques. Nous établissons ensuite un lien entre les modèles résultants et les modèles de circuit standard
Measurement-based quantum computation (MBQC) is an alternative model for quantum computation, which makes careful use of the properties of the measurement of entangled quantum systems to perform transformations on an input. It differs fundamentally from the standard quantum circuit model in that measurement-based computations are naturally irreversible. This is an unavoidable consequence of the quantum description of measurements, but begets an obvious question: when does an MBQC implement an effectively reversible computation? The measurement calculus is a framework for reasoning about MBQC with the remarkable feature that every computation can be related in a canonical way to a graph. This allows one to use graph-theoretical tools to reason about MBQC problems, such as the reversibility question, and the resulting study of MBQC has had a large range of applications. However, the vast majority of the work on MBQC has focused on architectures using the simplest possible quantum system: the qubit. It remains an open question how much of this work can be lifted to other quantum systems. In this thesis, we begin to tackle this question, by introducing analogues of the measurement calculus for higher- and infinite-dimensional quantum systems. More specifically, we consider the case of qudits when the local dimension is an odd prime, and of continuous-variable systems familiar from the quantum physics of free particles. In each case, a calculus is introduced and given a suitable interpretation in terms of quantum operations. We then relate the resulting models to the standard circuit models, using graph-theoretical tools called "flow" conditions
APA, Harvard, Vancouver, ISO, and other styles
2

Lacour, Xavier. "Information Quantique par Passage Adiabatique : Portes Quantiques et Décohérence." Phd thesis, Université de Bourgogne, 2007. http://tel.archives-ouvertes.fr/tel-00180890.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'élaboration théorique de
processus adiabatiques permettant l'implémentation de portes logiques
quantiques, les constituants élémentaires des ordinateurs quantiques, par
l'interaction de champs laser impulsionnels avec des atomes. L'utilisation de
techniques adiabatiques permet des implémentations robustes, i.e. insensibles
aux fluctuations des paramètres expérimentaux. Les processus décrits dans cette
thèse ne nécessitent que le contrôle précis des polarisations et des phases
relatives des champs lasers. Ces processus permettent l'implémentation d'un
ensemble universel de portes quantiques, autorisant l'implémentation de toute
autre porte quantique par combinaisons.
La seconde partie de cette thèse concerne les effets de la décohérence par
déphasage sur le passage adiabatique. La formule de probabilité de transition
d'un système à deux niveaux tenant compte de ces effets décohérents est établie.
Cette formule est valable dans les différents régimes, diabatique et
adiabatique, et permet d'établir les paramètres de trajectoires elliptiques
optimisant le transfert de population.
APA, Harvard, Vancouver, ISO, and other styles
3

Ducher, Manoj. "Fractionnement isotopique du zinc à l'équilibre par calcul ab initio." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066318.

Full text
Abstract:
La mesure de composition isotopique est utilisée dans l'étude du cycle biogéochimique du zinc ; cycle largement impacté par les activités anthropiques. Toutefois, l'interprétation de ces mesures réalisées sur des échantillons naturels ou synthétiques requiert la connaissance des propriétés isotopiques du zinc en condition d'équilibre (qui servent de référence) et la compréhension des mécanismes à l'origine des variations de composition isotopique. Dans ce travail, nous avons déterminé en réalisant des calculs quantiques, les constantes d'équilibre de fractionnement isotopique du zinc dans des phases solides et liquides. Nous avons mis en évidence les paramètres cristallochimiques qui contrôlent les propriétés isotopiques : la constante de force interatomique du zinc, les longueurs de liaisons Zn-premiers voisins et la charge électronique de ces premiers voisins. Nous avons réalisé un développement méthodologique permettant de calculer les propriétés isotopiques dans les phases liquides à partir de trajectoires de dynamique moléculaire à un coût réduit en temps de calcul. Nous avons montré à travers la modélisation du zinc aqueux, qu'une description raisonnable des forces de van der Waals par une fonctionnelle d'échange et de corrélation non locale est nécessaire à la stabilisation à conditions ambiantes du complexe hexaaquo zinc par rapport à d'autres complexes, réconciliant ainsi calculs et expériences. Ce travail met à disposition des études expérimentales une base de données cohérente de constantes d'équilibres isotopiques
Isotopic compositions are used to study the biogeochemical cycle of Zn, which is greatly impacted by anthropic activities. However, the interpretation of the measurements performed on natural or synthetic samples requires the knowledge of Zn isotope properties in equilibrium conditions (as reference) and the understanding of the mechanisms that are at the origin of the isotopic composition variations. In this work, we determined by performing quantum calculations, equilibrium Zn isotope fractionation constants in various phases including solids and liquids. We highlighted the crystal-chemical parameters controlling the isotopic properties : Zn interatomic force constant, Zn-first neighbours bond lengths and the electronic charge on atoms involved in the bonding. We carried out a methodological development in order to calculate isotopic properties in liquid phases from molecular dynamics trajectories at a reduced computational cost. We showed through the modelling of aqueous Zn that a reasonable description of van der Waals forces using a non-local exchange correlation functional is required to stabilise the experimentally observed hexaaquo zinc complex over other complexes at room temperature. This work provides a consistent database of equilibrium Zn isotope fractionation constants for experimental works
APA, Harvard, Vancouver, ISO, and other styles
4

Gorczyca, Agnès. "Caractérisation de catalyseurs métalliques supportés par spectroscopie XANES, apports du calcul quantique dans l'interprétation des spectres expérimentaux." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI062/document.

Full text
Abstract:
L'étude des nanoagrégats métalliques supportés sur des oxydes est d'une importance primordiale autant au niveau fondamental que technologique, notamment dans le domaine de l'énergie. Les nanoparticules à base de platine supportées sur alumine Gamma sont largement utilisées comme catalyseurs hétérogènes ultradispersés, en particulier sous atmosphère réductrice d'hydrogène. Leur réactivité et leur sélectivité sont intimement liés à la géométrie locale et à la densité électronique des sites actifs. Ces dernières sont particulièrement ardues à définir, étant donnée la très faible taille des agrégats étudiés (environ 0.8 nm de diamètre). La spectroscopie XANES (X-Ray Absorption Near Edge Structure), nécessitant un rayonnement synchrotron, est un des outils les plus appropriés pour étudier ces systèmes, en particulier in situ, à l'échelle atomique. En effet les spectres XANES sont influencés par la géométrie locale et la symétrie de l'environnement des atomes (en particulier les angles entre les liaisons), le degré d'oxydation, les types de liaisons mis en jeu, et la structure électronique du système. Tous ces facteurs sont néanmoins difficiles à différencier et même à interpréter. Il est donc impossible de déduire de manière précise la structure des particules métalliques par la seule expérience, sans aucune comparaison avec des spectres simulés. La mise en place de modèles théoriques devient alors nécessaire. Nous mettons donc en oeuvre une approche associant expériences XANES haute résolution in situ et simulations quantiques, ces dernières visant à la proposition de modèles structuraux pertinents, à la quantification de la réactivité des agrégats et au calcul des caractéristiques spectrales pour comparaison à l'expérience. L'identification de la morphologie des particules, de l'interaction métal-support et du taux de couverture en H est ainsi rendue possible par l'association de l'expérience et du calcul. La bibliothèque de modèles existants de particules monométalliques de Pt supportées sur de l'alumine Gamma avec ou sans hydrogène adsorbé, est complétée par des modèles hydrogénés sur la face (110) et par des modèles de différentes tailles hydrogénés sur la face (100). Cette bibliothèque devenue assez complète a permis une étude de l'influence de la taille des particules, de leur morphologie, de leur structure électronique, des différentes face de l'alumine Gamma, ainsi que du taux de couverture en hydrogène sur la signature des spectres XANES. Cette première étude des catalyseurs monométalliques de platine, se conclue par la discrimination de certaines morphologies, mais surtout la quantification du taux de couverture en hydrogène des particules. Ensuite, des modèles de particules bimétalliques platine – étain supportés sur la face (100) de l'alumine Gamma sont élaborés avec adsorption d'hydrogène. Ces modèles permettent de mieux comprendre l'influence de l'étain sur la morphologie, les propriétés électroniques et l'interaction avec le support et l'hydrogène de ces agrégats. Différentes compositions ont été explorées, ce qui a apporté des informations sur la dilution du platine par l'étain. L'adsorption d'hydrogène a alors été étudiée sur des agrégats de Pt10Sn3 supportées sur la face (100) de l'alumine Gamma. Bien que de nombreux paramètres ne sont pas encore pris en compte dans ces modèles, la comparaison à l'expérience permet déjà d'avoir une première approximation sur la description de systèmes bimétalliques
The study of metallic nanoclusters supported on oxides is of paramount fundamental and technological importance, particularly in the field of energy. The nanoparticles based on platinum supported on gamma alumina are widely used as highly dispersed heterogeneous catalysts especially under reducing hydrogen atmosphere. Their reactivity and selectivity are intimately related to the local geometry and the electronic density of active sites. These are particularly difficult to define, given the very small size of the studied particles (about 0.8 nm in diameter). XANES (X-Ray Absorption Near Edge Structure) spectroscopy requiring synchrotron radiation, is one of the most appropriate tools to study these systems, especially in situ, at the atomic scale. Indeed the XANES spectra are influenced by the geometry and symmetry of the atoms local environment (especially angles between bonds), the degree of oxidation, the bond types involved, and the electronic structure of the system . All these factors are nevertheless difficult to differentiate and even to interpret. It is therefore impossible to infer accurately the structure of the metal particles by experience alone, without any comparison with simulated spectra. The establishment of theoretical models becomes necessary. We are implementing an approach that combines high-resolution XANES experiments in situ and quantum simulations, the latter aimed at proposing relevant structural models to quantify the reactivity of the particles and calculating spectral characteristics for comparison to experiment. The identification of the clusters morphologies, the metal-support interaction and the hydrogen coverage is made possible combining experiments and quantum calculations. The library of existing monometallic Pt particles models supported on Gamma alumina with or without adsorbed hydrogen, is refined. New models considering the two main surface of Gamma alumina, the particle size and hydrogen adsorption are developed. This extended library of models enabled a study of the effect of particle size, morphology, electronic structure, different alumina faces, and the hydrogen coverage on the signature of XANES spectra. This first study of monometallic platinum catalysts, concludes with the discrimination of the morphologies, but especially with the quantification of the hydrogen coverage of the particles for each temperature and hydrogen pressure experimental condition. Then, models of bimetallic Platinum-tin particles supported on the (100) Gamma alumina face are performed with hydrogen adsorption. These models provide insights into the effect of tin on the morphology, the electronic properties and the interaction with the support and hydrogen of these clusters. Different compositions were explored, which provided information on the dilution of platinum by tin. The adsorption of hydrogen was then studied on Pt10Sn3 clusters supported on the (100) face of alumina. Although many parameters are not yet included in these models, the comparison to the experience already provides a first approximation to the description of bimetallic systems
APA, Harvard, Vancouver, ISO, and other styles
5

Majdabadino, Massoud. "Contribution au calcul des champs dans les fours microondes chargés." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT039H.

Full text
Abstract:
L'application des techniques microondes au chauffage et a la decongelation des produits alimentaires entraine des etudes concernant l'optimisation des performances des procedes. Nos travaux sont bases sur la modelisation du processus de decongelation dans un four a micro-onde, dans le but de faciliter la conception de l'applicateur et de comprendre le comportement du systeme. La methode choisie est une conjugaison originale du calcul analytique, via la decomposition modale et la fonction de green, et de la methode des elements finis. Apres le developpement de notre approche theorique, nous expliquons la methode numerique utilisee et sa programmation. Les resultats obtenus montrent qu'il est possible d'evaluer les caracteristiques du systeme a un instant donne et d'en prevoir l'evolution
APA, Harvard, Vancouver, ISO, and other styles
6

Ouraou, Ahmimed. "Mesure des fonctions de structure du proton par diffusion inélastique de muons sur cible d'hydrogène et tests de la chromodynamique quantique." Paris 11, 1988. http://www.theses.fr/1988PA112118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

ROGALEWICZ, GILARD FRANCOISE. "Etude des interactions entre zinc(ii) et acides amines en phase gazeuse par spectrometrie de masse et calcul quantique." Paris 11, 1999. http://www.theses.fr/1999PA112358.

Full text
Abstract:
Ce travail est une contribution a la comprehension des modes d'interaction du zinc(ii) et de sa reactivite avec les acides amines en phase gazeuse. Dans une premiere partie theorique, l'utilisation de la chimie quantique ab initio a permis la determination precise des affinites cationiques de la glycine et de petites molecules organiques representant les differents groupes fonctionnels presents dans les acides amines. A partir de ces resultats, un ordre approximatif des affinites des acides amines pour zn 2 + a pu etre predit. La deprotonation des complexes du zinc a egalement ete etudiee. Elle a permis de mesurer la capacite du zinc a acidifier ses sites de coordination, et montre que la cationisation peut inverser l'ordre des acidites de differents sites. Cette propriete du zinc a une grande importance dans son role biochimique, car elle semble responsable de son activite catalytique dans les metalloenzymes, en induisant des transferts de proton. La seconde partie de ce travail a ete consacree a l'etude de la reactivite en phase gazeuse des acides amines protones et de leurs complexes avec le zinc(ii), en exploitant la complementarite de resultats de spectrometrie de masse et de calculs ab initio. En utilisant une source d'ions a electronebulisation couplee a un triple quadripole, les fragmentations de ces especes ont pu etre etudiees. Une exploration detaillee de la surface d'energie potentielle dans le cas de la glycine a permis de determiner la structure des ions moleculaires protones ou cationises et leurs mecanismes de fragmentation. Le role de la chaine laterale a egalement ete etudie pour les autres acides amines. Nos resultats montrent, contrairement a une idee tres repandue, que les ions formes par electronebulisation peuvent ne pas correspondre aux ions precurseurs en solution. Il peut exister des rearrangements lors du passage en phase gazeuse de complexes du zinc(ii), car leur desolvatation necessite des energies elevees.
APA, Harvard, Vancouver, ISO, and other styles
8

Mappe, fogaing Irene. "Mesures par spectrométrie laser des flux de N2O et CH4 produits par les sols agricoles et viticoles." Thesis, Reims, 2013. http://www.theses.fr/2013REIMS017/document.

Full text
Abstract:
Depuis l'ère industrielle, les émissions des gaz à effet de serre, responsables du réchauffement climatique majoritairement d'origine anthropique, ne cessent d'augmenter. Parmi ces gaz, les principaux concernés sont le dioxyde de carbone (CO2), le protoxyde d'azote (N2O) et le méthane (CH4).Dans le cadre de ma thèse, nous allons nous intéresser majoritairement au N2O et aussi au CH4, qui malgré leurs plus faibles quantités dans l'atmosphère, ils ont un potentiel de réchauffement global largement supérieur à celui du CO2.Ces rejets gazeux anthropiques suffisent à provoquer des modifications climatiques à court ou moyen terme. Il est donc nécessaire de comprendre les phénomènes liés à ces émissions. De nombreux réseaux européens tels que Euroflux, CarboEuroflux, NitroEurope, CarboEurope, GHG-Europe et ICOS ont activement contribué à la quantification et la compréhension des émissions des gaz à effet de serre. Il subsiste cependant d'importantes incertitudes sur les bilans inter annuels de ces émissions. Afin de mieux assimiler la variabilité temporelle des émissions de N2O et CH4, il est indispensable de les mesurer continuellement dans le temps en fonction des écosystèmes, des types de sol, et de disposer d'instruments de mesure performants. Le GSMA grâce à ses compétences en instrumentation, a développé un spectromètre utilisant un laser à cascade quantique, QCLAS (Quantum Cascade Laser Absorption Spectrometer), dédié à la mesure in situ de flux de gaz produits par les sols. Comme dans toute expérimentation, les mesures faites par QCLAS peuvent être contaminées de bruits. Ces bruits peuvent entraîner des biais sur les valeurs de flux calculés. C'est la raison pour laquelle on s'intéressera aux méthodes d'analyses des signaux telles que les transformées en ondelettes, la décomposition en valeurs singulières, dont l'utilisation aura pour objectif d'extraire l'information utile des signaux, et permettra d'améliorer significativement le rapport signal à bruit ainsi que la dispersion des mesures. Cette thèse est organisée en trois principales parties : la première est consacrée dans un premier temps aux techniques usuelles de mesure de gaz, où nous introduirons l'instrument QCLAS. On verra ensuite trois techniques usuelles de mesure de flux à savoir : la technique des enceintes closes, l'Eddy corrélation, et le relaxed Eddy accumulation. La seconde partie portera sur les différentes procédures et méthodes de traitement pour l'optimisation de la mesure expérimentale. La dernière partie portera sur les différentes campagnes de mesures réalisées avec QCLAS. Ces applications montreront la robustesse de QCLAS ainsi que son aptitude à effectuer des mesures de terrain
Since the industrial revolution, emissions of greenhouse gases (GHG) responsible for global warming, mainly anthropogenic, continue to increase. Among these gases, the main concerned are carbon dioxide (CO2 ), nitrous oxide (N2O ) and methane (CH4 ).In my thesis, we will focus mainly on N2O and CH4 , which despite their smaller quantities in the atmosphere, have a global warming potential higher than the CO2. These anthropogenic gas emissions are sufficient to cause climatic change in the short or medium term. It is therefore necessary to understand the phenomena linked to these emissions.Many European networks such as Euroflux, CarboEuroflux, NitroEurope, CarboEurope GHG-Europe and ICOS have actively contributed to the understanding and quantification of greenhouse gases emissions. However it remains considerable uncertainty about the inter-annual balance sheets of these emissions. To better assimilate the temporal variability of N2O and CH4 emissions, it is necessary to measure continuously over time in terms of ecosystems, soil types, and to have performance measurement tools. The GSMA with its expertise in instrumentation, has developed a spectrometer using a quantum cascade laser, QCLAS (Quantum Cascade Laser Absorption Spectrometer), designed to measure in situ gas flow produced by the soil. As in any experiment, QCLAS measurements may be contaminated by noise. These noises can cause biases in fluxes determination. This is why we will focus on signal proccessing methods such as wavelet transform, singular value decomposition, with the purpose of extracting useful signal informations and significantly improving the signal to noise ratio and the dispersion of measurements. This thesis is organized in three main parts: The first part is devoted first to conventional techniques for gas measurements, where we will introduce the instrument QCLAS. Then, we will examine three usual techniques of flow measurement namely: the technique of closed chambers, Eddy correlation and relaxed Eddy accumulation. The second part will focus on the different procedures and treatment methods to optimize experimental measurements. The last part will focus on the various measurements campaigns made with QCLAS. These applications demonstrate the robustness of QCLAS as well as its ability to perform field measurements
APA, Harvard, Vancouver, ISO, and other styles
9

Virchaux, Marc. "Mesure de fonctions de structure par diffusion inelastique de muons sur cible de carbone : tests de la chromodynamique quantique." Paris 7, 1988. http://www.theses.fr/1988PA077207.

Full text
Abstract:
Cette these se rapporte a la mesure a haute statistique des fonctions de structure du nucleon par diffusion profondement ineastique de muons sur cibles de carbone (experience na#4 menee par la collaboration bdcms au cern) ainsi qu'a l'etude de ces fonctions dans le cadre de la chromodynamique quantique (qcd). Apres une introduction historique, on montre quelles predictions peuvent etre tirees de qcd traitee perturbativement, dans ce domaine. Ces predictions concernent l'evolution des fonctions de structure (en fonction du carre de la quadri-impulsion transferee) regie par les equations d'altarelli-parisi dont les differentes formes sont discutees. Apres une presentation detaillee de l'appareillage utilisee et une description des calibrations soignees qu'une telle mesure exige, les methodes (souvent originales) d'analyse des donnees enregistrees sont passees exhaustivement en revue. Les resultats sont alors presentes, compares aux mesures deja existantes, puis confrontes a la theorie. Apres avoir montre que la seule veritable prediction de qcd concerne un petit nombre de degres de liberte parmi tous ceux definissant les fonctions etudiees (a savoir la variation avec x des violations de l'invariance d'echelle), on constate que les resultats sont en excellent accord avec les predictions. Cela n'est pas le cas des resultats de mesures precedentes si bien que, pour la premiere fois en ce domaine, une determination precise et non ambigue du parametre d'echelle de masse de qcd est effectuee. Une etude similaire de donnees enregistrees par la suite sur cibles d'hydrogene renforce nos conclusions.
APA, Harvard, Vancouver, ISO, and other styles
10

Virchaux, Marc. "Mesure de fonctions de structure par diffusion inélastique de muons sur cible de carbone tests de la chromodynamique quantique /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37619160w.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Bouchendira, Rym. "Mesure de l'effet de recul de l'atome de rubidium par interférométrie atomique : nouvelle détermination de la constante de structure fine pour tester l'électrodynamique quantique." Paris 6, 2012. http://www.theses.fr/2012PA066146.

Full text
Abstract:
La constante de structure fine est une constante sans dimension qui décrit la force de l’interaction électromagnétique, une des quatre interactions fondamentales en physique. Aujourd’hui, la valeur la plus précise de est obtenue à partir de la mesure de l’anomalie du moment magnétique de l’électron et des calculs complexes de la QED. Dans ce manuscrit, nous montrons qu’il est possible à partir de la mesure de la vitesse de recul d’un atome de rubidium lorsqu’il absorbe un photon de déduire une valeur du rapport h/mRb et de. Le recul est déduit à partir de la mesure, par effet Doppler, de la variation de vitesse induite par un phénomène d’accélération cohérente. Nous utilisons pour cela la technique des oscillations de Bloch et un interféromètre atomique de Ramsey-Bordé. Nous présentons une nouvelle détermination de la constante de structure fine présentant une incertitude relative de 6, 6 × 10−10. L’incertitude est suffisamment faible pour permettre de tester, pour la première fois, la contribution des corrections dues aux hadrons et à l’interaction faible dans le calcul de l’anomalie du moment magnétique de l’électron.
APA, Harvard, Vancouver, ISO, and other styles
12

Modica, Vincent. "Développement d'une mesure quantitative de concentration d'espèces dopées par fluorescence induite par laser : application aux conditions moteur." Paris 6, 2006. http://www.theses.fr/2006PA066068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Sayrin, Clément. "Préparation et stabilisation d'un champ non classique en cavité par rétroaction quantique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00654082.

Full text
Abstract:
L'utilisation de boucles de rétroaction est au cœur de nombreux systèmes de contrôle classiques. Un contrôleur compare le signal mesuré par une sonde à la valeur de consigne. Il dirige alors un actionneur pour stabiliser le signal autour de la valeur ciblée. Étendre ces concepts au monde quantique se heurte à une difficulté fondamentale : le processus de mesure modifie inévitablement par une action en retour le système à contrôler. Dans ce mémoire, nous présentons la première réalisation d'une boucle de rétroaction quantique utilisée en continu. Le système contrôlé est un mode du champ électromagnétique piégé dans une cavité Fabry-Pérot micro-onde de très haute finesse. Des atomes de Rydberg circulaires réalisent par une succession de mesures dites faibles une mesure quantique non-destructive du nombre de photons dans le mode. Étant donnés les résultats de ces mesures, et connaissant toutes les imperfections expérimentales du système, un ordinateur de contrôle estime en temps réel la matrice densité du champ piégé dont il déduit l'amplitude de champs micro-ondes classiques à injecter permettant de stabiliser l'état du champ autour d'un état cible. Dans ce mémoire, nous montrons comment nous avons été capables de préparer sur demande et de stabiliser les états de Fock du champ contenant de 1 à 4 photons.
APA, Harvard, Vancouver, ISO, and other styles
14

Ducher, Manoj. "Fractionnement isotopique du zinc à l'équilibre par calcul ab initio." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066318/document.

Full text
Abstract:
La mesure de composition isotopique est utilisée dans l'étude du cycle biogéochimique du zinc ; cycle largement impacté par les activités anthropiques. Toutefois, l'interprétation de ces mesures réalisées sur des échantillons naturels ou synthétiques requiert la connaissance des propriétés isotopiques du zinc en condition d'équilibre (qui servent de référence) et la compréhension des mécanismes à l'origine des variations de composition isotopique. Dans ce travail, nous avons déterminé en réalisant des calculs quantiques, les constantes d'équilibre de fractionnement isotopique du zinc dans des phases solides et liquides. Nous avons mis en évidence les paramètres cristallochimiques qui contrôlent les propriétés isotopiques : la constante de force interatomique du zinc, les longueurs de liaisons Zn-premiers voisins et la charge électronique de ces premiers voisins. Nous avons réalisé un développement méthodologique permettant de calculer les propriétés isotopiques dans les phases liquides à partir de trajectoires de dynamique moléculaire à un coût réduit en temps de calcul. Nous avons montré à travers la modélisation du zinc aqueux, qu'une description raisonnable des forces de van der Waals par une fonctionnelle d'échange et de corrélation non locale est nécessaire à la stabilisation à conditions ambiantes du complexe hexaaquo zinc par rapport à d'autres complexes, réconciliant ainsi calculs et expériences. Ce travail met à disposition des études expérimentales une base de données cohérente de constantes d'équilibres isotopiques
Isotopic compositions are used to study the biogeochemical cycle of Zn, which is greatly impacted by anthropic activities. However, the interpretation of the measurements performed on natural or synthetic samples requires the knowledge of Zn isotope properties in equilibrium conditions (as reference) and the understanding of the mechanisms that are at the origin of the isotopic composition variations. In this work, we determined by performing quantum calculations, equilibrium Zn isotope fractionation constants in various phases including solids and liquids. We highlighted the crystal-chemical parameters controlling the isotopic properties : Zn interatomic force constant, Zn-first neighbours bond lengths and the electronic charge on atoms involved in the bonding. We carried out a methodological development in order to calculate isotopic properties in liquid phases from molecular dynamics trajectories at a reduced computational cost. We showed through the modelling of aqueous Zn that a reasonable description of van der Waals forces using a non-local exchange correlation functional is required to stabilise the experimentally observed hexaaquo zinc complex over other complexes at room temperature. This work provides a consistent database of equilibrium Zn isotope fractionation constants for experimental works
APA, Harvard, Vancouver, ISO, and other styles
15

Cheaytani, Jalal. "Calcul par éléments finis des pertes supplémentaires dans les motorisations performantes." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10007/document.

Full text
Abstract:
Les pertes supplémentaires en charge dans les machines électriques représentent une contribution non-négligeable aux pertes totales. Elles constituent un point clé pour une évaluation exacte de l’efficacité énergétique des moteurs. L’objectif de ce travail a donc été d’investiguer les pertes supplémentaires, de déterminer et de quantifier leurs origines tout en effectuant une modélisation précise des machines électriques étudiées. Le modèle de calcul des pertes supplémentaires, développé dans la thèse, est basé sur l’essai normalisé de bilan de puissances. L’utilisation de ce dernier nécessite des modèles de calcul des pertes fer et des pertes par courants induits harmoniques. Le choix s’est porté sur des modèles de calcul des pertes en post-traitement d’un code par éléments finis. Ces modèles ont été testés dans un premier temps sur une machine synchrone à aimants permanents (MSAP) où l’influence des harmoniques de découpage a été étudiée. Ensuite, les pertes supplémentaires ont été calculées pour un moteur de 500 kW et deux moteurs de 6 kW à barres droites et inclinées. Plusieurs études ont été effectuées sur les origines des pertes supplémentaires, comme les flux de fuite d’extrémités, les flux de fuite zig-zag ainsi que les flux de fuite d’inclinaison, et leurs contributions ont été quantifiées. La comparaison des résultats simulés avec les mesures issues des essais effectués sur la MSAP et sur les deux maquettes montre une bonne concordance. Ces résultats démontrent la capacité des modèles proposés à estimer les pertes fer, les pertes par courants induits et les pertes supplémentaires avec une bonne précision pour différents types de machines électriques et différents points de fonctionnements
The stray load losses (SLL) in electrical machines represent a non-negligible contribution to the total losses and are a key point for an accurate evaluation of the energy efficiency of the considered device. The aim of this work is to investigate the SLL, to determine and quantify their origins using precise models of the studied motors. The SLL model calculation, developed in this thesis, is based on the normalized Input-Output test. This later requires models for the core and harmonic eddy current losses. The choice has been made for calculating the losses in the post- processing step of a finite element code. These models were tested, first, on a permanent magnet synchronous machine (PMSM), where the influence of the carrier harmonics is studied. Then, the SLL were calculated for a 500 kW induction motor and for two 6 kW motors with skewed and non-skewed rotor bars. Several studies have been performed to study the origins of the SLL such as the end-region leakage fluxes, the zig-zag leakage fluxes and the skew leakage fluxes, and quantify their contributions. The comparison, between the simulation results and those measured on the PMSM and both 6 kW motors, shows a good agreement. This demonstrates the ability of an accurate estimation of the core, eddy currents and SLL losses using the proposed post-processing calculation method, for different types of electrical machines under different operating conditions
APA, Harvard, Vancouver, ISO, and other styles
16

Favre, Jacques. "Etude des défauts d'irradiation par mesure in-situ de l'effet Hall dans les semi-conducteurs à faible largeur de bande interdite." Palaiseau, Ecole polytechnique, 1989. http://www.theses.fr/1989EPXX0004.

Full text
Abstract:
Des échantillons semi-conducteurs des groupes ii-vi, iii-v et iv-vi ont été irradiés a 20k, dans de l'hydrogène liquide, avec des électrons de grandes énergies comprises entre 0,7 et 2,7 mev. Les mesures in situ du coefficient de hall r#h et de la résistivité montrent que l'irradiation introduit un dopage de type p dans les matériaux du groupe iii-v et de type n dans ceux des groupes ii-vi et iv-vi. Une transition semi-conducteur-isolant accompagne l'entrée du potentiel chimique dans la bande interdite. Dans les matériaux du groupe iv-vi, il apparait un état métastable caractéristique de la forte compensation. Les échantillons de tellurure ou séléniure de plomb initialement de type p présentent les deux transitions successives semi-conducteur-isolant-semi-conducteur, ainsi qu'une inversion de type des porteurs majoritaires. L'analyse, suivant un modèle de cascade, de la vitesse de variation, en fluence, de la concentration de porteurs libres permet de situer les niveaux d'états localisés dans la bande interdite ou dans la bande de conduction : 1) dans les matériaux du groupe iv-vi, ces résultats sont confirmés par la saturation de la concentration électronique à fluence élevée, ainsi que par l'étude de la guérison des défauts introduits par l'irradiation : 2) dans les alliages hg#1##xcd#xte, l'analyse de l'accroissement en fluence de la concentration des électrons indique que seules les paires de Frenkel de mercure sont électriquement actives. La position énergétique du niveau d'états localises associe est évaluée, en fonction de la teneur en cadmium de l'alliage, à partir de la valeur limite de la concentration de porteurs
APA, Harvard, Vancouver, ISO, and other styles
17

Maioli, Paolo. "Détection non destructive d'un atome unique par interaction dispersive avec un champ mésoscopique dans une cavité." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00007691.

Full text
Abstract:
La détection des états d'un qubit est un élément essentiel dans la réalisation d'expériences d'information quantique. Dans le système étudié, le bit quantique est codé dans les états d'énergie interne d'un atome de Rydberg circulaire à deux niveaux. Dans ce mémoire nous présentons une nouvelle technique de détection des atomes de Rydberg circulaires basée sur l'interaction dispersive d'un atome avec un champ micro-onde mésoscopique à l'intérieur d'une cavité supraconductrice de très grand facteur de qualité. L'indice de réfraction de l'atome, dépendant de son niveau d'énergie interne, déphase le champ micro-onde, et une procédure de détection homodyne transforme l'information codée dans la phase du champ en une information d'intensité. L'intensité finale du champ est lue par un échantillon mésoscopique d'atomes. Il s'agit d'une technique de détection non destructive, puisque le processus de détection n'ionise pas l'atome, mais le projette simplement dans l'état mesuré. De plus, le processus de détection intrique l'état interne d'un atome au niveau d'excitation d'un ensemble de plusieurs atomes, permettant de créer des superpositions cohérentes d'états atomiques mésoscopiques et ouvrant de nouvelles perspectives pour des tests de décohérence Nous présentons le principe de la technique et de nombreux résultats expérimentaux, ainsi que de possibles schémas d'application.
APA, Harvard, Vancouver, ISO, and other styles
18

Ouraou, Ahmimed. "Mesure des fonctions de structure du proton par diffusion inélastique de muons sur cible d'hydrogène et tests de la chromodynamique quantique." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376172402.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Giroud, Thomas. "Mesure et calcul des contraintes résiduelles dans les pièces injectées en thermoplastiques avec et sans fibres de renfort." Phd thesis, École Nationale Supérieure des Mines de Paris, 2001. http://tel.archives-ouvertes.fr/tel-00392610.

Full text
Abstract:
Dans un premier temps, les phénomènes à l'origine des contraintes résiduelles en injection de thermoplastique sont décrits, avec les spécificités liées aux polymères renforcés de fibres. Le refroidissement hétérogène associé à une variation de comportement mécanique conduit aux contraintes d'origine thermique, auxquelles il faut ajouter les contraintes dues à la pression dans la phase fluide figée par la solidification. Les fibres de renfort introduisent une hétérogénéité et une anisotropie de comportement mécanique et de retrait. Dans un deuxième temps, une méthode de mesure des contraintes résiduelles basée sur l'enlèvement de couches et la mesure des moments de flexion est présentée. Elle permet la mesure des contraintes résiduelles pour des matériaux anisotropes comme les thermoplastiques renforcés de fibres. En général, on obtient des contraintes de traction en cœur et de compression en peau. L'effet du fraisage pour enlever les couches est évalué. La pression et le temps de maintien, la température de régulation du moule, le taux de fibres influencent les profils de contraintes.
APA, Harvard, Vancouver, ISO, and other styles
20

Hemadou-Artigues, Claude. "Calcul des charges en vol dues aux perturbations atmosphériques par la méthode Statistical Discrete Gust." Toulouse, INSA, 1992. http://www.theses.fr/1992ISAT0021.

Full text
Abstract:
La methode statistical discrete gust, proposee par son auteur comme methode de remplacement des deux criteres actuels de calcul des charges structurales induites par la rafale et la turbulence atmospheriques sur un avion, s'inscrit dans un contexte d'uniformisation et d'harmonisation des textes reglementaires americains et europeens. Apres exploitation de l'outil industriel developpe a l'aerospatiale, les resultats de la methode statistical discrete gust ont montre qu'elle presentait de nombreux inconvenients par rapport au modele de turbulence continue existant, autant du point de vue du temps de calcul necessaire a sa resolution que des charges obtenues. Le role unificateur de la methode statistical discrete gust n'a plus cours, a l'heure actuelle. Aussi l'aerospatiale se montre opposee a son introduction dans la reglementation
APA, Harvard, Vancouver, ISO, and other styles
21

Giasson, Luc. "Développement des méthodes de calcul et de mesure de la courbe J-R d'un composite polymère particulaire propergol / : par Luc Giasson." Thèse, [Chicoutimi : Rimouski : Université du Québec à Chicoutimi] Université du Québec à Rimouski, 2003. http://theses.uqac.ca.

Full text
Abstract:
Thèse (M.Eng.) -- Université du Québec à Chicoutimi, programme extensionné à l'Université du Québec à Rimouski, 2003.
Bibliogr.: f. 107-112. Document électronique également accessible en format PDF. CaQCU
APA, Harvard, Vancouver, ISO, and other styles
22

Bardet, Ivan. "Émergence de dynamiques classiques en probabilité quantique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1071/document.

Full text
Abstract:
Cette thèse se consacre à l'étude de certaines passerelles existantes entre les probabilités dîtes classiques et la théorie des systèmes quantiques ouverts. Le but de la première partie de ce manuscrit est d'étudier l'émergence de bruits classiques dans l'équation de Langevin quantique. Cette équation sert à modéliser l'action d'un bain quantique sur un petit système dans l'approximation markovienne. L'analogue en temps discret de cette équation est décrit par le schéma des interactions quantiques répétées étudier par Stéphane Attal et Yan Pautrat. Dans des travaux antérieurs, Attal et ses collaborateurs montrent que les bruits classiques naturels apparaissant dans ce cadre sont les variables aléatoires obtuses, dont ils étudient la structure. Mais sont-ils les seuls bruits classiques pouvant émerger, et quand est-il dans le cas général ? De même, en temps continu, il était plus ou moins admis que les seuls bruits classiques apparaissant dans l'équation de Langevin quantique sont les processus de Poisson et le mouvement brownien. Ma contribution dans ce manuscrit consiste à définir une algèbre de von Neumann pertinente sur l'environnement, dite algèbre du bruit, qui encode la structure du bruit. Elle est commutative si et seulement si le bruit est classique ; dans ce cas on confirme les hypothèses précédentes sur sa nature. Dans le cas général, elle permet de montrer une décomposition de l'environnement entre une partie classique maximale et une partie purement quantique. Dans la deuxième partie, nous nous consacrons à l'étude de processus stochastiques classiques apparaissant au sein du système. La dynamique du système est quantique, mais il existe une observable dont l'évolution est classique. Cela se fait naturellement lorsque le semi-groupe de Markov quantique laisse invariante une sous-algèbre de von Neumann commutative et maximale. Nous développons une méthode pour générer de tels semi-groupes, en nous appuyons sur une définition de Stéphane Attal de certaines dilatations d'opérateurs de Markov classiques. Nous montrons ainsi que les processus de Lévy sur Rn admettent des extensions quantiques. Nous étudions ensuite une classe de processus classiques liés aux marches quantiques ouvertes. De tels processus apparaissent lorsque cette fois l'algèbre invariante est le produit tensoriel de deux algèbres, l'une non-commutative et l'autre commutative. Par conséquent, bien que comportant l'aspect trajectoriel propre au processus classiques, de telles marches aléatoires sont hautement quantiques. Nous présentons dans ce cadre une approche variationnelle du problème de Dirichlet. Finalement, la dernière partie est dédiée à l'étude d'un processus physique appelé décohérence induite par l'environnement. Cette notion est fondamentale, puisqu'elle apporte une explication dynamique à l'absence, dans notre vie de tous les jours, de phénomènes quantiques. Nous montrons qu'une telle décohérence a toujours lieu pour des systèmes ouverts décrits par des algèbres de von Neumann finies. Nous initions ensuite une étude innovante sur la vitesse de décohérence, basée sur des inégalités fonctionnelles non-commutatives, qui permet de mettre en avant le rôle de l'intrication quantique dans la décohérence
This thesis focus on the study of several bridges that exist between classical probabilities and open quantum systems theory. In the first part of the thesis, we consider open quantum systems with classical environment. Thus the environment acts as a classical noise so that the evolution of the system results in a mixing of unitary dynamics. My work consisted in defining a relevant von Neumann algebra on the environment which, in this situation, is commutative. In the general case, we show that this algebra leads to a decomposition of the environment between a classical and a quantum part. In the second part, we forget for a time the environment in order to focus on the emergence of classical stochastic processes inside the system. This situation appears when the quantum Markov semigroup leaves an invariant commutative maximal von Neumann algebra. First, we develop a recipe in order to generate such semigroup, which emphasizes the role of a certain kind of classical dilation. We apply the recipe to prove the existence of a quantum extension for L\'evy processes. Then in the same part of the thesis we study a special kind of classical dynamics that can emerge on a bipartite quantum system, call \emph. Such walks are stochastic but displayed strong quantum behavior. We define a Dirichlet problem associated to these walks and solve it using a variational approch and non-commutative Dirichlet forms. Finally, the last part is dedicated to the study of Environment Induced Decoherence for quantum Markov semigroup on finite von Neumann algebra. We prove that such decoherence always occurs when the semigroup has a faithful invariant state. Then we focus on the fundamental problem of estimating the time of the process. To this end we define adapted non-commutative functional inequalities. The central interest of these definitions is to take into account entanglement effects, which are expected to lower the speed of decoherence
APA, Harvard, Vancouver, ISO, and other styles
23

Arcizet, Olivier. "Mesure optique ultrasensible et refroidissement par pression de radiation d´un micro-résonateur mécanique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00175959.

Full text
Abstract:
On présente une expérience de mesure optique ultrasensible des vibrations mécaniques d'un micro-miroir inséré dans une cavité Fabry-Perot de grande finesse. Le micro-miroir est constitué d'un traitement optique présentant peu de pertes déposé à la surface d'un résonateur de taille sub-millimétrique en silicium. On a mesuré le bruit thermique du résonateur sur une large plage de fréquences et déterminé les caractéristiques de ses modes propres de vibration: fréquence, facteur de qualité, masse effective, structure spatiale. Ces modes ont des fréquences de résonance élevées (1 MHz) et des faibles masses effectives (100 µg). On a appliqué une force électrostatique sur le micro-résonateur, ce qui a permis de tester sa réponse mécanique et de le refroidir par contrôle actif en mettant en oeuvre un processus de friction froide.

On a également mis en évidence un effet d'auto-refroidissement dû à la modification de la dynamique par la pression de radiation dans une cavité désaccordée. On a observé selon le désaccord un refroidissement et un chauffage du résonateur, qui conduit à forte puissance à une instabilité dynamique.

Ces techniques de refroidissement combinées à de la cryogénie passive devraient permettre de refroidir suffisamment le micro-résonateur pour observer son état quantique fondamental.

On présente enfin une étude expérimentale de l'effet photothermique et une mesure des dilatations induites par l'échauffement lié à l'absorption de lumière dans les traitements optiques.
APA, Harvard, Vancouver, ISO, and other styles
24

Platzer, Auriane. "Mécanique numérique en grandes transformations pilotée par les données : De la génération de données sur mesure à une stratégie adaptative de calcul multiéchelle." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0041.

Full text
Abstract:
La mécanique numérique est aujourd'hui au cœur d'un important flux de données. D'un côté, l'identification des lois de comportement utilisées dans les simulations éléments finis repose sur de riches données expérimentales (mesures de champs). D'un autre côté, les calculs multiéchelles fournissent un très grand nombre de valeurs discrètes de champs de déplacement, déformation et contrainte, dont on extrait des connaissances sur la réponse effective du matériau. Entre ces données, la loi de comportement apparaît comme un goulot contraignant le champ des possibles. En rupture avec cette approche, Kirchdoerfer et Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) ont proposé un paradigme de mécanique numérique sans modèle, appelé data-driven computational mechanics. La réponse matériau y est uniquement représentée par une base de données (couples déformation-contrainte). Le problème mécanique est alors reformulé comme une mini- misation sous contrainte de la distance entre (i) l'état déformation-contrainte mécanique de la structure, et (ii) la base de données matériau. Ces travaux de thèse se concentrent sur la question de la couverture de l'espace par les données matériau, notamment dans le cadre des grandes transformations. Ainsi, l'approche data-driven est d'abord étendue à la mécanique non linéaire : nous considérons deux formulations différentes et proposons pour chacune d'elles un solveur éléments finis. Nous explorons ensuite la génération de base de données sur mesure, grâce à une méthode d'échantillonnage mécaniquement motivée. Nous évaluons l'approche au moyen d'analyses éléments finis de structures complexes en grandes déformations. Enfin, nous proposons une première stratégie de calcul multiéchelle pilotée par les données, qui permet d'enrichir de façon adaptative la base de données matériau
Computational mechanics is a field in which a large amount of data is both consumed and produced. On the one hand, the recent developments of experimental measurement techniques have provided rich data for the identification process of constitutive models used in finite element simulations. On the other hand, multiscale analysis produces a huge amount of discrete values of displacements, strains and stresses from which knowledge is extracted on the overall material behavior. The constitutive model then acts as a bottleneck between upstream and downstream material data. In contrast, Kirchdoerfer and Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) proposed a model-free computing paradigm, called data-driven computational mechanics. The material response is then only represented by a database of raw material data (strain-stress pairs). The boundary value problem is thus reformulated as a constrained distance minimization between (i) the mechanical strain-stress state of the body, and (ii) the material database. In this thesis, we investigate the question of material data coverage, especially in the finite strain framework. The data-driven approach is first extended to a geometrically nonlinear setting: two alternative formulations are considered and a finite element solver is proposed for both. Second, we explore the generation of tailored databases using a mechanically meaningful sampling method. The approach is assessed by means of finite element analyses of complex structures exhibiting large deformations. Finally, we propose a prototype multiscale data-driven solver, in which the material database is adaptively enriched
APA, Harvard, Vancouver, ISO, and other styles
25

Lachance-Quirion, Dany. "Étude par transport électrique de points quantiques colloïdaux." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29510/29510.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Van, Schenk Brill Kees. "Réhabiliter la Résonance Magnétique Nucléaire comme réalisation physique pour des ordinateurs quantiques et Résoudre des équations de Pell simultanées par des techniques de calcul quantique." Phd thesis, Université de Strasbourg, 2010. http://tel.archives-ouvertes.fr/tel-00534864.

Full text
Abstract:
Cette thèse contient deux parties. Je décris une approche pour construire une réalisation physique d'un ordinateur quantique par Résonance Magnétique Nucléaire (RMN). Je propose un nouveau cadre pour la RMN dans les réalisations physiques d'un ordinateur quantique. Je construis une description de la RMN à partir de la mécanique quantique avec laquelle je peux construire les opérateurs élémentaires essentiels pour le calcul quantique. Je décris les expériences pour construire ces opérateurs. Je propose un algorithme quantique en temps polynomial pour résoudre des équations de Pell simultanées comme extension de l'algorithme de Hallgren pour des équations de Pell simples.
APA, Harvard, Vancouver, ISO, and other styles
27

Golebiowski, Jérôme. "Modélisation d'extractants spécifiques de cations métalliques par des méthodes ab initia et hybrides mécanique quantique / mécanique moléculaire." Nancy 1, 2000. http://www.theses.fr/2000NAN10120.

Full text
Abstract:
Jusqu'à présent, les molécules les plus efficaces pour l'extraction sélective du césium d'effluents radioactifs acides se trouvent dans la famille des calix[4]arènes portant des groupements éther couronne. Des études théoriques par dynamique moléculaire utilisant des potentiels additifs ont permis d'identifier certains phénomènes (préorganisation, effet de la solvatation,. . . ) influençant la sélectivité dans la série des cations alcalins. Cependant, les effets de polarisation électronique n'ont pas pu être pris en compte avec ces potentiels. Afin de quantifier le plus précisément possible les effets non additifs, nous, proposons une étude par calculs ab initio de tels systèmes. Dans la première partie, l'interaction intrinsèque entre les cations et les différentes parties du macrocycle calixarène couronne a été analysée au travers d'une étude approfondie d'éthers couronne de la famille du 21C7 et d'un calixarène de base, le dérivé tétraméthoxy dans sa conformation 1,3-alternée. La comparaison des résultats avec ceux ,obtenus sur le calixarène couronne6 met aussi en évidence pour ce dernier la présence d'interactions cation-TC dans le complexe du césium, contrairement au complexe du cation sodium. Le comportement dynamique est ensuite étudié dans la seconde partie par la mise en oeuvre de simulations de dynamique moléculaire par potentiel hybride ,mécanique quantique / mécanique moléculaire. L'analyse des trajectoires permet de décomposer l'énergie d'interaction entre les cations alcalins et le calixarène-couronne. Les charges atomiques des atomes d' oxygène et dles atomes de carbone de la cavité aromatique sont analysées dans les différents complexes et permettent d'estimer qualitativement la polarisation électronique du ligand et l'influence du contre-ion nitrate lors des trajectoires clans les solvants eau, acétonitrile et chloroforme. Ces études ont mis l'accent sur la nécessité de la prise en compte explicite d'effets non additifs dans les phénomènes de complexation ion - macrocycle pour une représentation précise des effets électroniques et peuvent être à la base de la mise au point de champs de forces classiques utilisant des potentiels polarisables.
APA, Harvard, Vancouver, ISO, and other styles
28

Farah, Jad. "Amélioration des mesures anthroporadiamétriques personnalisées assistées par calcul Monte Carlo : optimisation des temps de calculs et méthodologie de mesure pour l'établissement de la répartition d'activité." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00638153.

Full text
Abstract:
Afin d'optimiser la surveillance des travailleuses du nucléaire par anthroporadiamétrie, il est nécessaire de corriger les coefficients d'étalonnage obtenus à l'aide du fantôme physique masculin Livermore. Pour ce faire, des étalonnages numériques basés sur l'utilisation des calculs Monte Carlo associés à des fantômes numériques ont été utilisés. De tels étalonnages nécessitent d'une part le développement de fantômes représentatifs des tailles et des morphologies les plus communes et d'autre part des simulations Monte Carlo rapides et fiables. Une bibliothèque de fantômes thoraciques féminins a ainsi été développée en ajustant la masse des organes internes et de la poitrine suivant la taille et les recommandations de la chirurgie plastique. Par la suite, la bibliothèque a été utilisée pour étalonner le système de comptage du Secteur d'Analyses Médicales d'AREVA NC La Hague. De plus, une équation décrivant la variation de l'efficacité de comptage en fonction de l'énergie et de la morphologie a été développée. Enfin, des recommandations ont été données pour corriger les coefficients d'étalonnage du personnel féminin en fonction de la taille et de la poitrine. Enfin, pour accélérer les simulations, des méthodes de réduction de variance ainsi que des opérations de simplification de la géométrie ont été considérées.Par ailleurs, pour l'étude des cas de contamination complexes, il est proposé de remonter à la cartographie d'activité en associant aux mesures anthroporadiamétriques le calcul Monte Carlo. La méthode développée consiste à réaliser plusieurs mesures spectrométriques avec différents positionnements des détecteurs. Ensuite, il s'agit de séparer la contribution de chaque organe contaminé au comptage grâce au calcul Monte Carlo. L'ensemble des mesures réalisées au LEDI, au CIEMAT et au KIT ont démontré l'intérêt de cette méthode et l'apport des simulations Monte Carlo pour une analyse plus précise des mesures in vivo, permettant ainsi de déterminer la répartition de l'activité à la suite d'une contamination interne.
APA, Harvard, Vancouver, ISO, and other styles
29

Farah, Jad. "Amélioration des mesures anthroporadiamétriques personnalisées assistées par calcul Monte Carlo : optimisation des temps de calculs et méthodologie de mesure pour l’établissement de la répartition d’activité." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112183/document.

Full text
Abstract:
Afin d’optimiser la surveillance des travailleuses du nucléaire par anthroporadiamétrie, il est nécessaire de corriger les coefficients d’étalonnage obtenus à l’aide du fantôme physique masculin Livermore. Pour ce faire, des étalonnages numériques basés sur l’utilisation des calculs Monte Carlo associés à des fantômes numériques ont été utilisés. De tels étalonnages nécessitent d’une part le développement de fantômes représentatifs des tailles et des morphologies les plus communes et d’autre part des simulations Monte Carlo rapides et fiables. Une bibliothèque de fantômes thoraciques féminins a ainsi été développée en ajustant la masse des organes internes et de la poitrine suivant la taille et les recommandations de la chirurgie plastique. Par la suite, la bibliothèque a été utilisée pour étalonner le système de comptage du Secteur d’Analyses Médicales d’AREVA NC La Hague. De plus, une équation décrivant la variation de l’efficacité de comptage en fonction de l’énergie et de la morphologie a été développée. Enfin, des recommandations ont été données pour corriger les coefficients d’étalonnage du personnel féminin en fonction de la taille et de la poitrine. Enfin, pour accélérer les simulations, des méthodes de réduction de variance ainsi que des opérations de simplification de la géométrie ont été considérées.Par ailleurs, pour l’étude des cas de contamination complexes, il est proposé de remonter à la cartographie d’activité en associant aux mesures anthroporadiamétriques le calcul Monte Carlo. La méthode développée consiste à réaliser plusieurs mesures spectrométriques avec différents positionnements des détecteurs. Ensuite, il s’agit de séparer la contribution de chaque organe contaminé au comptage grâce au calcul Monte Carlo. L’ensemble des mesures réalisées au LEDI, au CIEMAT et au KIT ont démontré l’intérêt de cette méthode et l’apport des simulations Monte Carlo pour une analyse plus précise des mesures in vivo, permettant ainsi de déterminer la répartition de l’activité à la suite d’une contamination interne
To optimize the monitoring of female workers using in vivo spectrometry measurements, it is necessary to correct the typical calibration coefficients obtained with the Livermore male physical phantom. To do so, numerical calibrations based on the use of Monte Carlo simulations combined with anthropomorphic 3D phantoms were used. Such computational calibrations require on the one hand the development of representative female phantoms of different size and morphologies and on the other hand rapid and reliable Monte Carlo calculations. A library of female torso models was hence developed by fitting the weight of internal organs and breasts according to the body height and to relevant plastic surgery recommendations. This library was next used to realize a numerical calibration of the AREVA NC La Hague in vivo counting installation. Moreover, the morphology-induced counting efficiency variations with energy were put into equation and recommendations were given to correct the typical calibration coefficients for any monitored female worker as a function of body height and breast size. Meanwhile, variance reduction techniques and geometry simplification operations were considered to accelerate simulations.Furthermore, to determine the activity mapping in the case of complex contaminations, a method that combines Monte Carlo simulations with in vivo measurements was developed. This method consists of realizing several spectrometry measurements with different detector positioning. Next, the contribution of each contaminated organ to the count is assessed from Monte Carlo calculations. The in vivo measurements realized at LEDI, CIEMAT and KIT have demonstrated the effectiveness of the method and highlighted the valuable contribution of Monte Carlo simulations for a more detailed analysis of spectrometry measurements. Thus, a more precise estimate of the activity distribution is given in the case of an internal contamination
APA, Harvard, Vancouver, ISO, and other styles
30

Nasserdine, Mohamed M'Madi. "Mesure de la distribution du champ en chambre réverbérante par la théorie des perturbations : application à l'étude des directions d'arrivée." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1026/document.

Full text
Abstract:
Ce travail porte sur les techniques de mesure des champs en cavité électromagnétique et plus précisément en chambre réverbérante. En raison de la perturbation induite sur la distribution du champ au sein d'une cavité résonante par la présence d'un objet, les techniques de mesure de champ classiques utilisant une antenne souffrent d'une précision limitée. Par conséquent, nous proposons une nouvelle technique de mesure de la distribution du champ électrique basée sur la théorie des perturbations. Elle consiste à mesurer les variations de la fréquence de résonance de la cavité pour chaque position de l'élément perturbateur introduit dans la cavité, puis à en déduire la variation de l'amplitude du champ électrique. Le choix de la forme de l'objet perturbateur, de ses dimensions et de son matériau constitutif est effectué à partir des résultats des simulations et des mesures dans un cas canonique, de façon à adapter le banc de mesure au cas étudié. Cette technique de mesure est ensuite appliquée avec succès au cas d'une chambre réverbérante équipée d'un brasseur de modes, ainsi qu'à des mesures de champ à l'intérieur d'un boitier inséré dans la cavité. Cette approche a permis, via un post-traitement basé sur l'utilisation de l'algorithme MUSIC, de déterminer avec une grande précision les directions d'arrivée des champs dans la chambre réverbérante
This work deals with field measurement techniques in large electromagnetic enclosures namely reverberation chambers. Due to the perturbation of the field distribution within a resonant cavity due to the presence of an introduced object, conventional field measurement techniques employing an antenna suffer from a limited accuracy. Therefore we propose a new measurement technique of the electric field distribution based on the perturbation theory; it consists of a measure of the cavity resonant frequency variation when displacing a small perturbing object within the cavity, and leads to the electric field distribution. The choice of the perturbing object shape, dimension and material is discussed with the help of simulation and measurement results in a canonical case in order to adapt the measurement setup to the studied case. This technique is then successfully employed in a reverberation chamber equipped with a mode stirrer, as well as to measure the field within a metallic box placed in the cavity. Using a post-processing based on MUSIC algorithm, this approach has permitted to determine accurately the field directions-of-arrival in the reverberation chamber
APA, Harvard, Vancouver, ISO, and other styles
31

Jacob, Dominique R. "Principe de la mesure simultanée de distance et d'épaisseur de dépôts métalliques par capteur à courants de Foucault : conception et réalisation d'un dispositif." Paris 11, 1988. http://www.theses.fr/1988PA112148.

Full text
Abstract:
Cette thèse présente l'étude d'un dispositif, utilisant un capteur à courants de Foucault, pour la mesure d'épaisseur, métalliques déposés sur un substrat métallique. Le capteur permet la mesure, je l'épaisseur de revêtement sans positionnement précis, du capteur par rapport à la tôle. Une modélisation prenant en compte la répartition du champ dans l’espace ainsi que les caractéristiques physiques des matériaux (résistivité, perméabilité) a été effectuée. Ce modèle a été validé expérimentalement. Il permet le dimensionnement du capteur que la prise en compte, de la température, des matériaux. Une application concernant la mesure d épaisseur des revêtements; de zinc sur un rôle d'acier est exposée. Les informations du capteur sont numérisées et traitée par un micro-ordinateur pour déduire simultanément la, distance du capteur à la tôle revêtue et l'épaisseur du revêtement
This thesis presents the design of a system, using an eddy current sensor, for measuring the thickness of metallic deposits on metallic sheets. The sensor, allows the thickness measurement without an accurate position of sensor and the sheet. A model which take account of the distribution of the flux in the space and of the physical properties (resistivity, permeability) of the materials has been developed. This model has been experimentally validated. It allows to take account of the temperature and to calculate the dimensions of the sensor. An application concerning the thickness measurement of zinc deposit on a steel sheet is exposed. The informations of the sensor are digitalised and processed by a microcomputer for calculating simultaneously the distance, between the sensor and the covered sheet, and the thickness of the deposit
APA, Harvard, Vancouver, ISO, and other styles
32

Marchand, Dominique. "Calcul des corrections radiatives à la diffusion compton virtuelle. Mesure absolue de l'énergie du faisceau d'électrons de Jefferson Lab. (Hall A) par une méthode magnétique : projet ARC." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 1998. http://tel.archives-ouvertes.fr/tel-00298382.

Full text
Abstract:
Cette thèse, articulée en deux parties, présente le calcul des corrections radiatives à la diffusion Compton virtuelle (VCS) et décrit la méthode magnétique (projet ARC) adoptée dans le Hall A à Jefferson Lab. pour mesurer l'énergie absolue du faisceau d'électrons avec une précision de 10-4.

Les expériences de diffusion Compton virtuelle nous permettent d'accéder à de nouvelles observables du proton : les polarisabilités généralisées. L'extraction de ces polarisabilités s'effectuant par comparaison des sections efficaces expérimentale et théorique, il est indispensable de contrôler avec une grande précision les erreurs systématiques et les effets radiatifs liés à l'expérience. Un calcul complet des corrections radiatives internes a donc été mené dans le cadre de l'électrodynamique quantique. Ce calcul inédit tient compte de tous les graphes contribuant à l'ordre alpha^4 au niveau de la section efficace à l'exception de ceux mettant en jeu l'échange de deux photons entre les bras leptonique et hadronique ainsi que ceux relatifs au rayonnement du proton. La méthode de régularisation dimensionnelle a été employée pour le traitement des divergences ultraviolettes et infrarouges. Après utilisation d'une procédure d'addition-soustraction, la compensation infrarouge est vérifiée. Nous avons privilégié le calcul analytique pour les intégrales les plus internes et avons eu ensuite recours à un traitement numérique spécifique. Les résultats présentés correspondent aux différentes cinématiques de l'expérience VCS qui s'est déroulée à TJNAF en 1998.

La méthode de mesure absolue d'énergie que nous avons développée s'appuie sur la déviation magnétique, constituée de huit dipôles identiques, conduisant le faisceau de l'accélérateur au hall A expérimental. L'énergie est déterminée à partir de la mesure absolue de l'angle de déviation du faisceau dans le plan horizontal et de la mesure absolue de l'intégrale de champ magnétique le long de la déviation magnétique. La mesure de l'angle de déviation se décompose en une mesure ponctuelle d'un angle de référence (par une méthode optique d'autocollimation) et en une mesure « en ligne » des déviations angulaires du faisceau par rapport à cet angle de référence (utilisation de quatre profileurs à fil : une paire en amont et une paire en aval de l'arc). L'intégrale de champ absolue le long de la déviation résulte, elle, de la mesure ponctuelle de la somme des intégrales de champ relatives des huit dipôles de l'arc par rapport à un aimant de référence et de la mesure « en ligne » de l'intégrale de champ de cet aimant de référence alimenté en série avec les huit autres de l'arc.
APA, Harvard, Vancouver, ISO, and other styles
33

Marchand, Dominique. "Calcul des corrections radiatives a la diffusion compton virtuelle. Mesure absolue de l'energie du faisceau d'electrons de jefferson lab. (hall a) par une methode magnetique : projet arc." Clermont-Ferrand 2, 1998. https://tel.archives-ouvertes.fr/tel-00298382.

Full text
Abstract:
Cette these, articulee en deux parties, presente le calcul des corrections radiatives a la diffusion compton virtuelle (vcs) et decrit la methode magnetique (projet arc) adoptee dans le hall a a jefferson lab. Pour mesurer l'energie du faisceau d'electrons avec une precision de 10##4. Les experiences de diffusion compton virtuelle nous permettent d'acceder a de nouvelles observables du proton : les polarisabilites generalisees. L'extraction de ces polarisabilites s'effectuant par comparaison des sections efficaces experimentale et theorique, il est indispensable de controler avec une grande precision les erreurs systematiques et les effets radiatifs lies a l'experience. Un calcul complet des corrections radiatives internes a donc ete mene dans le cadre de l'electrodynamique quantique. Ce calcul inedit tient compte de tous les graphes contribuant a l'ordre #4 au niveau de la section efficace a l'exception de ceux mettant en jeu l'echange de deux photons entre les bras leptonique et hadronique ainsi que ceux relatifs au rayonnement du proton. La methode de regularisation dimensionnelle a ete employee pour le traitement des divergences ultraviolettes et infrarouges. Apres utilisation d'une procedure d'addition-soustraction, la compensation infrarouge est verifiee. Nous avons privilegie le calcul analytique pour les integrales les plus internes et avons eu ensuite recours a un traitement numerique specifique. Les resultats presentes correspondent aux differentes cinematiques de l'experience vcs qui s'est deroulee a tjnaf. La methode de mesure absolue d'energie que nous avons developpee s'appuie sur la deviation magnetique, constituee de huit dipoles identiques, conduisant le faisceau au hall a. L'energie est determinee a partir de la mesure de l'angle de deviation du faisceau et de la mesure de l'integrale de champ magnetique le long de la deviation. La mesure de l'angle de deviation se decompose en une mesure ponctuelle d'un angle de reference (par autocollimation) et en une mesure en ligne des deviations du faisceau par rapport a cet angle de reference (utilisation de quatre profileurs a fil). L'integrale de champ absolue le long de la deviation resulte, elle, de la mesure ponctuelle de l'integrale de champ relative des huit dipoles par rapport a un aimant de reference et de la mesure en ligne de l'integrale de champ de cet aimant.
APA, Harvard, Vancouver, ISO, and other styles
34

BARRE, Olivier. "Contribution à l'étude des formulations de calcul de la force magnétique en magnétostatique, approche numérique et validation expérimentale." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2003. http://tel.archives-ouvertes.fr/tel-00005921.

Full text
Abstract:
Ce mémoire présente une étude des méthodes de calcul de la force engendrée par les champs magnétiques sur les matériaux linéaires en magnétostatique et se propose d'en comparer les performances sur les matériaux de faibles perméabilité. Les démonstrations de ces méthodes sont abordées et les hypothèses mises en évidence. Pour discriminer les formulations, courants équivalents, masses magnétiques équivalentes, tenseur de Maxwell, dérivée de l'énergie, une expérience et les mesures associées sont conçues par calcul de champ. Un matériau spécifique, de faible module d'élasticité est également synthétisé. Plongé dans un champ magnétique, un volume de test de ce matériau se déforme. Chaque formulation permet d'obtenir une répartition des contraintes sur le volume. Pour chaque répartition, la déformation du volume est calculée. Chaque déformation est comparée à celle qui est obtenue expérimentalement. Il apparaît que les méthodes énergétiques sont les plus précises.
APA, Harvard, Vancouver, ISO, and other styles
35

Métillon, Valentin. "Tomographie par trajectoires d'états délocalisés du champ micro-onde de deux cavités." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEE051.

Full text
Abstract:
La reconstruction d'états quantiques, ou tomographie, joue un rôle central dans les technologies quantiques, afin de caractériser les opérations effectuées et d'extraire de l'information sur les états résultats de traitements d'information quantique. Les méthodes répandues de tomographie reposent généralement sur des mesures idéales, effectuées une seule fois sur chaque préparation de l'état d'intérêt. Dans ce travail, nous utilisons une nouvelle méthode, appelée tomographie par trajectoires, qui consiste à enregistrer, pour chaque réalisation de l'état, la trajectoire quantique suivie par le système à l'aide d'une série de mesures successives du système, en présence d'imperfections expérimentales et de décohérence. On extrait alors plus d'information sur l'état à reconstruire et on est capable, à partir d'un ensemble de mesures accessibles données, de créer des mesures plus générales. À l'aide des techniques de l'électrodynamique quantique en cavité, nous avons préparé des états intriqués de photons micro-onde délocalisés sur deux modes distants. Nous avons ensuite reconstruit ces états par tomographie par trajectoires, dans un espace de Hilbert de grande dimension. Nous montrons que cette méthode permet de reconstruire l'état, de développer des stratégies de mesure adaptées pour accélérer l'extraction d'information sur les cohérences quantiques d'intérêt et qu'elle fournit une estimation de l'incertitude sur les coefficients de la matrice densité reconstruite
Quantum state estimation, or tomography, is a key component of quantum technologies, allowing to characterise quantum operations and to extract information on the results of quantum information processes. The usual tomography techniques rely on ideal, single-shot measurements of the unknown state. In this work, we use a new approach, called trajectory quantum tomography, where the quantum trajectory of each realization of the state is recorded through a series of measurements, including experimental imperfections and decoherence. This strategy increases the extracted amount of information and allows to build new measurements for a set of feasible measurements.Using the tools of cavity quantum eletrodynamics, we have prepared entangled states of microwave photons spread on two separated modes. We have then performed a trajectory tomography of these states, in a large Hilbert space. We have proved that this method allows to estimate the state, to develop faster strategies for extracting information on specific coherences of the state and to compute error bars on the components of the estimated density matrix
APA, Harvard, Vancouver, ISO, and other styles
36

De, Sousa Marie-Carmen. "Contribution à l'optimisation de la radioprotection du patient en radiologie : de la mesure en temps réel de la dose en radiologie conventionnelle au calcul du risque de vie entière de décès par cancer radio-induit spécifique par sexe et par âge." Toulouse 3, 2002. http://www.theses.fr/2002TOU30003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Corfdir, Alain. "Analyse de la stabilité d'ouvrages en gabions cellulaires par la théorie du calcul à la rupture." Phd thesis, Marne-la-vallée, ENPC, 1997. http://www.theses.fr/1997ENPC9704.

Full text
Abstract:
Les gabions cellulaires sont constitués d'une enceinte de palplanches métalliques remplies d'un remblai frottant. Ils sont utilisés dans des sites portuaires ou fluviaux comme soutènements ou comme batardeaux. Bien qu'utilisés depuis plus de 80 ans, leur fonctionnement mécanique n'est qu'imparfaitement compris et des accidents surviennent encore, y compris en cours de construction. L'emploi des méthodes fondées sur la théorie du calcul à la rupture peut contribuer à fonder le dimensionnement de ces ouvrages sur des bases rigoureuses. Le calcul à la rupture des gabions cellulaires présente plusieurs particularités : géométrie authentiquement tridimensionnelle, modélisation mixte des éléments constitutifs (enceinte de palplanches modélisées comme une coque, matériau de remblai modélisé comme un milieu continu 3D). Les travaux antérieurs utilisant le calcul à la rupture ont toujours considéré des cinématiques dans lesquelles les palplanches restaient droites. La modélisation coque des palplanches permet notamment d'envisager des cinématiques avec des déformations en flexion des palplanches ce qui correspond à certaines observations d'accidents ou de modèles réduits à grande échelle. Donnons maintenant le plan général de ce mémoire. Un premier chapitre introductif rappelle la constitution des gabions et des gabionnades, leurs utilisations et leurs méthodes de dimensionnement. Le chapitre 2 donne les bases de la modélisation des gabions que nous utiliserons dans la suite. Les chapitres 3, 4, 5 et 6, appliquent les méthodes statiques et cinématique au gabion isolé et à la gabionnade. Le chapitre 7 est consacré à la comparaison des résultats avec des données de différents types : mesures in situ, cas d'accident, essais sur modèles réduits
Cellular cofferdams are constituted by a shell of steel sheetpiles filled with sand or gravel backfill. They are used in harbour or fluvial locations as earth or water retaining structures. Although they have been in use for more than 80 years, their mechanical behaviour is still poorly understood and accidents still occur even during construction. The use of design methods based on yield design theory can contribute to found the design of cellular cofferdams on rigorous bases. The yield design of cellular cofferdams has some particular characteristics : true 3-dimentional geometry, mixed modelling of the structure (the sheetpiles are modelled as a shell, the backfill as a 3-dimensional ontinuous media). Modelling sheetpiles as a shell makes it possible to consider kinematic fields with flexure strain of the sheetpiles. Flexures strain has been observed on some accidents and some model tests. The present work opens with an introductory chapter dealing with the construction of cellular cofferdams, their applications and design methods. Chapter 2 deals with the modelling of cellular cofferdams. Chapters 3, 4, 5 and 6 deal with the application of static and kinematic methods to a single cofferdam cell and to cellular cofferdams. In chapter 7, the results are compared to data from different sources : filed measurements, case of accident, model tests
APA, Harvard, Vancouver, ISO, and other styles
38

Fournier, Pierre-Luc. "Développement d'un modèle de mesure de la performance d'un processus administratif séquencé et non cadencé dans une organisation du réseau de la santé du Québec par le calcul du degré d'articulation." Thèse, Université du Québec à Trois-Rivières, 2012. http://depot-e.uqtr.ca/6918/1/030586134.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Mezher, Rawad. "Randomness for quantum information processing." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS244.pdf.

Full text
Abstract:
Cette thèse est basée sur la génération et la compréhension de types particuliers des ensembles unitaires aleatoires. Ces ensembles est utile pour de nombreuses applications de physique et de l’Information Quantique, comme le benchmarking aléatoire, la physique des trous noirs, ainsi qu’à la démonstration de ce que l’on appelle un "quantum speedup" etc. D'une part, nous explorons comment générer une forme particulière d'évolution aléatoire appelée epsilon-approximateunitary t-designs . D'autre part, nous montrons comment cela peut également donner des exemples de quantum speedup, où les ordinateurs classiques ne peuvent pas simuler en temps polynomiale le caractère aléatoire. Nous montrons également que cela est toujours possible dans des environnements bruyants et réalistes
This thesis is focused on the generation and understanding of particular kinds of quantum randomness. Randomness is useful for many tasks in physics and information processing, from randomized benchmarking , to black hole physics , as well demonstrating a so-called quantum speedup , and many other applications. On the one hand we explore how to generate a particular form of random evolution known as a t-design. On the other we show how this can also give instances for quantum speedup - where classical computers cannot simulate the randomness efficiently. We also show that this is still possible in noisy realistic settings. More specifically, this thesis is centered around three main topics. The first of these being the generation of epsilon-approximate unitary t-designs. In this direction, we first show that non-adaptive, fixed measurements on a graph state composed of poly(n,t,log(1/epsilon)) qubits, and with a regular structure (that of a brickwork state) effectively give rise to a random unitary ensemble which is a epsilon-approximate t-design. This work is presented in Chapter 3. Before this work, it was known that non-adaptive fixed XY measurements on a graph state give rise to unitary t-designs , however the graph states used there were of complicated structure and were therefore not natural candidates for measurement based quantum computing (MBQC), and the circuits to make them were complicated. The novelty in our work is showing that t-designs can be generated by fixed, non-adaptive measurements on graph states whose underlying graphs are regular 2D lattices. These graph states are universal resources for MBQC. Therefore, our result allows the natural integration of unitary t-designs, which provide a notion of quantum pseudorandomness which is very useful in quantum algorithms, into quantum algorithms running in MBQC. Moreover, in the circuit picture this construction for t-designs may be viewed as a constant depth quantum circuit, albeit with a polynomial number of ancillas. We then provide new constructions of epsilon-approximate unitary t-designs both in the circuit model and in MBQC which are based on a relaxation of technical requirements in previous constructions. These constructions are found in Chapters 4 and 5
APA, Harvard, Vancouver, ISO, and other styles
40

Cohen, Joachim. "Autonomous quantum error correction with superconducting qubits." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE008/document.

Full text
Abstract:
Dans cette thèse, nous développons plusieurs outils pour la Correction d’Erreur Quantique (CEQ) autonome avec les qubits supraconducteurs.Nous proposons un schéma de CEQ autonome qui repose sur la technique du « reservoir engineering », dans lequel trois qubits de type transmon sont couplés à un ou plusieurs modes dissipatifs. Grâce à la mise au point d’une interaction effective entre les systèmes, l’entropie créée par les éventuelles erreurs est évacuée à travers les modes dissipatifs.La deuxième partie de ce travail porte sur un type de code récemment développé, le code des chats, à travers lequel l’information logique est encodée dans le vaste espace de Hilbert d’un oscillateur harmonique. Nous proposons un protocole pour réaliser des mesures continues et non-perturbatrices de la parité du nombre de photons dans une cavité micro-onde, ce qui correspond au syndrome d’erreur pour le code des chats. Enfin, en utilisant les résultats précédents, nous présentons plusieurs protocoles de CEQ continus et/ou autonomes basés sur le code des chats. Ces protocoles offrent une protection robuste contre les canaux d’erreur dominants en présence de dissipation stimulée à plusieurs photons
In this thesis, we develop several tools in the direction of autonomous Quantum Error Correction (QEC) with superconducting qubits. We design an autonomous QEC scheme based on quantum reservoir engineering, in which transmon qubits are coupled to lossy modes. Through an engineered interaction between these systems, the entropy created by eventual errors is evacuated via the dissipative modes.The second part of this work focus on the recently developed cat codes, through which the logical information is encoded in the large Hilbert space of a harmonic oscillator. We propose a scheme to perform continuous and quantum non-demolition measurements of photon-number parity in a microwave cavity, which corresponds to the error syndrome in the cat code. In our design, we exploit the strongly nonlinear Hamiltonian of a highimpedance Josephson circuit, coupling ahigh-Q cavity storage cavity mode to a low-Q readout one. Last, as a follow up of the above results, we present several continuous and/or autonomous QEC schemes using the cat code. These schemes provide a robust protection against dominant error channels in the presence of multi-photon driven dissipation
APA, Harvard, Vancouver, ISO, and other styles
41

Bouhara, Ammar. "Etude theorique et experimentale de la mesure par thermocouples de la temperature dans un flux gazeux instationnaire : application aux gaz d'echappement d'un moteur." Paris 6, 1987. http://www.theses.fr/1987PA066149.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Kuhn, Matthieu. "Calcul parallèle et méthodes numériques pour la simulation de plasmas de bords." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD023/document.

Full text
Abstract:
L'amélioration du code Emedge3D (code de bord électromagnétique) est abordée sous plusieurs axes. Premier axe, des innovations sur les méthodes numériques ont été mises en oeuvre. L'avantage des méthodes de type semi-implicite est décrit, leur stabilité inconditionnelle permet l'augmentation du pas de temps, et donc la diminution du nombre d'itérations temporelles requises pour une simulation. Les avantages de la montée en ordre en espace et en temps sont détaillés. Deuxième axe, des réponses sont proposées pour la parallélisation du code. Le cadre de cette étude est proche du problème général d'advection-diffusion non linéaire. Les parties coûteuses ont tout d'abord été optimisées séquentiellement puis fait l'objet d'une parallélisation OpenMP. Pour la partie du code la plus sensible aux contraintes de bande passante mémoire, une solution parallèle MPI sur machine à mémoire distribuée est décrite et analysée. Une bonne extensibilité est observée jusque 384 cœurs. Cette thèse s'inscrit dans le projet interdisciplinaire ANR E2T2 (CEA/IRFM, Université Aix-Marseille/PIIM, Université Strasbourg/Icube)
The main goal of this work is to significantly reduce the computational cost of the scientific application Emedge3D, simulating the edge of tokamaks. Improvements to this code are made on two axes. First, innovations on numerical methods have been implemented. The advantage of semi-implicit time schemes are described. Their inconditional stability allows to consider larger timestep values, and hence to lower the number of temporal iteration required for a simulation. The benefits of a high order (time and space) are also presented. Second, solutions to the parallelization of the code are proposed. This study addresses the more general non linear advection-diffusion problem. The hot spots of the application have been sequentially optimized and parallelized with OpenMP. Then, a hybrid MPI OpenMP parallel algorithm for the memory bound part of the code is described and analyzed. Good scalings are observed up to 384 cores. This Ph. D. thesis is part of the interdisciplinary project ANR E2T2 (CEA/IRFM, University of Aix-Marseille/PIIM, University of Strasbourg/ICube)
APA, Harvard, Vancouver, ISO, and other styles
43

Ferrari, Luca Alberto Davide. "Approximations par champs de phases pour des problèmes de transport branché." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX049/document.

Full text
Abstract:
Dans cette thèse, nous concevons des approximations par champ de phase de certains problèmes de Transport Branché. Le Transport Branché est un cadre mathématique pour modéliser des réseaux de distribution offre-demande qui présentent une structure d'arbre. En particulier, le réseau, les usines d'approvisionnement et le lieu de la demande sont modélisés en tant que mesures et le probléme est présenté comme un probléme d'optimisation sous contrainte. Le coût de transport d'une masse m le long d'un bord de longueur L est h(m)xL et le coût total d'un réseau est défini comme la somme de la contribution sur tous ses arcs. Le cas du Transport Branché correspond avec la choix h(m) =|m|^α où α est dans [0,1). La sous-additivité de la fonction cout s'assure que déplacer deux masses conjointement est moins cher que de le faire séparément. Dans ce travail, nous introduisons diverses approximations variationnelles du problème du transport branché. Les fonctionnelles que on vais utiliser sont basées sur une représentation par champ de phase du réseau et sont plus lisses que le problème original, ce qui permet des méthodes d'optimisation numérique efficaces. Nous introduisons une famille des fonctionnelles inspirées par le fonctionnelle de Ambrosio et Tortorelli pour modéliser une fonction de coût h affine dans l'espace R^2. Pour ce cas, nous produisons un résultat complet de Gamma-convergence et nous le corrélons avec une procédure de minimisation alternée pour obtenir des approximations numériques des minimiseurs. Puis nous généralisons cette approche à n'importe quel espace R^n et obtenons un résultat complet de $Gamma$-convergence dans le cas de surfaces k-dimensionnelles avec k
In this thesis we devise phase field approximations of some Branched Transportation problems. Branched Transportation is a mathematical framework for modeling supply-demand distribution networks which exhibit tree like structures. In particular the network, the supply factories and the demand location are modeled as measures and the problem is cast as a constrained optimization problem. The transport cost of a mass m along an edge with length L is h(m)xL and the total cost of a network is defined as the sum of the contribution on all its edges. The branched transportation case consists with the specific choice h(m)=|m|^α where α is a value in [0,1). The sub-additivity of the cost function ensures that transporting two masses jointly is cheaper than doing it separately. In this work we introduce various variational approximations of the branched transport optimization problem. The approximating functionals are based on a phase field representation of the network and are smoother than the original problem which allows for efficient numerical optimization methods. We introduce a family of functionals inspired by the Ambrosio and Tortorelli one to model an affine transport cost functions. This approach is firstly used to study the problem any affine cost function h in the ambient space R^2. For this case we produce a full Gamma-convergence result and correlate it with an alternate minimization procedure to obtain numerical approximations of the minimizers. We then generalize this approach to any ambient space and obtain a full Gamma-convergence result in the case of k-dimensional surfaces. In particular, we obtain a variational approximation of the Plateau problem in any dimension and co-dimension. In the last part of the thesis we propose two models for general concave cost functions. In the first one we introduce a multiphase field approach and recover any piecewise affine cost function. Finally we propose and study a family of functionals allowing to recover in the limit any concave cost function h
APA, Harvard, Vancouver, ISO, and other styles
44

Crépé-Renaudin, S. "Outils et analyse en physique des particules : morceaux choisis La grille de calcul et de stockage pour le LHC : de la mise en place d'un nœud de grille à l'utilisation de la grille par l'expérience ATLAS Mesure de la section efficace de production top-antitop avec l'expérience d0 auprès du Tevatron." Habilitation à diriger des recherches, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00919967.

Full text
Abstract:
La recherche en physique des particules recouvre des activités diverses depuis la conception des expériences, la mise en route et le suivi des détecteurs, le traitement des données et leur analyse, jusqu'à la communication des résultats aux scientifiques et au grand public. Le document illustre différentes facettes de cette recherche via: la description de la grille de calcul et de stockage qui permet le traitement des données enregistrées par les expériences du LHC et en particulier par l'expérience ATLAS; une mesure de la section efficace top-antitop avec l'expérience D0 auprès du Tevatron; la description de quelques actions de diffusion des connaissances auprès du grand public.
APA, Harvard, Vancouver, ISO, and other styles
45

Magnin, Loïck. "Two-player interaction in quantum computing : cryptographic primitives & query complexity." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112275/document.

Full text
Abstract:
Cette thèse étudie deux aspects d'interaction entre deux joueurs dans le modèle du calcul et de la communication quantique.Premièrement, elle étudie deux primitives cryptographiques quantiques, des briques de base pour construire des protocoles cryptographiques complexes entre deux joueurs, comme par exemple un protocole d'identification. La première primitive est la ``mise en gage quantique". Cette primitive ne peut pas être réalisée de manière inconditionnellement sûre, mais il possible d'avoir une sécurité lorsque les deux parties sont soumis à certaines contraintes additionnelles. Nous étudions cette primitive dans le cas où les deux joueurs sont limités à l'utilisation d'états et d'opération gaussiennes, un sous-ensemble de la physique quantique central en optique, donc parfaitement adapté pour la communication via fibres optiques. Nous montrons que cette restriction ne permet malheureusement pas la réalisation de la mise en gage sûre. Pour parvenir à ce résultat, nous introduisons la notion de purification intrinsèque, qui permet de contourner l'utilisation du théorème de Uhlman, en particulier dans le cas gaussien. Nous examinons ensuite une primitive cryptographique plus faible, le ``tirage faible à pile ou face'', dans le modèle standard du calcul quantique. Carlos Mochon a donné une preuve d'existence d'un tel protocole avec un biais arbitrairement petit. Nous donnons une interprétation claire de sa preuve, ce qui nous permet de la simplifier et de la raccourcir grandement.La seconde partie de cette thèse concerne l'étude de méthodes pour prouver des bornes inférieures dans le modèle de la complexité en requête. Il s'agit d'un modèle de complexité central en calcul quantique dans lequel de nombreux résultats majeurs ont été obtenus. Dans ce modèle, un algorithme ne peut accéder à l'entrée uniquement en effectuant des requêtes sur chacun des bits de l'entrée. Nous considérons une extension de ce modèle dans lequel un algorithme ne calcule pas une fonction, mais doit générer un état quantique. Cette généralisation nous permet de comparer les différentes méthodes pour prouver des bornes inférieures dans ce modèle. Nous montrons d'abord que la méthode par adversaire ``multiplicative" est plus forte que la méthode ``additive". Nous montrons ensuite une réduction de la méthode polynomiale à la méthode multiplicative, ce qui permet de conclure à la supériorité de la méthode par adversaire multiplicative sur toutes les autres méthodes. Les méthodes par adversaires sont en revanche souvent difficiles à utiliser car elles nécessite le calcul de normes de matrices de très grandes tailles. Nous montrons comment l'étude des symétries d'un problème simplifie grandement ces calculs. Enfin, nous appliquons ces formules pour prouver la borne inférieure optimale du problème INDEX-ERASURE un problème de génération d'état quantique lié au célèbre problème GRAPH-ISOMORPHISM
This dissertation studies two different aspects of two-player interaction in the model of quantum communication and quantum computation.First, we study two cryptographic primitives, that are used as basic blocks to construct sophisticated cryptographic protocols between two players, e.g. identification protocols. The first primitive is ``quantum bit commitment''. This primitive cannot be done in an unconditionally secure way. However, security can be obtained by restraining the power of the two players. We study this primitive when the two players can only create quantum Gaussian states and perform Gaussian operations. These operations are a subset of what is allowed by quantum physics, and plays a central role in quantum optics. Hence, it is an accurate model of communication through optical fibers. We show that unfortunately this restriction does not allow secure bit commitment. The proof of this result is based on the notion of ``intrinsic purification'' that we introduce to circumvent the use of Uhlman's theorem when the quantum states are Gaussian. We then examine a weaker primitive, ``quantum weak coin flipping'', in the standard model of quantum computation. Mochon has showed that there exists such a protocol with arbitrarily small bias. We give a clear and meaningful interpretation of his proof. That allows us to present a drastically shorter and simplified proof.The second part of the dissertation deals with different methods of proving lower bounds on the quantum query complexity. This is a very important model in quantum complexity in which numerous results have been proved. In this model, an algorithm has restricted access to the input: it can only query individual bits. We consider a generalization of the standard model, where an algorithm does not compute a classical function, but generates a quantum state. This generalization allows us to compare the strength of the different methods used to prove lower bounds in this model. We first prove that the ``multiplicative adversary method'' is stronger than the ``additive adversary method''. We then show a reduction from the ``polynomial method'' to the multiplicative adversary method. Hence, we prove that the multiplicative adversary method is the strongest one. Adversary methods are usually difficult to use since they involve the computation of norms of matrices with very large size. We show how studying the symmetries of a problem can largely simplify these computations. Last, using these principles we prove the tight lower bound of the INDEX-ERASURE problem. This a quantum state generation problem that has links with the famous GRAPH-ISOMORPHISM problem
APA, Harvard, Vancouver, ISO, and other styles
46

Richmond, Tania. "Implantation sécurisée de protocoles cryptographiques basés sur les codes correcteurs d'erreurs." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES048/document.

Full text
Abstract:
Le premier protocole cryptographique basé sur les codes correcteurs d'erreurs a été proposé en 1978 par Robert McEliece. La cryptographie basée sur les codes est dite post-quantique car il n'existe pas à l'heure actuelle d'algorithme capable d'attaquer ce type de protocoles en temps polynomial, même en utilisant un ordinateur quantique, contrairement aux protocoles basés sur des problèmes de théorie des nombres. Toutefois, la sécurité du cryptosystème de McEliece ne repose pas uniquement sur des problèmes mathématiques. L'implantation, logicielle ou matérielle, a également un rôle très important pour sa sécurité et l'étude de celle-ci face aux attaques par canaux auxiliaires/cachés n'a débuté qu'en 2008. Des améliorations sont encore possibles. Dans cette thèse, nous proposons de nouvelles attaques sur le déchiffrement du cryptosystème de McEliece, utilisé avec les codes de Goppa classiques, ainsi que des contre-mesures correspondantes. Les attaques proposées sont des analyses de temps d'exécution ou de consommation d'énergie. Les contre-mesures associées reposent sur des propriétés mathématiques et algorithmiques. Nous montrons qu'il est essentiel de sécuriser l'algorithme de déchiffrement en le considérant dans son ensemble et non pas seulement étape par étape
The first cryptographic protocol based on error-correcting codes was proposed in 1978 by Robert McEliece. Cryptography based on codes is called post-quantum because until now, no algorithm able to attack this kind of protocols in polynomial time, even using a quantum computer, has been proposed. This is in contrast with protocols based on number theory problems like factorization of large numbers, for which efficient Shor's algorithm can be used on quantum computers. Nevertheless, the McEliece cryptosystem security is based not only on mathematical problems. Implementation (in software or hardware) is also very important for its security. Study of side-channel attacks against the McEliece cryptosystem have begun in 2008. Improvements can still be done. In this thesis, we propose new attacks against decryption in the McEliece cryptosystem, used with classical Goppa codes, including corresponding countermeasures. Proposed attacks are based on evaluation of execution time of the algorithm or its power consumption analysis. Associate countermeasures are based on mathematical and algorithmic properties of the underlying algorithm. We show that it is necessary to secure the decryption algorithm by considering it as a whole and not only step by step
APA, Harvard, Vancouver, ISO, and other styles
47

Zhu, Ni. "GNSS propagation channel modeling in constrained environments : contribution to the improvement of the geolocation service quality." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I057/document.

Full text
Abstract:
Les applications des systèmes de positionnement par satellites (GNSS) se sont largement répandues dans les transports urbains. Certaines applications exigent cependant une grande fiabilité qui ne tolère pas d’erreurs de positionnement importantes. Malheureusement, les environnements urbains présentent de grands défis pour les GNSS à cause de l'existence d’effets locaux. Le concept d'intégrité GNSS, qui est défini comme une mesure de confiance placée dans l'exactitude des informations fournies par le système de navigation qualifie cette exigence. L'objectif de cette thèse est d'améliorer les performances de précision et d'intégrité GNSS en milieu urbain. Deux directions de travail ont été prises : La première direction consiste à caractériser les erreurs de mesure GNSS afin d'améliorer la précision. Plusieurs modèles d'erreur existant sont étudiés. Un modèle hybride est proposé qui implique la contribution de la carte numérique en 3D. La seconde direction contribue aux techniques de détection et d'exclusion des défauts (FDE) afin d'améliorer l'intégrité de la position GNSS. Différentes méthodes FDE sont comparées avec des données GPS collectées dans des canyons urbains. Les FDE améliore la précision dans une première étape. Le calcul du niveau de protection horizontal (HPL) est ajouté en 2ème étape. Une nouvelle méthode de calcul HPL prenant en compte un potentiel défaut immédiatement antérieur est proposée. Enfin, ces deux directions de travail sont combinées afin de construire un système complet de surveillance de l'intégrité. Les résultats avec les données réelles montrent que la précision et l'intégrité du positionnement sont améliorées avec le système proposé
In the last decades, Global Navigation Satellite System (GNSS)-based positioning systems are increasingly spread in urban environments, where great challenges exist for GNSS because of the local effects. Yet, for new GNSS land applications, knowing the certainty of one's localization is of great importance especially for the liability/safety critical applications. The concept of GNSS integrity, which is defined as a measure of trust to be placed in the correctness of the information supplied by the total system, can help to meet this requirement. The main objective of this PhD research work is to improve the accuracy and integrity performances of GNSS positioning in urban environments. Two research directions were investigated: The first direction consists of GNSS measurement error characterizations in order to improve the positioning accuracy. Several error models existing in the literature are evaluated. A new hybrid model is proposed while involving the digital map. The second direction contributes to the Fault Detection and Exclusion (FDE) techniques so as to improve the GNSS integrity. Different FDE methods are investigated and compared with real GPS data collected in urban canyons. The computation of Horizontal Protection Level (HPL) is added at the next step. A new method of HPL computation by taking into consideration of the potential prior fault is proposed. Then, these two research directions are combined together so that a complete integrity monitoring scheme is constructed. The results with real GPS data collected in urban canyons show that the positioning accuracy and integrity can be improved by the proposed scheme compared to the traditional approaches
APA, Harvard, Vancouver, ISO, and other styles
48

Souhassou, Mohamed. "Densité d'électrons dans les composés peptidiques par méthode X-X et calcul théorique : LA (N) acétyl-L-tryptophane-méthylamide et la (N)-acétyl-alpha-béta -dehydrophenylalanine-methylamide, influence de La alpha -beta -déhydrogénation et étude critique des modèles multipolaires." Nancy 1, 1988. http://www.theses.fr/1988NAN10418.

Full text
Abstract:
Détermination de la densité de déformation dans ces deux composés par diffraction de rayons X (méthode X-X) et calculs ab initio SCF, après avoir calculé et comparé les phases des facteurs de structure à partir de deux modèles multipolaires (hansen-coppens et hirshfeld)
APA, Harvard, Vancouver, ISO, and other styles
49

Biglione, Jordan. "Simulation et optimisation du procédé d'injection soufflage cycle chaud." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0079/document.

Full text
Abstract:
Le procédé d'injection soufflage est rendu accessible aux presses d'injection standard à travers le procédé d'injection soufflage cycle chaud, sans stockage puis réchauffe de la préforme. Le but étant de rendre accessible la production de petites séries de pièces creuses à des entreprises possédant un parc machine de presse à injecter. Les pièces sont réalisées en polypropylène et sont soufflées juste après avoir été injectées. Ce processus implique que la préforme se doit d'être suffisamment malléable pour être soufflée mais suffisamment visqueuse pour éviter de se rompre durant la phase de soufflage. Ces contraintes conduisent à une fenêtre de mise en oeuvre réduite, comprise entre la température de fusion du polymère et la température de cristallisation, soit le domaine ou le polypropylène est à l'état amorphe et suffisamment froid pour avoir une viscosité conséquente sans cristalliser. Ce procédé cycle chaud implique des gradients de température, de grands taux d'étirages et d'importantes cinétiques de refroidissement. Des mesures de rhéométrie à l'état fondu sont réalisées pour identifier le comportement de la matière dans la plage de température du procédé, de même que des tests de calorimétrie différentielle. L'observation du procédé et l'étude de la cristallisation du matériau permettent de supposer que ce dernier reste à l'état fondu durant la phase de soufflage. Un modèle rhéologique de Cross est utilisé, avec la dépendance thermique prise en compte par une loi d'Arrhénius. Le procédé est simulé à l'aide d'un logiciel de calcul par éléments finis dédié aux écoulements de fluides complexes (POLYFLOW) dans l'espace de travail ANSYS Workbench. La géométrie autorise une approche axisymétrique, facilitant ainsi la modélisation. Le calcul transitoire est lancé sous conditions anisothermes et l'auto-échauffement est considéré. Des études de sensibilité sont réalisées et révèlent l'influence de paramètres procédé tels que le comportement du matériau, la pression de soufflage et le champ de température initial. Des mesures d'épaisseurs sont réalisées en utilisant une méthode de traitement d'image permettant l'analyse des images numérisées de pièces découpées et des images issues de tomographie X des pièces. Les résultats simulés sont comparés aux mesures expérimentales. Le modèle présente les mêmes tendances que les mesures. L'existence de déformations élongationnelles, mais aussi par cisaillement lors du soufflage après contact avec le moule, est discutée. Une boucle d'optimisation est mise en place afin de déterminer numériquement la géométrie optimale de préforme. Des points de contrôle sont placés le long de la préforme et l'algorithme d'optimisation modifie les épaisseurs à ces points
Single stage injection blow molding process, without preform storage and reheat, could be run on a standard injection molding machine, with the aim of producing short series of specific hollow parts. The polypropylene bottles are blown right after being injected. The preform has to remain sufficiently malleable to be blown while being viscous enough to avoid being pierced during the blow molding stage. These constraints lead to a small processing window, and so the process takes place between the melting temperature and the crystallization temperature, where the polypropylene is in his molten state but cool enough to enhance its viscosity without crystallizing. This single stage process introduces temperature gradients, molecular orientation, high stretch rate and high cooling rate. Melt rheometry tests were performed to characterize the polymer behavior in the temperature range of the process, as well as Differential Scanning Calorimetry. A viscous Cross model is used with the thermal dependence assumed by an Arrhenius law. The process is simulated through a finite element code (POLYFLOW) in the Ansys Workbench framework. The geometry allows an axisymmetric approach. The transient simulation is run under anisothermal conditions and viscous heating is taken into account. Thickness measurements using image analysis are done and the simulation results are compared to the experimental ones. The experimental measurements are done by analizing tomography datas. The simulation shows good agreements with the experimental results. The existence of elongational strain as well as shear strain during the blowing after contact with the mold is discussed. An optimization loop is run to determine an optimal initial thickness repartition by the use of a Predictor/Corrector method to minimize a given objective function. Design points are defined along the preform and the optimization modifies the thickness at these locations. This method is compared to the Downhill Simplex Method and shows better efficiency
APA, Harvard, Vancouver, ISO, and other styles
50

Balakrishnan, Arjun. "Integrity Analysis of Data Sources in Multimodal Localization System." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG060.

Full text
Abstract:
Les véhicules intelligents sont un élément clé pour des systèmes de transport plus sûrs, efficaces et accessibles à travers le monde. En raison de la multitude de sources de données et de processus associés aux véhicules intelligents, la fiabilité de l'ensemble du système dépend fortement de la possibilité d'erreurs ou de mauvaises performances observées dans ses composants. Dans notre travail, nous nous intéressons à la tâche critique de localisation des véhicules intelligents et relevons les défis de la surveillance de l'intégrité des sources de données utilisées dans la localisation. La contribution clé de notre recherche est la proposition d'un nouveau protocole d'intégrité en combinant les concepts d'intégrité des systèmes d'information et les concepts d'intégrité existants dans les Systèmes de Transport Intelligents (STI). Un cadre de surveillance de l'intégrité basé sur le protocole d'intégrité proposé qui peut gérer les problèmes de localisation multimodale est développé. Dans la première étape, une preuve de concept pour ce cadre est développée sur la base d'une estimation de cohérence croisée des sources de données à l'aide de modèles polynomiaux. Sur la base des observations de la première étape, une représentation des données «Feature Grid» est proposée dans la deuxième étape et un prototype généralisé pour le cadre est mis en œuvre. Le cadre est testé sur les autoroutes ainsi que dans des scénarios urbains complexes pour démontrer que le cadre proposé est capable de fournir des estimations d'intégrité continue des sources de données multimodales utilisées dans la localisation intelligente des véhicules
Intelligent vehicles are a key component in humanity’s vision for safer, efficient, and accessible transportation systems across the world. Due to the multitude of data sources and processes associated with Intelligent vehicles, the reliability of the total system is greatly dependent on the possibility of errors or poor performances observed in its components. In our work, we focus on the critical task of localization of intelligent vehicles and address the challenges in monitoring the integrity of data sources used in localization. The primary contribution of our research is the proposition of a novel protocol for integrity by combining integrity concepts from information systems with the existing integrity concepts in the field of Intelligent Transport Systems (ITS). An integrity monitoring framework based on the theorized integrity protocol that can handle multimodal localization problems is formalized. As the first step, a proof of concept for this framework is developed based on cross-consistency estimation of data sources using polynomial models. Based on the observations from the first step, a 'Feature Grid' data representation is proposed in the second step and a generalized prototype for the framework is implemented. The framework is tested in highways as well as complex urban scenarios to demonstrate that the proposed framework is capable of providing continuous integrity estimates of multimodal data sources used in intelligent vehicle localization
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography