Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Mesure moyenne de l'intrication.

Thèses sur le sujet « Mesure moyenne de l'intrication »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 33 meilleures thèses pour votre recherche sur le sujet « Mesure moyenne de l'intrication ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Amouzou, Grâce Dorcas Akpéné. « Etude de l’intrication par les polynômes de Mermin : application aux algorithmes quantiques ». Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCK063.

Texte intégral
Résumé :
Cette thèse explore la mesure de l'intrication dans certains états hypergraphiques, dans certains algorithmes quantiques tels que les algorithmes quantiques d'estimation de phase et de comptage, ainsi que dans les circuits d'agents réactifs, à l'aide de la mesure géométrique de l'intrication, d'outils issus des polynômes de Mermin et des matrices de coefficients. L'intrication est un concept présent en physique quantique qui n'a pas d'équivalent connu à ce jour en physique classique.Le coeur de notre recherche repose sur la mise en place de dispositifs de détection et de mesure de l'intrication afin d'étudier des états quantiques du point de vue de l'intrication.Dans cette optique, des calculs sont d'abord effectués numériquement puis sur simulateur et ordinateur quantiques. Effectivement, trois des outils exploités sont implémentables sur machine quantique, ce qui permet de comparer les résultats théoriques et "réels"
This thesis explores the measurement of entanglement in certain hypergraph states, in certain quantum algorithms like the Quantum Phase estimation and Counting algorithms as well as in reactive agent circuits, using the geometric measurement of entanglement, tools from Mermin polynomials and coefficient matrices. Entanglement is a concept present in quantum physics that has no known equivalent to date in classical physics.The core of our research is based on the implementation of entanglement detection and measurement devices in order to study quantum states from the point of view of entanglement.With this in mind, calculations are first carried out numerically and then on a quantum simulator and computer. Indeed, three of the tools used can be implemented on a quantum machine, which allows us to compare theoretical and "real" results
Styles APA, Harvard, Vancouver, ISO, etc.
2

Debesse, Philippe. « Vers une mesure du vent thermoacoustique ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00445461.

Texte intégral
Résumé :
Les phénomènes non-linéaires présents dans les systèmes thermoacoustiques sont responsables de l'apparition des écoulements continus secondaires qui se superposent aux oscillations acoustiques dominantes, pénalisant l'efficacité des systèmes. L'objectif de cette étude est de caractériser le champ acoustique dans un résonateur contenant un générateur d'onde thermoacoustique et de mettre en évidence les écoulements secondaires. Nous mesurons le champ de vitesse par vélocimétrie par images de particules (PIV). Les premières mesures enregistrées sans relation de phases avec la période acoustique, permettent de reconstruire la composante acoustique sur une période, en réordonnant les vitesses suivant leur phase avec une technique de projection par décomposition aux valeurs singulières (SVD). Celle-ci fait partie d'une batterie de post-traitements qui permettent d'obtenir des résultats concordant avec l'acoustique linéaire. Ils mettent en évidence un contenu harmonique important et le caractère non-linéaire de l'écoulement acoustique. Le calcul du champ de vitesse moyenné en temps montre l'existence d'un écoulement continu différent de celui de Rayleigh-Schlichting. Dans la fenêtre de mesure, il est composé de cellules de convection dont l'extension radiale tend à croître avec le rapport moteur. Il fait aussi apparaître un caractère tridimensionnel. Un deuxième type de mesures PIV synchronisées aux mesures de pression, apporte un complément d'information sur les écoulements secondaires et confirme globalement les résultats obtenus à partir des premières mesures. Cependant ces mesures synchronisées se révèlent moins précises que les premières.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Joyeux, Sylvie. « Mesure de l'heterogeneite ecologique des milieux riverains de la moyenne vallee de la garonne ». Toulouse 3, 1986. http://www.theses.fr/1986TOU30120.

Texte intégral
Résumé :
A partir d'une etude floristique de base completee par une analyse phytogeographique, il est propose d'utiliser l'indice d'equitabilite pour mesurer l'heterogeneite ecologique des milieux instables et complexes de la basse terrasse alluviale. Dans un fond de vegetation ubiquiste demontrant cette instabilite naturelle (crues) ou d'origine anthropique (exploitation de sables et graviers), de fortes corrections edapho-topographiques et biotiques (structure de la vegetation) permettent a la plupart des elements floristiques du contexte phytogeographqiue regional de se melanger a la vegetation du bord des eaux omnipresente mais irregulierement distributee, par suite des variations dans l'espace et dans le temps de facteur eau, organisateur principal des caracteristiques structurales de la couverture vegetale des milieux riverains
Styles APA, Harvard, Vancouver, ISO, etc.
4

Joyeux, Sylvie. « Mesure de l'hétérogénéité écologique des milieux riverains de la moyenne vallée de la Garonne ». Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37598573k.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bussiere, William. « Mesure des grandeurs (T,Ne,P) au sein du plasma d'arc des fusibles Moyenne Tension ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2000. http://tel.archives-ouvertes.fr/tel-00011683.

Texte intégral
Résumé :
Ce travail traite de la détermination expérimentale des grandeurs électriques et physiques lors du mécanisme de coupure dans les fusibles en moyenne tension.
Les résultats sont présentés dans deux parties : la première traite de l'influence de la pression sur les grandeurs électriques et physiques caractérisant un arc dans une atmosphère sous pression, la seconde présente l'étude des mécanismes de création et d'extinction de l'arc.
L'étude relative à l'influence de la pression repose sur trois dispositifs de mesure des grandeurs électriques et spectroscopiques. Une méthode de détermination de la pression à partir des paramètres des profils des transitions Si II (2) est présentée, et appliquée à l'évaluation de la pression au sein du fusible en moyenne tension.
L'étude du fonctionnement du fusible en moyenne tension concerne trois points : la vitesse de "burn-back", l'influence des propriétés du sable de silice sur le mécanisme de coupure, et l'évolution de la température et de la densité électronique au sein du plasma d'arc pendant la coupure.
La vitesse de "burn-back" est déterminée par imagerie ultra-rapide. Une dissymétrie sensible entre les vitesses à la cathode et à l'anode apparaît dès le début du régime d'arc ; la masse volumique de compactage et la granulométrie du sable conditionnent l'efficacité des mécanismes de transfert de l'énergie depuis la colonne d'arc vers la périphérie. La diffusion du fluide dans les interstices joue un rôle prépondérant dans le mécanisme de coupure, et explique pourquoi les plus grandes granulométries étudiées impliquent les coupures les plus brèves ; les évolutions de la température et de la densité électronique montrent une dynamique de variation importante sur l'ensemble du phénomène. Les coefficients d'établissement et d'extinction des deux grandeurs sont dépendants des propriétés du sable.
Styles APA, Harvard, Vancouver, ISO, etc.
6

ABI, NADER MARIO. « L'electrocardiogramme moyenne (ecg-mha) applique a la mesure de la masse ventriculaire gauche chez l'hypertendu ». Lille 2, 1993. http://www.theses.fr/1993LIL2M310.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

FALL, THIEYACINE. « Mesure de la charge moyenne ionique, par le rayonnement bremsstrahlung dans le visible, sur tore supra ». Paris 11, 1991. http://www.theses.fr/1991PA112209.

Texte intégral
Résumé :
La charge effective du plasma zeff (taux d'impuretes dans un plasma) joue un role essentiel dans le domaine de la fusion controlee par confinement magnetique, car elle intervient pour la condition d'auto-entretien (ignition) du plasma. A partir de la theorie hydrogenoide du rayonnement bremsstrahlung dans le visible, on montre comment on peut deduire la charge effective du plasma. Un critere de validite est etabli sur les mesures experimentales (rayonnement dans le visible a =5235 a) pour l'obtention du profil de zeff. On procure aussi, par une methode generale, l'estimation des erreurs sur ce meme profil. Ce profil permet de calculer des profils de resistivites issus de theories differentes qui sont compares a celui provenant d'un code magnetohydrodynamique. Le temps de depouillement pour decrire l'evolution temporelle du profil etant assez long, une methode rapide d'analyse a partir de parametres globaux a ete developpee: elle donne l'evolution temporelle de zeff. C'est essentiellement cette derniere mesure qui a contribue le plus aux resultats experimentaux du programme physique de tore supra
Styles APA, Harvard, Vancouver, ISO, etc.
8

Bussière, William. « Mesure des grandeurs (T,Nc,P) au sein du plasma d'arc des fusibles en moyenne tension ». Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF22258.

Texte intégral
Résumé :
Ce travail traite de la détermination expérimentale des grandeurs électriques et physiques pendant le mécanisme de coupure d'un fusible en moyenne tension. Les résultats sont présentés dans deux parties : la première traite de l'influence de la pression sur les grandeurs électriques et physiques caractérisant un arc dans une atmosphère sous pression ; la seconde présente l'étude des mécanismes de création et d'extinction de l'arc. L'étude relative à l'influence de la pression repose sur trois dispositifs de mesure des grandeurs électriques et spectroscopiques. Une méthode de détermination de la pression à partir des paramètres des profils de transition Si II (2) est présentée, et appliquée à l'évaluation de la pression au sein du fusible en moyenne tension. L'étude du fonctionnement du fusible en moyenne tension concerne trois points : la vitesse de "burn-back", l'influence des propriétés du sable de silice sur le mécanisme de coupure, et l'évolution de la température et de la densité électronique au sein du plasma d'arc pendant la coupure. -La vitesse de "burn-back" est déterminée par imagerie ultra-rapide. Une dissymétrie sensible entre les vitesses côté cathode et anode apparaît dès le début du régime d'arc ; -la masse volumique de compactage et la granulométrie du sable conditionnent l'efficacité des mécanismes de transfert de l'énergie depuis la colonne d'arc vers la péripherie. La diffusion du fluide dans les interstices joue un rôle prépondérant dans le mécanisme de coupure, et explique pourquoi les plus grandes granulométries impliquent les coupures les plus brèves. -Les évolutions de la température et de la densité électronique montrent une dynamique de variation importante sur l'ensemble du phénomène. Les coefficients d'établissement et d'extinction des deux grandeurs sont dépendants des sable
Styles APA, Harvard, Vancouver, ISO, etc.
9

GARNIER, BALTENBERGER ANNE. « Etude, developpement et premiers resultats d'un nouveau lidar doppler destine a la mesure des vents dans la moyenne atmosphere ». Paris 11, 1990. http://www.theses.fr/1990PA112107.

Texte intégral
Résumé :
Afin de mieux comprendre l'interaction entre les ondes et le vent moyen dans le domaine d'altitude 25-65 km, ou les champs de vent sont encore mal connus, nous avons developpe un nouveau lidar doppler specialement concu pour couvrir cette region, et qui de ce fait utilise la retrodiffusion rayleigh. La vitesse du vent est donnee par le decalage doppler subi par les photons reemis par retrodiffusion rayleigh sur les molecules de l'air en mouvement par rapport au sol. Notre etude se limite a la determination de sa composante principale, c'est-a-dire horizontale. La methode de mesure necessite l'utilisation d'une source laser pulsee et monomode, en l'occurrence un laser nd:yad double. Elle consiste a analyser la raie retrodiffusee grace a un double interferometre de fabry perot dont les deux bandes passantes sont centrees sur les flancs de la raie retrodiffusee. On determine le rapport entre les energies transmises par ces deux filtres, successivement pour une direction de visee inclinee et pour un pointe au zenith qui correspond a un decalage doppler nul et tient donc lieu de reference. On deduit alors de la variation de rapport observee la vitesse du vent dans la direction de visee. La determination complete de la vitesse horizontale du vent est obtenue en effectuant cette mesure dans deux azimuts orthogonaux. La faisabilite de la mesure du vent grace a ce nouveau lidar doppler a ete demontree a l'observatoire de haute-provence ou l'instrument nouvellement concu a ete installe. On a egalement demontre qu'il est possible d'etendre la methode au-dessous de 25 km ou les aerosols sont presents
Styles APA, Harvard, Vancouver, ISO, etc.
10

Charpenel, Philippe. « Effets d'irradiations aux électrons de basse et moyenne énergie sur des isolants MOS issus de différentes technologies ». Montpellier 2, 1992. http://www.theses.fr/1992MON20240.

Texte intégral
Résumé :
Dans la premiere partie, nous presentons une methode originale permettant une determination precise de l'energie de non charge des isolants en microscopie electronique a balayage. Elle est basee sur l'etude de la variation du potentiel de la surface d'un isolant induite par un depot de charges. Elle utilise pour cela l'analyse des spectres energetiques des electrons secondaires reemis. De plus, elle permet un acces qualitatif au rendement de charge. Elle est appliquee avec succes a divers oxydes de silicium ainsi qu'a des resines lithographiques. Les resultats obtenus sont correles avec d'autres methodes utilisees en metrologie et une generalisation de theories existant dans la litterature. Dans la deuxieme partie, dans le cas de composants mos, nous caracterisons divers processus technologiques a partir des densites de charge d'oxyde de grille et d'etats d'interface induites par les irradiations aux electrons basse ou moyenne energie. Les composants sont issus de technologies a lithographie optique et a faisceau d'electrons, a un et deux niveaux de metal. Un comportement original est observe sur des transistors a canal p a un niveau de metal. Il s'agit d'une deformation de la caracteristique de transfert avec la dose d'electrons incidents et d'une augmentation de la transconductance. Ce phenomene est interprete et modelise comme la mise en serie, sous l'effet de l'irradiation electronique, de plusieurs transistors. Les simulations realisees a partir d'un modele a une dimension sont en excellent accord avec l'experience. Nous avons de plus, mis en evidence, sur des composants a deux niveaux de metal, les effets de sur-irradiation en cours de processus technologique
Styles APA, Harvard, Vancouver, ISO, etc.
11

Ducasse, Jean-Marie. « Randonnée pédestre et en raquettes (en moyenne montagne) : proposition d'un protocole d'étude des contraintes cardio-respiratoires en situation ». Bordeaux 2, 1999. http://www.theses.fr/1999BOR2M153.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Ghysels, Mélanie. « Mesures in-situ à haute résolution par spectrométrie laser de CH4, CO2 et H2O dans l’atmosphère moyenne sous ballons météoroligiques ». Thesis, Reims, 2012. http://www.theses.fr/2012REIMS027/document.

Texte intégral
Résumé :
Les travaux exposés dans ce manuscrit concernent le développement de spectromètres laser pour la mesure in-situ de CH4, CO2 et H2O dans l'atmosphère moyenne ainsi que la spectroscopie associée, l'inversion des données atmosphériques et les premières campagnes ballon. La première partie de ce manuscrit décrit le contexte scientifique qui a conduit au développement des spectromètres laser et donne un état de l'art en matière instrumentale. La seconde partie décrit deux études spectroscopiques portant sur le multiplet R(6) du méthane à 3.24µm et sur les transitions R18e et R20e du dioxyde de carbone à 2.68µm pour l'inversion des mesures atmosphériques. La troisième partie de ce manuscrit porte sur le développement des spectromètres PicoSDLA-CH4 dédié à la mesure de CH4 dans l'atmosphère à 3.24µm, utilisant une source laser à différence de fréquence, et PicoSDLA-CO2 dédié à la mesure de CO2 à 2.68µm avec une diode à antimoniure. Ces spectromètres ont réalisé plusieurs vols sous ballons stratosphériques en 2010, 2011 et 2012. Les résultats de ces campagnes sont exposés dans la quatrième partie du manuscrit
This thesis reports the development of laser spectrometers dedicated to in-situ measurements of CH4, CO2 et H2O in the middle atmosphere. It includes the development of the prototypes, the associated spectroscopy, the concentration data retrieval as well as the first balloon campaigns. The first part of the thesis describes the scientific framework and it further gives a state of art of the instrumental field. The second part gives the results from a spectroscopic study on the R(6) manifold of CH4 at 3.24µm and on the R18e and R20e lines of CO2 at 2.68µm in order to allow an accurate concentration retrieval. The third part details the development of the PicoSDLA-CH4 spectrometer dedicated to the in-situ measurements of CH4 at 3.24µm, using a difference frequency generation (DFG) laser source, and the development of PicoSDLA-CO2, a sensor dedicated to measurements of CO2 at 2.68µm using antimonide laser diodes. Both spectrometers were involved in three balloon campaigns in 2010, 2011 and 2012; the results are presented in the fourth part of the thesis
Styles APA, Harvard, Vancouver, ISO, etc.
13

Al-Abdullah, Khalaf. « Contribution à l'étude du comportement des varistances à base d'oxyde de zinc, par la mesure des impédances complexes à basse et à moyenne fréquences ». Toulouse 3, 1991. http://www.theses.fr/1991TOU32310.

Texte intégral
Résumé :
Ce travail montre que la representation des impedances complexes des varistances a base de zno, dans le plan de nyquist, pour les frequences de 10##3 a 7. 10#6 hz, donne des arcs de cercles ayant leur centre sur l'axe des reels lorsque t est inferieur a 120c, en accord avec le modele de debye et en dessous de cet axe pour t superieur conformement au modele empirique de cole-cole. Il met en evidence que cette mesure est une methode permettant d'estimer la resistance, rcc, en courant continu et de determiner la resistance de grains rg (0,03 ohm), les energies d'activation, le facteur d'heterogeneite du materiau et le temps de relaxation. Ce dernier parametre diminue si les temperatures de mesures augmentent ainsi qu'apres l'application d'impulsions de forte energie. Par contre, le facteur d'heterogeneite croit lorsque t augmente et apres degradation. La variation de ces parametres caracterisant la varistance est due au changement de la concentration des donneurs et a celui des etats de surface (pieges) responsables de la formation de la barriere de schottky. Cette methode est appliquee a l'etude des processus de degradation des varistances. Elle etablit une correlation entre les parametres de l'impedance et les caracteristiques j-e. En effet, elle montre, apres degradation, que le courant de fuite et le facteur d'heterogeneite augmentent; par contre, la hauteur de barriere et la constante de temps diminuent. L'analyse de la fonction de distribution des temps de relaxation, determinee par cette methode, permet d'evaluer le degre d'homogeneite des barrieres dont dependent les proprietes electriques de la varistance
Styles APA, Harvard, Vancouver, ISO, etc.
14

Albouy, Olivier. « Algèbre et géométrie discrètes appliquées au groupe de Pauli et aux bases décorrélées en théorie de l'information quantique ». Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00402290.

Texte intégral
Résumé :
Pour d non puissance d'un nombre premier, le nombre maximal de bases deux à deux décorrélées d'un espace de Hilbert de dimension d n'est pas encore connu. Dans ce mémoire, nous commençons par donner une construction de bases décorrélées en lien avec une famille de représentations irréductibles de l'algèbre de Lie su(2) et faisant appel aux sommes de Gauss.
Puis nous étudions de façon systématique la possibilité de construire de telles bases au moyen des opérateurs de Pauli. 1) L'étude de la droite projective sur (Z_d)^m montre que, pour obtenir des ensembles maximaux de bases décorrélées à l'aide d'opérateurs de Pauli, il est nécessaire de considérer des produits tensoriels de ces opérateurs. 2) Les sous-modules lagrangiens de (Z_d)^2n, dont nous donnons une classification complète, rendent compte des ensembles maximalement commutant d'opérateurs de Pauli. Cette classification permet de savoir lesquels de ces ensembles sont susceptibles de donner des bases décorrélées : ils correspondent aux demi-modules lagrangiens, qui s'interprètent encore comme les points isotropes de la droite projective (P(Mat(n, Z_d)^2),ω). Nous explicitons alors un isomorphisme entre les bases décorrélées ainsi obtenues et les demi-modules lagrangiens distants, ce qui précise aussi la correspondance entre sommes de Gauss et bases décorrélées. 3) Des corollaires sur le groupe de Clifford et l'espace des phases discret sont alors développés.
Enfin, nous présentons quelques outils inspirés de l'étude précédente. Nous traitons ainsi du rapport anharmonique sur la sphère de Bloch, de géométrie projective en dimension supérieure, des opérateurs de Pauli continus et nous comparons l'entropie de von Neumann à une mesure de l'intrication par calcul d'un déterminant.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Hiel, Azeddine. « Mesure de la vie moyenne des noyaux de Sb peuplés à haut spin par émission de 3 protons dans la réaction ⁵⁸Ni + ⁵⁴Fe à 4 MeV/A ». Bordeaux 1, 1987. http://www.theses.fr/1987BOR10601.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Hiel, Azeddine. « Mesure de la vie moyenne des noyaux de Sb peuplés à haut spin par émission de 3 protons ans la réaction ⁵⁸Ni + ⁵⁴Fe à 4 MeV/A ». Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605905s.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
17

Sun, Zhigang. « Modélisation acoustique de l’énergie moyenne diffusée par une distribution aléatoire de cibles spheriques sous-marines : Validité de la technique d'écho-intégration pour la mesure de l'abondance de cibles sous-marines ». Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0069.

Texte intégral
Résumé :
La technique d'écho-intégration consiste à estimer la quantité de cibles (poissons) contenues dans un banc insonifié par un sonar en supposant que l'énergie de l'écho renvoyé par le banc, est proportionnelle au nombre de cibles Trois facteurs peuvent influencer cette linéarité: l'interférence des échos directs, l'effet d'écran et la diffusion multiple entre les cibles. Dans ce travail, l'influence des trois facteurs sur la linéarité de la technique d'écho-intégration est utilisée pour des cibles sphériques. Le mémoire est constitué de trois parties : la première est consacrée au calcul de la réponse impulsionnelle d'une sphère rigide à un champ incident du type 'impulsion de Driac ». Une méthode mixte est proposée pour le calcul. La deuxième partie est destinée à la modélisation de l'effet d’interférence dans l'étude de l'énergie par une distribution 2D de sphères. Certaines formules sont développés permettre une évaluation ra ide de l'effet d'interférence. La troisième partie concerne la modélisation de l'énergie diffusée par une distribution 3D de sphères. L'influence de l'effet d'interférence, de l'effet d'écran, et de la diffusion multiple d'ordre 2 sur la linéarité de la technique d'écho-intégration est étudiée pour des sphères rigides, molles, fluides et élastiques. Les résultats numériques montrent que la linéarité de la technique d'écho-intégration dépend beaucoup de la structure physique des cibles, de la quantité de celles-ci et de la fréquence de travail. Un sondeur large-bande est préférable pour la mise en application de cette technique et favorise l'identification de cibles. Cependant, l'utilisation d'un sondeur large-bande n'assure pas forcément une meilleure linéarité entre l'énergie diffusée par les cibles et leur quantité. L'hypothèse de la linéarité est acceptable surtout lorsque la quantité de cibles détectées est faible. Dans certains. Cas, où la distribution est relativement dense, des mesures sur deux tranches d'eau distinctes sont nécessaires pour déterminer la quantité de cibles
The estimation of fish abundance b the echo-interation method is based on the assumption that the echo energy returned from randomly distributed targets is proportional to the quantity of those targets. Three factors can affect this linearity : the interference of direct echoes the shadowing effect and the multiple scattering among the targets. In this work, the influence of the three factors upon the linearity of the echo-integration method is studied. Among the three component parts of work, the first pert deals with the calculation of impulse of a rigid sphere to a Dirac pressure transmission. The second part is devoted to the modelling of the interference effect in the energy investigation of echoes scattered by planar distribution of spheres. Some formulas are developed to provide a fast way to evaluate the interface contribution of echoes. The third art concerns with the modelling of the echo energy scattered by a 3D distribution of spheres. The contributions of the interference effect. The shadowing effect and the second order scattering among the targets are studied for rigid soft fluid and elastic spheres. The numerical results show that the linearity of the echo-integration method is tightly related to the material structure of the targets, the target quantity, and the working frequency. A wideband transducer is preferable for the implementation of the echo-interaction method and favourable to tar t identification. However using a wideband transducer does not necessarily improve the linearity between the energy scattered by the target and the quantity of those targets. The hypothesis of the linearity is acceptable especially when the target distribution is not dense. In certain cases where the number density of targets is relatively high, measurement over two different thicknesses of the volume is necessary to determining the quantity of targets
Styles APA, Harvard, Vancouver, ISO, etc.
18

Gopalapillai, Prijitha. « Evolution of stratospheric ozone in the mid-latitudes in connection with the abundances of halogen compounds ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00733555.

Texte intégral
Résumé :
Cette thèse a pour objet l'étude de l'évolution à long terme de l'ozone stratosphérique, en liaison avec la variation de l'abondance des composés halogénés dans la moyenne atmosphère. Dans ce but, les longues séries de mesures sol et satellitaires de la distribution verticale d'ozone obtenues depuis les années 1980 sont évaluées dans six stations du Network for the Detection of Atmospheric Composition Changes (NDACC - réseau international de surveillance de la composition atmosphérique), pour déterminer les biais et dérives éventuelles entre les mesures. Les tendances d'ozone stratosphérique sont ensuite évaluées dans deux stations de moyenne latitude de l'hémisphère nord à l'aide d'un modèle statistique utilisant deux types d'indicateurs pour représenter l'évolution des substances destructrices d'ozone dans la stratosphère: (1) l'Equivalent Effective Stratospheric Chlorine (EESC - paramètre quantifiant l'effet des composés chlorés et bromés stratosphériques sur l'ozone) et (2) deux fonctions linéaires avec changement de pente en 1997. L'étude de tendance est effectuée pour les mesures du contenu intégré d'ozone dans les deux stations et les mesures de distribution verticale à l'Observatoire de Haute-Provence. L'étude utilise les mesures sol d'ozone obtenues par lidar (profil d'ozone), spectromètre Dobson (contenu intégré et profil d'ozone par la méthode Umkehr), ozonosondage (profil d'ozone) et spectromètre UV-Visible SAOZ (contenu intégré). Les observations satellitaires utilisées proviennent des instruments SBUV(/2), SAGE II, HALOE, UARS MLS, Aura MLS et GOMOS. Tout d'abord une étude de la sensibilité des mesures lidar aux sections efficaces d'ozone utilisées dans l'algorithme de restitution est effectuée. La différence relative d'ozone obtenue à partir des mesures restituées à l'aide de différents jeux de données de section efficace reconnues par les instances internationales, est inférieure à ±1% entre 10 et 35 km à toutes les latitudes (à l'exception de -1.5 % à 15 km aux tropiques). Au-dessus de 35 km, l'écart s'accroit, avec un maximum à 45 km de 1.7 % aux tropiques et un minimum de 1.4 % aux hautes latitudes. La stabilité des différentes séries de mesures satellitaires et sol de la distribution verticale d'ozone est ensuite évaluée à partir de la comparaison avec les mesures lidar dans les six stations NDACC considérées au cours de la thèse. Le meilleur accord (±3%) entre les mesures issues des différentes techniques et les mesures lidar est obtenu entre 20 et 40 km. Dans ce domaine d'altitude, la dérive entre les différentes mesures est inférieure à ±0.3%yr−1. Des dérives et des biais comparativement plus importants sont calculés en dessous de 20 km et au-dessus de 40 km. Par ailleurs, la stabilité à plus long terme des mesures d'ozone est étudiée à partir de séries temporelles combinant les différences relatives entre les mesures lidar et les mesures SAGE II et HALOE d'une part avec les différences relatives entre les mesures lidar et les les mesures Aura MLS d'autre part. Les dérives estimées à partir de ces séries composites couvrant 27 années de mesure sont très faibles, de l'ordre de ±0.2%yr−1. Enfin les tendances évolutives du contenu intégré d'ozone sont évaluées à l'Observatoire Météorologique de Hohenpeissenberg (MOHp - Allemagne) à partir des mesures du spectromètre Dobson et à l'Observatoire de Haute-Provence (OHP - France) à partir des mesures des spectromètres Dobson et SAOZ. A l'OHP, les tendances de la distribution verticale d'ozone sont calculées à partir des mesures obtenues par différentes techniques de mesures, sol et satellitaires. Pour ce faire, un modèle de régression multilinéaire est développé, fondé sur l'utilisation de différentes variables telles que l'oscillation quasi-biennale (QBO), l'oscillation Nord-Atlantique (NAO), le flux solaire, le flux de chaleur turbulent, l'épaisseur optique des aérosols stratosphériques et les tendances à long terme. L'estimation des tendances calculées à partir des mesures de contenu intégré d'ozone dans les deux stations fournit des valeurs significatives, de l'ordre de −1.4±0.29 DUyr−1) et 0.55±0.29 DUyr−1 respectivement avant et après 1997. Les valeurs positives de la tendance après 1997, significatives pour un intervalle de confiance de 95 %, montrent clairement un début de rétablissement de l'ozone stratosphérique à ces latitudes. Concernant la distribution verticale d'ozone, les tendances calculées à partir de la moyenne des différentes séries de données à l'OHP montrent des valeurs maximales en valeur absolue de l'ordre de −0.5±0.1 %yr−1 entre 16 et 22 km et de −0.8±0.2 %yr−1 entre 38 et 45 km avant 1997. Des tendances positives significatives (0.2±0.05-0.3±0.1 %yr−1) sont évaluées entre 15 et 45 km après 1996. Ces tendances significatives du profil vertical d'ozone avant et après 1997 corroborent les résultats obtenus à partir du contenu intégré d'ozone et confirment le début de rétablissement de l'ozone stratosphérique. Par ailleurs, dans les deux cas (contenu intégré d'ozone et distribution verticale), les tendances post-1997 restituées par le modèle utilisant les fonctions linéaires sont plus élevées que celles issues du modèle utilisant l'EESC, indiquant ainsi que d'autres paramètres contribuent à l'augmentation du contenu en ozone. Enfin, il a été constaté que les contenus intégrés élevés d'ozone observés ces dernières années étaient liés à l'influence de la QBO et des processus dynamiques. Ainsi la QBO, la NAO et le flux de chaleur turbulent expliquent environ 80 % de l'importante anomalie positive de 25 - 30 DU mesurée entre février et avril 2010.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Cognet, Marie-Anne. « Étude préliminaire de la mesure du rapport alpha, rapport de la section efficace moyenne de capture sur celle de fission de l'233U, sur la plateforme PEREN - Développement et étude du dispositif expérimental - ». Phd thesis, Grenoble INPG, 2007. http://www.theses.fr/2007INPG0159.

Texte intégral
Résumé :
Cette thèse consiste en une étude préparatoire de la mesure du rapport alpha de l'233U entre 1eV et 10keV, facteur nécessaire pour calculer le pouvoir de régénération de réacteurs basés sur le cycle 232Th/233U. Cette mesure peut être effectuée au LPSC, sur la plateforme PEREN qui est composée d'un spectromètre à temps de ralentissement au plomb couplé à un GEnérateur de NEutrons Pulsé Intense (GENEPI). Les taux de capture et de fission sont mesurés grâce à 8 scintillateurs YAP utilisés en coïncidence et entourant une chambre à fission. Des mesures préliminaires sur l’235U ont présenté un rapport signal sur bruit très faible malgré les améliorations successives apportées. Les contributions du bruit de fond ont été comprises et quantifiées expérimentalement et via des simulations (MCNP et GEANT4). Il est cependant indispensable d’améliorer le rapport signal sur bruit d’au moins un ordre de grandeur pour obtenir la capture d’un élément fissile sur un tel dispositif expérimental
This Ph-D thesis was intended to prepare a precise measurement of the alpha ratio of 233U between 1eV and 10keV. This ratio is a key-parameter to calculate the breeding ratio of reactors based on the 232Th/233U cycle. This measurement would be performed, at the LPSC, on the experimental platform PEREN which is composed of a lead slowing-down time spectrometer associated with an intense pulsed neutron generator. Capture and fission rates are measured thanks to 8 scintillators YAP used in coincidence and surrounding a fission chamber. Preliminary tests using 235U resulted in a very low signal to background ratio despite the successive improvements. The different components of the background were identified and quantified experimentally and thanks to simulation tools (MCNP and GEANT4). Nevertheless, the signal to background ratio has still to be increased by about a factor 10 at least, to allow the measurement of the capture of a fissile element with such an experimental setup
Styles APA, Harvard, Vancouver, ISO, etc.
20

Cognet, Marie-Anne. « Etude préliminaire de la mesure du rapport alpha, rapport de la section efficace moyenne de capture sur celle de fission de l'233U, sur la plateforme PEREN - Développement et étude du dispositif expérimental - ». Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00269052.

Texte intégral
Résumé :
Cette thèse consiste en une étude préparatoire de la mesure du rapport alpha de l'233U entre 1eV et 10keV, facteur nécessaire pour calculer le pouvoir de régénération de réacteurs basés sur le cycle 232Th/233U. Cette mesure peut être effectuée au LPSC, sur la plateforme PEREN qui est composée d'un spectromètre à temps de ralentissement au plomb couplé à un GEnérateur de NEutrons Pulsé Intense (GENEPI). Les taux de capture et de fission sont mesurés grâce à 8 scintillateurs YAP utilisés en coïncidence et entourant une chambre à fission. Des mesures préliminaires sur l'235U ont présenté un rapport signal sur bruit très faible malgré les améliorations successives apportées. Les contributions du bruit de fond ont été comprises et quantifiées expérimentalement et via des simulations (MCNP et GEANT4). Il est cependant indispensable d'améliorer le rapport signal sur bruit d'au moins un ordre de grandeur pour obtenir la capture d'un élément fissile sur un tel dispositif expérimental.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Detandt-Feys, Brigitte. « La performance de l'entreprise est souvent approchée par un coefficient prenant en considération la valeur moyenne du titre, le taux des certificats de tresorerie et le coefficient "Beta" (mesure du risque du titre) : [thèse annexe] ». Doctoral thesis, Universite Libre de Bruxelles, 1986. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213538.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
22

Fontaine, Emmanuel. « Masse des cristaux de glace et facteurs de réflectivité radar dans les systèmes de nuages convectifs de moyenne échelle formés dans les Tropiques et la région de la mer Méditerranée ». Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22527/document.

Texte intégral
Résumé :
Cette thèse s’intéresse à la variabilité de la relation mass-diamètre (m(D)) des hydrométéores en phase glace présents dans les systèmes convectif de moyenne échelle (MCS). Elle s’appuie sur une base de données acquise pour 4 types de MCS différents durant 4 campagnes de mesure aéroportée : (i) MCS de la mousson Africaine (Continent ; MT2010), (ii) MCS de l’océan Indien (MT2011), (iii) MCS de la Méditerranée (côtes ; HyMeX), (iv) MCS de la mousson Nord-Australienne (côtes ; HAIC-HIWC). La relation m(D) est calculée à partir de l’analyse combinée des images des hydrométéores enregistrées par les sondes optiques et les facteurs de réflectivité mesurés à l’aide d’un radar Doppler embarqués sur le même avion de recherche. Il est d’usage que la relation m(D) des hydrométéores soit représentée par une loi puissance (avec un pré-facteur et un exposant), qui doit être contrainte par des informations supplémentaires sur les hydrométéores. Une étude théorique sur les formes des hydrométéores à l’aide de simulations en 3 dimensions dans lesquelles les hydrométéores sont orientés aléatoirement et projeté sur un plan, permet de contraindre l’exposant β de la relation m(D) en fonction de l’exposant σ de la relation surface-diamètre (S(D)). La relation S(D) est aussi représentée par une loi puissance, et elle peut-être calculée pour une population d’images d’hydrométéores enregistrés par les sondes optiques. La variabilité de l’exposant est finalement calculée à partir de la variabilité de l’exposant σ déduis des images des hydrométéores. Ensuite le pré-facteur α est calculé à partir de simulations des facteurs de réflectivité, de sorte que les facteurs de réflectivité simulés soient égaux aux facteurs de réflectivité mesurés par le radar nuage le long de la trajectoire de l’avion dans les MCS. Des profils moyens en fonction de la température sont calculés pour les coefficients de la relation m(D), les distributions en tailles des hydrométéores et les contenus massiques de glace dans les MCS (CWC). Les profils moyens pour les quatre types de MCS sont différents les uns des autres. Pour les quatre types de MCS, il est montré que les variations des coefficients de la relation m(D) sont corrélées avec les variations de la température. Four types de paramétrisations de la relation m(D) sont calculées depuis l’analyses des variations des coefficients de la relation m(D). Le bénéfice apporté par l’utilisation de relation m(D) non constante contrairement à l’utilisation de relation m(D) avec α et β constant, est démontré en étudiant l’impact de toutes les paramétrisations de la relation m(D) sur le calcul des relations Z-CWC et Z-CWC-T
This study focuses on the variability of mass-diameter relationships (m(D)) and shape of ice hydrometeors in Mesoscale Convective Systems (MCS). It bases on data base which were recorded during four airborne measurement campaigns: (i) African monsoon’s MCS (continent; MT2010), (ii) Indian Ocean’s MCS (MT2011), (iii) Mediterranean’s MCS (costs; HyMeX), (iv) North-Australian monsoon’s MCS (costs; HAIC-HIWC). m(D) of ice hydrometeors are derived from a combined analysis of particle images from 2D-array probes and associated reflectivity factors measured with a Doppler cloud radar on the same research aircraft. Usually, m(D) is formulated as a power law (with one pre-factor and one exponent) that need to be constrained from complementary information on hydrometeors. A theoretical study of numerous hydrometeor shapes simulated in 3D and arbitrarily projected on a 2D plan allowed to constrain the exponent β of the m(D) relationship from the exponent σ of the surface-diameter S(D) relationship, which is likewise written as a power law. Since S(D) always can be determined for real data from 2D optical array probes or other particle imagers, the evolution of the m(D) exponent can be calculated. After that, the pre-factor α of m(D) is constrained from theoretical simulations of the radar reflectivity factor matching the measured reflectivity factor along the aircraft trajectory. Mean profiles of m(D) coefficients, particles size distributions and Condensed Water Content (CWC) are calculated in functions of the temperature, and are different for each type of MCS. For the four types of MCS, it is shown that the variability of m(D) coefficients is correlated with the variability of the temperature. Four types of m(D) parametrisations are calculated since the analysis of the variability of the m(D) coefficients. The significant benefit of using variable m(D) relations instead of a single m(D) relationship is demonstrated from the impact of all these m(D) relations on Z-CWC and Z-CWC-T fitted parametrisations
Styles APA, Harvard, Vancouver, ISO, etc.
23

El, Hosseiny Hany. « Problème de Fatou ponctuel pour les quotients harmoniques et généralisations ». Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10109.

Texte intégral
Résumé :
Dans ce travail nous etudions le probleme ponctuel de fatou pour les quotients d'integrales de poisson sur le demi-espace euclidien. Ce probleme consiste a relier deux notions concernants le comportement d'une mesure de radon signee par rapport a une mesure positive en un point de l'espace, il a ete considere par plusieurs auteurs (dont p. Fatou) dans le cas ou la mesure positive de base est la mesure de lebesgue. La premiere notion est celle de derivabilite relative introduite dans les travaux de besicovitch et de saks, la seconde est le comportement limite du quotient d'integrales de poisson. Ces deux notions ont des variantes radiales, variationnelles et non-tangentielles ou on fait la distinction entre les differentes approches dans la definition de la limite. Nous demontrons plusieurs resultats abeliens deduisant l'existence de la limite du quotient d'integrales de poisson de la derivabilite relative. Ces resultats etendent un resultat classique de j. Doob. Dans l'autre direction nous demontrons un theoreme tauberien qui donne la derivabilite relative a partir de la connaissance de la limite du quotient d'integrales de poisson. Mais notre demonstration n'est pas valable que quand la mesure positive de base est homogene. Les cas particuliers des mesures positives et des mesures ayant une densite bmo par rapport a la mesure de lebesgue sont etudies en plus de details. Les resultats pour les integrales de poisson sont etendues a une classe plus generale de convolutions qui contient, outre les integrales de poisson, les integrales de gauss-weierstrass et les transformee de laplace. Ce travail est une extension naturelle des investigations menees par j. Brossard et l. Chevalier et par w. Ramey et d. Ullrich
Styles APA, Harvard, Vancouver, ISO, etc.
24

Moatar-Bertrand, Florentina. « Modélisations statistiques et déterministes des paramètres physico-chimiques utilisés en surveillance des eaux de rivières : application à la validation des séries de mesures en continu (cas de la Loire moyenne) ». Grenoble INPG, 1997. http://www.theses.fr/1997INPG0219.

Texte intégral
Résumé :
Pour la surveillance hydroecologique des centrales nucleaires, des stations automatiques mesurent en continu quatre parametres physico-chimiques : la temperature de l'eau, l'oxygene dissous, le ph et la conductivite electrique. Ces stations produisent a chaque heure des mesures de la qualite de l'eau prelevee en amont, en aval et au droit du rejet des centrales. Ce travail propose un ensemble d'outils permettant la critique et la validation de ces donnees. Ces outils devraient permettre de detecter les valeurs aberrantes, les discontinuites et les derives des enregistrements les plus frequemment observees. La procedure mise au point compare, a travers des tests statistiques classiques, la mesure a d'autres informations : autres mesures ou previsions de modele. Les modeles s'appuient soit sur les proprietes internes de la serie temporelle de chaque variable consideree, soit sur des relations avec des variables externes hydro-meteorologiques : temperature de l'air, rayonnement solaire et debit. Ces liaisons peuvent s'exprimer soit par un modele totalement ou partiellement deterministe, soit par un modele statistique, l'un comme l'autre necessitant une calibration sur des donnees anciennes. On a notamment utilise les modeles de box et jenkins, les reseaux de neurones ou des modeles deterministes comme calnat ou une adaptation de biomox (edf- chatou). Ces methodes et outils ont ete developpes et appliques en validation croisee sur cinq annees de donnees pour la loire a dampierre (1990-1994).
Styles APA, Harvard, Vancouver, ISO, etc.
25

Monsan, Vincent. « Estimation spectrale dans les processus périodiquement corréles ». Rouen, 1994. http://www.theses.fr/1994ROUES030.

Texte intégral
Résumé :
Nous considérons un processus périodiquement corrélé. Dans la première partie, nous donnons quelques propriétés de ce processus. Dans la seconde partie, nous estimons les densités spectrales de ce processus à partir d'un échantillonnage poissonnien avec des hypothèses sur les coefficients de Fourier de la fonction de covariance du processus. La troisième partie reprend les estimateurs de la deuxième partie, mais avec des hypothèses sur la fonction de covariance. Dans la quatrième partie, nous estimons les densités spectrales à partir d'un échantillonnage poissonnien de taille aléatoire. Dans la cinquième partie, nous supposons que chaque mesure spectrale est la somme d'une mesure absolument continue par rapport à la mesure de Lebesgue et d'une mesure discrète comportant un nombre fini d'atomes. Nous estimons d'abord les atomes et les sauts, ensuite par la méthode du double noyau, nous estimons la partie absolument continue. La sixième partie concerne l'influence des zéros des densités spectrales sur le comportement des estimateurs de la moyenne. Dans la dernière partie, nous calculons les estimateurs des parties 2, 3 et 4 à partir de données simulées
Styles APA, Harvard, Vancouver, ISO, etc.
26

Billanou, Ian. « Modélisation expérimentale et théorique pour la quantification du débit sanguin par Tomographie à Emission de Positrons ». Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0006/document.

Texte intégral
Résumé :
La Tomographie à Emission de Positrons (TEP) permet d'obtenir une mesure dynamique et résolue en espace de la concentration d'un traceur radioactif injecté au patient. La quantification du débit sanguin cérébral par TEP repose sur l'utilisation d'un modèle cinétique le reliant à la variation spatio-temporelle de la concentration du traceur dans le cerveau. Différents modèles cinétiques sont proposés dans la littérature. Cependant, la majorité d'entre eux repose sur une modélisation compartimentale de l'organe observé. Dans ce cas, l'organe est subdivisé en un compartiment capillaire échangeant avec un compartiment tissulaire par une cinétique le plus souvent du premier ordre. Les résultats obtenus avec ce type de modèle sous-estiment le débit et ne permettent pas de prédire les premiers instants de la dynamique de répartition du traceur. Ces faiblesses ont été confirmées suite à l'amélioration de la résolution temporelle des tomographes, conduisant à l'élaboration de modèles incorporant plus de réalité physiologique. Cependant, tous ces modèles sont développés pour modéliser les échanges entre la micro-circulation et le tissu environnant à l'échelle d'un capillaire (échelle microscopique). Or la résolution spatiale des tomographes utilisés en clinique ne permet pas de distinguer la micro-circulation et le tissu. L'utilisation de ces modèles cinétiques avec des mesures de concentrations macroscopiques dépasse donc leur cadre théorique de validité et peut introduire des résultats faussés. Dans ce contexte, nous proposons un modèle cinétique basé sur le changement d'échelle (utilisant la méthode de prise de moyenne volumique). Ce changement d'échelle permet de remplacer l'ensemble micro-circulation/tissu par un volume fictif, homogène, dont les propriétés macroscopiques sont calculées à partir des propriétés microscopiques d'un Volume Elémentaire Représentatif (VER) du milieu. Dans un premier temps, afin de pouvoir comparer les résultats de ce modèle avec ceux du modèle compartimental standard, le VER considéré est constitué d'un capillaire unique et de son enveloppe de tissu, puis une complexité géométrique supplémentaire est introduite en considérant un réseau de capillaire isotrope à l'échelle de Darcy. Ces modèles sont utilisés pour identifier le débit à l'aide d'une méthode inverse. Pour cela, l'évolution temporelle du champ de concentration dans notre géométrie de référence, qui ne peut être mesurée par TEP en raison de sa faible résolution spatiale, est déterminée par des simulations numériques ainsi que par des mesures in vitro à l'aide d'un modèle expérimental, également développé au cours de ce travail, permettant de reproduire l'écoulement dans un canal traversant une matrice diffusante (gel d'alginate)
Positron Emission Tomography (PET) provides a dynamic and space-resolved measurement of the concentration field of a radioactive tracer previously injected to the patient. Quantification of cerebral blood flow by PET is based on the use of a kinetic model linking cerebral blood flow to the spatial and temporal variations of tracer concentration in the brain. Various kinetic models have been proposed in the literature. However, most of the mare based on a compartmental approach of the observed organ In this case, the organ is divided in two compartments, the capillary and the tissue, and the exchanges between these two compartments are often described by a first order kinetic model. Results obtained with this kind of model under estimate the flow rate and are notable to predict the first instants of the tracer dynamics distribution. With the continuous improvement of the temporal resolution of PET, these weaknesses have been confirmed, which led to the development of models incorporating more physiological reality. However, all these models have been developed to describe exchanges between micro-circulation and surrounding tissue at the scale of capillary vessels (microscopic scale). Because the spatial resolution of PET inclinical practice is insufficient to allow the distinction between micro-circulation and tissue, using of these models with kinetic measurement of macroscopic concentrations exceeds their theoretical validity and can introduce false results. In this context, we propose a kinetic model based on up-scaling (using the method of volume averaging). This up-scaling technique allows to replace the two previous compartments (tissue and micro-circulation) by an homogeneous fictive volume, whose macroscopic properties are calculated from the microscopic properties of are presentative elementary volume (REV) of the medium. First, in order to compare the results of this model with those of the standard compartmental model, the considered REV consists of a single capillary and its surrounding tissue. Second, additional geometric complexity is introduced by considering an isotropic capillary network at the Darcy scale. These models are used to identify the flow rate using an inverse method. For that purpose, the temporal evolution of concentration field in a geometry of reference, which can't be measured by PET due to its low spatial resolution, is determined by numerical simulations and by in vitro measurements. These measurements are performed using an experimental model developed during this work to reproduce the flow in a channel passing through a diffusive matrix (alginate gel)
Styles APA, Harvard, Vancouver, ISO, etc.
27

Albouy, Olivier. « Discrete algebra and geometry applied to the Pauli group and mutually unbiased bases in quantum information theory ». Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00612229.

Texte intégral
Résumé :
Pour d non puissance d'un nombre premier, le nombre maximal de bases deux à deux décorrélées d'un espace de Hilbert de dimension d n'est pas encore connu. Dans ce mémoire, nous commençons par donner une construction de bases décorrélées en lien avec une famille de représentations irréductibles de l'algèbre de Lie su(2) et faisant appel aux sommes de Gauss.Puis nous étudions de façon systématique la possibilité de construire de telle bases au moyen des opérateurs de Pauli. 1) L'étude de la droite projective sur Zdm montre que, pour obtenir des ensembles maximaux de bases décorrélées à l'aide d'opérateurs de Pauli, il est nécessaire de considérer des produits tensoriels de ces opérateurs. 2) Les sous-modules lagrangiens de Zd2n, dont nous donnons une classification complète, rendent compte des ensembles maximalement commutant d'opérateurs de Pauli. Cette classification permet de savoir lesquels de ces ensembles sont susceptibles de donner des bases décorrélées : ils correspondent aux demi-modules lagrangiens, qui s'interprètent encore comme les points isotropes de la droite projective (P(Mat(n, Zd)²),ω). Nous explicitons alors un isomorphisme entre les bases décorrélées ainsi obtenues et les demi-modules lagrangiens distants, ce qui précise aussi la correspondance entre sommes de Gauss et bases décorrélées. 3) Des corollaires sur le groupe de Clifford et l'espace des phases discret sont alors développés.Enfin, nous présentons quelques outils inspirés de l'étude précédente. Nous traitons ainsi du rapport anharmonique sur la sphère de Bloch, de géométrie projective en dimension supérieure, des opérateurs de Pauli continus et nous comparons l'entropie de von Neumann à une mesure de l'intrication par calcul d'un déterminant.
Styles APA, Harvard, Vancouver, ISO, etc.
28

El, Aouni Anass. « Lagrangian coherent structures and physical processes of coastal upwelling ». Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0146.

Texte intégral
Résumé :
L’étude des processus physiques d’un système d’upwelling est essentielle pour comprendre sa variabilité actuelle et ses changements passés et futurs. Cette thèse présente une étude interdisciplinaire du système d’upwelling côtier à partir de différentes données acquises par satellite, l’accent étant mis principalement sur le système d’upwelling d’Afrique du Nord-Ouest (NWA). Cette étude interdisciplinaire aborde (1) le problème de l’identification et de l’extraction automatiques du phénomène d’upwelling à partir d’observations satellitaires biologiques et physiques. (2) Une étude statistique de la variation spatio-temporelle de l’upwelling de la NWA tout au long de son extension et de ses différents indices d’upwelling. (3) Une étude des relations non linéaires entre le mélange de surface et l’activité biologique dans les régions d’upwelling. (4) études lagrangiennes de tourbillons cohérents; leurs propriétés physiques et identification automatique. (5) L’étude des transports effectués par les tourbillons lagrangiens de la NWA Upwelling et leur impact sur l’océan
Studying physical processes of an upwelling system is essential to understand its present variability and its past and future changes. This thesis presents an interdisciplinary study of the coastal upwelling system from different satellite acquired data, with the main focus placed on the North West African (NWA) upwelling system. This interdisciplinary study covers (1) the problem of the automatic identification and extraction of the upwelling phenomenon from biological and physical satellite observations. (2) A statistical study of the spatio-temporal variation of the NWA upwelling throughout its extension and different upwelling indices. (3) A Study of the nonlinear relationships between the surface mixing and biological activity in the upwelling regions. (4) Lagrangian studies of coherent eddies; their physical properties and automatic identification. (5) The study of transport made by Lagrangian eddies off the NWA Upwelling and their impact on the open ocean. [...]
Styles APA, Harvard, Vancouver, ISO, etc.
29

Sun, Wen. « A study of interacting stochastic networks : large scale, long time behavior and fluctuations, with applications in communication networks and protein polymerization ». Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS075.

Texte intégral
Résumé :
Ce document est consacré aux analyses de grands réseaux stochastiques utilisés pour étudier des réseaux de communication et ainsi que certains phénomènes biologiques. La première partie se compose de trois modèles pour évaluer l’efficacité des algorithmes de duplication et de placement dans les grands systèmes distribués. Au chapitre 2, la dynamique du système est décrite l’aide de la mesure empirique associée à un processus de transient multidimensionnel. Une étude détaillée de ces processus est effectuée sur plusieurs échelles de temps rapides. Des principes de moyenne stochastique avec plusieurs échelles de temps sont étudiées. Aux chapitres 3 et 4, les interactions considérées peuvent avoir des tailles de saut illimitées et se produire dans un ensemble aléatoire fini de nœuds. Le processus de la mesure empirique associé n’ayant pas d’équations d’évolution simples, nous développons une analyse de champ moyen spécifique pour étudier ces systèmes. Le comportement en temps long des processus de diffusions non linéaires correspondants est aussi analysé. La deuxième partie présente deux modèles pour étudier la variabilité dans les modèles de polymérisation. Dans le chapitre 5, nous étudions les processus de polymérisation et de fragmentation avec l’hypothèse d’un noyau critique pour la taille des polymères. Notre résultat montre que ces modèles semblent donner une explication raisonnable de la transition de phase courte du phénomène de polymérisation, et surtout de la grande variabilité de l’instant de transition, qui ont été observés dans de nombreuses expériences. Au chapitre 6, nous proposons un théorème de limite centrale fonctionnelle dans le modèle de Becker-Döring
This PhD document is devoted to the analyses of large stochastic networks used to study mathematical models in communication networks and in biology. The first part consists of the analysis of three models used to evaluate the efficiency of duplication and placement algorithms in large distributed systems. These models are represented by large stochastic networks under different scaling regimes assumptions. In Chapter 2, the dynamic of the system can be described with the empirical measure associated to a multi-dimensional transient Markov process. We provide a detailed study of these processes on several fast time scales. Stochastic averaging principles with multiple time scales are investigated in particular. In Chapter 3 and Chapter 4, the interactions have unbounded jump sizes and occur within a limited random set of nodes. We develop a convenient mean field analysis in despite that the associated empirical measures do not have autonomous evolution equations. We also study the long time behavior of the corresponding limiting nonlinear jump diffusions. The second part analyzes two models used to study the variability in the polymerization phenomena occurring in a biological context. In Chapter 5, we investigate the polymerization and fragmentation processes with an assumption of critical nucleus size. A scaling analysis of these stochastic models show that the sharp phase transition and, especially the large variance, observed in the experiments can be explained by these models. In Chapter 6, we provide a functional central limit theorem in the classical (infinite dimensional) stochastic Becker-Döring model
Styles APA, Harvard, Vancouver, ISO, etc.
30

Villemaire, Philippe. « Utilisation du DVP pour fins de mesure de hauteurs d'arbres en peuplements forestiers résineux, sur photographies aériennes d'échelle moyenne / ». 1997. http://proquest.umi.com/pqdweb?did=740669261&sid=21&Fmt=2&clientId=9268&RQT=309&VName=PQD.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Togney, Marie-Laure. « Dans quelle mesure les incoterms pourraient constituer un espace de négociations commerciales favorisant la performance à l'international des PME manufacturières exportatrices québécoises hors ALÉNA sur le long terme ? » Mémoire, 2012. http://www.archipel.uqam.ca/4896/1/M12476.pdf.

Texte intégral
Résumé :
Dans le contexte de mondialisation provoqué par la déréglementation des prix des transports et des communications intervenue au milieu des années 70, l'internationalisation est peu à peu devenue une condition de survie pour l'entreprise. Au Québec, les PME manufacturières n'échappent pas à cette tendance. Pourtant, elles semblent peiner à diversifier leurs exportations en terme de destinations. En effet, soutenues par un phénomène de proximité géographique et psychologique, c'est traditionnellement et essentiellement vers les États-Unis qu'elles exportent. C'est aussi le cas pour les entreprises de plus grande taille. Or, l'accélération de la mondialisation des marchés va de pair avec de nombreux changements dans le commerce international. Le taux de change, par exemple, constitue aujourd'hui clairement une condition à l'exportation. De plus, au Québec comme dans de nombreux pays, les PME constituent un pilier de l'économie. Cette importance des PME québécoises dans l'économie de la province, réside dans l'emploi. Ce travail de recherche porte sur l'utilisation des Incoterms par les PME manufacturières québécoises dans le cadre de leurs activités de négociation à l'international, hors ALÉNA. Il a pour double objectif de comprendre comment ces PME utilisent et maîtrisent les Incoterms, d'une part, et comment elles pourraient en tirer profit à l'exportation, d'autre part. Plus exactement, il s'agit d'analyser les Incoterms sous l'angle des négociations commerciales et de regarder comment ils pourraient, à la condition de leur maîtrise, favoriser la performance à l'exportation des PME québécoises. Cette étude circonscrit les activités à l'international par opposition aux activités avec les États-Unis et le Mexique. Nous avons effectué un premier travail d'entrevues semi-structurées menées auprès de 5 experts québécois et internationaux du commerce international que nous avons choisis pour la maîtrise et la couverture du domaine des activités de négociation à l'international des PME du Québec qu'ils offrent globalement. Ces experts, spécialistes des PME québécoises, des activités de négociation à l'exportation, des échanges internationaux, de la logistique, du transport et de la douane, ainsi que des Incoterms, • nous ont offert l'information dense et précise, nécessaire à l'orientation de notre recherche. L'analyse des données primaires ainsi obtenues a permis de mettre en évidence un manque de connaissance, en général, des Incoterms par les PME québécoises, s'inscrivant dans un manque de connaissance de leur propre environnement. Ce dernier est marqué par une absence de recherche systématique de l'information venant alimenter les tableaux de bord de gestion stratégique des PME, tels que les plans stratégiques marketing, plans d'affaires et plans d'affaires à l'exportation. C'est précisément au plan d'affaires à l'exportation que nous relierons les Incoterms, car il est le seul des tableaux de bord de gestion stratégique à les intégrer. Or, notre étude nous a révélé que peu de PME en possèdent, et lorsqu'elles en possèdent un, celui-ci a été réalisé à l'externe, en partie ou en totalité. Cette première analyse a aussi et surtout permis de définir dans quelles conditions les Incoterms peuvent constituer un outil de négociation. Bien entendu, le rapport de force dans la négociation, en terme de pouvoir lié à la taille de l'entreprise, en est la première. La PME, face à la multinationale, ne possède pas de bargaining power, à moins d'être en situation de monopole. La seconde condition réside dans la maîtrise des Incoterms assortie de la maîtrise optimale de tous les éléments du plan d'affaires à l'export de la firme, au titre du cadre de référence commun des négociateurs. Les éléments du plan d'affaires appartiennent à l'information de la PME que son négociateur devra échanger avec l'autre partie, minimalement à partir de la seconde étape de la négociation. D'une manière générale, l'information est nécessaire au négociateur pendant les quatre phases de la négociation. En ce qui concerne l'aspect interculturel des relations de négociation, il constitue un obstacle pour le négociateur, tant qu'il n'a pas été appréhendé, traité, compris et intégré au plan d'affaires au titre de l'information de l'entreprise. Nous avons mené notre travail principal d'analyse, à travers un questionnaire semi-structuré administré auprès d'un échantillon représentatif de 10 PME manufacturières québécoises exportatrices. Plus exactement, nous avons entrevu les propriétaires dirigeant et/ou négociateur à l'international des PME concernées. Nous avons ensuite dégagé, à partir de quelque 160 pages de retranscriptions, un certain nombre de faits saillants que nous avons analysés. Ce travail nous a permis de valider nos propositions de recherche, certes, ainsi que d'établir la réalité de la connaissance, la maîtrise et l'utilisation des Incoterms à travers la présence et de la mise en œuvre d'un plan d'affaires à l'exportation chez les PME québécoises. Il nous a aussi permis d'établir que les PME québécoises, y compris celles qui affirment les connaître, sinon être en mesure d'effectuer les recherches propres à les utiliser, ne connaissent pas les Incoterms. Ces dernières, les utilisant de façon erronée, n'éliminent pas le risque lié au transport international contrairement à leurs croyances. Ainsi, elles s'inscriraient dans le mode de travail « essais et erreurs » évoqué par nos experts. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Caractéristique des PME, Bargaining Power, Caractéristiques du négociateur, Activités de négociations, Marketing relationnel, Gestion de la relation client, Contexte interculturel, Plan d'affaires à l'exportation, Incoterms, Performance à l'exportation.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Gravel, Claude. « Structure de la distribution de probabilités de l'état GHZ sous l'action locale de transformations du groupe U(2) ». Thèse, 2011. http://hdl.handle.net/1866/5511.

Texte intégral
Résumé :
Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.
In this Master's thesis, I show that the probability distribution of the Greenberger-Horne-Zeilinger quantum state (GHZ) under local action of independent von Neumann measurements follows a convex distribution of two distributions.The coefficients of the combination are related to the equatorial parts of the measurements, and the distributions associated with those coefficients are associated with the real parts of the measurements. One possible application of my result is that it allows one to split into two pieces the simulation of the GHZ state. Simulating, in worst case or in average, a quantum state like the GHZ state with random resources, shared or private, as well as with classical communication resources or even odd resources like nonlocal boxes is a very important in the theory of quantum communication complexity. We can think of this simulation problem as a problem in which many people get the description of a von Neumann measurement. Each party does not know the description of any other measurements belonging to the other parties. Each party after having applied his measurement on the subsystem of the state that he shares with the others gets a classical outcome. The joint distribution of the outcomes of every parties follows the distribution studied in this thesis in the case of the GHZ state. My result indicates that in order to simulate the distribution, we can first simulate the equatorial parts of the measurements in order to know which distribution associated to the real parts of the measurements to simulate. Other researchers have found how to simulate the equatorial parts of the von Neumann measurements with classical resources in the case of 3 parties, but it is still unknown how to simulate the real parts.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Taamouti, Abderrahim. « Problèmes d'économétrie en macroéconomie et en finance : mesures de causalité, asymétrie de la volatilité et risque financier ». Thèse, 2007. http://hdl.handle.net/1866/1507.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie