Siga este enlace para ver otros tipos de publicaciones sobre el tema: Fusion de profondeur de champ.

Tesis sobre el tema "Fusion de profondeur de champ"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Fusion de profondeur de champ".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Ocampo, Blandon Cristian Felipe. "Patch-Based image fusion for computational photography". Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0020.

Texto completo
Resumen
Dans de nombreuses situations, la dynamique des capteurs ou la profondeur de champ des appareils photographiques conventionnels sont insuffisantes pour capturer fidèlement des scènes naturelles. Une méthode classique pour contourner ces limitations est de fusionner des images acquises avec des paramètres de prise de vue variables. Ces méthodes nécessitent que les images soient parfaitement alignées et que les scènes soient statiques, faute de quoi des artefacts (fantômes) ou des structures irrégulières apparaissent lors de la fusion. Le but de cette thèse est de développer des techniques permettant de traiter directement des images dynamiques et non-alignées, en exploitant des mesures de similarité locales par patchs entre images.Dans la première partie de cette thèse, nous présentons une méthode pour la fusion d'images de scènes dynamiques capturées avec des temps d'exposition variables. Notre méthode repose sur l'utilisation jointe d'une normalisation de contraste, de combinaisons non-locales de patchs et de régularisations. Ceci permet de produire de manière efficace des images contrastées et bien exposées, même dans des cas difficiles (objets en mouvement, scènes non planes, déformations optiques, etc.).Dans la deuxième partie de la thèse nous proposons, toujours dans des cas dynamiques, une méthode de fusion d'images acquises avec des mises au point variables. Le cœur de notre méthode repose sur une comparaison de patchs entre images ayant des niveaux de flou variables.Nos méthodes ont été évaluées sur des bases de données classiques et sur d'autres, nouvelles, crées pour les besoins de ce travail. Les expériences montrent la robustesse des méthodes aux distortions géométriques, aux variations d'illumination et au flou. Ces méthodes se comparent favorablement à des méthodes de l'état de l'art, à un coût algorithmique moindre. En marge de ces travaux, nous analysons également la capacité de l'algorithme PatchMatch à reconstruire des images en présence de flou et de changements d'illumination, et nous proposons différentes stratégies pour améliorer ces reconstructions
The most common computational techniques to deal with the limited high dynamic range and reduced depth of field of conventional cameras are based on the fusion of images acquired with different settings. These approaches require aligned images and motionless scenes, otherwise ghost artifacts and irregular structures can arise after the fusion. The goal of this thesis is to develop patch-based techniques in order to deal with motion and misalignment for image fusion, particularly in the case of variable illumination and blur.In the first part of this work, we present a methodology for the fusion of bracketed exposure images for dynamic scenes. Our method combines a carefully crafted contrast normalization, a fast non-local combination of patches and different regularization steps. This yields an efficient way of producing contrasted and well-exposed images from hand-held captures of dynamic scenes, even in difficult cases (moving objects, non planar scenes, optical deformations, etc.).In a second part, we propose a multifocus image fusion method that also deals with hand-held acquisition conditions and moving objects. At the core of our methodology, we propose a patch-based algorithm that corrects local geometric deformations by relying on both color and gradient orientations.Our methods were evaluated on common and new datasets created for the purpose of this work. From the experiments we conclude that our methods are consistently more robust than alternative methods to geometric distortions and illumination variations or blur. As a byproduct of our study, we also analyze the capacity of the PatchMatch algorithm to reconstruct images in the presence of blur and illumination changes, and propose different strategies to improve such reconstructions
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Aissaoui, Amel. "Reconnaissance bimodale de visages par fusion de caractéristiques visuelles et de profondeur". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10030/document.

Texto completo
Resumen
Ce travail s’inscrit dans la thématique de la reconnaissance de visages. Il s’agit de décider de manière automatique de l’identité d’une personne en fonction des traits caractéristiques de son visage. Nous présentons une approche bimodale 2D-3D qui combine des caractéristiques visuelles et de profondeur, afin d’améliorer la précision et la robustesse de la reconnaissance par rapport aux approches monomodales classiques. Dans un premier temps, une méthode d’acquisition 3D par reconstruction stéréoscopique dédiée aux visages est proposée. Cette méthode s’appuie sur un modèle actif de forme permettant de tenir compte de la topologie du visage. Ensuite, un nouveau descripteur DLBP (Depth Local Binary Patterns) est défini pour caractériser les informations de profondeur. Ce descripteur étend aux images de profondeur les LBP traditionnels utilisés pour décrire les textures. Enfin, une stratégie de fusion bi-niveaux est proposée, permettant une combinaison à la fois précoce et tardive des deux modalités. Des expérimentations menées sur différentes collections publiques de tests, ainsi que sur une collection spécialement élaborée pour les besoins de l’évaluation, ont permis de valider les contributions proposées dans le cadre de ce travail. En particulier, les résultats ont montré d’une part la qualité des données obtenues à l’aide de la méthode de reconstruction, et d’autre part un gain de précision obtenu en utilisant le descripteur DLBP et la fusion bi-niveaux
This work lies in the domain of face recognition. The objective is to automatically decide about a person identity by analyzing his/her facial features. We introduce a 2D-3D bimodal approach that combines visual and depth features in order to provide better recognition accuracy and robustness than classical monomodal approaches. First, a 3D acquisition method dedicated to faces, based onstereoscopic reconstruction, is proposed. It is based on an active shape model to take into account the topology of the face. Then, a novel descriptor named DLBP (Depth Local Binary Patterns) is defined in order to characterize the depth information. This descriptor extends to the depth images the traditional LBP originally used for texture description. Finally, a two-stage fusion strategy isproposed, that combines the modalities using both early and late fusions. The experiments conducted with different public datasets, as well as with a new dataset elaborated specifically for the evaluation purposes, allowed to validate the contributions introduced throughout this work. In particular, results have shown the quality of the data obtained using the reconstruction method, and also a gain in precision obtained by using the DLBP descriptor and the two-stage fusion
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Desaulniers, Pierre. "Augmentation de la profondeur de champs par encoddage du front d'onde". Master's thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25227/25227.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Hadhri, Tesnim. "Single view depth estimation from train images". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/70388.

Texto completo
Resumen
L’estimation de la profondeur consiste à calculer la distance entre différents points de la scène et la caméra. Savoir à quelle distance un objet donné est de la caméra permettrait de comprendre sa représentation spatiale. Les anciennes méthodes ont utilisé des paires d’images stéréo pour extraire la profondeur. Pour avoir une paire d’images stéréo, nous avons besoin d’une paire de caméras calibrées. Cependant, il est plus simple d’avoir une seule image étant donnée qu’aucun calibrage de caméra n’est alors nécessaire. C’est pour cette raison que les méthodes basées sur l’apprentissage sont apparues. Ils estiment la profondeur à partir d’une seule image. Les premières solutions des méthodes basées sur l’apprentissage ont utilisé la vérité terrain de la profondeur durant l’apprentissage. Cette vérité terrain est généralement acquise à partir de capteurs tels que Kinect ou Lidar. L’acquisition de profondeur est coûteuse et difficile, c’est pourquoi des méthodes auto-supervisées se sont apparues naturellement comme une solution. Ces méthodes ont montré de bons résultats pour l’estimation de la profondeur d’une seule image. Dans ce travail, nous proposons d’estimer des cartes de profondeur d’images prises du point de vue des conducteurs de train. Pour ce faire, nous avons proposé d’utiliser les contraintes géométriques et les paramètres standards des rails pour extraire la carte de profondeur à entre les rails, afin de la fournir comme signal de supervision au réseau. Il a été démontré que la carte de profondeur fournie au réseau résout le problème de la profondeur des voies ferrées qui apparaissent généralement comme des objets verticaux devant la caméra. Cela a également amélioré les résultats de l’estimation de la profondeur des séquences des trains. Au cours de ce projet, nous avons d’abord choisi certaines séquences de trains et déterminé leurs distances focales pour calculer la carte de profondeur de la voie ferrée. Nous avons utilisé ce jeu de données et les distances focales calculées pour affiner un modèle existant « Monodepth2 » pré-entrainé précédemment sur le jeu de données Kitti.
Depth prediction is the task of computing the distance of different points in the scene from the camera. Knowing how far away a given object is from the camera would make it possible to understand its spatial representation. Early methods have used stereo pairs of images to extract depth. To have a stereo pair of images, we need a calibrated pair of cameras. However, it is simpler to have a single image as no calibration or synchronization is needed. For this reason, learning-based methods, which estimate depth from monocular images, have been introduced. Early solutions of learning-based problems have used ground truth depth for training, usually acquired from sensors such as Kinect or Lidar. Acquiring depth ground truth is expensive and difficult which is why self-supervised methods, which do not acquire such ground truth for fine-tuning, has appeared and have shown promising results for single image depth estimation. In this work, we propose to estimate depth maps for images taken from the train driver viewpoint. To do so, we propose to use geometry constraints and rails standard parameters to extract the depth map inside the rails, to provide it as a supervisory signal to the network. To this end, we first gathered a train sequences dataset and determined their focal lengths to compute the depth map inside the rails. Then we used this dataset and the computed focal lengths to finetune an existing model “Monodepth2” trained previously on the Kitti dataset. We show that the ground truth depth map provided to the network solves the problem of depth of the rail tracks which otherwise appear as standing objects in front of the camera. It also improves the results of depth estimation of train sequences.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Cormier, Geoffroy. "Analyse statique et dynamique de cartes de profondeurs : application au suivi des personnes à risque sur leur lieu de vie". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S146.

Texto completo
Resumen
En France, les chutes constituent la première cause de mortalité chez les plus de 75 ans, et la seconde chez les plus de 65 ans. On estime qu'elle engendre un coût de 1 à 2 milliards d'euros par an pour la société. L'enjeu humain et socio-économique est colossal, sachant que le risque de chute est multiplié par 20 après une première chute, que le risque de décès est multiplié par 4 dans l'année qui suit une chute, que les chutes concernent 30% des personnes de plus de 65 ans et 50% des personnes de plus de 85 ans, et que l'on estime que d'ici 2050, plus de 30% de la population sera âgée de plus de 65 ans. Cette thèse propose un dispositif de détection de présence au sol se basant sur l'analyse de cartes de profondeurs acquises en temps réel, ainsi qu'une amélioration du dispositif proposé utilisant également un capteur thermique. Les cartes de profondeurs et les images thermiques nous permettent de nous affranchir des conditions d'illumination de la scène observée, et garantissent l'anonymat des personnes qui évoluent dans le champ de vision du dispositif. Cette thèse propose également différentes méthodes de détection du plan du sol dans une carte de profondeurs, le plan du sol constituant une référence géométrique nécessaire au dispositif proposé. Une enquête psychosociale a été réalisée, qui nous a permis d'évaluer l'acceptabilité a priori dudit dispositif. Cette enquête a démontré sa bonne acceptabilité, et a fourni des préconisations quant aux points d'amélioration et aux écueils à éviter. Enfin, une méthode de suivi d'objets dans une carte de profondeurs est proposée, un objectif à plus long terme consistant à mesurer l'activité des individus observés
In France, fall is the first death cause for people aged 75 and more, and the second death cause for people aged 65 and more. It is considered that falls generate about 1 to 2 billion euros health costs per year. The human and social-economical issue is crucial, knowing that for the mentioned populations, fall risk is multiplied by 20 after a first fall; that the death risk is multiplied by 4 in the year following a fall; that per year, 30% of the people aged 65 and more and 50% of the people aged 85 and more are subject to falls; and that it is estimated that more than 30% of the French population whill be older than 65 years old by 2050. This thesis proposes a ground lying event detection device which bases on the real time analysis of depth maps, and also proposes an improvement of the device, which uses an additional thermal sensor. Depth maps and thermal images ensure the device is independent from textures and lighting conditions of the observed scenes, and guarantee that the device respects the privacy of those who pass into its field of view, since nobody can be recognized in such images. This thesis also proposes several methods to detect the ground plane in a depth map, the ground plane being a geometrical reference for the device. A psycho-social inquiry was conducted, and enabled the evaluation of the a priori acceptability of the proposed device. This inquiry demonstrated the good acceptability of the proposed device, and resulted in recommendations on points to be improved and on pitfalls to avoid. Last, a method to separate and track objects detected in a depth map is proposed, the measurement of the activity of observed individuals being a long term objective for the device
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Terral, Philippe. "Structure du champ magnétique interstellaire dans le disque et le halo de notre galaxie". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30234/document.

Texto completo
Resumen
La caractérisation du champ magnétique interstellaire de notre Galaxie représente un enjeu majeur de l'astrophysique. Une meilleure connaissance de ses propriétés, en particulier de sa structure, constituerait en effet un atout important pour de nombreux domaines de recherche allant de l'étude des rayons cosmiques à la dynamique de la Galaxie en passant par l'évolution du milieu interstellaire et la formation stellaire. Des observations radio récentes ont permis de mettre en évidence des caractéristiques communes dans la structure magnétique de galaxies proches semblables à la Voie Lactée. Lorsque les galaxies sont vues de face, les lignes de champ magnétique forment un motif en spirale proche de celui observé dans le visible. Lorsque les galaxies sont vues par la tranche, les lignes de champ magnétique sont parallèles au plan galactique dans le disque et ont une forme dite en "X" dans le halo. Il est dès lors naturel de se poser la question de la présence d'une telle structure en X dans le halo de notre propre Galaxie. L'objectif du travail que j'ai effectué lors de mes trois années de thèse a consisté à tenter d'apporter des éléments de réponse à cette question. Les difficultés sont principalement de deux ordres : d'une part, notre position, à l'intérieur de la Voie Lactée ne nous permet pas d'avoir une vision globale de sa structure magnétique à grande échelle ; d'autre part, le champ magnétique est inaccessible à une observation directe, il est donc nécessaire de mettre en oeuvre des techniques indirectes estimant certaines des caractéristiques du champ magnétique à partir de l'effet qu'il peut avoir sur une observable donnée. Pour ma part, j'ai basé mon travail sur l'effet de rotation Faraday. J'ai tout d'abord constitué une carte de référence observationnelle de la profondeur Faraday de notre Galaxie associée au champ magnétique à grande échelle. Pour cela, j'ai dû développer un modèle simple de champ magnétique turbulent afin de pouvoir en soustraire sa contribution à la profondeur Faraday de celle du champ magnétique total. J'ai ensuite construit des cartes théoriques de la profondeur Faraday de notre Galaxie basées sur un ensemble de modèles analytiques du champ magnétique à grande échelle compatibles avec différentes contraintes (théoriques et observationnelles) et dépendant d'un nombre raisonnable de paramètres libres. J'ai finalement ajusté les valeurs de ces paramètres au travers d'une laborieuse phase d'optimisation. Mon manuscrit se décompose en quatre chapitres principaux. Au chapitre 1, je présenterai le contexte de mon travail et j'énoncerai divers résultats généraux utiles à mon étude. Au chapitre 2, je passerai en revue l'ensemble des éléments nécessaires à ma modélisation et j'insisterai particulièrement sur le jeu de modèles analytiques de champ magnétique que j'ai utilisés. Au chapitre 3, je décrirai les procédures de simulation et d'optimisation. Au chapitre 4, je présenterai mes résultats. Dans ce dernier chapitre, je dériverai les valeurs des paramètres des différents modèles de champ conduisant au meilleur accord avec les observations, je tâcherai de préciser le rôle de chaque paramètre et son impact sur la carte théorique, et je discuterai les géométries autorisées dans les différents cas. Je montrerai que l'accord modèle-observation est légèrement meilleur avec un champ du halo bisymétrique qu'avec un champ du halo axiisymétrique et que dans le premier cas, un motif en X apparaît naturellement dans les cartes de polarisation alors que le champ magnétique est horizontal dans le second cas
Characterization of the interstellar magnetic field of our Galaxy is a major challenge for astrophysics. A better understanding of its properties, particularly its structure, would be valuable in many research areas, from cosmic-ray studies to Galactic dynamics and including interstellar medium evolution and star formation. Recent radio observations uncovered common characteristics in the magnetic structure of nearby galaxies similar to the MilkyWay. In face-on galaxies, magnetic field lines appear to form a spiral pattern similar to that observed in the optical. In edge-on galaxies, magnetic field lines appear to be parallel to the galactic plane in the disc and X-shaped in the halo. One may naturally wonder whether such an X-shape structure is also present in the halo of our own Galaxy. The purpose of the work performed during my three years as a Ph.D. student was to try and provide some answers to this question. There are two major difficulties : on one hand, our location within the Milky Way does not mate it to have a global view of its large-scale magnetic structure; on the other hand, the magnetic field is not directly observable, so it is necessary to implement indirect techniques, based on the effect the magnetic field can have on a given observable, to estimate some characteristics of the magnetic field. My own work is based on Faraday rotation. I first built an observational reference map of the Faraday depth of our Galaxy associated with the large-scale magnetic field. To that end, I had to develop a simple model of the turbulent magnetic field in order to substract its contribution to the Galactic Faraday depth from that of the total magnetic field. I then constructed theoretical maps of Galactic Faraday depth based on a set of analytical models of the large-scale magnetic field that are consistent with various (theoretical and observational) constraints and depend on a reasonable number of free parameters. Finally I fitted the values of these parameters through a challenging optimization phase. My manuscript is divided into four main chapters. In Chapter 1, I present the context of my work as well as various general results useful for my study. In Chapter 2 I review all the elements required for my modeling, with emphasis on the set of analytical models used. In Chapter 3, I describe my simulation and optimization procedures. In Chapter 4 I present my results. In this final chapter, I derive the parameter values of the different field models that lead to the best fit to the observations, I try to identify the role of each parameter and its impact on the theoretical map, and I discuss the different geometries allowed in the various cases. Finally, I show that the fit to the observational map is slightly better with a bisymmetric halo field than with an axisymmetric halo field, and that an X-shape pattern in polarization maps naturally arises in the first case whereas the field appears to remain mainly horizontal in the second case
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Papadopoulos, Orfanos Dimitri. "Numerisation geometrique automatique a l'aide d'un capteur 3d de precision a profondeur de champ reduite". Paris, ENST, 1997. http://www.theses.fr/1997ENST0002.

Texto completo
Resumen
Les capteurs à triangulation active permettent de numériser la surface d'un objet et de construire un modele informatique 3d de sa géométrie. Le déplacement du capteur autour de l'objet est nécessaire a une numérisation exhaustive. Jusqu'à présent, ce déplacement nécessitait l'expertise d'un operateur ; la génération automatique des trajectoires permettrait d'en faciliter l'utilisation. C'est le sujet de recherche de cette de thèse. En contrepartie de sa précision, notre capteur ne dispose que d'une profondeur de champ réduite qui lui impose de rester très proche de l'objet à numériser et soulevé le problème des collisions. De plus, il est destiné à être monte sur une grande variété de supports. La diversité de leur configuration mécanique est une source de difficultés supplémentaires. L'automatisation des mouvements fait intervenir une boucle d'asservissement articulée autour d'une représentation interne de la scène. La première phase est la mise à jour incrémentielle de cette représentation. Afin d'identifier l'espace vide dans lequel le capteur peut se déplacer sans danger, nous avons entièrement pris en compte les phénomènes d'ombre et d'occultation inhérents aux capteurs a triangulation. Lors de la deuxième phase, la planification des déplacements est résolue par une décomposition hiérarchique a deux niveaux, basée sur l'identification d'une configuration mécanique minimale commune aux différents supports du capteur. A bas niveau, le logiciel procède à la numérisation complète d'une vue et se concentre sur l'évitement des collisions. A haut niveau, il doit effectuer le choix de la prochaine vue en se concentrant sur son objectif premier qui est de compléter les données. Une implémentation opérationnelle des méthodes décrites dans cette thèse permet la numérisation automatique d'objets de formes complexes et diverses. Des résultats expérimentaux sont présentes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Papadopoulos-Orfanos, Dimitri. "Numérisation géométrique automatique à l'aide d'un capteur 3D de précision à profondeur de champ réduite /". Paris : École nationale supérieure des télécommunications, 1997. http://catalogue.bnf.fr/ark:/12148/cb36168752q.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Pannetier, Benjamin. "Fusion de données pour la surveillance du champ de bataille". Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00377247.

Texto completo
Resumen
Dans le domaine de la surveiIlance du champ de bataille, la poursuite de cibles terrestres est un point crucial pour évaluer le comportement des forces présentent sur le théâtre des opérations. Cette poursuite peut être menée à partir des capteurs aéroportés GMTI (Ground Moving Target Indicator) qui détectent tous les objets en mouvement. Toutefois, les techniques classiques de trajectographie ne permettent pas d'établir une situation fiable de la scène. Cependant, avec le développement et la fiabilité des systèmes d'information géographique, il devient possible de fusionner les données GMTI avec toute l'information contextuelJe pour améliorer le pistage. Le travail présenté dans cette thèse s'intéresse à l'intégration de l'information cartographique dans les techniques usueIJes de trajectographie. Le réseau routier est alors considéré comme une contrainte et un algorithme IMM à structure variable, pour s'adapter à la topologie du réseau, est présenté et testé sur données simulées. L'algorithme prend en entrée la position des plots MTI mais aussi la vitesse radiale des plots. Lorsque cette dernière est éloignée statistiquement de la vitesse radiale prédite, le système risque de ne pas associer le plot à la piste et de perdre cette dernière. Dans ce cas, un facteur d'oubli momentané est utilisé afin d'éviter la perte de la piste. De plus, la problématique des entrées et sorties de route pour le pi stage d'objets d'intérêts est traitée en activant ou désactivant les modèles dynamiques sous contraintes. Par ailleurs, nous proposons une approche pour considérer l'information négative (i.e. absence de détection) suivant la nature du terrain et améliorer la continuité du pi stage
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Côté, François. "Imagerie de neurones en profondeur par fibre optique avec champ de vue variable et imagerie à grand champ volumétrique rapide avec sectionnement optique HiLo". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/38294.

Texto completo
Resumen
Un des défis majeurs en neurosciences est d’acquérir des images de neurones profondément dans le cerveau tout en gardant un champ de vue raisonnable et en causant le moins de dommage possible au tissu. Le premier projet décrit dans ce mémoire consiste en un système endoscopique à balayage laser. En utilisant des composantes micro-optique au bout d’une fibre monomode de 125 µm de diamètre, un laser vient être focalisé sur le côté de cette fibre à environ 60 µm de celle-ci. Un micro capillaire de verre de 250 µm de diamètre externe et 150 µm de diamètre interne sert de guide pour cette fibre dans l’échantillon. Le point focal possède un diamètre entre 2 et 3 µm et peut être balayé sur une même ligne horizontale à une vitesse de 30 Hz et sur un angle de 90o par un système construit spécialement pour suivre la géométrie cylindrique de l’endoscope. Un actuateur piezoélectrique déplace la fibre verticalement avec une résolution microscopique sur un intervalle de 400 µm pour compléter une image cylindrique. Le fait de collecter le signal de fluorescence sur le côté de la fibre facilite son utilisation lors de l’acquisition et permet d’acquérir des images sur des zones non affectées par la chirurgie. De plus, le champ de vue du système est contrôlé par l’angle de balayage et la translation verticale de la fibre, donc complètement indépendant du diamètre de celle-ci. En utilisant des longueurs de fibres à gradient d’indice différentes, il est également possible de modifier le champ de vue du système, sans modifier son diamètre. Il a été possible avec ce système d’acquérir des images de microglies dans le mésencéphale d’une souris CX3CR1-GFP. Le système est prêt à être utilisé pour de l’imagerie calcique sur une ligne de pixel. L’imagerie de cerveaux entiers peut révéler une panoplie d’informations permettant de mieux comprendre le développement neuronal à l’échelle microscopique, mais également macroscopique. De plus, visualiser le cerveau comme un tout permet de mieux conceptualiser comment différentes maladies l’affectent dans son ensemble plutôt que de s’intéresser qu’à certaines structures spécifiques. En ce moment, il existe deux défis quant à l’imagerie de cerveau de souris complet : 1) le temps d’acquisition souvent très long (plusieurs heures) et 2) la création d’une grande quantité de données qui requiert une gestion ordonnée et spécifique pour ce genre d’application. Pour pallier à ces défis, on présente dans ce mémoire un système d’imagerie volumétrique à excitation 1-photon ayant une résolution raisonnable, capable d’acquérir un cerveau de souris entier avec sectionnement optique en quelques minutes. Il s’agit d’une combinaison entre un système à grand champ et l’algorithme HiLo. Le champ de vue est ...
Imaging cells and axons in deep brain with minimal damage while keeping a sizable field of view remains a challenge, because it is difficult to optimize one without sacrificing the other. We propose a scanning method reminiscent of laser scanning microscopy to get a reasonable field of view with minimal damage deep in the brain. By using micro-optics at the tip of our 125 µm-diameter singlemode fiber inside a 250 µm capillary, we can create a focal spot on the side of the fiber at a distance of approximately 60 µm. The focal spot has a 2 µm diameter and can be scanned at up to 30 hertz by a custom scanning device over a 90 degree angular sweep on a single line. A piezoelectric actuator moves up and down the fiber to achieve a cylindrical scanning pattern. By having this side illumination, there is no need for surgical exposure of the tissue, making our method simple and easy to achieve. The field of view is controlled by the angular and vertical sweeps, unrelated to the fiber diameter. Furthermore, by modifying the length of the grin lens, we could directly increase or decrease the field of view of our optical system, without any change on the probe diameter. We have succeeded in imaging microglia in the midbrain of a CX3CR1-GFP mouse. The system is also ready for calcium imaging on single pixel lines. Imaging whole mouse brains can provide a wealth of information for understanding neuronal development at both the microscopic and macroscopic scale. Furthermore, visualizing entire brain samples allow us to better conceptualize how different diseases affect the brain as a whole, rather than only investigating a certain structure. Currently, two main challenges exist in achieving whole mouse brain imaging: 1) Long image acquisition sessions (on the order of several hours) and 2) Big data creation and management due to the large, high-resolution image volumes created. To overcome these challenges, we present a fast 1-photon system with a slightly decreased resolution allowing whole brain, optically sectioned imaging on the order of minutes by using a mathematical algorithm termed “HiLo”. Our large field of view (25 mm2 ) allows us to see an entire newborn mouse brain in a single snapshot with a resolution of about 2 µm in lateral direction and 4 µm in axial direction. This resolution still allows visualization of cells and some large axonal projections. This technological advancement will first and foremost allow us to rapidly image large volume samples and store them in a smaller format without losing the integral information, which is mainly stained-cell quantity and location. Secondly, the design will allow for increased successful high-resolution imaging by screening ...
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Thériault, Gabrielle. "Développement d'un microscope à grande profondeur de champ pour l'imagerie fonctionnelle de neurones dans des échantillons épais". Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25740.

Texto completo
Resumen
Un des plus grands défis de la neuroscience moderne pour parvenir à comprendre et diagnostiquer les maladies du cerveau est de déchiffrer les détails des interactions neuronales dans le cerveau vivant. Pour ce faire, on doit être capable d'observer des populations de cellules vivantes dans leur matrice d'origine avec une bonne résolution spatiale et temporelle. La microscopie à deux photons se prête bien à cet exercice car elle permet d'exciter des fluorophores à de grandes profondeurs dans les tissus biologiques et elle offre une résolution spatiale de l'ordre du micron. Malheureusement, la très bonne résolution tridimensionnelle diminue la résolution temporelle, car l'effet de sectionnement optique causé par la faible profondeur de champ du microscope nous oblige à balayer les échantillons épais une multitude de fois avant de pouvoir compléter l'acquisition d'un grand volume. Dans ce projet de doctorat, nous avons conçu, construit et caractérisé un microscope à deux photons avec une profondeur de champ étendue afin de faciliter l'imagerie fonctionnelle de neurones dans un échantillon épais. Pour augmenter la profondeur de champ du microscope à deux photons, nous avons modifié le faisceau laser entrant dans le système optique afin de générer une aiguille de lumière, orientée axialement, dans l'échantillon au lieu d'un point. Nous modifions le faisceau laser avec un axicon, une lentille en forme de cône qui transforme le faisceau gaussien en un faisceau quasi non-diffractant, de type Bessel-Gauss. Le faisceau d'excitation conserve donc la même résolution transverse à différentes profondeurs dans l'échantillon, éliminant le besoin de balayer l'échantillon à répétition afin de sonder un volume complet. Dans cette thèse, nous démontrons que le microscope à grande profondeur de champ fonctionne effectivement tel que nous l'avons conçu et nous l'utilisons pour faire de l'imagerie calcique dans un réseau tridimensionnel de neurones vivants. Nous présentons aussi les différents avantages de notre système par rapport à la microscopie à deux photons conventionnelle.
One of the greatest challenges of modern neuroscience that will lead to a better understanding and earlier diagnostics of brain sickness is to decipher the details of neuronal interactions in the living brain. To achieve this goal, we must be capable of observing populations of living cells in their original matrix with a good resolution, both spatial and temporal. Two-photon microscopy offers the right tools for this since it presents with a spatial resolution in the order of the micron. Unfortunately, this very good three-dimensional resolution lowers the temporal resolution because the optical sectioning caused by the microscope's small depth of field forces us to scan thick samples repeatedly when acquiring data from a large volume. In this doctoral project, we have designed, built and characterized a two-photon microscope with an extended depth of field with the goal of simplifying the functional imaging of neurons in thick samples. To increase the laser scanning microscope's depth of field, we shaped the laser beam entering the optical system in such a way that a needle of light is generated inside the sample instead of a spot. We modify the laser beam with an axicon, a cone-shaped lens that transforms a gaussian beam into a quasi non-diffractive beam called Bessel-Gauss beam. The excitation beam therefore maintains the same transverse resolution at different depths inside the sample, eliminating the need for many scans in order to probe the entire volume of interest. In this thesis, we demonstrate that the extended depth of field microscope effectively works as we designed it, and we use it to image calcium dynamics in a three-dimensional network of live neurons. We also present the different advantages of our system in comparison with standard two-photon microscopy.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Hamdi, Feriel. "Interaction champ électrique cellule : conception de puces microfluidiques pour l'appariement cellulaire et la fusion par champ électrique pulsé". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00926219.

Texto completo
Resumen
La fusion cellulaire est une méthode de génération de cellules hybrides combinant les propriétés spécifiques des cellules mères. Initialement développée pour la production d'anticorps, elle est maintenant aussi investiguée pour l'immunothérapie du cancer. L'électrofusion consiste à produire ces hybrides en utilisant un champ électrique pulsé. Cette technique présente de meilleurs rendements que les fusions chimiques ou virales, sans introduire de contaminant. L'électrofusion est actuellement investiguée en cuve d'électroporation où le champ électrique n'est pas contrôlable avec précision et le placement cellulaire impossible, produisant de faibles rendements binucléaires. Afin d'augmenter le rendement et la qualité de fusion, la capture et l'appariement des cellules s'avèrent alors nécessaires.Notre objectif a été de développer et de réaliser des biopuces intégrant des microélectrodes et des canaux microfluidiques afin de positionner et d'apparier les cellules avant leur électrofusion. Une première structure de piégeage se basant sur des plots isolants et l'utilisation de la diélectrophorèse a été réalisée. Afin d'effectuer des expérimentations sous flux, une méthode de scellement des canaux, biocompatible et étanche a été développée. Puis, le milieu d'expérimentation a été adapté pour l'électrofusion. En confrontant les résultats des expériences biologiques aux simulations numériques, nous avons pu démontrer que l'application d'impulsions électriques induisait la diminution de la conductivité cytoplasmique. Nous avons ensuite validé la structure par l'électrofusion de cellules. Un rendement de 55% avec une durée de fusion membranaire de 6 s a été obtenu. Dans un second temps, nous avons proposé deux microstructures de piégeage pour l'électrofusion haute densité. La première se base sur un piégeage fluidique, alors que la seconde, utilise ladiélectrophorèse sans adressage électrique à l'aide de plots conducteurs. Jusqu'à 75% des cellules fusionnent dans cette dernière structure. Plus de 97% des hybridomes produits sont binucléaires. Le piégeage étant réversible, les hybridomes peuvent ensuite être collectés pour des études ultérieures.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Hamdi, Feriel. "Interaction champ électrique cellule : conception de puces microfluidiques pour l’appariement cellulaire et la fusion par champ électrique pulsé". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112286/document.

Texto completo
Resumen
La fusion cellulaire est une méthode de génération de cellules hybrides combinant les propriétés spécifiques des cellules mères. Initialement développée pour la production d’anticorps, elle est maintenant aussi investiguée pour l’immunothérapie du cancer. L’électrofusion consiste à produire ces hybrides en utilisant un champ électrique pulsé. Cette technique présente de meilleurs rendements que les fusions chimiques ou virales, sans introduire de contaminant. L’électrofusion est actuellement investiguée en cuve d’électroporation où le champ électrique n’est pas contrôlable avec précision et le placement cellulaire impossible, produisant de faibles rendements binucléaires. Afin d’augmenter le rendement et la qualité de fusion, la capture et l’appariement des cellules s’avèrent alors nécessaires.Notre objectif a été de développer et de réaliser des biopuces intégrant des microélectrodes et des canaux microfluidiques afin de positionner et d’apparier les cellules avant leur électrofusion. Une première structure de piégeage se basant sur des plots isolants et l’utilisation de la diélectrophorèse a été réalisée. Afin d’effectuer des expérimentations sous flux, une méthode de scellement des canaux, biocompatible et étanche a été développée. Puis, le milieu d’expérimentation a été adapté pour l’électrofusion. En confrontant les résultats des expériences biologiques aux simulations numériques, nous avons pu démontrer que l’application d’impulsions électriques induisait la diminution de la conductivité cytoplasmique. Nous avons ensuite validé la structure par l’électrofusion de cellules. Un rendement de 55% avec une durée de fusion membranaire de 6 s a été obtenu. Dans un second temps, nous avons proposé deux microstructures de piégeage pour l’électrofusion haute densité. La première se base sur un piégeage fluidique, alors que la seconde, utilise ladiélectrophorèse sans adressage électrique à l’aide de plots conducteurs. Jusqu’à 75% des cellules fusionnent dans cette dernière structure. Plus de 97% des hybridomes produits sont binucléaires. Le piégeage étant réversible, les hybridomes peuvent ensuite être collectés pour des études ultérieures
Cell fusion is a method to generate a hybrid cell combing the specific properties of its progenitor cells. Initially developed for antibody production, it is now also investigated for cancer immunotherapy. Electrofusion consists on the production of hybridoma using electric pulses. Compared to viral or chemical methods, electrofusion shows higher yields and this system is contaminant free. Actually, electrofusion is investigated in electroporation cuvettes, where the electric field is not precisely controllable and cell placement impossible, resulting in low binuclear hibridoma yields. To improve the fusion quality and yield, cell capture and pairing are necessary.Our objective was the development and realization of biochips involving microelectrodes and microfluidic channels to place and pair cells prior to electrofusion. A first trapping structure based on insulators and the use of dielectrophoresis has been achieved. In order to perform fluidic experiments, a biocompatible irreversible packaging was developed. Then, the experimental medium was optimized for electrofusion. Confronting the biological experiments and the numerical simulations, we showed that the application of electric pulses leads to a decrease of the cytoplasmic conductivity. The microstructure was validated by cell electrofusion. A yield of 55%, with a membrane fusion duration of 6 s has been achieved. Secondly, we proposed two trapping microstructures for high density electrofusions. The first one is based on a fluidic trapping while the second one uses dielectrophoresis, free of electric wiring, thanks to conductive pads. Up to 75% of paired cells were successfully electrofused with the conductive pads. More than 97% of the hybridoma were binuclear. The trapping being reversible, the hybridoma can be collected for further analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Devisme, Céline. "Etude de l'influence des disparités horizontales et verticales sur la perception de la profondeur en champ visuel périphérique". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00276430.

Texto completo
Resumen
L'apposition de verres ophtalmiques devant les yeux engendre une modification de la distribution des disparités binoculaires existant naturellement dans les scènes visuelles, ces modifications peuvent avoir des répercussions sur la perception du relief et de la profondeur, notamment en vision périphérique. La mise en évidence de variations continues des disparités horizontales introduites par les verres ophtalmiques a conduit à étudier des patterns de disparités horizontales continues. Cette étude a montré l'importance du gradient de disparité horizontale et de son excentricité d'origine, dans la détection de déformation en profondeur. De plus, la sensibilité pour les disparités homonymes semble plus fine que pour les disparités croisées. Les disparités horizontales sont ensuite combinées avec des disparités verticales, calculées à partir des formes tridimensionnelles des disparités horizontales, de façon congruentes ou en conflit, ou dans des plans de profondeur différente. Les disparités verticales peuvent modifier la sensibilité aux gradients de disparité horizontale, selon les signes des disparités horizontales et verticales par rapport au plan de fixation. Les disparités horizontales et verticales ont donc chacune un rôle dans la perception de la profondeur sur l'ensemble du champ visuel : les disparités horizontales, traitées localement, définissent la forme tridimensionnelle ; les disparités verticales, traitées globalement, indiquent au système visuel la distance en profondeur par rapport au plan de fixation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Manakli, Serdar. "Amélioration de la profondeur de champ de la lithographie CMOS sub 0,1um par des méthodes de double exposition". Grenoble INPG, 2004. http://www.theses.fr/2004INPG0122.

Texto completo
Resumen
En microlithographie, la réduction de la taille élémentaire se fait, habituellement, par une diminution de la longueur d'onde d'exposition ou par une augmentation de l'ouverture numérique. Mais la course effrénée à la miniaturisation des circuits intégrés a obligé les lithographes à repousser les limites de la lithographie optique en résolvant, aujourd'hui, les motifs en dessous de la longueur d'onde d'exposition. Le procédé lithographique standard utilisé actuellement pour la production de masse des circuits intégrés se fait avec une longueur d'onde d'exposition à 193nm. Ce procédé présente de sérieuses limitations pour les technologies CMOS sub 0,1um. Dans ce contexte, l'objet de cette thèse est de proposer d'autres méthodes lithographiques pour les générations futures. Parmi les différents procédés améliorant la résolution sub-longueur d'onde proposés depuis une dizaine d'année, nous nous sommes essentiellement concentré sur des techniques de double exposition améliorant principalement la profondeur de champ, qui est un des paramètres clés de la microlithographie. A l'issu de ce travail de thèse, nous avons proposé deux méthodes améliorant les performances des trous d'interconnexions et celles des lignes de poly. Pour les trous d'interconnexions, la solution lithographique la mieux adaptée est la technique FLEX de double exposition symétrique en énergie et en focus. Elle permet de multiplier, en moyenne, par deux la profondeur de champ par rapport au procédé standard actuel. La deuxième proposition est l'aboutissement d'une étude menée au préalable sur la compréhension de l'influence des différents paramètres optiques comme l'iso focale et la distribution des ordres de diffraction dans la pupille de projection sur la profondeur de champ. Cette étude nous a permis de développer une nouvelle méthode lithographique de double exposition appelé CODE (COmplentary Double Expoure). Les premiers résultats encourageant montrent que cette technique peut être une alternative possible pour les technologies actuelles 90nm et futures 65nm
In microlithography, the reduction of the dimensions is generally achieved with a shorter exposure wavelength or a larger numerical aperture. But the acceleration of the integrated circuit miniaturisation challenges lithographers to push over the optical lithography limits by resolving structures below the exposure wavelength. The standard process used today for the mass production of the integrated circuits uses a 193nm wavelength. This process presents severe limitations for the sub 0,1um CMOS technologies. In this way, the goal of this study is to propose other lithographical solutions for the future generations. Among the differents process enhancing the sub wavelength resolution proposed over the last ten years, we are fundamentally interested by the double exposure techniques improving mainly the depth of focus, which is one of the microlithography key parameter. At the outcome of this work, we have proposed two methods improving the performance of the interconnection holes and those of poly lines. For the interconnection holes, the well suited solution is the FLEX symetrical exposure in energy and in focus. With this technique, the depth of focus is in average multiplied by two compared to the standard process. The second proposition is the outcome of a study done preliminarly on the understanding of the influence of the different optical parametres as the isofocal and the distribution of the diffracted ordres in the pupil plane on the depth of the focus. This study gives us the opportunity to develop a new lithographical method of double exposure called CODE (COmplentary Double Expoure). The first encouraging results show that this technique could be a possible alternative for the present 90nm and future 65nm technologies
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Nguyen, Frederic. "TRANSPORT DANS UN PLASMA DE FUSION EN PRESENCE D'UN CHAMP MAGNETIQUE CHAOTIQUE". Phd thesis, Université Paris-Diderot - Paris VII, 1992. http://tel.archives-ouvertes.fr/tel-00011403.

Texto completo
Resumen
Dans le tokamak Tore Supra, le champ magnétique qui assure le confinement est rendu stochastique à la périphérie du plasma par l'application d'une perturbation résonante. Cette perturbation est créée par un ensemble de six bobines hélicoïdales, le divertor ergodique, situé à l'intérieur de la chambre à vide. La première partie de notre étude est l'analyse du transport des particules et de l'énergie dans un plasma de fusion en présence d'un champ magnétique stochastique, sans paroi matérielle. Le transport effectif des électrons, i.e. de la chaleur, est fortement augmenté et, dans une moindre mesure, celui des ions. Cette différence produit un champ électrique radial moyen. Dans une seconde partie, l'influence d'une paroi matérielle est considérée. Grâce au code
numérique Mastoc, la topologie de la connexion magnétique sur la paroi est détenninée précisément. Il est ainsi possible de décrire le transport des particules et de l'énergie depuis le plasma confiné jusqu'aux éléments de paroi. Cette étude éclaire certaines des principales observations de l'expérience Tore Supra en configuration divertor ergodique : l'étalement du dépôt de puissance sur les différents éléments de la paroi sans concentration anormale, la robustesse de cette configuration vis-à-vis de défauts d'alignement, les structures visibles en lumière Ha lors de réattachement de plasma. Afin d'étudier le transport des ions impuretés, une approche variationnelle par minimum de production d'entropie a été développée. Ce principe variationnel est appliqué au calcul de la diffusion néoclassique des ions impuretés dans le champ électrique radial moyen. Ce champ électrique déconfine les ions si le profil de pression n'est pas équilibré par une force de Laplace, c'est-à-dire si le plasma est bloqué en rotation, poloïdale et toroïdale, par une perturbationmagnétiqueou une force friction.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Nguyen, Frédéric. "Transport dans un plasma de fusion en présence d'un champ magnétique chaotique". Paris 7, 1992. http://www.theses.fr/1992PA077293.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Caron, Nicolas. "Optimisation par recuit simulé et fabrication de masques de phase pour l'augmentation de la profondeur de champ d'un microscope". Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25222/25222.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Vaulchier, Louis-Anne de. "Transmission dans l'infrarouge lointain de couches minces d'yba#2cu#3o#7. Determination de la profondeur de penetration du champ electromagnetique". Paris 6, 1995. http://www.theses.fr/1995PA066228.

Texto completo
Resumen
Le travail a consiste a construire une experience de mesure de la transmission a travers des films minces ybacuo, d'ondes electromagnetiques millimetriques, dans un domaine de temperature s'etendant de 5 a 250 k. L'etude de la transition supraconductrice nous a permis d'etablir un critere de qualite pour les echantillons. Nous avons correle la qualite des films avec les mesures de rocking curve et de resistance de surface. Nous montrons que la largeur apparente de la transition est probablement due a la presence d'un gap qui semble presenter une forte anisotropie. Nous montrons que l'etude des basses temperatures nous permet de remonter a la valeur absolue de la profondeur de penetration du champ electromagnetique. Nous etablissons un rapport entre sa valeur a temperature nulle et la qualite des films. Enfin, nous etablissons grace a un modele de liaison faible la nature extrinseque de la dependance quadratique en temperature trouvee pour la profondeur de penetration dans les films. Nous montrons egalement que la dependance intrinseque est lineaire en temperature. Ceci indique qu'il existe des excitations a tres basse temperature, incompatibles avec un gap isotrope
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Song, Xiao. "Optimisation automatisée de scénarios pour le système de champ magnétique poloïdal dans les tokamaks". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4089.

Texto completo
Resumen
Cette thèse concerne le développement et l’application d’outils numériques permettant d’optimiser l’utilisation du système de champ magnétique poloïdal dans les tokamaks. Ce dernier est constitué d’un ensemble de bobines et d’alimentations électriques dont le rôle est de contrôler la forme et la position du plasma ainsi que de générer le courant plasma. Le contexte général de notre travail est décrit dans le Chapitre 1. Le Chapitre 2 présente notre approche du problème, qui consiste à appliquer des méthodes de contrôle optimal au problème d’Equilibre à Frontière Libre (EFL). Ce dernier est composé d’une équation d’équilibre des forces dans le plasma couplée aux équations de Maxwell dans l’ensemble du tokamak. L’outil numérique employé ici est le code FEEQS.M, qui peut être utilisé soit (dans le mode dit « direct ») pour résoudre le problème EFL soit (dans le mode dit « inverse ») pour minimiser une certaine fonction-coût sous la contrainte que les équations d’EFL soient satisfaites. Chacun de ces deux modes (« direct » et « inverse ») se subdivise en un mode « statique » (qui s’applique à un instant donné) et un mode « évolutif » (qui s’applique sur un intervalle de temps). Le code est écrit en langage Matlab et utilise la méthode des éléments finis. La nature non-linéaire du problème d’EFL est traitée au moyen d’itérations de Newton, et une méthode de type programmation séquentielle quadratique est appliquée pour les modes inverses. Nous soulignons que le mode « inverse évolutif » est, à notre connaissance, une caractéristique unique de FEEQS.M. Après avoir décrit les problèmes d’EFL ainsi que les méthodes numériques utilisées et quelques tests de FEEQS.M, nous présentons deux applications. La première, décrite dans le Chapitre 3, concerne l’identification du domaine opérationnel en termes d’équilibre plasma pour le tokamak ITER. Ce domaine est contraint par les limites du système de champ poloïdal portant par exemple sur les courants, forces ou champ magnétiques dans les bobines. Nous avons implémenté des termes de pénalisation dans la fonction-coût du mode « statique inverse » de FEEQS.M pour prendre en compte ces limites. Ceci nous a permis de calculer de façon rapide, rigoureuse et automatique le domaine opérationnel, ce qui représente un progrès substantiel par rapport aux méthodes « traditionnelles » qui impliquent une intervention humaine beaucoup plus lourde. La seconde application, présentée au Chapitre 4, concerne le développement d’une transition rapide d’une configuration plasma « limitée » à une configuration « divergée » au début d’une décharge dans le tokamak WEST. La motivation est ici la réduction de la contamination du plasma par les impuretés de tungstène. A cette fin, le code FEEQS.M est utilisé dans son mode « inverse évolutif ». Des données expérimentales de WEST sont utilisées pour paramétrer la simulation. Le calcul FEEQS.M fournit alors des trajectoires optimales pour les courants des bobines poloïdales et les voltages de leurs alimentations afin d’obtenir une transition « limité »-« divergé » rapide. Ces trajectoires sont testées d’abord sur le « simulateur de vol » WEST (qui embarque FEEQS.M en mode « direct évolutif » couplé à un système de rétroaction identique à celui utilisé dans WEST) et ensuite expérimentalement sur WEST. Ceci a permis de passer d’une transition durant 1s à une transition durant 200ms
This thesis is concerned with developing and applying numerical tools in order to optimize the operation of the poloidal magnetic field (PF) system in tokamaks. The latter consists of a set of coils and power supplies which have the purpose of controlling the plasma shape and position, as well as driving the plasma current. The global context of our work is introduced in Chapter 1. Chapter 2 describes our approach, which consists in applying optimal control methods to the Free-Boundary plasma Equilibrium (FBE) problem, which is composed of a force balance equation in the plasma coupled to Maxwell’s equations in the whole tokamak. The numerical tool employed here is the FEEQS.M code, which can be used either (in the “direct” mode) as a solver of the FBE problem or (in the “inverse” mode) to minimize a certain function under the constraint that the FBE equations be satisfied. Each of these 2 modes (“direct” and “inverse”) subdivides into a “static” mode (which solves only for a given instant) and an “evolution” mode (which solves over a time window). The code is written in Matlab and based on the Finite Elements Method. The non-linear nature of the FBE problem is dealt with by means of Newton iterations, and Sequential Quadratic Programming (SQP) is used for the inverse modes. We stress that the “inverse evolution” mode is a unique feature of FEEQS.M, as far as we know. After describing the FBE problems and the numerical methods and some tests of the FEEQS.M code, we present 2 applications. The first one, described in Chapter 3, concerns the identification of the operating space in terms of plasma equilibrium in the ITER tokamak. This space is limited by the capabilities of the PF system, such as the maximum possible currents, field or forces in the PF coils. We have implemented penalization terms in the “objective” function (i.e. the function to be minimized) of the “inverse static” mode of FEEQS.M in order to take some of these limits into account. This allows calculating in a fast, rigorous and automatic way the operating space, taking these limits into account. This represents a substantial progress compared to “traditional” methods involving much heavier human intervention. The second application, presented in Chapter 4, regards the development of a fast transition from limiter to divertor plasma configuration at the beginning of a pulse in the WEST tokamak, with the motivation of reducing the plasma contamination by tungsten impurities. Here, FEEQS.M is used in “inverse evolution” mode. Data from a WEST experimental pulse is used to set up the simulation. The FEEQS.M calculation then provides optimized waveforms for the PF coils currents and power supplies voltages to perform a fast limiter to divertor transition. These waveforms are first tested on the WEST magnetic control simulator (which embeds FEEQS.M in “direct evolution” mode coupled to a feedback control system identical to the one in the real machine) and then on the real machine. This allowed speeding up the transition from ~ 1 s to 200 ms
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Brédy, Jhemson y Jhemson Brédy. "Prévision de la profondeur de la nappe phréatique d'un champ de canneberges à l'aide de deux approches de modélisation des arbres de décision". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37875.

Texto completo
Resumen
La gestion intégrée de l’eau souterraine constitue un défi majeur pour les activités industrielles, agricoles et domestiques. Dans certains systèmes agricoles, une gestion optimisée de la nappe phréatique représente un facteur important pour améliorer les rendements des cultures et l’utilisation de l'eau. La prévision de la profondeur de la nappe phréatique (PNP) devient l’une des stratégies utiles pour planifier et gérer en temps réel l’eau souterraine. Cette étude propose une approche de modélisation basée sur les arbres de décision pour prédire la PNP en fonction des précipitations, des précédentes PNP et de l'évapotranspiration pour la gestion de l’eau souterraine des champs de canneberges. Premièrement, deux modèles: « Random Forest (RF) » et « Extreme Gradient Boosting (XGB) » ont été paramétrisés et comparés afin de prédirela PNP jusqu'à 48 heures. Deuxièmement, l’importance des variables prédictives a été déterminée pour analyser leur influence sur la simulation de PNP. Les mesures de PNP de trois puits d'observation dans un champ de canneberges, pour la période de croissance du 8 juillet au 30 août 2017, ont été utilisées pour entraîner et valider les modèles. Des statistiques tels que l’erreur quadratique moyenne, le coefficient de détermination et le coefficient d’efficacité de Nash-Sutcliffe sont utilisés pour mesurer la performance des modèles. Les résultats montrent que l'algorithme XGB est plus performant que le modèle RF pour prédire la PNP et est sélectionné comme le modèle optimal. Parmi les variables prédictives, les valeurs précédentes de PNP étaient les plus importantes pour la simulation de PNP, suivie par la précipitation. L’erreur de prédiction du modèle optimal pour la plage de PNP était de ± 5 cm pour les simulations de 1, 12, 24, 36 et 48 heures. Le modèle XGB fournit des informations utiles sur la dynamique de PNP et une simulation rigoureuse pour la gestion de l’irrigation des canneberges.
La gestion intégrée de l’eau souterraine constitue un défi majeur pour les activités industrielles, agricoles et domestiques. Dans certains systèmes agricoles, une gestion optimisée de la nappe phréatique représente un facteur important pour améliorer les rendements des cultures et l’utilisation de l'eau. La prévision de la profondeur de la nappe phréatique (PNP) devient l’une des stratégies utiles pour planifier et gérer en temps réel l’eau souterraine. Cette étude propose une approche de modélisation basée sur les arbres de décision pour prédire la PNP en fonction des précipitations, des précédentes PNP et de l'évapotranspiration pour la gestion de l’eau souterraine des champs de canneberges. Premièrement, deux modèles: « Random Forest (RF) » et « Extreme Gradient Boosting (XGB) » ont été paramétrisés et comparés afin de prédirela PNP jusqu'à 48 heures. Deuxièmement, l’importance des variables prédictives a été déterminée pour analyser leur influence sur la simulation de PNP. Les mesures de PNP de trois puits d'observation dans un champ de canneberges, pour la période de croissance du 8 juillet au 30 août 2017, ont été utilisées pour entraîner et valider les modèles. Des statistiques tels que l’erreur quadratique moyenne, le coefficient de détermination et le coefficient d’efficacité de Nash-Sutcliffe sont utilisés pour mesurer la performance des modèles. Les résultats montrent que l'algorithme XGB est plus performant que le modèle RF pour prédire la PNP et est sélectionné comme le modèle optimal. Parmi les variables prédictives, les valeurs précédentes de PNP étaient les plus importantes pour la simulation de PNP, suivie par la précipitation. L’erreur de prédiction du modèle optimal pour la plage de PNP était de ± 5 cm pour les simulations de 1, 12, 24, 36 et 48 heures. Le modèle XGB fournit des informations utiles sur la dynamique de PNP et une simulation rigoureuse pour la gestion de l’irrigation des canneberges.
Integrated ground water management is a major challenge for industrial, agricultural and domestic activities. In some agricultural production systems, optimized water table management represents a significant factor to improve crop yields and water use. Therefore, predicting water table depth (WTD) becomes an important means to enable real-time planning and management of groundwater resources. This study proposes a decision-tree-based modelling approach for WTD forecasting as a function of precipitation, previous WTD values and evapotranspiration with applications in groundwater resources management for cranberry farming. Firstly, two models-based decision trees, namely Random Forest (RF) and Extrem Gradient Boosting (XGB), were parameterized and compared to predict the WTD up to 48-hours ahead for a cranberry farm located in Québec, Canada. Secondly, the importance of the predictor variables was analyzed to determine their influence on WTD simulation results. WTD measurements at three observation wells within acranberry field, for the growing period from July 8, 2017 to August 30, 2017, were used for training and testing the models. Statistical parameters such as the mean squared error, coefficient of determination and Nash-Sutcliffe efficiency coefficient were used to measure models performance. The results show that the XGB algorithm outperformed the RF model for predictions of WTD and was selected as the optimal model. Among the predictor variables, the antecedent WTD was the most important for water table depth simulation, followed by the precipitation. Base on the most important variables and optimal model, the prediction error for entire WTD range was within ± 5 cm for 1-, 12-, 24-, 26-and 48-hour prediction. The XGB model can provide useful information on the WTD dynamics and a rigorous simulation for irrigation planning and management in cranberry fields.
Integrated ground water management is a major challenge for industrial, agricultural and domestic activities. In some agricultural production systems, optimized water table management represents a significant factor to improve crop yields and water use. Therefore, predicting water table depth (WTD) becomes an important means to enable real-time planning and management of groundwater resources. This study proposes a decision-tree-based modelling approach for WTD forecasting as a function of precipitation, previous WTD values and evapotranspiration with applications in groundwater resources management for cranberry farming. Firstly, two models-based decision trees, namely Random Forest (RF) and Extrem Gradient Boosting (XGB), were parameterized and compared to predict the WTD up to 48-hours ahead for a cranberry farm located in Québec, Canada. Secondly, the importance of the predictor variables was analyzed to determine their influence on WTD simulation results. WTD measurements at three observation wells within acranberry field, for the growing period from July 8, 2017 to August 30, 2017, were used for training and testing the models. Statistical parameters such as the mean squared error, coefficient of determination and Nash-Sutcliffe efficiency coefficient were used to measure models performance. The results show that the XGB algorithm outperformed the RF model for predictions of WTD and was selected as the optimal model. Among the predictor variables, the antecedent WTD was the most important for water table depth simulation, followed by the precipitation. Base on the most important variables and optimal model, the prediction error for entire WTD range was within ± 5 cm for 1-, 12-, 24-, 26-and 48-hour prediction. The XGB model can provide useful information on the WTD dynamics and a rigorous simulation for irrigation planning and management in cranberry fields.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Al, Abram Ismail. "Etude sur modèle réduit bidimensionnel du champ de déplacement induit par le creusement d'un tunnel à faible profondeur : interaction avec les ouvrages existants". Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0063.

Texto completo
Resumen
L'objectif de cette these est l'etude, sur modele reduit et par simulation numerique, des mouvements du sol provoques par les phases de deconfinement et reconfinement rencontres lors du creusement des tunnels. L'experimentation est realisee sur modele reduit bidimensionnel utilisant le sol analogique de Taylor-Schneebeli et la technique d'imagerie numerique pour identifier le champ de deplacement et de deformation dans l'ensemble du massif et examiner l'incidence de divers parametres : variation du diametre du tunnel, profondeur du tunnel, presence d'ouvrages existants. La connaissance precise du champ de deplacement experimental et des conditions aux limites ont ete utilisee pour effectuer une etude de validation de lois de comportement dont les parametres sont cales sur des essais biaxiaux et des essais oedometriques realises sur les rouleaux de Schneebeli. Le comportement du sol analogique est pris en compte avec deux lois ; une adaptation de la loi elastique-plastique parfaite (Mohr-Coulomb), une loi implementee au laboratoire composee d'une partie hyperbolique type DUNCAN et d'un critere de plasticite (Mohr-Coulomb). Ces modeles ont ete utilises en deformation plane classique et en vrai 2D. Les resultats obtenus par l'intermediaire de la modelisation sont compares a ceux obtenus par l'experimentation en terme de champs de deplacements au sein du massif et, en terme de cuvette de tassement
The soil displacements were studied by experimentation on models and numerical simulation. An analogical soil of Taylor-Schneebeli type was used in a 2-dimensional model. The experimentation was analysed with the help of numerical image technique which allowed us to identify the displacement field and the deformations in the soil mass and particularly around and above the tunnel as well as on the ground surface. The influence of various parameters is considered: variation in the diameter of the tunnel, depth of the tunnel, presence of the existing structures. The knowledge gained from the displacement field and the boundary condition is used to study the validity of the different constitutive laws describing the sail behaviour. The different parameters used in these laws are obtained by performing biaxial and oedometric tests on Schneebeli rods. The soil behaviour is taken into account by two laws: the first law is an adapted form of perfect elasto-plasticity (Mohr-Coulomb), the second one consists of a hyperbolic part of Duncan type to which is incorporated a criterion of plasticity (M-C). These models are used in plane strain and true 2D. The experimental results are compared to those obtained by modelisation especially concerning the displacement field in the soil mass and the settlement curve. This study helped us to show: • the limits of utilisation of a perfect elasto-plastic law with a single modulus (loading/unloading). • the importance of the dilatancy of the material. • the domain of validation of these simple models where a good agreement between calculation and experimentation was obtained
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Authié, Guillaume. "Convection naturelle sous champ magnétique en cavité verticale élancée : application aux couvertures des réacteurs de fusion". Grenoble INPG, 2002. http://www.theses.fr/2002INPG0019.

Texto completo
Resumen
Dans les couvertures des réacteurs de fusion thermonucléaire, la convection naturelle du métal liquide est freinée par un champ magnétique horizontal intense. Lorsque le champ magnétique et le flux de chaleur sont perpendiculaires, la force électromagnétique s'inverse dans les couches de Hartmann, et l'écoulement devient bidimensionnel, avec de fortes vitesses en Gr/Ha (Gr et Ha désignant les nombres de Gashoff et de Hartmann). L'action des couches de Hartmann sur l'écoulement est traduite par des conditions aux limites pour le coeur de l'écoulement. Les régimes conductif, stratifié, pluri-cellulaire et instable sont étudiés analytiquement, expérimentalement et numériquement. Lorsque le champ magnétique et le flux de chaleur sont parallèles, la vitesse du coeur est en Gr/Ha2, et les vitesses élevées en Gr/Ha ne subsistent que dans les couches parallèles au champ magnétique. La stabilité des jets, ainsi que leur écrasement aux extrémités de la cavité sont étudiés numériquement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Sune, Jean-Luc. "Estimation de la profondeur d'une scène à partir d'une caméra en mouvement". Grenoble INPG, 1995. http://www.theses.fr/1995INPG0189.

Texto completo
Resumen
Cette these aborde le probleme de l'estimation de la profondeur d'une scene rigide a partir d'une camera en mouvement dont les parametres sont connus. Nous avons axe notre recherche sur une approche directe qui permet de determiner la profondeur directement a partir des variations spatio-temporelles de la fonction d'intensite, evitant ainsi le calcul du flot optique utilise dans les approches classiques. L'application directe de cette approche s'avere inexploitable. Il est necessaire de determiner un domaine de validite permettant de selectionner l'ensemble des points de l'image susceptibles de fournir une valeur de profondeur correcte ; et d'utiliser une analyse multiechelle pour ameliorer l'estimation des derivees. L'estimation de la profondeur a une resolution donnee est faite par la minimisation d'une fonction d'energie etablie dans le cadre d'une regularisation statistique. Un module de fusion des differentes echelles spatiales et temporelles analysees conduit a l'obtention d'une carte de profondeur finale. Un schema de correction-prediction integre l'information temporelle d'une sequence d'images. La carte predite est consideree comme une observation supplementaire prise en compte par le processus de fusion. Une gestion explicite de la confiance sur l'estimation obtenue permet a tout moment d'obtenir une carte de confiance associee a la carte de profondeur predite
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Pantet, Anne. "Creusement de galeries à faible profondeur a l'aide d'un tunnelier a pression de boue : Mesures "in situ" et étude théorique du champ de déplacements". Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0088.

Texto completo
Resumen
L'aménagement de l'espace souterrain, essentiellement en milieu urbain a contribué au développement de l'utilisation des tunneliers à confinement en France, depuis le début des années 80: Métro de Lyon, de Lille, Tunnels ferroviaires de Villejust, Tunnel sous la Manche, Émissaires du Val de Marne. . . La technique du tunnelier à confinement (à pression de boue, de terre et mixte), bien que très sophistiquée, n'élimine pas le problème de tassements, provoqués par le creusement d'une galerie. Ce travail a pour objectif d'étudier le champ de déplacements provoqués par les travaux d'excavation d'une galerie à faible profondeur, réalisée dans des terrains meubles de type granulaire. Il s'articule autour de quatre axes, qui sont la technologie des tunneliers, l'étude générale des mouvements autour de galeries creusées aux tunneliers, l'étude détaillée des chantiers de Villejust et de Lille réalisés avec un tunnelier à pression de boue, et la modélisation du creusement avec différents modèles théoriques. La première et la deuxième partie ont permis de définir les domaines d'utilisation des différents tunneliers et de cerner les principales causes à l'origine des mouvements. La troisième partie met en évidence la forte influence des conditions d’exécution et de la géométrie du projet sur le développement des mouvements de sol autour de la galerie. La quatrième partie a montré que l'évaluation théorique des mouvements est encore un problème délicat. Nous avons mis l'accent sur les difficultés d'emploi des modèles théoriques. Le choix de la loi de comportement conditionne fortement les résultats numériques obtenus avec la méthode des éléments finis
The utilisation of underground space, in particular in urban areas (underground railways in Lyon, Lille and Toulouse, railway tunnels in Villejust, Channel Tunnel, Val de Marne collector), has contributed, since the early 1980's, to the increasing use in France of confined shields. Confined shield technology, although very sophisticated, utilising slurry and earth pressure, does not prevent the settlement caused by the excavation of the tunnels. The purpose of this study was to examine the field of displacement caused by the excavation of a shallow tunnel in granular soft soils. The study comprised four main parts : - a) shield technology, - b) the general investigation of displacement around shield-excavated tunnels, - c) detailed stud of the works at Villejust and Lille, excavated using slurry shield, - d) modelling of excavation and comparison of different theoretical models. The first and second parts, describe the field in which slurry shields are currently used and identify the main causes of displacements during excavation. The third part demonstrates the strong influence of the working methods and the geometry of the project, and the difficulty of estimating displacements. The fourth art shows that the theoretical determination of displacements remains difficult
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Andrade, Valente da Silva Michelle. "SLAM and data fusion for autonomous vehicles : from classical approaches to deep learning methods". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM079.

Texto completo
Resumen
L'arrivée des voitures autonomes va provoquer une transformation très importante de la mobilité urbaine telle que nous la connaissons, avec un impact significatif sur notre vie quotidienne. En effet, elles proposent un nouveau système de déplacement plus efficace, plus facilement accessible et avec une meilleure sécurité routière. Pour atteindre cet objectif, les véhicules autonomes doivent effectuer en toute sécurité et de manière autonome trois tâches principales: la perception, la planification et le contrôle. La perception est une tâche particulièrement difficile en milieu urbain, car elle se doit d'être suffisamment précise pour assurer à la fois la sécurité du conducteur et celle des autres. Il est décisif d’avoir une bonne compréhension de l’environnement et de ses obstacles, ainsi qu’une localisation précise, afin que les autres tâches puissent être performantes. L'objectif de cette thèse est d'explorer différentes techniques pour la cartographie et la localisation des voitures autonomes en milieu urbain, en partant des approches classiques jusqu'aux algorithmes d'apprentissage profond. On s'intéresse plus spécifiquement aux véhicules équipés de capteurs bon marché avec l'idée de maintenir un prix raisonnable pour les futures voitures autonomes. Dans cette optique, nous utilisons dans les méthodes proposées des capteurs comme des scanner laser 2D, des caméras et des centrales inertielles à bas coût. Dans la première partie, nous introduisons des méthodes classiques utilisant des grilles d'occupation évidentielles. Dans un premier temps, nous présentons une nouvelle approche pour faire de la fusion entre une caméra et un scanner laser 2D pour améliorer la perception de l'environnement. De plus, nous avons ajouté une nouvelle couche dans notre grille d'occupation afin d'affecter un état à chaque objet détecté. Cet état permet de suivre l'objet et de déterminer s'il est statique ou dynamique. Ensuite, nous proposons une méthode de localisation s'appuyant sur cette nouvelle couche ainsi que sur des techniques de superposition d'images pour localiser le véhicule tout en créant une carte de l'environnement. Dans la seconde partie, nous nous intéressons aux algorithmes d'apprentissage profond appliqués à la localisation. D'abord, nous introduisons une méthode d'apprentissage pour l'estimation d'odométrie utilisant seulement des données issues de scanners laser 2D. Cette approche démontre l'intérêt des réseaux de neurones comme un bon moyen pour analyser ce type de données, dans l'optique d'estimer le déplacement du véhicule. Ensuite, nous étendons la méthode précédente en fusionnant le laser scanner 2D avec une caméra dans un système d'apprentissage de bout-en-bout. L'ajout de cette caméra permet d'améliorer la précision de l'estimation d'odométrie et prouve qu'il est possible de faire de la fusion de capteurs avec des réseaux de neurones. Finalement, nous présentons un nouvel algorithme hybride permettant à un véhicule de se localiser dans une région déjà cartographiée. Cet algorithme s'appuie à la fois sur une grille évidentielle prenant en compte les objets dynamiques et sur la capacité des réseaux de neurones à analyser des images. Les résultats obtenus lors de cette thèse nous ont permis de mieux comprendre les problématiques liées à l'utilisation de capteurs bon marché dans un environnement dynamique. En adaptant nos méthodes à ces capteurs et en introduisant une fusion de leur information, nous avons amélioré la perception générale de l'environnement ainsi que la localisation du véhicule. De plus, notre approche a permis d'identifier les avantages et inconvénients entre les différentes méthodes classiques et d'apprentissage. Ainsi, nous proposons une manière de combiner ces deux types d'approches dans un système hybride afin d'obtenir une localisation plus précise et plus robuste
Self-driving cars have the potential to provoke a mobility transformation that will impact our everyday lives. They offer a novel mobility system that could provide more road safety, efficiency and accessibility to the users. In order to reach this goal, the vehicles need to perform autonomously three main tasks: perception, planning and control. When it comes to urban environments, perception becomes a challenging task that needs to be reliable for the safety of the driver and the others. It is extremely important to have a good understanding of the environment and its obstacles, along with a precise localization, so that the other tasks are well performed. This thesis explores from classical approaches to Deep Learning techniques to perform mapping and localization for autonomous vehicles in urban environments. We focus on vehicles equipped with low-cost sensors with the goal to maintain a reasonable price for the future autonomous vehicles. Considering this, we use in the proposed methods sensors such as 2D laser scanners, cameras and standard IMUs. In the first part, we introduce model-based methods using evidential occupancy grid maps. First, we present an approach to perform sensor fusion between a stereo camera and a 2D laser scanner to improve the perception of the environment. Moreover, we add an extra layer to the grid maps to set states to the detected obstacles. This state allows to track an obstacle overtime and to determine if it is static or dynamic. Sequentially, we propose a localization system that uses this new layer along with classic image registration techniques to localize the vehicle while simultaneously creating the map of the environment. In the second part, we focus on the use of Deep Learning techniques for the localization problem. First, we introduce a learning-based algorithm to provide odometry estimation using only 2D laser scanner data. This method shows the potential of neural networks to analyse this type of data for the estimation of the vehicle's displacement. Sequentially, we extend the previous method by fusing the 2D laser scanner with a camera in an end-to-end learning system. The addition of camera images increases the accuracy of the odometry estimation and proves that we can perform sensor fusion without any sensor modelling using neural networks. Finally, we present a new hybrid algorithm to perform the localization of a vehicle inside a previous mapped region. This algorithm takes the advantages of the use of evidential maps in dynamic environments along with the ability of neural networks to process images. The results obtained in this thesis allowed us to better understand the challenges of vehicles equipped with low-cost sensors in dynamic environments. By adapting our methods for these sensors and performing the fusion of their information, we improved the general perception of the environment along with the localization of the vehicle. Moreover, our approaches allowed a possible comparison between the advantages and disadvantages of learning-based techniques compared to model-based ones. Finally, we proposed a form of combining these two types of approaches in a hybrid system that led to a more robust solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Falcon, Maimone Rafael. "Co-conception des systemes optiques avec masques de phase pour l'augmentation de la profondeur du champ : evaluation du performance et contribution de la super-résolution". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLO006/document.

Texto completo
Resumen
Les masques de phase sont des dispositifs réfractifs situés généralement au niveau de la pupille d’un système optique pour en modifier la réponse impulsionnelle (PSF en anglais), par une technique habituellement connue sous le nom de codage de front d’onde. Ces masques peuvent être utilisés pour augmenter la profondeur du champ (DoF en anglais) des systèmes d’imagerie sans diminuer la quantité de lumière qui entre dans le système, en produisant une PSF ayant une plus grande invariance à la défocalisation. Cependant, plus le DoF est grand plus l’image acquise est floue et une opération de déconvolution doit alors lui être appliquée. Par conséquent, la conception des masques de phase doit prendre en compte ce traitement pour atteindre le compromis optimal entre invariance de la PSF à la défocalisation et qualité de la déconvolution.. Cette approche de conception conjointe a été introduite par Cathey et Dowski en 1995 et affinée en 2002 pour des masques de phase continus puis généralisée par Robinson et Stork en 2007 pour la correction d’autres aberrations optiques.Dans cette thèse sont abordés les différents aspects de l’optimisation des masques de phase pour l’augmentation du DoF, tels que les critères de performance et la relation entre ces critères et les paramètres des masques. On utilise la « qualité d’image » (IQ en anglais), une méthode basée sur l’écart quadratique moyen définie par Diaz et al., pour la co-conception des divers masques de phase et pour évaluer leur performance. Nous évaluons ensuite la pertinence de ce critère IQ en comparaison d’autres métriques de conception optique, comme par exemple le rapport de Strehl ou la fonction de transfert de modulation (MTF en anglais). Nous nous concentrons en particulier sur les masques de phase annulaires binaires, l’étude de leur performance pour différents cas comme l’augmentation du DoF, la présence d’aberrations ou l’impact du nombre de paramètres d’optimisation.Nous appliquons ensuite les outils d’analyse exploités pour les masques binaires aux masques de phase continus qui apparaissent communément dans la littérature, comme les masques de phase polynomiaux. Nous avons comparé de manière approfondie ces masques entre eux et aux masques binaires, non seulement pour évaluer leurs avantages, mais aussi parce qu’en analysant leurs différences il est possible de comprendre leurs propriétésLes masques de phase fonctionnent comme des filtres passe-bas sur des systèmes limités par la diffraction, réduisant en pratique les phénomènes de repliement spectral. D’un autre côté, la technique de reconstruction connue sous l’appellation de « superresolution » utilise des images d’une même scène perturbées par du repliement de spectre pour augmenter la résolution du système optique original. Les travaux réalisés durant une période de détachement chez le partenaire industriel de la thèse, KLA-Tencor à Louvain, Belgique, illustrent le propos. A la fin du manuscrit nous étudions la pertinence de la combinaison de cette technique avec l’utilisation de masques de phase pour l’augmentation du DoF
Phase masks are wavefront encoding devices typically situated at the aperture stop of an optical system to engineer its point spread function (PSF) in a technique commonly known as wavefront coding. These masks can be used to extend the depth of field (DoF) of imaging systems without reducing the light throughput by producing a PSF that becomes more invariant to defocus; however, the larger the DoF the more blurred the acquired raw image so that deconvolution has to be applied on the captured images. Thus, the design of the phase masks has to take into account image processing in order to reach the optimal compromise between invariance of PSF to defocus and capacity to deconvolve the image. This joint design approach has been introduced by Cathey and Dowski in 1995 and refined in 2002 for continuous-phase DoF enhancing masks and generalized by Robinson and Stork in 2007 to correct other optical aberrations.In this thesis we study the different aspects of phase mask optimization for DoF extension, such as the different performance criteria and the relation of these criteria with the different mask parameters. We use the so-called image quality (IQ), a mean-square error based criterion defined by Diaz et al., to co-design different phase masks and evaluate their performance. We then compare the relevance of the IQ criterion against other optical design metrics, such as the Strehl ratio, the modulation transfer function (MTF) and others. We focus in particular on the binary annular phase masks, their performance for various conditions, such as the desired DoF range, the number of optimization parameters, presence of aberrations and others.We use then the analysis tools used for the binary phase masks for continuous-phase masks that appear commonly in the literature, such as the polynomial-phase masks. We extensively compare these masks to each other and the binary masks, not only to assess their benefits, but also because by analyzing their differences we can understand their properties.Phase masks function as a low-pass filter on diffraction limited systems, effectively reducing aliasing. On the other hand, the signal processing technique known as superresolution uses several aliased frames of the same scene to enhance the resolution of the final image beyond the sampling resolution of the original optical system. Practical examples come from the works made during a secondment with the industrial partner KLA-Tencor in Leuven, Belgium. At the end of the manuscript we study the relevance of using such a technique alongside phase masks for DoF extension
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

DJORDJEVIC, SOPHIE. "Profondeur de penetration du champ electromagnetique dans des couches minces d'yba 2cu 3o 7 et effet du temps de vie : etude par transmission dans l'infrarouge lointain". Paris 6, 1998. http://www.theses.fr/1998PA066468.

Texto completo
Resumen
Ce travail de these concerne l'etude de la longueur de penetration du champ electromagnetique dans des films minces d'ybco. Cette etude porte essentiellement sur la dependance en temperature a basse temperature, a frequence faible devant le gap 2 ( 50 mev) et en champ statique nul. La longueur de penetration est obtenue par des mesures de transmission dans l'infrarouge lointain. Les mesures ont ete effectuees sur cinq films d'ybco de 500 a 1000 a, deposes par ablation laser sur deux types de substrats laalo 3 et mgo, a frequence fixe (100-500 ghz ou 0. 4-2 mev) ; la temperature est balayee entre 5 et 110 k. . Une tentative de mesure locale (30 m) des proprietes electrodynamiques de nos films a l'aide d'un microscope en champ proche developpe a l'universite hebraique de jerusalem est presentee. Notre experience faisant appel a plusieurs frequences de mesure, nous disposons d'un parametre de controle supplementaire pour la confrontation avec les aspects theoriques. En effet, comme semblent l'indiquer les mesures de conductivite sur des monocristaux d'ybco, le taux de diffusion 1/ des quasiparticules peut devenir suffisamment faible a basse temperature et atteindre l'ordre de grandeur de la frequence de mesure, ce qui doit affecter la longueur de penetration. L'etude de la dependance en frequence de la longueur de penetration nous a ainsi permis de mettre en evidence l'effet du temps de vie sur (t) sur nos echantillons, effet qui se traduit par une diminution de la dependance en temperature en fonction de la frequence. Nous avons estime le temps de vie a partir d'un modele a deux fluides et nous avons compare nos resultats a la theorie bcs pour un parametre d'ordre de symetrie d. Les premiers calculs donnent un bon accord concernant les t c et les taux de diffusion experimentaux, dans la mesure ou la section efficace de diffusion est intermediaire entre la limite de born et la limite unitaire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Voisin, Yvon. "Détermination d'un critère pour la mise au point automatique des caméras pour des scènes à faible profondeur de champ : contribution à la mise au point des microscopes". Besançon, 1993. http://www.theses.fr/1993BESA2016.

Texto completo
Resumen
Cette étude recense les différents outils mathématiques utilisables pour réaliser la mise au point des systèmes optiques. Ces outils mathématiques que nous appelons descripteurs sont rangés en deux familles: descripteurs primaires/descripteurs secondaires. Dans un premier temps nous proposons l'amélioration d'un descripteur primaire par la détermination automatique de ses paramètres. Dans un deuxième temps nous proposons, après en avoir étudié ses propriétés, un nouvel outil comme descripteur: «le critère de Cramer Von Mises». Ce critère a un excellent comportement vis-à-vis d'images globalement nettes ou globalement floues. Grâce à une simplification du calcul de cet outil sans altération notable de son comportement vis-à-vis du flou, nous avons pu obtenir des temps de calcul très courts. La méthode que nous proposons est basée sur l'utilisation répétée de cet outil sur des portions d'images après segmentation de celles-ci. Il permet ainsi la mise en évidence de différents plans de netteté éventuels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Harms, Fabrice. "Imagerie des tissus à haute résolution en profondeur par tomographie de cohérence optique plein champ : approches instrumentales et multimodales pour l'application au diagnostic per-opératoire du cancer". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066702/document.

Texto completo
Resumen
Parmi les diverses méthodes d’imagerie médicales, les méthodes d’imagerie optique connaissent depuis une vingtaine d’années un développement significatif. Parmi les techniques d’imagerie optique récemment mises en œuvre, la Tomographie Optique Cohérente Plein Champ – ou OCT Plein Champ – présente des caractéristiques remarquables, en particulier en termes de résolution et de simplicité instrumentale, permettant d’envisager son application au domaine du diagnostic du cancer. Cette thèse décrit la conception et la mise en œuvre de dispositifs d’OCT Plein Champ pour utilisation en contexte clinique, afin d’évaluer la performance de la technique pour le diagnostic peropératoire du cancer, en vue de son amélioration et optimisation. Dans cet objectif nous avons réalisé des travaux regroupés en 2 axes : Une partie translationnelle, consistant à développer un dispositif de microscopie optique par OCT Plein Champ répondant au besoin clinique pour le diagnostic peropératoire du cancer sur biopsies, en vue de l’évaluation de ses performances de diagnostic sur plusieurs problématiques cliniques : le diagnostic peropératoire du tissu mammaire, de résection de cerveau, ainsi que la qualification préopératoire de greffons cornéens. Une partie exploratoire, principalement instrumentale, dédiée à l’amélioration des performances de diagnostic de la technique, proposant de nouvelles approches multimodales (contraste de fluorescence, contraste dynamique) et multi-échelles, ou encore la déclinaison du dispositif sous la forme d’un endoscope rigide portable utilisable en contexte clinique
Among medical imaging techniques, optical imaging methods have been significantly developped during the past decades. More specifically, among recently proposed optical imaging techniques, Full-Field Optical Coherence Tomography – or FFOCT – provides unique capabilities, in particular regarding resolution and instrumental simplicity, which allows to consider its application to cancer diagnosis. This thesis demonstrates the design and implementation of new FFOCT devices for use in a clinical context, targeting improvement and optimization of the technique. Two major development parts have been realized : A translational part, comprising the development of a FFOCT microscope adapted to a clinical use for intraoperative diagnosis of cancer on tissue biopsies, and the assessment of its diagnosis performance for several clinical cases : the intraoperative diagnosis of breast tissue, of brain resections, and the preoperative qualification of corneal grafts. A research part - mainly instrumental - targeting the improvement of the diagnosis performance of the technique, based on new multimodal (fluorescence contrast, dynamic contrast) and multiscale approaches, or on the miniaturization of the device by developing a handheld rigid endoscope for clinical use
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Nardon, Eric. "Contrôle des instabilités de bord par perturbations magnétiques résonnantes". Palaiseau, Ecole polytechnique, 2007. http://www.theses.fr/2007EPXX0022.

Texto completo
Resumen
Le contrôle des instabilités de bord connues sous le nom d' "Edge Localized Modes" (ELMs) est une question capitale pour le futur tokamak ITER. Ce travail est consacré à l'une des plus prometteuses méthodes de contrôle des ELMs, basée sur un système de bobines produisant des Perturbations Magnétiques Résonantes (PMRs), dont le fonctionnement a été démontré en premier lieu dans le tokamak DIII-D en 2003. Nos objectifs principaux sont, d'une part, d'éclaircir la compréhension physique des mécanismes en jeu, et d'autre part, de proposer un design concret de bobines de contrôle des ELMs pour ITER. Afin de calculer et d'analyser les perturbations magnétiques créées par un ensemble de bobines donné, nous avons développé le code ERGOS. Le premier calcul ERGOS a été consacré aux bobines de contrôle des ELMs de DIII-D, les I-coils. Il montre que celles-ci créent des chaines d'îlots magnétiques se recouvrant au bord du plasma, engendrant ainsi une ergodisation du champ magnétique. Nous avons par la suite utilisé ERGOS pour la modélisation des expériences de contrôle des ELMs à l'aide des bobines de correction de champ d'erreur sur JET et MAST, auxquelles nous participons depuis 2006. Dans le cas de JET, nous avons montré l'existence d'une corrélation entre la mitigation des ELMs et l'ergodisation du champ magnétique au bord, en accord avec le résultat pour DIII-D. Le design des bobines de contrôle des ELMs pour ITER s'est fait principalement dans le cadre d'un contrat EFDA (European Fusion Development Agreement)-CEA, en collaboration avec des ingénieurs et physiciens de l'EFDA et d'ITER. Nous avons utilisé ERGOS intensivement, le cas des I-coils de DIII-D nous servant de référence. Trois designs candidats sont ressortis, que nous avons présentés au cours de la revue de design d'ITER, en 2007. La direction d'ITER a décidé récemment d'attribuer un budget pour les bobines de contrôle des ELMs, dont le design reste à choisir entre deux des trois options que nous avons proposées (ou proches de celles que nous avons proposées). Enfin, dans le but de mieux comprendre les phénomènes de magnétohydrodynamique non-linéaires liés au contrôle des ELMs par PMRs, nous avons recouru à la simulation numérique, notamment avec le code JOREK pour un cas DIII-D. Les simulations révèlent l'existence de cellules de convection induites au bord du plasma par les perturbations magnétiques et le possible "écrantage" des PMRs par le plasma en présence de rotation. La modélisation adéquate de l'écrantage, qui demande la prise en compte de plusieurs phénomènes physiques supplémentaires dans JOREK, a été entamée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Chebbo, Manal. "Simulation fine d'optique adaptative à très grand champ pour des grands et futurs très grands télescopes". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4733/document.

Texto completo
Resumen
La simulation fine de systèmes d'OA à grand champ de type MOAO ou LTAO pour l'ELT se heurte à deux problématiques: l'augmentation du nombre de degrés de liberté du système. Cette augmentation rend les codes de simulation classiques peu utilisables, en particulier en ce qui concerne les processus d'inversion et de calcul matriciel. La complexité des systèmes, combinant EGL et EGN, grands miroirs déformables couvrant tout le champs et des miroirs dédiés dans les instruments eux mêmes, des rotations différentielles de pupille et ou de champs. Cette complexité conduit aux développements de procédures nouvelles d'étalonnage, de filtrage et fusion de données, de commande distribuée ou globale. Ces procédures doivent être simulées finement, comparées et quantifiées en termes de performances, avant d'être implantées dans de futurs systèmes. Pour répondre à ces deux besoins, le LAM développe en collaboration avec l'ONERA un code de simulation complet, basé sur une approche de résolution itérative de systèmes linéaires à grand nombre de paramètres (matrices creuses). Sur cette base, il incorpore de nouveaux concepts de filtrage et de fusion de données pour gérer efficacement les modes de tip/tilt/defocus dans le processus complet de reconstruction tomographique. Il permettra aussi, de développer et tester des lois de commandes complexes ayant à gérer un la combinaison du télescope adaptatif et d'instrument post-focaux comportant eux aussi des miroirs déformables dédiés.La première application de cet outil se fait naturellement dans le cadre du projet EAGLE, un des instruments phares du futur E-ELT, qui, du point de vue de l'OA combinera l'ensemble de ces problématiques
Refined simulation tools for wide field AO systems on ELTs present new challenges. Increasing the number of degrees of freedom makes the standard simulation's codes useless due to the huge number of operations to be performed at each step of the AO loop process. The classical matrix inversion and the VMM have to be replaced by a cleverer iterative resolution of the Least Square or Minimum Mean Square Error criterion. For this new generation of AO systems, concepts themselves will become more complex: data fusion coming from multiple LGS and NGS will have to be optimized, mirrors covering all the field of view associated to dedicated mirrors inside the scientific instrument itself will have to be coupled using split or integrated tomography schemes, differential pupil or/and field rotations will have to be considered.All these new entries should be carefully simulated, analysed and quantified in terms of performance before any implementation in AO systems. For those reasons i developed, in collaboration with the ONERA, a full simulation code, based on iterative solution of linear systems with many parameters (sparse matrices). On this basis, I introduced new concepts of filtering and data fusion to effectively manage modes such as tip, tilt and defoc in the entire process of tomographic reconstruction. The code will also eventually help to develop and test complex control laws who have to manage a combination of adaptive telescope and post-focal instrument including dedicated DM
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Zanuttini, Antoine. "Du photoréalisme au rendu expressif en image 3D temps réel dans le jeu vidéo : programmation graphique pour la profondeur de champ, la matière, la réflexion, les fluides et les contours". Paris 8, 2012. http://octaviana.fr/document/171326563#?c=0&m=0&s=0&cv=0.

Texto completo
Resumen
Cette étude vise à sortir de l'esthétique standardisée des jeux vidéo par l'apport de nouvelles techniques de représentation pour l'image numérique temps réel. Le rendu dit « photoréaliste » manque souvent de contrôle et de flexibilité pour l'artiste qui cherche à aller au-delà de la fidélité au réel. La crédibilité et l'immersion passent alors par une stylisation de l'image pour proposer un visuel convaincant et esthétique. Le rendu dit « expressif » va plus loin en prenant en compte le regard personnel de l'artiste tout en se basant sur des caractéristiques et des phénomènes issus du réel pour les détourner. Nous montrerons que le photoréalisme et le rendu expressif se rejoignent et se complètent sur de nombreux points. Trois thèmes différents seront présentés du point de vue du photoréalisme et accompagnés de la création de techniques personnelles. Le thème du flou de profondeur de champ nous amènera à prendre en compte la forme de la lentille de la caméra virtuelle à travers l'algorithme des Hexagonal Summed Area Tables. Nous aborderons ensuite la matière, la lumière et surtout la réflexion spéculaire ambiante et l'importance de la parallaxe pour celle-ci. Notre troisième thème sera celui du mouvement des fluides et de l'advection de textures en fonction du courant afin d'ajouter du détail facilement et efficacement. Ces mêmes sujets seront ensuite intégrés au rendu expressif et utilisés comme des outils d'expression pour l'artiste, à travers la création d'un effet « rêve », de fluides en espace-écran et du travail de la matière hachurée. Enfin, nous présenterons nos créations spécifiquement dédiées au rendu expressif et à la stylisation des contours
This study seeks to go beyond the standardized video games aesthetics by adding new depiction techniques for real-time digital imagery. Photorealistic rendering is often limited in control and flexibility for an artist who searches beyond fidelity to real. Achieving credibility and immersion will then often require stylization for the view to be more convincing and aesthetic. Expressive rendering goes further by taking care of the artist's personal vision, while being based on some real life attributes and phenomena, altering them at the same time. We will show that photorealism and expressive rendering join and complete each other under numerous aspects. Three themes related to photorealism will be presented, then some personal original techniques will be introduced. The theme of depth of field will lead us to consider the shape of the virtual camera's lens through the Hexagonal Summed Area Table algorithm. We will then look at material, light and especially ambient and specular reflections and the importance of parallax correction with regards to them. Our third theme will be the rendering of fluid motion and the advection of textures according to the flow for easy and efficient detail addition. These three subjects will then be integrated into expressive rendering and used as expression tools for the artist, through the creation of a dream effect, of screen-space rendered fluids, and of hatched material shading. Finally, we will show our creations specifically dedicated to expressive rendering and stroke stylization
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Corbat, Lisa. "Fusion de segmentations complémentaires d'images médicales par Intelligence Artificielle et autres méthodes de gestion de conflits". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD029.

Texto completo
Resumen
Le néphroblastome est la tumeur du rein la plus fréquente chez l'enfant et son diagnostic est exclusivement basé sur l'imagerie. Ce travail qui fait l'objet de nos recherches s'inscrit dans le cadre d'un projet de plus grande envergure : le projet européen SAIAD (Segmentation Automatique de reins tumoraux chez l'enfant par Intelligence Artificielle Distribuée). L'objectif du projet est de parvenir à concevoir une plate-forme capable de réaliser différentes segmentations automatiques sur les images sources à partir de méthodes d'Intelligence Artificielle (IA), et ainsi obtenir une reconstruction fidèle en trois dimensions. Dans ce sens, des travaux réalisés dans une précédente thèse de l'équipe de recherche ont menés à la création d'une plate-forme de segmentation. Elle permet la segmentation de plusieurs structures individuellement, par des méthodes de type Deep Learning, et plus particulièrement les réseaux de neurones convolutifs (CNNs), ainsi que le Raisonnement à Partir de Cas (RàPC). Cependant, il est ensuite nécessaire de fusionner de manière automatique les segmentations de ces différentes structures afin d'obtenir une segmentation complète pertinente. Lors de l'agrégation de ces structures, des pixels contradictoires peuvent apparaître. Ces conflits peuvent être résolus par diverses méthodes basées ou non sur l'IA et font l'objet de nos recherches. Nous proposons tout d'abord une première approche de fusion non focalisée sur l'IA en utilisant la combinaison de six méthodes différentes, basées sur différents critères présents sur l'imagerie et les segmentations. En parallèle, deux autres méthodes de fusion sont proposées en utilisant, un CNN couplé au RàPC pour l'une, et un CNN utilisant une méthode d'apprentissage spécifique existante en segmentation pour l'autre. Ces différentes approches ont été testées sur un ensemble de 14 patients atteints de néphroblastome et démontrent leurs efficacités dans la résolution des pixels conflictuels et leurs capacités à améliorer les segmentations résultantes
Nephroblastoma is the most common kidney tumour in children and its diagnosis is based exclusively on imaging. This work, which is the subject of our research, is part of a larger project: the European project SAIAD (Automated Segmentation of Medical Images Using Distributed Artificial Intelligence). The aim of the project is to design a platform capable of performing different automatic segmentations from source images using Artificial Intelligence (AI) methods, and thus obtain a faithful three-dimensional reconstruction. In this sense, work carried out in a previous thesis of the research team led to the creation of a segmentation platform. It allows the segmentation of several structures individually, by methods such as Deep Learning, and more particularly Convolutional Neural Networks (CNNs), as well as Case Based Reasoning (CBR). However, it is then necessary to automatically fuse the segmentations of these different structures in order to obtain a complete relevant segmentation. When aggregating these structures, contradictory pixels may appear. These conflicts can be resolved by various methods based or not on AI and are the subject of our research. First, we propose a fusion approach not focused on AI using the combination of six different methods, based on different imaging and segmentation criteria. In parallel, two other fusion methods are proposed using, a CNN coupled to the CBR for one, and a CNN using a specific existing segmentation learning method for the other. These different approaches were tested on a set of 14 nephroblastoma patients and demonstrated their effectiveness in resolving conflicting pixels and their ability to improve the resulting segmentations
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Sevrin, Loic. "Mesure et suivi d'activité de plusieurs personnes dans un Living Lab en vue de l'extraction d'indicateurs de santé et de bien-être". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1162/document.

Texto completo
Resumen
Le vieillissement de la population est un phénomène mondial qui s'accompagne d'une augmentation du nombre de patients atteints de maladies chroniques, ce qui oblige à repenser le système de santé en amenant le suivi de santé et les soins au domicile et dans la cité.En considérant que l'activité est un signe visible de l'état de santé, cette thèse cherche à proposer un moyen technologique pour le suivi des activités de plusieurs personnes dans un living lab composé d'un appartement et de la cité qui l'entoure.En effet, le maintien d'une activité physique soutenue, et en particulier d'une activité sociale fait partie intégrante de la bonne santé d'une personne, il doit donc être étudié au même titre que les capacités à effectuer les activités de la vie quotidienne.Cette étude a permis la mise en place d'une plateforme de conception collaborative et de test grandeur nature autour de la santé à domicile et dans la cité : le living lab de l'INL.Ce dernier a été le théâtre de premières expérimentations permettant de valider la capacité du living lab à la fois de fusionner des données d'activité venant d'un ensemble de capteurs hétérogènes, mais également d'évoluer en intégrant des nouvelles technologies et services.Les scénarios collaboratifs étudiés permettent une première approche de l'analyse de la collaboration par la détection des présences simultanées de plusieurs personnes dans la même pièce. Ces résultats préliminaires sont encourageants et seront complétés lors de captures d'activité plus fines et incluant plus de capteurs dans les mois à venir
The ageing of the population is a global phenomenon which comes with an increase of the amount of patients suffering from chronic diseases. It forces to rethink the healthcare by bringing health monitoring and care at home and in the city.Considering the activity as a visible indication of the health status, this thesis seeks to provide technological means to monitor several people's activities in a living lab composed of an apartment and the city around.Indeed, maintaining substantial physical activity, in particular social activity accounts fo an important part of a person's good health status. Hence, it must be studied as well as the ability to perform the activities of daily living.This study enabled the implementation of a platform for collaborative design and full-scale experimentation concerning healthcare at home and in the city: the INL living lab.The latest was the theatre of some first experimentations which highlighted the living lab ability to perform activity data fusion from a set of heterogeneous sensors, and also to evolve by integrating new technologies and services.The studied collaborative scenarios enable a first approach of the collaboration analysis by detecting the simultaneous presence of several people in the same room. These preliminary results are encouraging and will be completed by more precise measurements which will include more sensors in the coming months
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Manceau, Jérôme. "Clonage réaliste de visage". Thesis, CentraleSupélec, 2016. http://www.theses.fr/2016SUPL0004/document.

Texto completo
Resumen
Les clones de visage 3D peuvent être utilisés dans de nombreux domaines tels que l'interaction homme-machine et comme prétraitement dans des applications telles que l'analyse de l'émotion. Toutefois, ces clones doivent avoir la forme du visage bien modélisée tout en conservant les spécificités des individus et ils doivent être sémantiques. Un clone est sémantique quand on connaît la position des différentes parties du visage (yeux, nez ...). Dans notre technique, nous utilisons un capteur RVB-Z pour obtenir les spécificités des individus et un modèle déformable de visage 3D pour marquer la forme du visage. Pour la reconstruction de la forme, nous inversons le processus utilisé classiquement. En effet, nous réalisons d'abord le fitting puis la fusion de données. Pour chaque trame de profondeur, nous gardons les parties appropriées de données appelées patchs de forme. Selon le positionnement de ces patchs, nous fusionnons les données du capteur ou les données du modèle déformable de visage 3D. Pour la reconstruction de la texture, nous utilisons des patchs de forme et de texture pour préserver les caractéristiques de la personne. Ils sont détectés à partir des cartes de profondeur du capteur. Les tests que nous avons effectués montrent la robustesse et la précision de notre méthode
3D face clones can be used in many areas such as Human-Computer Interaction and as pretreatment in applications such as emotion analysis. However, such clones should have well-modeled facial shape while keeping the specificities of individuals and they should be semantic. A clone is semantic when we know the position of the different parts of the face (eyes, nose...). In our technique, we use a RGB-D sensor to get the specificities of individuals and 3D Morphable Face Model to mark facial shape. For the reconstruction of the shape, we reverse the process classically used. Indeed, we first perform fitting and then data fusion. For each depth frame, we keep the suitable parts of data called patches. Depending on the location, we merge either sensor data or 3D Morphable Face Model data. For the reconstruction of the texture, we use shape and texture patches to preserve the person's characteristics. They are detected using the depth frames of a RGB-D sensor. The tests we perform show the robustness and the accuracy of our method
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Scamps, Guillaume. "Effet de l'appariement sur la dynamique nucléaire". Caen, 2014. http://www.theses.fr/2014CAEN2009.

Texto completo
Resumen
L'appariement est une composante indispensable à la description des noyaux atomiques. Ses effets sur les propriétés statiques du noyau sont à présent bien connus. Dans ce mémoire, l'effet de l'appariement sur la dynamique nucléaire est étudié. Différentes théories qui incluent l'appariement sont comparées dans un cas modèle. La théorie TDHF+BCS qui apparaît comme un bon compromis entre la richesse de la physique qu'elle contient et son coût numérique est retenue pour les applications aux noyaux. L'introduction de l'appariement dans cette approximation pose de nouveaux problèmes liés à (1) la brisure de la symétrie associée au nombre de particules, (2) la non-conservation de l'équation de continuité. Ces difficultés sont analysées en détail et des solutions pratiques sont proposées. Dans cette thèse, un programme TDHF+BCS en 3 dimensions permettant de simuler la dynamique des noyaux a été développé. L'application de cette théorie aux résonances géantes a montré que l'appariement n'affecte que les états excités de basse énergie. La composante collective de haute énergie n'étant modifiée que par les conditions initiales. Une étude complète des résonances géantes quadrupolaires a été réalisée pour plus de 700 noyaux sphériques ou déformés. Un bon accord est alors trouvé avec les données expérimentales pour l'énergie collective de la résonance. Cette théorie a ensuite été appliquée à l'étude des réactions de transfert de nucléons lors des collisions noyau-noyau. Une nouvelle méthode de détermination des probabilités de transfert est proposée. Il est montré que l'appariement augmente de manière significative les probabilités de transférer deux nucléons
Pairing correlations is an essential component for the description of the atomic nuclei. The effects of pairing on static property of nuclei are now well known. In this thesis, the effect of pairing on nuclear dynamics is investigated. Theories that includes pairing are benchmarked in a model case. The TDHF+BCS theory turns out to be a good compromise between the physics taken into account and the numerical cost. This TDHF+BCS theory was retained for realistic calculations. Nevertheless, the application of pairing in the BCS approximation may induce new problems due to (1) the particle number symmetry breaking, (2) the non-conservation of the continuity equation. These difficulties are analysed in detail and solutions are proposed. In this thesis, a 3 dimensional TDHF+BCS code is developed to simulate the nuclear dynamic. Applications to giant resonances show that pairing modify only the low lying peaks. The high lying collective components are only affected by the initial conditions. An exhaustive study of the giant quadrupole resonances with the TDHF+BCS theory is performed on more than 700 spherical or deformed nuclei. Is is shown that the TDHF+BCS theory reproduces well the collective energy of the resonance. After validation on the small amplitude limit problem, the approach was applied to study nucleon transfer in heavy ion reactions. A new method to extract transfer probabilities is introduced. It is demonstrated that pairing significantly increases the two-nucleon transfer probability
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Ettoumi, Wahb. "Dynamique hamiltonienne et phénomènes de relaxation: d'un modèle champ moyen au confinement magnétique". Phd thesis, Ecole Polytechnique X, 2013. http://tel.archives-ouvertes.fr/tel-00925491.

Texto completo
Resumen
Dans cette thèse, nous commençons par étudier un modèle hamiltonien à champ moyen, dont les propriétés statistiques d'équilibre sont exactement solubles, et permettent en outre de prédire le comportement asymptotique des réalisations temporelles du système. Nous nous intéressons aux propriétés de relaxation vers des états dits d'équilibre à partir de conditions initiales particulières, et étudions en détail l'impact du nombre de particules sur les échelles temporelles en jeu. La motivation principale réside dans le fait que le modèle considéré, bien que très simple, présente une phénoménologie rappelant celle de systèmes bien plus complexes, fournissant ainsi à moindre coût un formidable terrain d'expérimentations numériques et théoriques. Nous avons obtenu une série de résultats sur les temps de relaxation du modèle en fonction du nombre de particules, confirmant d'une part les observations numériques existantes, et proposant d'autre part une nouvelle méthode d'étude d'états hors d'équilibre, basée sur l'exploration de l'espace des phases par le système. Nous nous intéressons ensuite au problème de la diffusion de particules lourdes en tokamak, dans l'optique de comprendre comment des impuretés, en situation réelle, pourraient voyager des bords de l'enceinte de confinement vers l'axe magnétique de l'appareil pour y absorber l'énergie du plasma, rendant alors vaine toute tentative de fusion. Nous mettons à l'épreuve la théorie de diffusion stochastique dans le régime de dents de scie, en nous basant sur des simulations numériques de particules test, et montrons que la stochasticité des lignes de champ magnétique, de par la topologie du champ électrique résultant, est une condition nécessaire permettant la reproduction résultats expérimentaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Thomas, Catherine. "Mesures du gradient accélérateur maximum dans des cavités supraconductrices en régime impulsionnel à 3 GHz". Phd thesis, Université Paris Sud - Paris XI, 2000. http://tel.archives-ouvertes.fr/tel-00006564.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Colin, Muriel. "Modélisation d'un réflectomètre mode X en vue de caractériser les fluctuations de densité et de champ magnétique : applications aux signaux de Tore Supra". Nancy 1, 2001. http://www.theses.fr/2001NAN10181.

Texto completo
Resumen
Cette étude porte sur l'interaction entre l'onde sonde et les fluctuations du plasma en réflectométrie dans les plasmas de fusion. Il a été montré qu'une telle interaction, quelle que soit la polarisation de l'onde sonde, peut être décrite par une équation de Mathieu. Pour vérifier la validité du modèle proposé, des codes numériques ont été développés (mode O et mode X). Ces validations étant effectuées, la part respective de l'onde rétrodiffusée par les fluctuations de densité et de champ magnétique a été déterminée, confirmant que les fluctuations de densité sont prépondérantes pour la plupart des situations expérimentales des plasmas de tokamak. Les performances des méthodes numériques développées ont permis les simulations des expériences existantes. La détermination quantitative des perturbations induites par des fluctuations a été effectuée pour des fluctuations cohérentes, et un premier lien entre le spectre des variations de phase et le spectre de la turbulence a été établi
This work deals with the interaction between a probing wave and plasma fluctuations. For all probing wave polarization in reflectometry expermiments, this interaction can be described by a Mathieu's equation. In order to check the validity domain of our model we have developed softwares with new numerical schems (both in O-mode and X-mode). After these validations, the ratio of the wave amplitude backscattered by density and magnetic fluctuations has been evaluated, and we have confirmed that the density fluctuations are prominent in most of cases in tokamak expermiments. The accuracy of numerical methods is high enough to simulate the reflectometer experiments. The part of coherent fluctuations in 1D is now well determined and a new connection between the spectrum of the phase variations and the turbulence spectrum has been shown
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Dey, Nicolas. "Etude de la formation de l'image d'un objet microscopique 3D translucide - Application à la microscopie". Phd thesis, Université du Maine, 2002. http://tel.archives-ouvertes.fr/tel-00003309.

Texto completo
Resumen
Dans cette thèse, nous proposons un modèle complet de la formation de l'image, qui s'applique à des objets microscopiques 3D translucides.Dans notre modèle, un objet translucide est défini comme une répartition discrète d'indices de réfraction et de coefficients d'absorption. Pour simuler le trajet de la lumière, nous proposons un modèle physique utilisant des techniques de lancer de rayons de la source vers l'observateur. Ce modèle physique sert à calculer l'espace objet éclairé. Pour simuler la génération d'images par le système optique, nous utilisons des principes d'optique ondulatoire. Nous modélisons la fonction de transfert 3D du microscope, qui dépend de la défocalisation. Après avoir choisi un plan de focalisation, nous calculons une image simulée en appliquant cette fonction de transfert à chaque plan plus ou moins défocalisé de l'espace objet éclairé. Une séquence d'images simulées est obtenue en faisant varier la focalisation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Fil, Nicolas. "Caractérisation et modélisation des propriétés d’émission électronique sous champ magnétique pour des systèmes RF hautes puissances sujets à l’effet multipactor". Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0025/document.

Texto completo
Resumen
La fusion nucléaire contrôlée par confinement magnétique avec les réacteurs de type Tokamaks et les applications spatiales ont en commun d’utiliser des composants Haute-Fréquence (HF) sous vide à forte puissance. Ces composants peuvent être sujets à l’effet multipactor qui augmente la densité électronique dans le vide au sein des systèmes, ce qui est susceptible d’induire une dégradation des performances des équipements et de détériorer les composants du système. Ces recherches consistent à améliorer la compréhension et la prédiction de ces phénomènes. Dans un premier temps nous avons réalisé une étude de sensibilité de l’effet multipactor au rendement d’émission électronique totale (noté TEEY). Cette étude a permis de montrer que l’effet multipactor est sensible à des variations d’énergies autour de la première énergie critique et dans la gamme d’énergies entre la première énergie critique et l’énergie du maximum. De plus, les composants HF utilisés dans les réacteurs Tokamak et dans le domaine du spatial peuvent être soumis à un champ magnétique continu. Nous avons donc développé un nouveau dispositif expérimental afin d’étudier ce phénomène. Le fonctionnement du dispositif et la méthode de mesure ont été analysées et optimisées à l’aide de modélisations numériques avec le logiciel PIC SPIS. Une fois que l’utilisation du dispositif a été optimisée et que le protocole de mesures a été validé, nous avons étudié l’influence d’un champ magnétique uniforme et continu sur le TEEY du cuivre. Nous avons démontré que le rendement d’émission électronique totale du cuivre est influencé par la présence d’un champ magnétique et par conséquent également l’effet multipactor
Space communication payload as well as magnetic confinement fusion devices, among other applications, are affected by multipactor effect. This undesirable phenomenon can appear inside high frequency (HF) components under vacuum and lead to increase the electron density in the vacuum within the system. Multipactor effect can thus disturb the wave signal and trigger local temperature increases or breakdowns. This PhD research aims to improve our understanding and the prediction of the multipactor effect. The multipactor phenomenon is a resonant process which can appear above a certain RF power threshold. To determine this power threshold, experimental tests or/and simulations are commonly used. We have made a study to evaluate the multipactor power threshold sensitivity to the TEEY. Two particular critical parameters have been found: first cross-over energy and the energies between the first cross-over and the maximum energies. In some situations, the HF components are submitted to DC magnetic fields which might affect the electron emission properties and hence the multipactor power threshold. Current multipactor simulation codes don’t take into account the effect of the magnetic field on the TEEY. A new experimental setup specially designed to investigate this effect was developed during this work. Our new experimental setup and the associated TEEY measurement technique were analysed and optimized thanks to measurements and SPIS simulations. We used the setup to study the influence of magnetic field perpendicular to the sample surface on the TEEY of copper. We have demonstrated that the magnetic field affects the copper TEEY, and hence multipactor power threshold
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Vu, Dinh Toan. "Unification du système de hauteur et estimation de la structure lithosphérique sous le Vietnam utilisant la modélisation du champ de gravité et du quasigéoïde à haute résolution". Thesis, Toulouse 3, 2021. http://www.theses.fr/2021TOU30050.

Texto completo
Resumen
Le but de ce travail était double. La première partie a été consacrée à la recherche de la taille et de la forme de la Terre au Vietnam à travers la détermination d'un modèle quasigeoïde gravimétrique local. La deuxième partie consistait à étudier la structure intérieure de la Terre sous le Vietnam en déterminant la profondeur du Moho et de la limite entre Lithosphère-Asthénosphère. Pour le premier objectif, un modèle quasigeoïde gravimétrique à haute résolution pour le Vietnam et ses environs a été déterminé sur la base de nouvelles données issues de campagnes gravimétriques terrestres en combinaison avec des observations satellites dans les régions non couvertes par les observations au sol. Le modèle quasigeoïde a été évalué en utilisant 812 points GNSS/nivellement dans la région d'étude. Cette comparaison indique que le modèle quasigeoïde a un écart type de 9.7 cm et un biais moyen de 50 cm. Ce nouveau modèle quasigeoïde local pour le Vietnam représente une amélioration significative par rapport aux modèles globaux EIGEN-6C4 et EGM2008, qui ont des écarts-types de 19.2 et 29.1 cm, respectivement, par rapport aux données GNSS/nivellement. Une application sociétale et technique essentielle du quasigeoïde gravimétrique est le nivellement par GNSS, et un modèle de décalage vertical pour le Vietnam et ses environs a donc été déterminé sur la base des points GNSS/nivellement et du modèle quasigeoïde gravimétrique. Le modèle de décalage (ou modèle de correction) a été évalué en comparant avec des données GNSS/nivellement. Les résultats indiquent que le modèle obtenu a un écart type de 5.9 cm au sens absolu. Grâce à ce modèle de décalage, le nivellement par GNSS peut donc être effectué dans la plupart du territoire vietnamien conformément aux exigences de nivellement du troisième ordre, tandis que les exigences de précision pour les réseaux de nivellement du quatrième ordre sont satisfaites pour tout le pays. Pour tenter d'unifier le système de hauteur ainsi déterminé vers l'IHRF (International Height Reference System), la valeur géopotentielle à zéro-hauteur pour le système de référence vertical local du Vietnam W_0^LVD a été déterminée en fonction de deux approches: 1) Utilisation de données GNSS/nivellement de haute qualité et du modèle quasigeoïde gravimétrique. 2) Utilisation de l'approche du problème de la valeur aux limites géodésiques basée sur le modèle de champ de gravité global GOCE amélioré avec des données de gravité terrestres. Cette valeur géopotentielle est utilisée pour rattacher le système de hauteur du Vietnam avec les pays voisins. De plus, l'approche du problème de la valeur des limites géodésiques a également été utilisée pour la détermination du potentiel de gravité à la surface de trois stations GNSS-CORS à l'époque 2018.0 au Vietnam. Sur la base de séries chronologiques de composantes verticales dérivées des observations GNSS ainsi que des données InSAR, les variations temporelles du géopotentiel ont également été estimées sur ces stations GNSS permanentes. Cela permet de surveiller la référence verticale et de détecter d'éventuelles déformations. Ces stations peuvent ainsi contribuer à augmenter la densité des points de référence dans l'IHRF pour cette région. Pour le deuxième objectif, le modèle de quasigéoïde local a d'abord été converti en géoïde. Ensuite, des modèles de profondeur du Moho et de la limite entre Lithosphère-Asthénosphère à haute résolution ont été déterminés sous le Vietnam sur la base de l'hypothèse isostatique locale en utilisant la hauteur du géoïde dérivée du géoïde, des données de hauteur et d'analyse thermique. [...]
The goal of this work was twofold. The first part was devoted to the research of the size and physical shape of the Earth in Vietnam through the determination of a local gravimetric quasigeoid model. The second part was to better constrain the Earth's interior structure beneath Vietnam by determining the Moho and Lithosphere-Asthenosphere Boundary (LAB) depth models. For the first objective, a high-resolution gravimetric quasigeoid model for Vietnam and its surrounding areas was determined based on new land gravity data in combination with fill-in data where no gravity data existed. The resulting quasigeoid model was evaluated using 812 GNSS/levelling points in the study region. This comparison indicates that the quasigeoid model has a standard deviation of 9.7 cm and 50 cm in mean bias. This new local quasigeoid model for Vietnam represents a significant improvement over the global models EIGEN-6C4 and EGM2008, which have standard deviations of 19.2 and 29.1 cm, respectively, when compared to the GNSS/levelling data. An essential societal and engineering application of the gravimetric quasigeoid is in GNSS levelling, and a vertical offset model for Vietnam and its surrounding areas was determined based on the GNSS/levelling points and gravimetric-only quasigeoid model for this purpose. The offset model was evaluated using cross-validation technique by comparing with GNSS/levelling data. Results indicate that the offset model has a standard deviation of 5.9 cm in the absolute sense. Thanks to this offset model, GNSS levelling can be carried out over most of Vietnam's territory complying to third-order levelling requirements, while the accuracy requirements for fourth-order levelling networks is met for the entire country. To unify the height system towards the International Height Reference Frame (IHRF), the zero-height geopotential value for the Vietnam Local Vertical Datum W_0^LVD was determined based on two approaches: 1) Using high-quality GNSS/levelling data and the estimated gravimetric quasigeoid model, 2) Using the Geodetic Boundary Value Problem (GBVP) approach based on the GOCE global gravity field model enhanced with terrestrial gravity data. This geopotential value can be used to connect the height system of Vietnam with the neighboring countries. Moreover, the GBVP approach was also used for direct determination of the gravity potential on the surface at three GNSS Continuously Operating Reference Station (CORS) stations at epoch 2018.0 in Vietnam. Based on time series of the vertical component derived from these GNSS observations as well as InSAR data, temporal variations in the geopotential were also estimated on these permanent GNSS stations. This enables monitoring of the vertical datum and detect possible deformation. These stations may thus contribute to increase the density of reference points in the IHRF for this region. For the second objective, the local quasigeoid model was first converted to the geoid. Then, high-resolution Moho and LAB depth models were determined beneath Vietnam based on the local isostatic hypothesis using the geoid height derived from the estimated geoid, elevation data and thermal analysis. From new land gravity data, a complete grid and map of gravity anomalies i.e., Free-air, Bouguer and Isostatic was determined for the whole of Vietnam. The Moho depth was also computed based on the gravity inversion using the Bouguer gravity anomaly grid. All new models are computed at 1' resolution. The resulting Moho and LAB depth models were evaluated using available seismic data as well as global and local lithospheric models available in the study region. [...]
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Levy, Yoann. "Etude numérique et modélisation des instabilités hydrodynamiques dans le cadre de la fusion par confinement inertiel en présence de champs magnétiques auto-générés". Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00742130.

Texto completo
Resumen
Dans le cadre de la fusion par confinement inertiel, nous présentons une analyse des effets du champ magnétique sur le développement linéaire des instabilités de Richtmyer-Meshkov, en magnétohydrodynamique idéale d'une part, et de Rayleigh-Taylor au front d'ablation, dans les phases d'accélération et de décélération d'autre part.A l'aide d'un code linéaire de perturbation, nos simulations mono mode nous permettent de confirmer, pour l'instabilité de Richtmyer-Meshkov, la stabilisation apportée par la composante du champ magnétique parallèle au vecteur d'onde des perturbations de l'interface, dont l'amplitude oscille au cours du temps. Nous montrons que la prise en compte de la compressibilité n'apporte pas de changements significatifs par rapport au modèle impulsionnel incompressible existant dans la littérature. Dans nos simulations numériques bidimensionnelles, en géométrie plane, de l'instabilité de Rayleigh-Taylor dans la phase d'accélération, nous prenons en compte le phénomène d'auto-génération de champ magnétique induite par cette instabilité. Nous montrons qu'il est possible d'atteindre des valeurs de champ de l'ordre de quelques teslas et que la croissance de l'amplitude des perturbations transite plus rapidement vers un régime de croissance non-linéaire avec, notamment, un développement accru de la troisième harmonique. Nous proposons également une adaptation d'un modèle existant, étudiant l'effet d'anisotropie de conductivité thermique sur le taux de croissance de l'instabilité de Rayleigh-Taylor au front d'ablation, pour tenter de prendre en compte les effets des champs magnétiques auto-générés sur le taux de croissance de l'instabilité de Rayleigh-Taylor. Enfin, dans une étude numérique à deux dimensions, en géométrie cylindrique, nous analysons les effets des champs magnétiques auto-générés par l'instabilité de Rayleigh-Taylor dans la phase de décélération. Cette dernière étude révèle l'apparition de champs magnétiques pouvant atteindre plusieurs milliers de teslas sans pour autant affecter le comportement de l'instabilité de Rayleigh-Taylor.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Bchir, Aroussia. "Brian De Palma : une esthétique de la violence?" Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01H321.

Texto completo
Resumen
Approche esthétique de l’œuvre cinématographique de Brian De Palma. La problématique s’articule entre esthétique du montage et violence de l’image. En premier lieu, le texte interroge le mode de découpage privilégié par Brian De Palma en soulignant l'importance du plan-séquence et du split screen. L'usage du plan-séquence est, notamment, rapporté à la question du défaut de vision, phénomène considéré comme central. Un second moment de cette thèse est consacré à l'étude des personnages. Des personnages anti-héros, marginaux. L'accent est particulièrement mis sur le corps féminin. Regard et voyeurisme revient à la question du découpage privilégié par Brian De Palma. Comment Brian De Palma utilise-t-il le regard pour accéder à la violence ? Qu’est-ce que regarder chez Brian De Palma ? Comment les éléments voyeuristes depalmiens se construisent-ils à partir du langage cinématographique ? Le cinéma de Brian De Palma s’annonce aussi savant et complexe, entre classicisme et modernisme. Comment Brian De Palma travaille-t-il l’œuvre hitchcockienne pour offrir une conception nouvelle ? Comment violenter l’image pour extraire son invisible ?
An esthetically pleasing approach to Brian De Palma's cinematographic work. The issue revolves around editing aesthetics and image violence. First, the text questions the cutting mode favored by Brian De Palme, stressing the importance of sequence-shot and split screen. The use of sequence-shot is in particular brought by the issue of lack of vision, a phenomenon considered as central. A second point of this thesis is devoted to the study of the characters. Anti-hero characters, drop outs. Emphasis is particularly placed on the female body. And voyeuristic gaze returns to the issue of cutting by Brian De Palma. How does Brian De Palma use eyes to see violence ? What is the meaning of « looking » to Brian De Palm a? How are De Palma's voyeuristic elements constructed from film language ? Brian De Palma's film also promises to be clever and complex, between classicism and modernism. How does Brian De Palma use Hitchcock's work in order to offer a new design? How assaulting the image to get its unseen part ?
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Chebbo, Manal. "SIMULATION FINE D'OPTIQUE ADAPTATIVE A TRES GRAND CHAMP POUR DES GRANDS ET FUTURS TRES GRANDS TELESCOPES". Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00742873.

Texto completo
Resumen
La simulation fine de systèmes d'OA a grand champ de type MOAO, MCAO ou LTAO pour l'ELT se heurte a deux problématiques: L'augmentation du nombre de degrés de liberté du système (au carre du diamètre du télescope). Cette augmentation rend les codes de simulation classiques peu (ou pas) utilisables, en particulier en ce qui concerne les processus d'inversion et de calcul matriciel. Il faut donc envisager des approches d'inversion itératives d'un modèle direct y = A * x en s'appuyant sur les théories d'optimisation a base de matrices creuses. La complexite des systèmes, combinant des étoiles naturelles et laser, de grands miroirs déformables couvrant tous le champs et des miroirs dédiés dans les instruments eux memes, des rotations différentielles de pupille et ou de champs. Cette complexité conduit aux développements de procédures nouvelles d'étalonnages, de filtrages et fusion de données, de commandes distribuée ou globale. Ces procédures doivent être simulées finement, comparées et quantifiées en termes de performances, avant d'être implantées dans de futurs systèmes. Pour répondre a ces deux besoins. J'ai développé en, collaboration avec l'ONERA, un code de simulation complet base sur une approche de résolution itérative de systèmes linéaires a grand nombre de paramètres (utilisation de matrices creuses). Sur cette base, j'ai introduit de nouveaux concepts de filtrage et de fusion de données (étoiles laser et étoiles naturelles) pour gérer efficacement les modes de tip/tilt/defoc dans le processus complet de reconstruction tomographique. Ce code permettra aussi, a terme, de développer et tester des lois de commandes complexes (multi-DM et multi-champs) ayant a gérer la combinaison du télescope adaptatif et d'instrument post-focaux comportant eux aussi des miroirs déformables dédiés. La première application de cet outil s'est faite naturellement dans le cadre du projet de spectrographe multi-objets EAGLE, un des instruments phares du futur E-ELT, qui, du point de vue de l'optique adaptative combinera l'ensemble de ces problématiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Barbut, Jean-Marc. "Texturation d'YBa2Cu3O(7-[delta]) par fusion de zone sous champ magnétique : détermination par mesure de courant critique de son diagramme de phase dans le plan [H,[THETA]] à 77 K : mise en évidence par mesures résistives de l'existence en champ nul d'une transition du 1er ordre dans l'état supraconducteur". Grenoble 1, 1994. http://www.theses.fr/1994GRE10049.

Texto completo
Resumen
Les applications en courant fort de la ceramique supraconductrice a haute temperature critique yba#2cu#3o#7## necessitent l'amelioration des qualites supraconductrices et l'augmentation de la taille des materiaux synthetises. Un nouveau procede de synthese, combinant la fusion de zone et l'action du champ magnetique, permet de produire des conducteurs de grande longueur massivement orientes. Cette methode autorise la synthese de barreaux d'yba#2cu#3o#7## de plusieurs centimetres de long, composes d'un petit nombre de grains avec une faible desorientation des plans a,b, la direction de l'axe c etant imposee par le champ magnetique. L'un deux, comportant plusieurs joints de grains, a montre en champ nul un courant critique superieur a 3200 a (> 25. 000 a/cm#2), et egal a 200 a (1500 a/cm#2) dans un champ magnetique applique de 8 teslas. Pour etudier les phenomenes associes au courant critique et au champ critique, nous avons mis au point deux dispositifs de mesure: un appareil de mesure de courants critiques eleves, fonctionnant dans l'azote liquide (77 k), sous champ magnetique applique, et qui permet de faire varier l'angle entre l'axe du champ et les directions cristallographiques du materiau etudie; et un dispositif de mesures de resistance en fonction de la temperature et du champ magnetique, fonctionnant entre t = 8 et 300 k et entre h = 0 et 4,5 teslas. Les mesures de courants critiques, effectuees a l'aide du premier de ces dispositifs, ont permis d'explorer le plan h, a 77 k, entre h = 0 et 20 teslas et de = 0 a 90. Une analyse detaillee et des lois d'echelle etablies a partir de la variable h/h#c#3(), h#c#3() etant le champ critique de surfaces intrinseques a la structure cristallographique, permettent de proposer un diagramme de phase dans ce plan. La precision obtenue sur le dispositif de mesures de resistances a permis de reveler l'existence d'une transition du premier ordre dans l'etat supraconducteur en champ nul, se manifestant entre 30k et tc, pouvant etre attribuee a un changement de symetrie de la supraconductivite
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Pellan, Yves. "Etude de la metastabilite de la transition supraconductrice de films divises d'indium sous champ magnetique parallele et perpendiculaire". Rennes, INSA, 1987. http://www.theses.fr/1987ISAR0007.

Texto completo
Resumen
Mesures systematiques des champs de surchauffe et de retard a la condensation et du champ critique thermodynamique du film en fonction de l'epaisseur, de la temperature et de l'orientation du champ magnetique, sur deux series de films deposes sur des substrats a 295k et 77k. Determination de la profondeur de penetration, de la longueur de coherence et du parametre de ginzburg-landau de l'indium supraconducteur pur
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Nardon, Eric. "Modélisation non-linéaire du transport en présence d'instabilité MHD du plasma périphérique de tokamak". Phd thesis, Ecole Polytechnique X, 2007. http://pastel.archives-ouvertes.fr/pastel-00003137.

Texto completo
Resumen
Le contrôle des instabilités de bord connues sous le nom d' "Edge Localized Modes" (ELMs) est une question capitale pour le futur tokamak ITER. Ce travail est consacré à l'une des plus prometteuses méthodes de contrôle des ELMs, basée sur un système de bobines produisant des Perturbations Magnétiques Résonantes (PMRs), dont le fonctionnement a été démontré en premier lieu dans le tokamak DIII-D en 2003. Nos objectifs principaux sont, d'une part, d'éclaircir la compréhension physique des mécanismes en jeu, et d'autre part, de proposer un design concret de bobines de contrôle des ELMs pour ITER. Afin de calculer et d'analyser les perturbations magnétiques créées par un ensemble de bobines donné, nous avons développé le code ERGOS. Le premier calcul ERGOS a été consacré aux bobines de contrôle des ELMs de DIII-D, les I-coils. Il montre que celles-ci créent des chaines d'îlots magnétiques se recouvrant au bord du plasma, engendrant ainsi une ergodisation du champ magnétique. Nous avons par la suite utilisé ERGOS pour la modélisation des expériences de contrôle des ELMs à l'aide des bobines de correction de champ d'erreur sur JET et MAST, auxquelles nous participons depuis 2006. Dans le cas de JET, nous avons montré l'existence d'une corrélation entre la mitigation des ELMs et l'ergodisation du champ magnétique au bord, en accord avec le résultat pour DIII-D. Le design des bobines de contrôle des ELMs pour ITER s'est fait principalement dans le cadre d'un contrat EFDA (European Fusion Development Agreement)-CEA, en collaboration avec des ingénieurs et physiciens de l'EFDA et d'ITER. Nous avons utilisé ERGOS intensivement, le cas des I-coils de DIII-D nous servant de référence. Trois designs candidats sont ressortis, que nous avons présentés au cours de la revue de design d'ITER, en 2007. La direction d'ITER a décidé récemment d'attribuer un budget pour les bobines de contrôle des ELMs, dont le design reste à choisir entre deux des trois options que nous avons proposées (ou proches de celles que nous avons proposées). Enfin, dans le but de mieux comprendre les phénomènes de magnétohydrodynamique non-linéaires liés au contrôle des ELMs par PMRs, nous avons recouru à la simulation numérique, notamment avec le code JOREK pour un cas DIII-D. Les simulations révèlent l'existence de cellules de convection induites au bord du plasma par les perturbations magnétiques et le possible "écrantage" des PMRs par le plasma en présence de rotation. La modélisation adéquate de l'écrantage, qui demande la prise en compte de plusieurs phénomènes physiques supplémentaires dans JOREK, a été entamée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Vorobiov, Serguei͏̈. "Observations de la méthode du Crabe de 1996 à 2002 avec le télescope à effet Tcherenkov atmosphérique CAT et mise en oeuvre d'une nouvelle méthode d'analyse des gerbes atmosphériques". Palaiseau, Ecole polytechnique, 2004. http://www.theses.fr/2004EPXX0001.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía