Thèses sur le sujet « Lignine – Imagerie »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Lignine – Imagerie.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 47 meilleures thèses pour votre recherche sur le sujet « Lignine – Imagerie ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Morel, Oriane. « Characterization of the spatial distribution of lignins in plant cell walls using chemical reporters and Raman ». Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILS118.

Texte intégral
Résumé :
La lignine est un polymère polyphénolique de la paroi cellulaire qui intervient dans de nombreux aspects de la croissance et du développement des plantes supérieures. En tant que composant majeur de la biomasse lignocellulosique, elle présente également un intérêt économique. Bien que la biosynthèse du polymère de la lignine soit relativement bien comprise, nous avons besoin d'en savoir plus sur la façon dont les changements (quantité/structure) des autres polymères de la paroi cellulaire (par exemple, la cellulose, les hémicelluloses, les pectines) affectent la production de lignine. Afin de fournir plus d'informations sur cette question, nous avons mis en œuvre une approche en deux phases basée sur l'utilisation de l'imagerie biologique. La première phase a consisté à développer/améliorer différentes techniques d'imagerie complémentaires à haute résolution. Nous avons tout d'abord développé une nouvelle approche ratiométrique quantitative (REPRISAL) basée sur la segmentation paramétrique/intelligence artificielle d'images de microscopie confocale obtenues par la chimie bio-orthogonale des rapporteurs chimiques de la lignine (click chemistry). Cette méthodologie nous a permis de cartographier précisément la capacité de lignification des différentes couches de la paroi cellulaire (coin cellulaire, lamelle moyenne composée et paroi cellulaire secondaire) chez les plantes Arabidopsis WT et le mutant prx64. Dans un deuxième temps, nous avons modifié l'algorithme de segmentation REPRISAL afin de pouvoir l'utiliser pour cartographier les niveaux relatifs de lignine de la paroi cellulaire déterminés par la technique de fluorescence ratiométrique de la safranine-O. Enfin, nous avons utilisé l'imagerie Raman pour comparer la capacité de trois méthodes analytiques multivariées différentes (non-mixage, analyse en grappes et correspondance orthogonale) à fournir des informations spatiales détaillées sur la distribution des différents polymères dans les parois cellulaires des plantes. Dans la deuxième phase, nous avons utilisé les techniques d'imagerie développées/améliorées pour analyser si les modifications des hémicelluloses de la paroi cellulaire affectent la lignification chez le mutant irx9 d'Arabidopsis. Nos résultats ont démontré que les changements dans la distribution des hémicelluloses de la paroi cellulaire modifient effectivement le processus de lignification, en particulier dans les parties les plus jeunes de la tige florale de la plante. La transcriptomique ciblée de certains gènes de la paroi cellulaire suggère que les changements observés pourraient être liés à l'induction d'une réponse de défense. Globalement, les techniques développées dans le cadre de cette thèse devraient s'avérer précieuses pour les études futures de la dynamique des parois cellulaires. Les résultats obtenus sur le mutant irx9 donnent un nouvel aperçu des relations dynamiques qui existent entre les différents polymères de la paroi cellulaire des plantes
Lignin is a polyphenolic polymer of the cell wall involved in many aspects of growth and development in higher plants. As a major component of lignocellulosic biomass, it is also of economic interest. Although the biosynthesis of the lignin polymer is relatively well understood, we need to know more about how changes (quantity/structure) to other cell wall polymers (e.g., cellulose, hemicelluloses, pectins) affect lignin production. To provide more information on this question we implemented a two-phase approach based on the use of biological imaging. The first phase involved the development/improvement of different high-resolution complementary imaging techniques. We firstly developed a novel quantitative ratiometric approach (REPRISAL) based on the parametric/artificial intelligence segmentation of confocal microscopy images obtained by lignin chemical reporter bio-orthogonal chemistry. This methodology allowed us to precisely map the lignification capacity of different cell wall layers (cell corner, compound middle lamella and secondary cell wall) in Arabidopsis WT plants and the prx64 mutant. In a second development, we modified the REPRISAL segmentation algorithim thereby enabling it to be used to map relative cell wall lignin levels determined by the ratiometric safranin-O fluorescence technique. Finally, we used Raman imaging to compare the ability of three different multivariate analytical methods (unmixing, cluster analysis and orthogonal matching) to provide detailed spatial information about the distribution of different polymers in plant cell walls. In the second phase we used the developed/improved imaging techniques to analyse whether changes to cell wall hemicelluloses affect lignification in the Arabidopsis irx9 mutant. Our results demonstrated that changes in the distribution of cell wall hemicelluloses do indeed modify the lignification process, particularly in the younger parts of the plant floral stem. Targeted transcriptomics of selected cell wall genes suggested that the observed changes could be related to the induction of a defence response. Overall, the techniques developed within the framework of this thesis should prove valuable for future studies of cell wall dynamics. The results obtained on the irx9 mutant provide a novel insight into the dynamic relationships that exist between different polymers of the plant cell wall
Styles APA, Harvard, Vancouver, ISO, etc.
2

Audier, Xavier. « Spectroscopie Raman stimulée rapide et imagerie spectrale ». Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0580/document.

Texte intégral
Résumé :
En combinant des techniques de microscopie et de spectroscopie, il est possible de réaliser des images résolues spectralement. Ces images apportent des réponses à de nombreux problèmes en chimie, biologie, et médecine. La diffusion Raman cohérente (CRS) s'est révélée capable de surpasser la diffusion Raman spontanée dans l'analyse chimique d'échantillons, en offrant une meilleure résolution spatiale et un temps d'acquisition plus faible. La vitesse d'acquisition de l'information spectrale demeure toutefois un facteur limitant en imagerie CRS, et de nombreuses recherches se concentrent sur le développement de nouvelles méthodes d'acquisition. Le présent travail s'inscrit dans cette démarche. En combinant la diffusion Raman stimulée (une branche de la CRS), la focalisation spectrale d'impulsions optiques, ainsi qu'une ligne à délai acousto-optique, nous réalisons les premières mesures à de telles vitesses d'acquisition. Le cadre théorique, technologique, ainsi que l’ingénierie nécessaire pour parvenir à ce résultat sont détaillés. Cette technique d'acquisition rapide est illustrée par le suivi de réaction chimique, le contrôle qualité pharmaceutique, en biologie, et en histologie
Combining microscopy and spectroscopy, one can achieve spectrally resolved imaging, and provide a solution to various chemical, biological, or medical challenges. Coherent Raman scattering (CRS) has proven extremely valuable in providing chemical information, with a higher resolution and shorter acquisition time than spontaneous Raman scattering. The acquisition rate of the spectral information from a sample remains the limiting factor of CRS imaging, and several experimental schemes are being investigated to push the technology toward higher imaging frame rates. This work develops one such scheme. Combining stimulated Raman scattering (a CRS technique), spectral focusing with chirped pulses, and a fast acousto-optic delay line, we achieved unprecedented spectral acquisition rates. The theoretical, technological, and engineering frameworks enabling such acquisition are described in details. The application to pharmaceutical quality control, time resolved chemical transformations, biology, and histology are demonstrated
Styles APA, Harvard, Vancouver, ISO, etc.
3

Yousef, Ibraheem. « Simulation et conception d'une ligne de lumière infrarouge pour SESAME : application en microspectroscopie et imagerie ». Paris 6, 2011. http://www.theses.fr/2011PA066611.

Texte intégral
Résumé :
L'objectif principal de cette thèse est de concevoir pour le synchrotron SESAME au Moyen-Orient sa première ligne de lumière, totalement concue, dédiée à la spectroscopie et microspectroscopie infrarouge. Tenant compte des contraintes d'espace de l'anneau de stockage dans sa phase de construction, la ligne de lumière a été conçue pour produire des faisceaux dans un espace expérimental dédié , et avec une qualité des optiques optimisant le flux de photons collectés et couplées aux instruments La configuration optimisée optique, les détails de la fixation des miroirs, et l'emplacement de tous les instruments dans le rez de chaussée ont été conçus avec l'aide de logiciels tels que SRW, Rayons et SolidWorks. La microspectroscopie infrarouge est l'objectif principal de la construction de la ligne de lumière. Les étapes de validation importantes pour une ligne de lumière synchrotron infrarouge ont été entreprises à SOLEIL, au sein de la ligne de lumière SMIS. Les détails des tests et de calibration, rapporté dans cette thèse, sont la base essentielle pour rendre la future ligne de lumière conditionné et opérationnel, au meilleur niveau international. Plusieurs études ont été menées avec cette thèse, de promouvoir les différentes disciplines scientifiques, avec la perspective de développer ces disciplines dans SESAME: la biologie et la biomédecine, les sciences de l'environnement, chimie à haute pression
Styles APA, Harvard, Vancouver, ISO, etc.
4

Sauvage, Jack. « Imagerie ultrasonore ultrarapide 4D par adressage orthogonal du réseau de sonde matricielle : adressage Ligne-Colonne ». Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS535.

Texte intégral
Résumé :
Avec l’avènement de l’imagerie ultrarapide 4D au laboratoire Physics for Medecine Inserm 1273, la possibilité d’acquérir dans les trois dimensions et avec une haute résolution spatio-temporelle a été démontrée. Plusieurs des modalités phares de l’imagerie 2D ultrarapide ont pu être étendues à l’imagerie volumique (Doppler de puissance ultrasensible 3D, élastographie 3D …). Leur dissémination en clinique bénéficierait grandement aux praticiens. Cependant les moyens nécessaires à leur mise en œuvre sont encore trop importants pour espérer une transposition rapide en clinique. Le développant de stratégies intelligentes de réduction de voies est donc devenu un enjeu central. Une stratégie originale basée sur l’architecture de la sonde consiste en l’adressage orthogonal, par lignes et colonnes, du réseau de sonde matricielle, ou Row and Column Adressing RCA. Elle propose une solution transducteur tout à fait adaptée à l’imagerie ultrarapide par ondes planes. Grâce à cette solution, la sonde peut être pilotée par un seul échographe standard, tout en conservant une ouverture d’imagerie étendue. La grille matricielle 2D organisée selon N+N voies orthogonales, représentant ainsi un facteur de réduction de N/2. Cette stratégie présente un changement de paradigme important d’imagerie par dissociation des voies de focalisation en émission et réception et pose un nouveau compromis en termes de résolution spatio-temporelle. Au cours de ces travaux de thèse, les performances de la RCA associées à l’imagerie ultrarapide 4D sont étudiées pour divers cas. Le principe d’imagerie 4D ultrarapide RCA avec sommation orthogonale OPW sont étudié. L’imagerie vectorielle 3D pour la RCA est développée. Un nouveau prototype de sonde RCA haute fréquence (15MHz) est présenté et testé sur un protocole d’imagerie fonctionnelle cérébral en 3D. Enfin une nouvelle modalité d’imagerie 3D d’intensité du flux est présentée offrant un nouveau champ d’exploitation de la sonde RCA
With the advent of 4D ultrafast imaging at the Physics for Medicine Inserm 1273 laboratory, the ability to acquire in all three dimensions and with a high spatio-temporal resolution has been demonstrated. Several of the most effective 2D ultrafast imaging modalities have been extended to volume imaging (3D ultrasensitive power Doppler, 3D elastography ...). Their dissemination in clinic would greatly benefit to physicians. However the necessary means to implement ultrafast 4D are still too heavy and costly to hope for a transposition in the short or mid-term to the radiology departments. Developing smart strategies to reduce channel number has become a central issue. An original strategy based on the probe architecture consists of orthogonal row and column addressing of the Matrix Probe array, the Row and Column Adressing RCA. It offers a transducer solution perfectly adapted with ultra-fast plane waves imaging. With this approach, the probe can be driven by a single standard ultrasound unit, while maintaining a large aperture. The 2D matrix grid is organized according to N + N orthogonal channels, thus representing a reduction factor of N / 2. This strategy presents an important paradigm shift of imaging by dissociation of the focus pathways in transmission and reception and offers a new compromise in terms of spatio-temporal resolution. During this thesis work, the performances of the RCA associated with the ultra fast 4D imaging are studied for various cases. The principle of 4D ultrafast RCA imaging with orthogonal summation OPW are studied. 3D vector imagery for RCA is developed. A new high frequency RCA probe prototype (15MHz) is presented and tested on a 3D functional brain imaging protocol. Finally, a new modality of 3D imaging of the flux intensity is presented offering a new way of exploitation for the RCA probe
Styles APA, Harvard, Vancouver, ISO, etc.
5

Levrier, Olivier. « Aspects en imagerie par resonance magnetique des tumeurs supratentorielles de la ligne mediane chez l'adulte ». Aix-Marseille 2, 1990. http://www.theses.fr/1990AIX20834.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Davis, Arthur. « Tomographie par cohérence optique confocale en ligne multimodale pour le diagnostic non invasif des cancers cutanés ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLO004/document.

Texte intégral
Résumé :
Le cancer de la peau est un enjeu majeur de santé publique. Il représente le type de cancer ayant le plus fort taux de prévalence et le nombre de cas semble être en constante augmentation. Aujourd'hui, la méthode de référence pour le diagnostic du cancer cutané nécessite un échantillon de tissu suspect, appelé biopsie, prélevé après un simple examen visuel de la peau du patient. Par conséquent, près de 60 % des biopsies se révèlent être bénignes et environ 20 % des cancers de la peau ne sont pas détectés.Les travaux de recherche présentés dans ce manuscrit de thèse portent sur le développement d'un dispositif de tomographie par cohérence optique confocale en ligne (LC-OCT) capable de produire des images d'une qualité similaire aux coupes histologiques de manière non invasive et in vivo. Le prototype conçu fonctionne à une longueur d'onde centrale autour de 800 nm avec une largeur spectrale d'environ 150 nm. Il a été appliqué à l'imagerie in vivo de la peau avec une résolution spatiale quasi-isotrope d'environ 1 µm et une profondeur de pénétration de 400 µm. Ce dispositif pourrait alors être utilisé pour améliorer l'efficacité du processus de diagnostic du cancer de la peau en limitant le nombre de cas non détectés ainsi que le nombre de biopsies inutiles.Nous présentons ensuite un dispositif de LC-OCT fonctionnant dans deux bandes spectrales centrées autour de 770 nm et 1250 nm. La première bande produit des images à haute résolution (1.3 µm x 1.2 µm, latéral x axial) tandis que la seconde offre une profondeur de pénétration accrue (700 µm). En fusionnant les images produites dans les deux bandes il a été possible de produire des images avec une bonne résolution en superficie tout en ayant une profondeur de pénétration étendue. De plus, acquérir des images d'un échantillon dans deux bandes spectrales différentes permet dans une certaine mesure d'obtenir des informations sur les propriétés spectrales de l'échantillon.Finalement, nous présentons une preuve de concept d'un dispositif de LC-OCT couplé avec un microscope Raman ainsi que quelques exemples d'application. La microscopie Raman est une modalité spectroscopique qui permet d'identifier des molécules et ainsi de mesurer "l'empreinte digitale" d'un échantillon. Cette modalité pourrait alors fournir des informations complémentaires aux images morphologiques acquises par LC-OCT à propos de la composition biomoléculaire de l'échantillon
Skin cancer is a major public health issue. Among all types of cancer, skin cancer has the highest prevalence rate and the number of cases seems to be steadily increasing. Currently, the gold standard of skin cancer diagnosis requires a sample of suspicious tissue, called a biopsy, removed after a simple visual inspection of the patient's skin. Consequently, almost 60 % of biopsies result in benign diagnoses, and approximately 20 % of all skin cancers are missed.The research presented in this thesis revolves around the development of a line-field confocal optical coherence tomography (LC-OCT) device capable of producing non-invasive in vivo images similar in quality to histological cuts. The designed prototype operates at a center wavelength around 800 nm with a spectral width of approximately 150 nm. It has been applied to in vivo skin imaging with an almost isotropic spatial resolution of about 1 µm and a depth penetration reaching 400 µm. This device could thus be used to improve the efficiency of skin cancer diagnosis by limiting the number of undiagnosed cases and the number of unnecessary biopsies.We then present a LC-OCT device system operating in two spectral bands centered around 770 nm and 1250 nm. The first band produces high resolution images (1.3 µm x 1.2 µm, lateral x axial) while the second provides enhanced penetration depth (700 µm). By merging the images acquired in the two bands it has been possible to produce images with both high resolution and high penetration. Moreover, acquiring images of a sample in two different spectral bands can give, to a certain extent, information on the spectral properties of the sample.Lastly, we present a proof-of-concept LC-OCT prototype coupled together with a Raman microscope, as well as some application examples. Raman microscopy is a spectroscopic method capable of identifying molecules present in a sample and thus measuring the "fingerprint" of a sample. This modality could then provide complementary information to the morphological images provided by LC-OCT about the biomolecular composition of the sample
Styles APA, Harvard, Vancouver, ISO, etc.
7

Salazar, Cardozo Ruben Emilio. « Multiplexeur planaire : pour la mesure du champ diffracté en imagerie micro-onde ». Grenoble INPG, 1989. http://www.theses.fr/1989INPG0011.

Texte intégral
Résumé :
La mesure des champs electromagnetiques diffractes est essentielle pour la mise en oeuvre de l'imagerie microonde. Le but de cette these a ete de presenter la realisation d'un multiplexeur planaire qui sera l'element de base d'un recepteur microonde integre pour la mesure du champ diffracte. Deux prototypes sont testes en technologie microruban, avec trois et quatre soies d'entree. Les principales caracteristiques des multiplexeurs etudies sont les faibles pertes d'insertion entre les entrees et la voie commune, ainsi que l'adaptation permanente des entrees
Styles APA, Harvard, Vancouver, ISO, etc.
8

Almar, Rafael. « Morphodynamique littorale haute fréquence par imagerie vidéo ». Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13840/document.

Texte intégral
Résumé :
Cette thèse présente une étude de la dynamique des plages à l'échelle événementielle (ou "échelle des tempêtes"). Même si cette dynamique est essentielle, elle est restée principalement méconnue jusqu'à ce jour du fait du manque d'outils d'observation adaptés à son étude. Les nouvelles possibilités offertes par l'imagerie vidéo, notamment l'observation à haute fréquence, sont très novatrices. Dans cette thèse, un outil vidéo est présenté qui, à partir de la mesure des caractéristiques hydrodynamiques de surface, permet d'estimer avec précision la topographie littorale sur une large zone (km) et à haute fréquence (jour). Ce travail montre que les différentes structures sableuses littorales interagissent et qu'elles ne peuvent pas être étudiées de manière isolée. La dynamique des structures sableuses peut être fortement non-uniforme dans la direction parallèle à la plage, même en conditions de fortes vagues. De plus, la dynamique est cruciale car elle contribue aux transferts de sédiment entre le large et la plage. Dans un système à deux barres, plus que la hauteur des vagues, c'est le marnage qui influence majoritairement la dynamique de la barre intertidale en conditions de tempête. Nos résultats suggèrent qu'une grande part de la variabilité temporelle de la plage se situe à cette échelle court terme
This thesis presents a study on short term (day to month) beach dynamic. Until the emergence of video systems, and despite its major role, this dynamic remained mainly unknown due to the lack of a suited observation technology. The new possibilities allowed by video imagery, comprising high-frequency observation, are revolutionary. In this thesis, a tool is introduced that, from the measure of nearshore hydrodynamics, estimates accurately nearshore topography for a large area (km) and at high frequency (day). This thesis shows that nearshore sand features interact and cannot be studied in isolation. We show that sand features dynamic can be dominantly non-uniform in the longshore direction, even for large waves. This dynamic is crucial because it contributes to cross-shore sand exchanges. For a double-barred beach, more than wave height, tidal range variations drive inner bar dynamic during stormy conditions. Our results suggest that a large part of the beach temporal variability is short term
Styles APA, Harvard, Vancouver, ISO, etc.
9

Zontone, Federico. « Imagerie par diffraction ("topographie") à l'installation européenne de rayonnement synchrotron ("ESRF") : ligne de lumière, possibilités et premières expériences ». Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10037.

Texte intégral
Résumé :
L'imagerie par diffraction (topographie) est une technique qui est utilisee pour la caracterisation de defauts (defauts cristallins, parois, interfaces,) dans des materiaux monocristallins. La disponibilite des sources de rayonnement synchrotron de la troisieme generation telles que l'esrf ouvre de nouvelles perspectives pour cette technique. La these presente l'etude et la realisation de la ligne de lumiere id19 dediee a la topographie et a la diffraction a haute resolution a l'esrf. On y decrit l'optique, que nous avons calculee. On y discute la charge thermique pour la topographie en faisceau blanc, un probleme nouveau specifique a l'esrf, et on propose des solutions. Cette these presente aussi une etude preliminaire des premiers resultats de topographie a l'esrf. On porte une attention particuliere aux contrastes produits par les dislocations, et on demontre la possibilite de caracteriser le vecteur de burgers en direction, signe et module dans le cas ou l'image est double
Styles APA, Harvard, Vancouver, ISO, etc.
10

Dib, Mohammad. « Réseau d'antennes dérivées de la ligne à fente pour la mesure du champ diffracté en imagerie biologique micro-onde ». Grenoble INPG, 1987. http://www.theses.fr/1987INPG0097.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
11

Dib, Mohammad. « Réseau d'antennes dérivées de la ligne à fente pour la mesure du champ diffracté en imagerie biologique micro-onde ». Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37604614p.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Charfi, Ahmed Anis. « L’expérience d’immersion en ligne dans les environnements marchands de réalité virtuelle ». Paris 9, 2012. http://basepub.dauphine.fr/xmlui/handle/123456789/9785.

Texte intégral
Résumé :
Les responsables de sites marchands cherchent de plus en plus à favoriser l’immersion des internautes pendant l’expérience en ligne. L’objectif de cette recherche est d’étudier les effets des composantes expérientielles des sites marchands comme variables atmosphériques, sur l’expérience immersive en ligne, la valeur perçue de la visite (hédonique et utilitaire) et sur la performance marketing en ligne, notamment les comportements des internautes envers le site, la marque et l’offre. S’appuyant sur une revue de littérature ainsi que sur des investigations issues d’une analyse qualitative exploratoire, nous introduisons les bases théoriques et méthodologiques répondant à cette problématique. Un modèle conceptuel développé. Il met en évidence l’effet des composantes expérientielles, telles que perçues par les internautes, notamment le décor en trois dimensions, les avatars et les commandes de contrôle sur l’immersion, l’évaluation de la visite et sur le bouche à oreille, l’intention d’achat, l’intention de revisiter le site, l’intention de prendre contact. Les relations du modèle sont modérées par l’expertise d’Internet, l’implication envers la catégorie du produit, le lieu et le moment de la visite. Après la validation des échelles de mesure sur un échantillon de 340 répondants, une collecte des données a été effectuée lors d’une expérimentation en ligne (288 questionnaires). 8 versions d’un site on été conçues. L’analyse montre un effet significatif des composantes expérientielles du site sur l’expérience d’immersion. Enfin, des implications managériales, méthodologiques et théoriques, ainsi que des voies futures seront mises en perspective
Styles APA, Harvard, Vancouver, ISO, etc.
13

Olive, Raphaël. « Perception des écoulements et des vibrations chez la larve de poisson-zèbre : étude comportementale et imagerie ». Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066468/document.

Texte intégral
Résumé :
La larve de poisson-zèbre est un animal modèle pour l'étude du système nerveux des vertébrés, dont certains mutants expriment des rapporteurs calciques (GCaMP) à l'intérieur de leurs neurones. Ces mutants sont utilisés pour des expériences d'imagerie fonctionnelle dans lesquelles l'activité de la quasi-totalité de leur système nerveux est enregistrée simultanément. La première partie de cette thèse est consacrée à la conception d'une expérience comportementale permettant de suivre et d'analyser les mouvements de nage de larves de poisson-zèbre plongées dans un écoulement d'aspiration. Les contributions de la ligne latérale, organe spécifique aux poissons et amphibiens responsable de la perception des stimulations hydrodynamiques, et des yeux ont été découplées afin de pouvoir décrire les interactions entre ces deux modalités sensorielles et leurs effets respectifs sur les réactions des larves à une aspiration, analysés par le biais de leur mouvements de nage. Cette expérience devait être préliminaire à une étude des réponses neuronales à une aspiration grâce au montage expérimental de microscopie par nappe laser développé au laboratoire depuis quatre ans, afin de réaliser des expériences de cross-modal en imagerie fonctionnelle, c'est-à-dire l'observation dynamique des réseaux neuronaux consacrés au deux modalités sensorielles lorsque celles-ci sont stimulées soit simultanément, soit séparément. Devant les difficultés rencontrées pour observer les réponses de la ligne latérale des larves en imagerie calcique, ce qui n'a à ce jour jamais été réalisé, nos expériences d'imagerie fonctionnelle se sont reportées sur l'audition de la larve de poisson-zèbre, qui a remplacé la perception des écoulements. La deuxième partie de cette thèse décrit donc les protocoles, les méthodes d'analyse et les résultats issus de cette série d'expériences dont les résultats, encore exploratoires, donnent une idée des réseaux de neurones impliqués dans la perception des vibrations par la larve de poisson-zèbre. Ces premières analyses encourageantes, en plus de présenter pour la première fois des enregistrements d'une grande partie du système neuronal sous stimulation auditive, ouvrent la porte à de nouvelles méthodes d'analyse de données pour des populations de neurones à la fois nombreuses et spatialement étendues
The Zebrafish larva is a model for the study of vertebrate central nervous system. Mutants have been developped which express calcium reporter (GCaMP) in their neurons. These mutants are used in functional imaging experiments in which the activity of almost all the neurons is simultaneously recorded. The first chapter of this thesis is devoted to the conception of a behavioral experiment designed to record and analyse the swim movements of zebrafish larvae submitted to a succion flow. The contributions of lateral line (specific fish organ responsible for the perception of hydrodynamic stimulations) and visual system have been separated in order to describe the interactions between those two modalities and their respective effects on larvae reactions to aspiration, analysed through their swim patterns. This experiment was thought to prepare a study of neuronal responses to aspiration, thanks to the laser sheet microscopy setup developped in the laboratory since four years. The aim was to use calcium imaging to work on cross-modal experiment, by the dynamic observation of neural networks dedicated to the two sensory modalities when stimulated simultaneously or separatly. Facing difficulties to record lateral line response using calcium imaging, which are not been recorded yet, functional imaging experiments have adressed zebrafish larvae auditory system instead of hydrodynamic perception. The second part of this thesis describes protocols, analysis and results from these experiments. The results are still at an exploratoty stage but draw a scheme of neural networks involved in vibrations perception in zebrafish larvae : they present recordings of a huge part of central nervous system and the activity evoked by auditory stimulations
Styles APA, Harvard, Vancouver, ISO, etc.
14

Benoit, David. « Mise au point et évaluation d'un système fibré de dosimétrie en ligne utilisant des matériaux phosphorescents stimulables optiquement : application à la mesure de dose en radiothérapie et au monitoring de faisceaux ». Toulouse 3, 2008. http://thesesups.ups-tlse.fr/392/.

Texte intégral
Résumé :
L'utilisation des rayonnements ionisants, qu'elle soit dans le domaine médical, industriel ou encore de la recherche, requiert la quantification de l'énergie déposée par unité de masse : la dose absorbée. Les méthodes traditionnelles de dosimétrie sont rappelées. L'ensemble du contexte scientifique dans les domaines de la radiothérapie et de la physique des hautes énergies aboutit à l'élaboration d'un cahier des charges pour le développement d'un nouveau type de dosimétrie en ligne. Celle-ci est basée sur la quantification de la luminescence émise par un matériau phosphorescent stimulable optiquement déporté à l'aide d'une fibre optique. Les principes et applications liés à ces techniques sont exposés au cours des chapitres 2 et 3. Le chapitre 4 décrit un nouveau système de dosimétrie à la fois simple d'utilisation, robuste et flexible. Les premiers résultats expérimentaux mettent en évidence une excellente linéarité de la réponse avec la dose (0,01 à 6 Gy), une variation sur la répétabilité des mesures inférieure à 2%, une sensibilité élevée aux rayonnements ainsi qu'une erreur sur la mesure de dose inférieure à 5%. L'évaluation des potentialités de ce système à la fois pour la mesure de dose durant les traitements de radiothérapie et pour le monitorage de faisceaux dans les installations pour la physique des hautes énergies (CERN et DESY) a donné des résultats encourageants puisque le système remplit certaines exigences spécifiques à chaque type d'application. Enfin, la caractérisation des propriétés structurales et de luminescence du matériau phosphorescent dopé au bore, en vue d'application pour la dosimétrie en champ mixte neutron / gamma, permet d'expliquer la baisse de luminescence observée précédemment
Wherever radiations are used, for medicine, industrial applications or research, the amount of energy deposited per unit mass (absorbed dose) has to be quantified. The usual methods used to quantify the dose, that is dosimetry are reviewed. The overall context in both radiation therapy and high energy physics led to the elaboration of a book of specifications for the development of a novel type of on-line dosimetry. It is based on the quantification of the luminescence emitted by an optically stimulated phosphorescent material deported by an optical fiber. Principles and applications relatives to these techniques are presented in chapters 2 and 3. Chapter 4 describes a novel, easy of use, robust and flexible dosimetry system. The first experimental results exhibit an excellent linearity of the response with dose (0. 01 to 6 Gy), measurement repeatability less than 2%, a high sensitivity to radiation and an error on dose measurement less than 5%. Preliminary system qualification for dose measurement during both radiation therapy treatments and beam monitoring in high energy physics facilities (CERN and DESY) gave encouraging results since the system meets some of the requirements specific to each kind of application. Thus, the characterization of structural and luminescence properties of the phosphorescent material doped with boron, with aim of application for the on-line dosimetry in mixed radiation field neutron / gamma may explain the drop of luminescence previously observed
Styles APA, Harvard, Vancouver, ISO, etc.
15

Drouet, Florence. « Mesures 3D et d'épaisseur par imagerie sur des objets en verre creux ». Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS062.

Texte intégral
Résumé :
Les travaux présentés dans ce mémoire portent sur l’étude et le développement d’une méthode de mesure d’épaisseur et de reconstruction 3D d’objets en verre creux, dans le cadre d’une application de contrôle industriel sur ligne de production. Les techniques de mesure d’épaisseur de parois transparentes sont actuellement très limitées par leur faible tolérance angulaire sur l’orientation des surfaces. Elles nécessitent une rotation de l’article devant le capteur, donc une manutention contraignante. De plus, les surfaces considérées étant spéculaires, les techniques de numérisation standard ne fonctionnent pas. Nous avons développé deux méthodes basées sur l’observation des réflexions d’une source diffuse ponctuelle sur les deux surfaces de la paroi de l’objet. Une observation simple à l’aide d’une caméra implique une ambiguïté entre l’orientation et la position de chacune des deux surfaces. Notre première méthode consiste à utiliser des informations de polarisation pour lever cette ambiguïté. Des résultats expérimentaux, obtenus avec un ou plusieurs points source témoignent de la faisabilité de la mesure. La seconde méthode consiste à utiliser une seconde caméra, associée à un dispositif optique spécifique. Ceci permet de trianguler directement les points d’incidence sur les deux surfaces. De plus, la source peut être étendue verticalement, de manière à augmenter la taille de la zone inspectée. Les résultats obtenus avec cette seconde technique attestent de la possibilité d’une mise en oeuvre industrielle
The work presented in this thesis focuses on the study and development of a method for measuringthe thickness and reconstructing the 3D shape of glass containers, within the frame of an industrialon-line quality monitoring. Measuring thickness techniques of transparent objects are currently limited by their lack of toleranceregarding the surface orientation at a given reflection point. A rotation of the article in front ofthe sensor is thus required, which adds complexity to the mechanical handling of the item beingmeasured. Moreover, conventional scanning techniques do not work well on specular surfaces.We developed two methods based on the observation of the reflections by both surfaces of the wallof a given item of a diffuse, point light source. Imaging these reflections with a plain camera leavesan ambiguity between the orientation and position of each surface. Our first approach uses light polarization to remove this ambiguity. Experimental results, obtainedwith one or several point sources have demonstrated the feasibility of the measure. The second approach uses a second camera, associated with a specific optical design, whichenables a mere triangulation of the incident points on the two surfaces. Moreover, the light sourcecan be vertically extended to increase the size of the inspected area. The results obtained with thissecond technique show that industrial implementation is feasible
Styles APA, Harvard, Vancouver, ISO, etc.
16

Le, Foulher Fabrice. « Simulations Monte Carlo et mesures de l'émission de gamma prompts appliquées au contrôle en ligne en hadronthérapie ». Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00573263.

Texte intégral
Résumé :
Au cours du traitement d'une tumeur avec des ions légers, la position du pic de Bragg doit être connue avec précision. Une fraction importante des ions incidents subissent des collisions nucléaires avec les noyaux cibles conduisant à l'émission de particules promptes qui peuvent être porteuses d'informations sur le parcours des ions. Ce travail, qui se concentre sur les gamma prompts, montre que le rendement en profondeur de ces émissions est fortement corrélé au parcours des ions et que les taux de comptage mesurés permettent d'envisager un système d'imagerie réaliste, fonctionnant en temps réel. Dans ce but, nous avons réalisé des expériences au GANIL et au GSI avec un détecteur collimaté placé perpendiculairement à l'axe du faisceau et la technique du temps de vol a été utilisée pour réduire le bruit de fond induit par les neutrons et les particules chargées. Des simulations Geant4 ont été réalisées pour concevoir le dispositif expérimental et interpréter les données. Un accord qualitatif entre les simulations et l'expérience est observé pour la quantité d'énergie déposée dans le détecteur et pour la forme du spectre de temps de vol. Cependant, des divergences apparaissent pour le rendement de gamma prompts et la distribution en profondeur des gamma détectés. Ces divergences sont discutées, principalement en termes de modèles de physique nucléaire qui doivent être améliorés. Après avoir sélectionné les modèles physiques offrant les simulations les plus en accord avec les mesures, des études concernant les lieux d'émissions des gamma prompts et l'influence de la diffusion dans la cible ont été réalisés afin de déterminer l'impact sur la corrélation avec le parcours des ions.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Marque, Bertrand. « Etude par résonance magnétique du rachis cervical des joueurs et anciens joueurs de rugby de première ligne ». Bordeaux 2, 1993. http://www.theses.fr/1993BOR23020.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
18

Bérujon, Sébastien. « Métrologie en ligne de faisceaux et d'optiques X de synchrotrons ». Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00859120.

Texte intégral
Résumé :
Cette thèse présente des travaux de recherche de métrologie en ligne de faisceaux de rayons X dans les installations synchrotrons. Deux approches principales ont été étudiées pour extraire la phase d'un front d'onde X : les méthodes utilisant des réseaux optiques et celles utilisant l'effet speckle dans le domaine X. L'interféromètre à réseaux X est l'outil le plus répandu résentatif de la première catégorie. Ses performances et son potentiel furent étudiés dans diverses situations de métrologie en ligne. Les méthodes utilisant le speckle X sont des techniques originales développées au cours de ce projet. Elles utilisent des membranes faites de petits grains diffusants, dont seule la distribution statistique est connue, pour permettre la modulation du front d'onde. Les différentes techniques furent déployées expérimentalement sur les lignes de lumière BM05 de l'ESRF et B16 de Diamond Light Source. Leurs implémentations servirent à la caractérisation de différents composants optiques utilisés pour manipuler les faisceaux synchrotron X et à l'étude de la faisabilité de micro imagerie par contraste de phase avec les sus citées techniques.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Le, Foulher Fabrice. « Simulations Monte Carlo et mesures de l’émission de gamma prompts appliquées au contrôle en ligne en hadronthérapie ». Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10180/document.

Texte intégral
Résumé :
Au cours du traitement d'une tumeur avec des ions légers, la position du pic de Bragg doit être connue avec précision. Une fraction importante des ions incidents subissent des collisions nucléaires avec les noyaux cibles conduisant à l'émission de particules promptes qui peuvent être porteuses d'informations sur le parcours des ions. Ce travail, qui se concentre sur les gamma prompts, montre que le rendement en profondeur de ces émissions est fortement corrélé au parcours des ions et que les taux de comptage mesurés permettent d'envisager un système d'imagerie réaliste, fonctionnant en temps réel. Dans ce but, nous avons réalisé des expériences au GANIL et au GSI avec un détecteur collimaté placé perpendiculairement à l'axe du faisceau et la technique du temps de vol a été utilisée pour réduire le bruit de fond induit par les neutrons et les particules chargées. Des simulations Geant4 ont été réalisées pour concevoir le dispositif expérimental et interpréter les données. Un accord qualitatif entre les simulations et l'expérience est observé pour la quantité d'énergie déposée dans le détecteur et pour la forme du spectre de temps de vol. Cependant, des divergences apparaissent pour le rendement de gamma prompts et la distribution en profondeur des gamma détectés. Ces divergences sont discutées, principalement en termes de modèles de physique nucléaire qui doivent être améliorés. Après avoir sélectionné les modèles physiques offrant les simulations les plus en accord avec les mesures, des études concernant les lieux d'émissions des gamma prompts et l'influence de la diffusion dans la cible ont été réalisés afin de déterminer l'impact sur la corrélation avec le parcours des ions
During the treatment of a tumor with light ions, the Bragg peak location must be accurately known. A significant fraction of the incident ions undergo nuclear collisions with the target nuclei leading to the prompt emission of particles which may carry information on the ion path. This work, which focuses on prompt gamma, shows that the depth profile of these emissions is highly correlated to the ions path and the measured counting rates allow to consider a realistic imaging system, operating in real time. For that purpose, we performed experiments at GANIL and at GSI with a collimated detector placed perpendicular to the beam axis and the time of flight technique was used in order to reduce the noise induced by neutrons and charged particles. Geant4 simulations were performed for the experimental design and data interpretation. A qualitative agreement between simulations and experiment is observed for the amount of energy deposited in the detector and the shape of the time of flight spectrum. However, discrepancies appear for the prompt gamma yield and the depth distribution of gamma detected. These discrepancies are discussed, mainly in terms of nuclear physics models that must be improved. After selecting the physical models which lead to the best agreement between simulations and measurements, studies on the location of prompt gamma emission and on the influence of diffusion in the target were performed to determine the impact on the correlation with the ion path
Styles APA, Harvard, Vancouver, ISO, etc.
20

Reithinger, Valérian. « Assurance qualité des traitements par hadronthérapie carbone par imagerie de particules promptes chargées ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10171/document.

Texte intégral
Résumé :
L'hadronthérapie est une modalité de radiothérapie innovante dans laquelle des ions légers -tels des protons ou des ions carbone- sont accélérés à une vitesse relativiste, puis focalisés afin d'irradier la zone tumorale du patient. Cette technique se démarque de la radiothérapie dite conventionnelle utilisant des photons- par l'existence d'un pic de dépôt d'énergie, appelé pic de Bragg, qui se situe à la fin du parcours des ions. L'existence de différents phénomènes qui aboutissent à une incertitude sur le parcours des ions représente toutefois une limite à la précision intrinsèque de cette modalité. Cela justifie la nécessité d'une assurance qualité des traitements et motive le développement de techniques de suivi en ligne et en temps réel du parcours des ions. Ces travaux de thèse ont pour objet la caractérisation d'une technique de suivi du parcours des ions, appelée imagerie des vertex d'interaction. Il a en effet été observé que lors du parcours des ions dans le patient, une fraction importante de ceux-ci subit des réactions nucléaires, à l'origine d'un rayonnement de particules promptes secondaires chargées. Un télescope constitué de capteurs pixélisés est proposé pour localiser les vertex d'interaction de ces particules et mesurer leur corrélation avec le parcours des ions, corrélation prédite par des travaux in-silico précédents. La réalisation de plusieurs expériences durant lesquelles des cibles homogènes et hétérogènes ont été irradiées dans des conditions réalistes a permis d'obtenir les premiers résultats expérimentaux relatifs à cette technique, confrontés à des simulations qui ont également été réalisées. Avant de discuter l'ensemble des résultats obtenus, ce manuscrit détaille les aspects matériels et logiciels des importants développements mis en oeuvre et qui ont abouti à un prototype complet et fonctionnel d'imageur, accompagné de simulations Monte Carlo basées sur le logiciel Geant4
Hadrontherapy is an innovative radiotherapy modality in which light ions -such as protons or carbon ionsare accelerated to a relativistic speed and focused to irradiate a tumoral area. This technique differs from the conventional radiotherapy -which uses photons- by the existence of an energy deposition peak, called Bragg peak, which stands at the end of the ions path. However, different phenomena that lead to uncertainty in the real ion range exist, and limit the intrinsic accuracy of this modality. This justifies the need for a treatments quality assurance and motivates the development of in-line and real-time monitoring techniques to follow the real ions range. This PhD thesis work aims the characterization of an ion range monitoring technic, called interaction vertex imaging. It has been observed that during the ion path in the patient, a significant part of incoming ions undergoes nuclear reactions, causing a prompt secondary charged particles radiation. A telescope made up of pixelated sensors is proposed to locate these particles interaction vertex and to measure their correlation with the ions range, correlation predicted by a previous in-silico work. The first experimental results for this technique has been obtained with the realization of several experiments during which homogeneous and heterogeneous targets were irradiated under realistic conditions. Simulations were also performed to compare with experimental results. Before discussing the overall results, this manuscript details the hardware and software aspects of important developments that was made and that resulted in a complete and working prototype imager, with Monte Carlo simulations based on the Geant4 software
Styles APA, Harvard, Vancouver, ISO, etc.
21

Davidoiu, Valentina. « Approches non linéaire en imagerie de phase par rayons X dans le domaine de Fresnel ». Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00952854.

Texte intégral
Résumé :
Le développement de sources cohérentes de rayons X offre de nouvelles possibilités pour visualiser les structures biologiques à différentes échelles en exploitant la réfraction des rayons X. La cohérence des sources synchrotron de troisième génération permettent des implémentations efficaces des techniques de contraste de phase. Une des premières mesures des variations d'intensité dues au contraste de phase a été réalisée en 1995 à l'Installation Européenne de Rayonnement Synchrotron (ESRF). L'imagerie de phase couplée à l'acquisition tomographique permet une imagerie tridimensionnelle avec une sensibilité accrue par rapport à la tomographie standard basée sur absorption. Cette technique est particulièrement adaptée pour les échantillons faiblement absorbante ou bien présentent des faibles différences d'absorption. Le contraste de phase a ainsi une large gamme d'applications, allant de la science des matériaux, à la paléontologie, en passant par la médecine et par la biologie. Plusieurs techniques de contraste de phase aux rayons X ont été proposées au cours des dernières années. Dans la méthode de contraste de phase basée sur le phénomène de propagation l'intensité est mesurée pour différentes distances de propagation obtenues en déplaçant le détecteur. Bien que l'intensité diffractée puisse être acquise et enregistrée, les informations de phase du signal doivent être "récupérées" à partir seulement du module des données mesurées. L'estimation de la phase est donc un problème inverse non linéaire mal posé et une connaissance a priori est nécessaire pour obtenir des solutions stables. Si la plupart de méthodes d'estimation de phase reposent sur une linéarisation du problème inverse, les traitements non linéaires ont été très peu étudiés. Le but de ce travail était de proposer et d'évaluer des nouveaux algorithmes, prenant en particulier en compte la non linéarité du problème direct. Dans la première partie de ce travail, nous présentons un schéma de type Landweber non linéaire itératif pour résoudre le problème de la récupération de phase. Cette approche utilise l'expression analytique de la dérivée de Fréchet de la relation phase-intensité et de son adjoint. Nous étudions aussi l'effet des opérateurs de projection sur les propriétés de convergence de la méthode. Dans la deuxième partie de cette thèse, nous étudions la résolution du problème inverse linéaire avec un algorithme en coordonnées ondelettes basé sur un seuillage itératif. Par la suite, les deux algorithmes sont combinés et comparés avec une autre approche non linéaire basée sur une régularisation parcimonieuse et un algorithme de point fixe. Les performances des algorithmes sont évaluées sur des données simulées pour différents niveaux de bruit. Enfin, les algorithmes ont été adaptés pour traiter des données réelles acquises en tomographie de phase à l'ESRF à Grenoble.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Jolivet, Frederic. « Approches "problèmes inverses" régularisées pour l'imagerie sans lentille et la microscopie holographique en ligne ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES012/document.

Texte intégral
Résumé :
En imagerie numérique, les approches «problèmes inverses» régularisées reconstruisent une information d'intérêt à partir de mesures et d'un modèle de formation d'image. Le problème d'inversion étant mal posé, mal conditionné et le modèle de formation d'image utilisé peu contraint, il est nécessaire d'introduire des a priori afin de restreindre l'ambiguïté de l'inversion. Ceci permet de guider la reconstruction vers une solution satisfaisante. Les travaux de cette thèse ont porté sur le développement d'algorithmes de reconstruction d'hologrammes numériques, basés sur des méthodes d'optimisation en grande dimension (lisse ou non-lisse). Ce cadre général a permis de proposer différentes approches adaptées aux problématiques posées par cette technique d'imagerie non conventionnelle : la super­-résolution, la reconstruction hors du champ du capteur, l'holographie «couleur» et enfin la reconstruction quantitative d'objets de phase (c.a.d. transparents). Dans ce dernier cas, le problème de reconstruction consiste à estimer la transmittance complexe 2D des objets ayant absorbé et/ou déphasé l'onde d'éclairement lors de l'enregistrement de l'hologramme. Les méthodes proposées sont validées à l'aide de simulations numériques puis appliquées sur des données expérimentales issues de l'imagerie sans lentille ou de la microscopie holographique en ligne (imagerie cohérente en transmission, avec un objectif de microscope). Les applications vont de la reconstruction de mires de résolution opaques à la reconstruction d'objets biologiques (bactéries), en passant par la reconstruction de gouttelettes d'éther en évaporation dans le cadre d'une étude de la turbulence en mécanique des fluides
In Digital Imaging, the regularized inverse problems methods reconstruct particular information from measurements and an image formation model. With an inverse problem that is ill-posed and ill­conditioned, and with the used image formation mode! having few constraints, it is necessary to introduce a priori conditions in order to restrict ambiguity for the inversion. This allows us to guide the reconstruction towards a satisfying solution. The works of the following thesis delve into the development of reconstruction algorithms of digital holograms based on large-scale optimization methods (smooth and non-smooth). This general framework allowed us to propose different approaches adapted to the challenges found with this unconventional imaging technique: the super-resolution, reconstruction outside the sensor's field, the color holography and finally, the quantitative reconstruction of phase abjects (i.e. transparent). For this last case, the reconstruction problem consists of estimating the complex 2D transmittance of abjects having absorbed and/or dephased the light wave during the recording of the hologram. The proposed methods are validated with the help of numerical simulations that are then applied on experimental data taken from the lensless imaging or from the in-line holographie microscopy (coherent imaging in transmission, with a microscope abject glass). The applications range from the reconstruction of opaque resolution sights, to the reconstruction of biological objects (bacteria), passing through the reconstruction of evaporating ether droplets from a perspective of turbulence study in fluid mechanics
Styles APA, Harvard, Vancouver, ISO, etc.
23

Cousty, Jean. « Lignes de partage des eaux discrètes : théorie et application à la segmentation d'images cardiaques ». Phd thesis, Université de Marne la Vallée, 2007. http://tel.archives-ouvertes.fr/tel-00321885.

Texte intégral
Résumé :
La notion de clivage formalise l'idée d'ensemble frontiére dans un graphe. Fusionner deux régions, comme le requièrent certaines méthodes de segmentation d'images, pose des diffIcultés. Nous introduisons quatre classes de graphes (de fusion) dans lesquels ces diffIcultés sont progressivement supprimées. Nous montrons que l'une de ces classes est celle pour laquelle tout clivage est mince. Nous introduisons une relation d'adjacence, appelée grille de fusion parfaite, dans laquelle deux régions voisines peuvent être fusionnées, en préservant toutes les autres régions.

La ligne de partage des eaux topologique (LPE) étend la notion de clivage aux graphes dont les sommets sont valués et permet de segmenter une image. Nous étendons les propriétés des clivages dans les graphes de fusion aux cas des fonctions et proposons un algorithme de LPE
monotone et linéaire dans les grilles de fusion parfaites. Grâce à la notion de graphe d'arêtes, les propriétés des LPE dans les grilles de fusion parfaites s'étendent aux graphes à arêtes valuées.

Nous étudions en profondeur les LPE dans les graphes à arêtes valuées. Les LPE peuvent y être définies en suivant l'idée intuitive de gouttes d'eau s'écoulant sur un relief topographique. Nous établissons aussi bien la consistance que l'optimalité de cette définition. De plus, nous proposons deux algorithmes linéaires qui, à notre connaissance, sont les plus efficaces pour le calcul des LPE.

En nous reposant sur ces résultats théoriques, nous proposons une méthode et développons un logiciel pour la segmentation du ventricule gauche dans des images cardiaques 3D+t par résonance magnétique. La méthode est quantitativement et qualitativement validée par comparaison avec des segmentations manuelles tracées par deux experts cardiologues.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Hay, Julien. « Caractérisation de la spécialisation hémisphérique de l'attention spatiale et ses facteurs de variabilité au cours d'une tâche de jugement de bissection de ligne chez le sujet sain : évaluations comportementale et fonctionnelle (IRMf) ». Caen, 2012. http://www.theses.fr/2012CAEN3143.

Texte intégral
Résumé :
Nous avons étudié la spécialisation hémisphérique (SH) de l’attention spatiale et ses facteurs de variabilité à partir d’une tâche de jugement de bissection de ligne. Dans une première partie de ce travail, nous avons calculé des indices de biais attentionnel qui sont des marqueurs pertinents de la SH de l’attention spatiale. En effet, ces derniers étaient en faveur de la pseudonégligence, un phénomène souvent interprété comme la manifestation comportementale de cette SH. Ces indices présentant une grande variabilité, tant dans leur direction que leur magnitude, nous avons cherché à caractériser des facteurs susceptibles d’être associés à cette variabilité. Dans une population de 303 sujets sains (dont 153 gauchers), nous avons montré que la pseudonégligence était associée à la force de la préférence manuelle, au genre, à l’asymétrie de l’habileté manuelle et au volume de la partie postérieure du corps calleux. Dans une seconde partie, nous avons étudié en IRMf les bases neurales de cette SH et avons mis en évidence que le jugement de bissection de ligne s’appuyait sur un réseau attentionnel occipito-pariéto-frontal asymétrique droit. L’utilisation conjointe d’indices de latéralisation hémisphérique fonctionnelle (ILFH) a fourni une mesure globale de la SH de l’attention spatiale. Ainsi, nous avons été en mesure de mettre en évidence que l’augmentation de la pseudonégligence était associée à une plus forte latéralisation fonctionnelle hémisphérique droite de l’attention spatiale. De plus, nos résultats ont montré que l’asymétrie de l’habileté manuelle, en interaction avec la pseudonégligence, constituait aussi un facteur de variabilité de la SH de l’attention spatiale
Using a line bisection judgment task, we studied the hemispheric specialization (HS) for spatial attention and its factors of variability. In first part of this work, we computed indices of attentional bias, which are relevant markers of the HS for spatial attention. These indices revealed the existence of pseudoneglect, a phenomenon considered as the behavioural manifestation of HS. Given that attentional biases exhibited variability in both direction and magnitude, we investigated factors that might be associated to this variability. Based on a population of 303 healthy volunteers (including 153 left-handers), we showed that pseudoneglect was associated with manual preference strength, gender, asymmetry of manual skill and volume of the posterior part of the corpus callosum. In the second part of this work, we studied using fMRI the neural bases of this HS and showed that line bisection judgment involved a rightward asymmetric occipito-parieto-frontal network. By using hemispheric functional lateralization indices (HFLI) that offer a global measure of HS for spatial attention, we showed that an increase of pseudoneglect was associated with a stronger hemispheric rightward functional lateralization for spatial attention. Moreover, we also showed that asymmetry of manual that asymmetry of manual skill that interacted with pseudoneglect was also associated with HS for spatial attention
Styles APA, Harvard, Vancouver, ISO, etc.
25

Lao, Aurély. « Analyse du rôle de l’imagerie mentale et de ses antécédents dans le processus d’achat en ligne ». Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL12017/document.

Texte intégral
Résumé :
De nombreux travaux en psychologie cognitive, et plus tardivement en marketing ont permis de mettre en évidence le rôle prépondérant de l’imagerie mentale. Deux courants de recherches existent, le premier est relatif aux effets de l’imagerie mentale sur la mémorisation de l’individu ; le second, moins développé, aux effets de l’imagerie mentale sur les réponses attitudinales et comportementales. L’analyse des contributions et théories existantes a permis d’identifier la présentation d’un produit sur un site marchand par stimuli iconique et verbal, ainsi que le type de produit comme antécédents à l’imagerie et comme déterminants potentiels des réponses comportementales du consommateur. Une recherche qualitative exploratoire est réalisée afin de conforter ou compléter le modèle de recherche proposé sur cette base. Les résultats de cette phase initiale mettent en avant plusieurs caractéristiques relatives à la présentation du produit, ainsi que les réponses émotionnelles et cognitives à l’imagerie mentale (respectivement les émotions anticipées et la valeur perçue du produit) et leurs influences sur le comportement du consommateur. Les hypothèses et le modèle final sont ensuite développés et testés empiriquement auprès d’une cible de prospects de l’entreprise-partenaire. Les résultats révèlent que l’imagerie mentale et ses réponses émotionnelles et cognitives, ainsi que la présentation du produit et le type de produit influencent l’impulsion et l’intention d’achat du consommateur. Les réponses comportementales varient selon les combinaisons image-mots employées. Les implications académiques et managériales sont développées et plusieurs voies de recherche sont proposées
Many studies in cognitive psychology, and more recently in marketing support the role of mental imagery. There are two research streams, the first relates to the effects of mental imagery on memorization of the subject, the second less developed, links to the effects of mental imagery on the attitudinal and behavioral responses. Analysis of the contributions and existing theories identified the presentation of a product on a website by iconic and verbal stimuli, and the type of product as imagery antecedents and as potential determinants of behavioral responses of consumers. A qualitative exploratory research is then done in order to confirm or complete the research model proposed on this basis. This work revealed several characteristics relating to the presentation of the product, and emotional and cognitive responses to imagery (respectively the anticipated emotions and the perceived value of product) and their influences on consumer behavior. Several hypothesis and a final model are then developed and empirically tested with a prospective target business partner. The results revealed that mental imagery and its emotional and cognitive responses, and the presentation of the product (iconic and verbal stimuli) and the product type (private or public consumption) influence the impulse purchase and purchase intent of consumers. Behavioral responses vary from picture-words combinations used. Academic and managerial implications are developed and several research directions are suggested
Styles APA, Harvard, Vancouver, ISO, etc.
26

Ferté, Morgan. « Étude et analyse de couches minces par techniques multi-spectroscopiques pour une application sur une ligne de galvanisation ». Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0206/document.

Texte intégral
Résumé :
Avec l’émergence des nouveaux aciers chargés en éléments réactifs, la caractérisation des états de surface a pris une nouvelle dimension. En effet, différentes familles d’oxyde sont dommageables pour la qualité de surface de l’acier et peuvent nuire à l’application de revêtements annexes. Aussi, afin d’assurer une bonne qualité aux produits finis, le besoin de caractériser, en ligne, la surface de l’acier sur toute sa largeur est de plus en plus nécessaire. L’imagerie hyperspectrale est une technologie en plein essor qui permet à la fois la caractérisation spatiale et spectrale d’une surface. Elle n’avait cependant encore jamais été employée pour la caractérisation de couche mince dans l’industrie sidérurgique. Durant ma thèse, deux méthodologies ont ainsi été développées pour répondre à ce besoin: l’une via une mesure en réflexion spéculaire et l’autre via une mesure en émission. En complément d’un travail de synthèse d’échantillons de référence, un développement expérimental complet allant d’un banc de simulation aux traitements des données a été réalisé. Ce travail a permis de démontrer la capabilité de l’imagerie hyperspectrale pour la détection de couche mince d’oxyde sur un acier parfois à plusieurs centaines de degrés Celsius. Ces résultats encourageants ont conduit à réaliser la première implantation industrielle de cette technologie. Ce travail de thèse a permis d’étudier théoriquement et expérimentalement les phénomènes mis en jeu et de passer du concept répondant à un besoin industriel à l’implémentation en ligne d’un capteur dédié à la caractérisation d’une couche mince d’oxyde sur une surface en défilement dans des conditions industrielles
With the emergence of new steel loaded in reactive elements, the characterization of the physico-chemical properties of the surface states has taken a new dimension. Indeed, the thin films of oxide formed are damaging for the surface quality of the steel and may adversely affect the application of varied coatings. Also, to ensure a good quality on finished products, the need to characterize, online, the steel surface over its entire width is increasingly necessary. The hyperspectral imaging is an emerging technology that allows both spatial and spectral characterization of a surface. It had never been used to characterize thin layers in the steel industry. During my PhD, both methodologies have been developed to meet this need: one via a measurement in specular reflection and the other via a measurement in emission. In addition to a synthesis of reference samples, a full experimental development ranging from a simulation bench to the data processing was performed. This work has demonstrated the capability of the hyperspectral imaging to detect thin surface oxide layers on a steel surface, sometimes at several hundred degrees Celsius. These encouraging results led to the first industrial implementation of this technology. This thesis made it possible to study theoretically and experimentally the phenomena involved and to move from the concept that meets an industrial need to the implementation of an online sensor dedicated to the characterization of a thin oxide layer on a moving surface in industrial conditions
Styles APA, Harvard, Vancouver, ISO, etc.
27

Uhercik, Marian. « Surgical tools localization in 3D ultrasound images ». Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00735702.

Texte intégral
Résumé :
This thesis deals with automatic localization of thin surgical tools such as needles or electrodes in 3D ultrasound images. The precise and reliable localization is important for medical interventions such as needle biopsy or electrode insertion into tissue. The reader is introduced to basics of medical ultrasound (US) imaging. The state of the art localization methods are reviewed in the work. Many methods such as Hough transform (HT) or Parallel Integral Projection (PIP) are based on projections. As the existing PIP implementations are relatively slow, we suggest an acceleration by using a multiresolution approach. We propose to use model fitting approach which uses randomized sample consensus (RANSAC) and local optimization. It is a fast method suitable for real-time use and it is robust with respect to the presence of other high-intensity structures in the background. We propose two new shape and appearance models of tool in 3D US images. Tool localization can be improved by exploiting its tubularity. We propose a tool model which uses line filtering and we incorporated it into the model fitting scheme. The robustness of such localization algorithm is improved at the expense of additional time for pre-processing. The real-time localization using the shape model is demonstrated by implementation on the 3D US scanner Ultrasonix RP. All proposed methods were tested on simulated data, phantom US data (a replacement for a tissue) and real tissue US data of breast with biopsy needle. The proposed methods had comparable accuracy and the lower number of failures than the state of the art projection based methods.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Remaud, Sylvie. « Liens entre la voie de signalisation Notch et le cycle cellulaire chez la drosophile ». Paris 6, 2008. http://www.theses.fr/2008PA066361.

Texte intégral
Résumé :
Ma thèse a porté sur les liens entre le cycle cellulaire et la détermination cellulaire avec pour modèle d’étude, le lignage des microchaetes chez la drosophile. Dans ce lignage, à chaque division, la voie de détermination Notch (N) joue un rôle essentiel dans l’acquisition de destins cellulaires distincts. Je me suis intéressée à la façon dont la voie N et le cycle cellulaire interagissent dans le contrôle temporel de la détermination et de la prolifération au cours du développement. J’ai mis en évidence un nouveau mode d’action de la voie N qui dépend de l’état de la cellule. Tout d’abord, in vivo, l’activation des gènes de détermination cellulaire par N dépend de la phase S. Par ailleurs, N influence la progression du cycle cellulaire : (i) N régule négativement la transition G2/M (ii) Dans des conditions de stress réplicatif, N régule positivement la progression de la phase S alors que, dans une situation sauvage, celle-ci ne semble pas influencer le déroulement de la phase S. Ces données renforcent l’idée que la réponse cellulaire à N varie selon l’état même des cellules (ici défini par la phase du cycle cellulaire ou les conditions de stress réplicatif).
Styles APA, Harvard, Vancouver, ISO, etc.
29

Hossein, Nezhadian Sajad. « Réseau flexible de résonateurs à ligne de transmissions pour l'émission et la réception en IRM cardiaque à 7T ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS492/document.

Texte intégral
Résumé :
Ce projet doctoral s’est déroulé dans le cadre d’une collaboration entre le laboratoire d’Imagerie par Résonance Magnétique Médicale et Multi-Modalités (IR4M) de l’Université Paris-Sud (France) et le Center for Medical Physics and Biomedical Engineering at Medical (CMPBME) de l’Université Médicale de Vienne (Autriche). L’objectif principal de ce travail était de développer un réseau d’antennes radiofréquence flexible fonctionnant en émission/réception pour l’IRM à 7T. Les réseaux d’antennes permettent de bénéficier du rapport signal sur bruit élevé des antennes de surface de petites tailles tout en accédant à un champ de vue étendu. De plus, les réseaux d’antennes permettent l’utilisation de technique d’imagerie parallèle afin d’accélérer l’acquisition des images ainsi que l’utilisation d’algorithme de transmission parallèle afin de produire un champ radiofréquence homogène, ce qui est crucial en IRM. Ce projet doctoral visait la conception, le développement, l’installation et l’évaluation d’un réseau d’antenne RF flexible basé sur le principe des résonateurs à lignes de transmission (RLT). Ces structures sont intrinsèquement monolithiques et auto-résonantes et ne nécessitent donc pas l’emploi de condensateurs discrets pour accorder l’antenne. Des simulations électromagnétiques 3D, ainsi que des caractérisations expérimentales sur table et en IRM ont été réalisées pour évaluer les performances de ce réseau, en configuration plate et courbée
This PhD thesis was conducted in the frame of a bilateral project between the laboratoire d’Imagerie par Résonance Magnétique Médicale et Multi-Modalités (IR4M) at Université Paris-Sud (Orsay, France) and the Center for Medical Physics and Biomedical Engineering (CMPBME) at the Medical University of Vienna (Vienna, Austria). The main objective of this work was to develop a flexible transceiver RF coil array for 7 T MRI. Coil arrays benefit from the high SNR of small surface coils over an extended field of view (FOV). Furthermore, array coils enable the use of parallel imaging (PI) techniques for accelerated image acquisition and pTx algorithms that can be used to produce a homogeneous transmit field which is of importance in MRI. This project targets the design, development, implementation and evaluation of a flexible RF coil array based on the transmission line resonator (TLR) principle. TLRs are inherently monolithic and self-resonant structures, i.e. there is no need for lumped element capacitors to tune the coil. 3D electromagnetic simulation (EMS) together with bench and MRI experiments were performed to evaluate the performance of the developed array in flat and bent configuration
Styles APA, Harvard, Vancouver, ISO, etc.
30

Lemammer, Imane. « Calibration en ligne d'un C-arm mobile à l'aide de capteurs inertiels pour des applications en CBCT ». Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT039.

Texte intégral
Résumé :
Les images acquises par tomographie volumique à faisceaux coniques (CBCT) sont plus précises que celles de la radiologie classique tout en produisant 1.5 à 12 fois moins de rayons X. Ces bonnes précisions en font un outil intéressant ce qui concerne le diagnostic et la planification d’interventions chirurgicales. Ce n'est que récemment que son usage est entré dans la pratique pour des chirurgies lourdes, avec l'introduction de systèmes d'imagerie par radiographie dédiés, coûteux et encombrants. Une idée pour généraliser son utilisation à des chirurgies mineures, en orthopédie ou en traumatologie par exemple, serait de l’implanter sur le dispositif d’imagerie radiologique médicale le plus répandu en salle d’opération : l’arceau chirurgical mobile (C-arm).Cependant, le C-arm est incompatible avec les algorithmes de tomographie volumique de l’état de l’art qui nécessitent une connaissance très précise de la géométrie de l'image. En effet, un C-arm est mécaniquement instable et ses trajectoires sont non répétables. De plus, les algorithmes de calibration géométrique du C-arm mobile de l’état de l’art ne répondent pas aux exigences de cet usage : invasivité, modification trop importante de la routine chirurgicale, précision de localisation insuffisante… Dès lors, nous avons mis en évidence l’intérêt d’implanter une nouvelle méthode de calibration en ligne non invasive du C-arm. Pour ce faire, nous avons choisi d’exploiter principalement des mesures issues de capteurs inertiels.Pour répondre à cette problématique, nous abordons deux points : La construction d’un algorithme de calibration : l’idée est d’estimer la position et l’orientation du couple source-détecteur du C-arm mobile à partir des mesures inertielles et de modèles cinématiques adaptés, et grâce à des estimateurs (filtres et lisseurs de Kalman) correctement paramétrés. La propagation des erreurs d’estimation de positions et d’orientations jusqu’aux projetés 2D puis jusqu’aux reconstructions 3D : le but est d’évaluer l’impact des erreurs de localisation sur la qualité de reconstruction tout en permettant de déterminer les paramètres les plus impactants.Afin de valider le dispositif de calibration proposé, deux plateformes expérimentales ont été construites dans le cadre cette thèse : un bras rotatif qui permet de reproduire les mouvements de la source à rayons X ou du détecteur du C-arm dans le cas de trajectoires simplifiées, motorisées et répétables, et un C-arm réel qui a été sécurisé et motorisé, puis équipé de capteurs. Ce dernier nous a permis d’estimer la précision de localisation du couple source-détecteur pour des trajectoires réalistes.Sur une trajectoire classique d’un système réel, les erreurs maximales de calibration obtenues sont de l’ordre de 2 mm pour les positions et du dixième de degré pour les rotations. Ces résultats sont comparables à ceux obtenus par les méthodes de calibration invasives de l’état de l’art. La qualité de reconstruction a été évaluée sur des projetés 2D sur le plan détecteur puis sur des coupes de reconstructions 3D de mires et de fantômes réels. La précision sur l’orientation obtenue est évaluée comme étant suffisante pour garantir une bonne qualité de reconstruction. La précision sur la position est cependant jugée insuffisante. Néanmoins, les reconstructions obtenues, bien que visuellement déformées, gagneraient à être présentées et évaluées par un spécialiste médical. Les algorithmes de propagation d’erreurs ont également permis de conclure qu’une erreur sur les translations dans le plan de la source et du détecteur du C-arm ont, au moins, 6 fois plus d’impact sur les reconstructions que des erreurs sur les autres paramètres géométriques du C-arm
Cone beam computed tomography (CBCT) is more accurate than conventional radiography with less radiation exposure doses. Hence, it is a very useful complementary tool for diagnosis and surgery planning. Despite the increasing popularity of CBCT, it is mainly restricted to major surgery as it requires the use of expensive and bulky angiography systems which are specially designed to allow 3D tomography. One idea to generalize the use of CBCT to minor surgery - in orthopedics and traumatology for example - would be to introduce it on the most widely used tool for X-ray imaging: the mobile C-arm.Volume reconstruction algorithms require a very precise knowledge of the imaging geometry. Unfortunately, due to mechanical instabilities which lead to non-reproducible motions from run to run mobile C-arms are incompatible with existing tomography algorithms. Therefore, a precise C-arm on-line calibration is essential in order to achieve an accurate volume reconstruction. Existing calibration techniques do not meet these specifications. They are either not precise enough, invasive or involve a major change in the process of performing surgical acts. Therefore, we present a new on-line calibration method for mobile C-arms in order to achieve CBCT. It is based on tracking the detector and the X-ray source of the C-arm and aims to be precise and non-invasive.In order to address this issue, we will discuss two items: The first is the construction of a calibration algorithm: the idea is to estimate the position and the orientation of the detector and the X-ray source of the C-arm using inertial measurements, appropriate kinematic models, and a fitting estimator (Kalman filter and smoother). The second item is the propagation of pose estimation errors to 2D projections and to 3D reconstructions. Thus, we can evaluate the impact of the estimation errors on the reconstruction quality.This thesis also describes two experimental setups which allowed us to test and validate the proposed calibration algorithm. The first tracking experiments were carried out on a rotated-arm. It is a simple motorized mock-up to simulate either the detector or the X-ray source of a mobile C-arm. The rotated-arm exhibits a good position and orientation repeatability. The second platform is a full-size modified mobile C-arm. It includes motorized orbital and axial rotations, mechanical end stops and sensors of different characteristics and accuracies. This second platform allows us to estimate the geometric calibration accuracy on realistic trajectories.During a continuous rotation of the experimental C-arm, we achieve a tracking error of 2 mm for positions and of 0.1° for orientation. These values are comparable with existing invasive calibration algorithms accuracies. The image quality of reconstructed CBCT using the proposed calibration algorithm was evaluated on the 2D projections within the detector plane and also on the 3D reconstruction images of various phantoms. The achieved orientation accuracy is sufficient for CBCT. The position accuracy seems not. However, it may be useful to present the resulting 3D reconstruction images to medical evaluation by a specialist to confirm these conclusions. It also appears that the parameters of C-arm's projective geometry which have the greatest impact on the 2D projections are the in-plane translations of the X-ray source and of the detector. Therefore, they are the most critical parameters to be efficiently tracked in order to avoid artifacts in the 3D volume reconstruction. Compared to in-plane translations, the out-plane translations and the orientation of the detector have little influence on the 2D projections
Styles APA, Harvard, Vancouver, ISO, etc.
31

Florea, Filip Ionut. « Annotation automatique d'images à partir de leur contenu visuel et des régions textuelles associées. Application dans le contexte d'un catalogue de santé en ligne ». Thesis, Rouen, INSA, 2007. http://www.theses.fr/2007ISAM0013.

Texte intégral
Résumé :
À l’heure actuelle, l’Internet est devenu une des sources d’information les plus importantes dans des nombreux domaines, dont le domaine de la santé. Les images médicales portent des informations importantes pour le diagnostic, l’enseignement et la recherche, des informations parfois difficiles à décrire textuellement. Avec le développement des technologies d’acquisition, les images médicales sont de plus en plus nombreuses dans les bases d’images et dans les documents en ligne. Vu l’importance des images médicales pour le diagnostic, l’enseignement et même l’éducation civique, des méthodes et des outils efficaces d’annotation, d’indexation et de recherche des images médicales sont nécessaires. Dans ce contexte, nous proposons une architecture pour l’annotation des images médicales incluses dans des documents de santé en ligne. Notre système extrait des informations médicales spécifiques (i.e. modalité médicale, région anatomique) à partir de plusieurs sources, et combine ces informations pour annoter les images. Cette annotation est nécessaire pour pouvoir retrouver les images à l’intérieur des documents sur le web. Dans nos expérimentations, nous avons implémenté deux approches (chacune basée sur une source d’information) : une première orientée vers le contenu des images, et une deuxième orientée sur le contexte des images (régions textuelles associées aux images)
Today, Internet has become a major source of information in many areas, including health. Medical images are carrying crucial information for diagnostic, teaching and research, moste of the time this information being very difficult to describe using only text. In this context, we are proposing architecture for the annotation of medical images included in online health documents. Our system extracts specific medical information (modality, anatomical regions ...) from several sources and combines this information to annotate the images. This annotation is necessary to be able to search for images inside documents. We implemented two distinct approaches (each based on a different type of information) : one oriented towards the image content, and a second oriented on the image context (image-related textual regions)
Styles APA, Harvard, Vancouver, ISO, etc.
32

PERRIN, CHRISTELE. « Methodologie pour l'analyse quantitative en imagerie microscopique conventionnelle et a fluorescence. Application a l'etude de la proliferation et de l'expression du recepteur a l'egf dans des cellules tumorales mammaires ». Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10198.

Texte intégral
Résumé :
L'utilisation accrue des methodes d'imagerie microscopique dans le domaine de la cancerologie, et les developpements recents des marqueurs specifiques utilises dans ce contexte ont fait naitre un besoin urgent en ce qui concerne le developpement de procedures de multi-marquages enzymatiques ou fluorescents, et leur quantification cellule a cellule. C'est dans ce contexte de mise au point methodologique qu'ont ete realises les travaux presentes dans cette these. Ils incluent les divers aspects de la standardisation de methodes de multi-marquages, l'adaptation des methodes d'imagerie pour la quantification du marquage in situ du recepteur a l'egf, et la normalisation des mesures. Les techniques developpees pour la quantification par cytometrie en image sont detaillees, faisant apparaitre les limites et les problemes eventuels rencontres, ainsi que la facon de les contourner ou de les resoudre. Ces developpements methodologiques ont ete appliques a l'etude de l'analyse quantitative in situ des recepteurs a l'egf dans les tissus animaux et humains (tumeurs mammaires), en relation avec la cinetique de proliferation de chacune des cellules (marquages ki67, brdu, agnor). L'etude de marquages simultanes des proteines ki67-agnors-egfr associes au marquage de l'adn montre qu'il devrait etre possible de preciser pour chaque cellule en cycle, dans un tissu normal ou tumoral, la relation entre la vitesse du cycle et l'expression des recepteurs a l'egf
Styles APA, Harvard, Vancouver, ISO, etc.
33

Lerbour, Raphaël. « Chargement progressif et rendu adaptatif de vastes terrains ». Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00461667.

Texte intégral
Résumé :
Dans cette thèse, nous proposons des solutions pour le chargement progressif et le rendu adaptatif de vastes terrains. Cela peut servir notamment à visualiser la Terre en 3D sur un ordinateur en chargeant les données depuis une immense base de données via un réseau. Dans la première partie de cette thèse, nous introduisons une solution générique pour manipuler des cartes d'échantillons de taille quelconque depuis un serveur jusqu'à un système de rendu client. Nos méthodes s'adaptent aux performances du réseau et du rendu et évitent de traiter des données redondantes. Dans une deuxième partie, nous utilisons cette solution pour permettre le rendu 3D temps réel de vastes terrains texturés. De plus, nous supportons des terrains planétaires et réduisons les incohérences visuelles dues à la projection cartographique et à la précision du rendu. Enfin, nous proposons des algorithmes permettant de créer des bases de données serveur à partir d'immenses cartes d'échantillons.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Lerbour, Raphaël. « Chargement progressif et rendu adaptatif de vastes terrains ». Phd thesis, Rennes 1, 2009. https://theses.hal.science/docs/00/46/16/67/PDF/thesis_lerbour_final.pdf.

Texte intégral
Résumé :
Dans cette thèse, nous proposons des solutions pour le chargement progressif et le rendu adaptatif de vastes terrains. Cela peut servir notamment à visualiser la Terre en 3D sur un ordinateur en chargeant les données depuis une immense base de données via un réseau. Dans la première partie de cette thèse, nous introduisons une solution générique pour manipuler des cartes d'échantillons de taille quelconque depuis un serveur jusqu'à un système de rendu client. Nos méthodes s'adaptent aux performances du réseau et du rendu et évitent de traiter des données redondantes. Dans une deuxième partie, nous utilisons cette solution pour permettre le rendu 3D temps réel de vastes terrains texturés. De plus, nous supportons des terrains planétaires et réduisons les incohérences visuelles dues à la projection cartographique et à la précision du rendu. Enfin, nous proposons des algorithmes permettant de créer des bases de données serveur à partir d'immenses cartes d'échantillons
In this thesis, we propose solutions to perform adaptive streaming and rendering of arbitrary large terrains. One interesting application is to interactively visualize the Earth in 3D on a computer while loading the required data from a huge database over a network. In the first part of this thesis, we introduce a generic solution to handle sample maps of any size from a server hard disk all the way to a client rendering system. Our methods adapt to the speed of the network and of the rendering and avoid handling redundant data. In a second part, we build upon the generic solution to propose real-time 3D rendering of large textured terrains on graphics hardware. In addition, we support planetary terrains and use techniques that prevent handling redundant data and limit typical rendering inconsistencies due to map projection and rendering precision. Finally, we propose preprocessing algorithms that allow to build server databases from huge sample maps
Styles APA, Harvard, Vancouver, ISO, etc.
35

Ion, Valentina. « Nonlinear approaches for phase retrieval in the Fresnel region for hard X-ray imaging ». Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-01015814.

Texte intégral
Résumé :
The development of highly coherent X-ray sources offers new possibilities to image biological structures at different scales exploiting the refraction of X-rays. The coherence properties of the third-generation synchrotron radiation sources enables efficient implementations of phase contrast techniques. One of the first measurements of the intensity variations due to phase contrast has been reported in 1995 at the European Synchrotron Radiation Facility (ESRF). Phase imaging coupled to tomography acquisition allows threedimensional imaging with an increased sensitivity compared to absorption CT. This technique is particularly attractive to image samples with low absorption constituents. Phase contrast has many applications, ranging from material science, paleontology, bone research to medicine and biology. Several methods to achieve X-ray phase contrast have been proposed during the last years. In propagation based phase contrast, the measurements are made at different sample-to-detector distances. While the intensity data can be acquired and recorded, the phase information of the signal has to be "retrieved" from the modulus data only. Phase retrieval is thus an illposed nonlinear problem and regularization techniques including a priori knowledge are necessary to obtain stable solutions. Several phase recovery methods have been developed in recent years. These approaches generally formulate the phase retrieval problem as a linear one. Nonlinear treatments have not been much investigated. The main purpose of this work was to propose and evaluate new algorithms, in particularly taking into account the nonlinearity of the direct problem. In the first part of this work, we present a Landweber type nonlinear iterative scheme to solve the propagation based phase retrieval problem. This approach uses the analytic expression of the Fréchet derivative of the phase-intensity relationship and of its adjoint, which are presented in detail. We also study the effect of projection operators on the convergence properties of the method. In the second part of this thesis, we investigate the resolution of the linear inverse problem with an iterative thresholding algorithm in wavelet coordinates. In the following, the two former algorithms are combined and compared with another nonlinear approach based on sparsity regularization and a fixed point algorithm. The performance of theses algorithms are evaluated on simulated data for different noise levels. Finally the algorithms were adapted to process real data sets obtained in phase CT at the ESRF at Grenoble.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Mathieu, Romain. « Le rôle des processus spatiaux dans les procédures arithmétiques automatisées : études comportementales et IRMf chez l’adulte et l’enfant ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1206.

Texte intégral
Résumé :
Il est communément admis que les adultes résolvent les problèmes arithmétiques simples (e.g., 3+2, 3X2, 32) en récupérant directement le résultat de ces problèmes en mémoire. Des études récentes suggèrent cependant que certains de ces problèmes (e.g., additions et soustractions) seraient résolus par l'application de procédures de calcul automatisées reposant sur des mécanismes spatio-attentionnels. Cette thèse avait pour objectif de tester cette hypothèse. Une première étude comportementale a montré que résoudre des additions et des soustractions simples s'accompagne de déplacements horizontaux de l'attention (vers la droite pour les additions et vers la gauche pour les soustractions) chez l'adulte. Ceci confirme la présence de procédures automatisées qui seraient de nature spatiale et pourraient prendre la forme de déplacements attentionnels sur une ligne numérique mentale. Deux autres études ont permis d'explorer les bases neurales de ces procédures automatisées et leur développement grâce à l'imagerie par résonnance magnétique fonctionnelle. Les résultats indiquent que l'automatisation de ces procédures de calcul au cours de l'éducation dépendrait initialement de mécanismes spatiaux supportés par l'hippocampe chez l'enfant. Chez l'adulte, en revanche, ces procédures automatisées seraient associées aux régions corticales impliquées dans l'orientation de l'attention. Cette thèse confirme l'existence de procédures spatiales automatisées dans l'arithmétique élémentaire et amène à reconsidérer les modèles classiques d'apprentissage de l'arithmétique
It is commonly accepted that educated adults solve simple arithmetic problems (e.g., 3+2, 3X2, 32) by directly retrieving the result from memory. However, recent studies suggest that some of these problems (e.g., addition and subtraction) may instead be solved by means of automated calculation procedures relying on spatial attentional mechanisms. The goal of this thesis was to test that hypothesis. In a first behavioral study, we showed that solving simple addition and subtraction problems is accompanied by horizontal shifts of attention (rightward for addition and leftward for subtraction) in adults. This confirms the existence of automated procedures that may be spatial in nature and take the form of attentional shifts along a mental number line. In two other studies, we explored the neural bases of these automated procedures and their development by using functional magnetic resonance imaging. The results showed that the automatization of calculation procedures over development may initially depend on spatial mechanisms supported by the hippocampus in children. In educated adults, however, automated procedures are associated with cortical regions involved in the orienting of spatial attention. This thesis confirms the existence of automated spatial procedures in simple arithmetic and calls upon a reconsideration of the classical models of arithmetic learning
Styles APA, Harvard, Vancouver, ISO, etc.
37

Ley, Jean-Luc. « Mise en oeuvre d’un démonstrateur de caméra Compton pour l’imagerie en médecine nucléaire et pour le contrôle en temps réel de l’hadronthérapie à l’aide des rayonnements gamma prompts ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10334/document.

Texte intégral
Résumé :
L'hadronthérapie est l'une des modalités disponibles pour traiter le cancer. Cette modalité utilise des ions légers (protons, ions carbone) pour détruire les cellules cancéreuses. De telles particules ont une précision balistique de par leur trajectoire quasi-rectiligne, leur parcours fini et le profil de dose maximum en fin de parcours, ce qui permet, par rapport à la radiothérapie conventionnelle, d'épargner les tissus sains situés à côté, en aval et en amont de la tumeur. L'un des enjeux de l'assurance qualité de cette modalité est le contrôle du positionnement de la dose déposée par les ions dans le patient. Une possibilité pour effectuer ce contrôle est d'observer les gammas prompts émis lors des réactions nucléaires induites le long du parcours des ions dans le patient. Un prototype de caméra Compton, permettant théoriquement de maximiser l'efficacité de détection des gammas prompts, est actuellement développé dans une collaboration régionale. Mon travail de thèse s'est axé autour de cette caméra et plus particulièrement sur les points suivants : i) étudier par les simulations Monte Carlo le fonctionnement du prototype en cours de construction, notamment en regard des taux de comptage attendus sur les différents types d'accélérateurs en hadronthérapie, ii) mener des études de simulation sur l'utilisation de cette caméra en imagerie clinique, iii) caractériser les détecteurs silicium du diffuseur, iv) confronter les simulations entreprises sur la réponse de la caméra avec des mesures sur faisceau à l'aide d'un démonstrateur. Il résulte que le prototype de caméra Compton développé rend possible un contrôle de la localisation du dépôt de dose en protonthérapie à l'échelle d'un spot, à condition que l'intensité clinique du faisceau de protons soit diminuée d'un facteur 200 (intensité de 108 protons/s). Une application de la caméra Compton en médecine nucléaire semble réalisable avec l'utilisation de radioisotopes d'énergie supérieure à 300 keV. Ces premiers résultats doivent être confirmés par des simulations plus réalistes (cibles de PMMA homogènes et hétérogènes). Des tests avec l'intégration progressive de tous les éléments de la caméra vont avoir lieu courant 2016
Hadrontherapy is one of the modalities available for treating cancer. This modality uses light ions (protons, carbon ions) to destroy cancer cells. Such particles have a ballistic accuracy thanks to their quasi-rectilinear trajectory, their path and the finished profile maximum dose in the end. Compared to conventional radiotherapy, this allows to spare the healthy tissue located adjacent downstream and upstream of the tumor. One of this modality’s quality assurance challenges is to control the positioning of the dose deposited by ions in the patient. One possibility to perform this control is to detect the prompt gammas emitted during nuclear reactions induced along the ion path in the patient. A Compton camera prototype, theoretically allowing to maximize the detection efficiency of the prompt gammas, is being developed under a regional collaboration. This camera was the main focus of my thesis, and particularly the following points : i) studying, throughout Monte Carlo simulations, the operation of the prototype in construction, particularly with respect to the expected counting rates on the different types of accelerators in hadrontherapy ii) conducting simulation studies on the use of this camera in clinical imaging, iii) characterising the silicon detectors (scatterer) iv) confronting Geant4 simulations on the camera’s response with measurements on the beam with the help of a demonstrator. As a result, the Compton camera prototype developed makes a control of the localization of the dose deposition in proton therapy to the scale of a spot possible, provided that the intensity of the clinical proton beam is reduced by a factor 200 (intensity of 108 protons / s). An application of the Compton camera in nuclear medicine seems to be attainable with the use of radioisotopes of an energy greater than 300 keV. These initial results must be confirmed by more realistic simulations (homogeneous and heterogeneous PMMA targets). Tests with the progressive integration of all camera elements will take place during 2016
Styles APA, Harvard, Vancouver, ISO, etc.
38

El, Gueddari Loubna. « Proximal structured sparsity regularization for online reconstruction in high-resolution accelerated Magnetic Resonance imaging ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS573.

Texte intégral
Résumé :
L'imagerie par résonance magnétique (IRM) est la technique d'imagerie médicale de référence pour sonder in vivo et non invasivement les tissus mous du corps humain, en particulier le cerveau.L'amélioration de la résolution de l'IRM en un temps d'acquisition standard (400µm isotrope en 15 minutes) permettrait aux médecins d'améliorer considérablement leur diagnostic et le suivi des patients. Cependant, le temps d'acquisition en IRM reste long. Pour réduire ce temps, la récente théorie de l'échantillonnage comprimée (EC) a révolutionné la façon d'acquérir des données dans plusieurs domaines dont l'IRM en surmontant le théorème de Shannon-Nyquist. Avec l'EC, les données peuvent alors être massivement sous-échantillonnées tout en assurant des conditions optimales de reconstruction des images.Dans ce contexte, les thèses de doctorat précédemment soutenue au sein du laboratoire ont été consacrées à la conception et à la mise en oeuvre de scénarios d'acquisition physiquement plausibles pour accélérer l'acquisitions. Un nouvel algorithme d'optimisation pour la conception de trajectoire non cartésienne avancée appelée SPARKLING pour Spreading Projection Algorithm for Rapid K-space samplING en est né. Les trajectoires SPARKLING générées ont conduit à des facteurs d'accélération allant jusqu'à 20 en 2D et 70 pour les acquisitions 3D sur des images à haute résolution pondérées en T*₂ acquises à 7 Tesla. Ces accélérations n'étaient accessibles que grâce au rapport signal/bruit d'entrée élevé fourni par l'utilisation de bobines de réception multi-canaux (IRMp). Cependant, ces résultats ont été obtenus au détriment d'une reconstruction longue et complexe. Dans cette thèse, l'objectif est de proposer une nouvelle approche de reconstruction en ligne d'images acquies par IRMp non cartésiennes. Pour atteindre cet objectif, nous nous appuyons sur une approche en ligne où reconstruction et acquisition s'entremèlent. Par conséquent, la reconstruction débute avant la fin de l'acquisition et un résultat partiel est délivré au cours de l'examen. L'ensemble du pipeline est compatible avec une implémentation réelle à travers l'interface Gadgetron pour produire les images reconstruites à la console du scanner.Ainsi, après avoir exposé la théorie de l'échantillonage comprimé, nous présentons l'état de l'art de la méthode dédiée à la reconstruction en imagerie multi-canaux. En particulier, nous nous concentrerons d'abord sur les méthodes d'autocalibration qui présentent l'avantage d'être adaptées à l'échantillonnage non cartésien et nous proposons une méthode simple mais efficace pour estimer le profil de sensibilité des différents cannaux. Cependant, en raison de leur dépendance au profil de sensibilité, ces méthodes ne sont pas adapatable à la reconstruction en ligne. Par conséquent, la deuxième partie se concentre sur la suppression des ces profils et celà grâce à l'utilisation de norme mixte promouvant une parcimonie structurée. Ensuite, nous adaptons différentes réularization basées sur la parcimonie structurée pour reconstruire ces images fortement corrélées. Enfin, la méthode retenue sera appliquée à l'imagerie en ligne
Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 400µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. However the scanning time in MRI remains long, especially in the high resolution context. To reduce this time, the recent Compressed Sensing (CS) theory has revolutionized the way of acquiring data in several fields including MRI by overcoming the Shannon-Nyquist theorem. Using CS, data can then be massively under-sampled while ensuring conditions for optimal image recovery.In this context, previous Ph.D. thesis in the laboratory were dedicated to the design and implementation of physically plausible acquisition scenarios to accelerate the scan. Those projects deliver new optimization algorithm for the design of advanced non-Cartesian trajectory called SPARKLING: Spreading Projection Algorithm for Rapid K-space samplING. The generated SPARKLING trajectories led to acceleration factors up to 20 in 2D and 60 for 3D-acquisitions on highly resolved T₂* weighted images acquired at 7~Tesla.Those accelerations were only accessible thanks to the high input Signal-to-Noise Ratio delivered by the usage of multi-channel reception coils. However, those results are coming at a price of long and complex reconstruction.In this thesis, the objective is to propose an online approach for non-Cartesian multi-channel MR image reconstruction. To achieve this goal we rely on an online approach where the reconstruction starts from incomplete data.Hence acquisition and reconstruction are interleaved, and partial feedback is given during the scan. After exposing the Compressed Sensing theory, we present state-of the art method dedicated to multi-channel coil reconstruction. In particular, we will first focus on self-calibrating methods that presents the advantage to be adapted to non-Cartesian sampling and we propose a simple yet efficient method to estimate the coil sensitivity profile.However, owing to its dependence to user-defined parameters, this two-step approach (extraction of sensitivity maps and then image reconstruction) is not compatible with the timing constraints associated with online reconstruction. Then we studied the case of calibration-less reconstruction methods and splits them into two categories, the k-space based and the domain-based. While the k-space calibration-less method are sub-optimal for non-Cartesian reconstruction, due to the gridding procedure, we will retain the domain-based calibration-less reconstruction and prove theirs for online purposes. Hence in the second part, we first prove the advantage of mixed norm to improve the recovery guarantee in the pMRI setting. Then we studied the impact of structured sparse induced norm on the reconstruction multi-channel purposes, where then and adapt different penalty based on structured sparsity to handle those highly correlated images. Finally, the retained method will be applied to online purposes. The entire pipeline, is compatible with an implementation through the Gadgetron pipeline to deliver the reconstruction at the scanner console
Styles APA, Harvard, Vancouver, ISO, etc.
39

Nus, Ludivine. « Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois ». Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0163/document.

Texte intégral
Résumé :
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois
This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood
Styles APA, Harvard, Vancouver, ISO, etc.
40

Allène, Cédric. « Paradigmes de segmentation de graphe : comparaisons et applications en traitement d'images ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00532601.

Texte intégral
Résumé :
Les techniques de segmentation de graphe sont souvent utilisées en traitement d'images puisque ces dernières peuvent être vues comme des graphes valués. Dans cette thèse, nous montrons des liens existant entre plusieurs paradigmes de segmentation de graphes valués. Nous présentons tout d'abord différentes définitions de ligne de partage des eaux et sélectionnons celle dont le cadre permet la comparaison avec des forêts couvrantes particulières. Nous montrons qu'une telle ligne de partage des eaux relative à des marqueurs arbitraires est équivalente à une coupe induite par une forêt couvrante de chemins de moindre altitude. Ensuite, les coupes induites par des forêts couvrantes de poids minimum sont démontrées comme étant des cas particuliers ayant l'avantage d'éviter certaines segmentations non souhaitées. Enfin, nous montrons qu'une coupe minimale coïncide avec une coupe induite par une forêt couvrante de poids maximum pour certaines fonctions de poids particulières. Dans une seconde partie, nous présentons deux applications utilisant la segmentation de graphe : la renaissance d'images et le mélange de textures pour la reconstruction 3D
Styles APA, Harvard, Vancouver, ISO, etc.
41

Chassat, Fabrice. « Étude et réalisation d'un système de localisation en six dimensions pour la chirurgie assistée par ordinateur ». Phd thesis, Grenoble 1, 2001. http://tel.archives-ouvertes.fr/tel-00005276.

Texte intégral
Résumé :
La plupart des Gestes Médicaux-Chirurgicaux Assistés par Ordinateur (G.M.C.A.O.) nécessitent l'utilisation d'un localisateur en six-dimensions. Il s'agit d'un système permettant de déterminer et de suivre la position et l'orientation de corps rigides constitués de marqueurs dans l'espace. De nombreux localisateurs ont été utilisés en chirurgie. Très peu de systèmes sont dédiés spécifiquement à la chirurgie ainsi ils ne répondent pas entièrement de façon satisfaisante aux contraintes du domaine. Nous présentons dans cette thèse, une approche originale de la localisation. A partir d'une étude des applications chirurgicales utilisant un localisateur, nous avons défini un ensemble de critères qualitatifs (encombrement, poids, forme) et quantitatifs en particulier sur la précision pour laquelle un protocole générique d'évaluation des localisateurs pour la chirurgie est proposé. Ces critères nous ont conduit à proposer une évolution des principaux systèmes utilisés aujourd'hui (les localisateurs optiques) afin de les rendre totalement adaptés aux besoins du domaine. En particulier, il est apparu que le coût, la précision et l'ergonomie globale des systèmes existants bien que satisfaisantes dans la plupart des cas étaient insuffisantes pour des applications exigeantes. Nous avons étudié et nous détaillons dans cette thèse deux prototypes permettant de répondre aux problèmes posés par le coût, la précision et surtout l'ergonomie. A partir de la base commune d'un localisateur par stéréovision passive repérant des marqueurs ponctuels, nous proposons une évolution originale basée sur la localisation et l'identification de marqueurs linéaires par le rapport de Thalès pour améliorer la visibilité des cibles. Enfin nous proposons deux concepts très innovants de localisation répondant à l'inconvénient majeur des systèmes optiques qui doivent avoir une ligne de vue entre les caméras et les marqueurs libre de tout obstacle.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Bousse, Alexandre. « Problèmes inverses, application à la reconstruction compensée en mouvement en angiographie rotationnelle X ». Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00361396.

Texte intégral
Résumé :
Ce travail est une application de la théorie des problèmes inverses à la reconstruction 3-D des artères coronaires avec compensation du mouvement à partir de données Rot-X. Dans un premier temps nous étudions le problème inverse en dimension finie et infinie. En dimension finie nous nous concentrons sur la modélisation du problème inverse en tomographie en définissant la notion de base de voxels et de matrice de projection, en vue de pouvoir se ramener à une formulation matricielle du problème inverse. Nous étudions aussi la notion de tomographie dynamique et les problèmes qui lui sont liés. Notre formulation discrète permet grâce aux bases de voxels d'inclure n'importe quelle déformation de support étant un difféorphisme dans le problème inverse matriciel, dès lors que cette déformation est connue a priori. Dans le dernier chapitre, nous présentons une méthode d'estimation du mouvement utilisant les projections Rot-X synchronisées par rapport à l'ECG, basée sur un modèle déformable 3-D des artères coronaires. Le mouvement est modélisé par des fonctions B-splines.
Une fois le mouvement estimé, la reconstruction tomographique à un instant de référence est effectuée par une optimisation aux moindres-carrés qui inclut le mouvement ainsi qu'un terme de pénalité qui favorise les valeurs d'intensités fortes pour les voxels au voisinage de la ligne centrale 3-D, et les faibles valeurs pour les autres. Cette méthode a été testée sur des données simulées basées sur des lignes centrales 3-D préalablement extraites de données MSCT.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Runge, Katharina. « Visualisation de fluxoides dans des réseaux 2D artificiels supraconducteurs ». Phd thesis, Grenoble 1, 1993. http://tel.archives-ouvertes.fr/tel-00356016.

Texte intégral
Résumé :
Nous avons mis au point une cellule de décoration, permettant de décorer les vortex à basse température (jusqu'à 1.6K) sous faible champ magnétique (jusqu'à 0.2mT). La méthode est basée sur l'interaction des gradients de champs dus aux vortex avec des particules ferromagnétiques fabriquées in-situ dans un gaz résiduel. Après réchauffement, l'observation des amas de nickel se fait sous le microscope électronique à balayage. Les échantillons étudiés sont des réseaux 2D submicroniques de fils en niobium (pas du réseau 1-2 µm, largeur des fils 0.3 µm, épaisseur 0.2 µm) avec d'excellentes propriétés supraconductrices (température de transition 9.0K, RRR d'environ 30). Notre calcul de profil de champ magnétique au-dessus d'un réseau montre que le contraste entre cellules avec ou sans vortex est extrêmement faible. Suivant la hauteur au dessus du réseau, nous décorons soit les courants soit les milieux de cellules. La décoration se fait donc sur des réseaux planarisés, à des températures T<
Styles APA, Harvard, Vancouver, ISO, etc.
44

Kriegl, Roberta. « A flexible coil array for high resolution magnetic resonance imaging at 7 Tesla ». Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112425/document.

Texte intégral
Résumé :
L’imagerie par résonance magnétique (IRM) est un outil d’investigation majeur donnant accès de manière non invasive à des nombreuses informations quantitatives et fonctionnelles. La qualité des images obtenues (rapport-signal-sur-bruit, RSB) est cependant limitée dans certaines applications nécessitant des résolutions spatiales et/ou temporelles poussées. Afin d’améliorer la sensibilité de détection des équipements d’IRM, diverses orientations peuvent être suivies telles qu’augmenter l’intensité du champ magnétique des imageurs, améliorer les performances des systèmes de détection radiofréquence (RF), ou encore développer des séquences d’acquisition et des techniques de reconstruction d’images plus efficaces. La thématique globale dans laquelle s’inscrit cette thèse concerne le développement des systèmes de détection RF à haute sensibilité pour l’IRM à haut champ chez l’homme. En particulier, des antennes auto-résonantes basées sur le principe des lignes de transmission sont utilisées parce qu’elles peuvent être réalisée sur substrat souple. Cette adaptabilité géométrique du résonateur permet d’ajuster précisément sa forme aux spécificités morphologiques de la zone anatomique observée, et ainsi d’augmenter le RSB. La première visée technologique de ce projet concerne le développement, de la conception jusqu’à la mise en œuvre dans un appareil 7 T corps entier, d’un système de détection RF flexible à haute sensibilité, utilisant des antennes miniatures associées en réseau. L’utilisation d’un réseau d’antennes miniatures permet d’obtenir des images sur un champ de vue élargi tout en conservant la haute sensibilité inhérente à chaque antenne miniature. De plus, la technologie de l’imagerie parallèle devient accessible, ce qui permet d’accélérer l’acquisition des images. De surcroît, un nouveau schéma de résonateur de ligne transmission avec un degré de liberté supplémentaire est introduit, ce qui permet de réaliser de grands résonateurs multi-tours pour l’IRM à haut champ. Cette thèse décrit le développement, la mise en œuvre et l’évaluation des nouveaux systèmes de détection RF au moyen de simulations analytiques et numériques, et des études expérimentales
Magnetic resonance imaging (MRI), among other imaging techniques, has become a major backbone of modern medical diagnostics. MRI enables the non-invasive combined, identification of anatomical structures, functional and chemical properties, especially in soft tissues. Nonetheless, applications requiring very high spatial and/or temporal resolution are often limited by the available signal-to-noise ratio (SNR) in MR experiments. Since first clinical applications, image quality in MRI has been constantly improved by applying one or several of the following strategies: increasing the static magnetic field strength, improvement of the radiofrequency (RF) detection system, development of specialized acquisition sequences and optimization of image reconstruction techniques. This work is concerned with the development of highly sensitive RF detection systems for biomedical ultra-high field MRI. In particular, auto-resonant RF coils based on transmission line technology are investigated. These resonators may be fabricated on flexible substrate which enables form-fitting of the RF detector to the target anatomy, leading to a significant SNR gain. The main objective of this work is the development of a flexible RF coil array for high-resolution MRI on a human whole-body 7 T MR scanner. With coil arrays, the intrinsically high SNR of small surface coils may be exploited for an extended field of view. Further, parallel imaging techniques are accessible with RF array technology, allowing acceleration of the image acquisition. Secondly, in this PhD project a novel design for transmission line resonators is developed, that brings an additional degree of freedom in geometric design and enables the fabrication of large multi-turn resonators for high field MR applications. This thesis describes the development, successful implementation and evaluation of novel, mechanically flexible RF devices by analytical and 3D electromagnetic simulations, in bench measurements and in MRI experiments
Styles APA, Harvard, Vancouver, ISO, etc.
45

Song, Yingying. « Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes ». Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0207/document.

Texte intégral
Résumé :
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances
A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
Styles APA, Harvard, Vancouver, ISO, etc.
46

Desaulniers, Éric. « Imagerie sismique de la ligne 2002-MRN-10b : recherche d'une approche géophysique au service de l'interprétation / ». 2006. http://proquest.umi.com/pqdweb?did=1257789881&sid=1&Fmt=2&clientId=9268&RQT=309&VName=PQD.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
47

Mthembu, Ingrid Bongiwe. « Estimating foliar and wood lignin concentrations, and leaf area index (LAI) of Eucalyptus clones in Zululand usig hyperspectral imagery ». 2006. http://hdl.handle.net/10413/3470.

Texte intégral
Résumé :
To produce high quality paper, lignin should be removed from the pulp. Quantification of lignin concentrations using standard wet chemistry is accurate but time consuming and costly, thus not appropriate for a large number of samples. The ability of hyperspectral remote sensing to predict foliar lignin concentrations could be utilized to estimate wood lignin concentrations if meaningful relationships between wood and foliar chemistry are established. LAI (leaf area index) is a useful parameter that is incorporated into physiological models in forest assessment. Measuring LAI over vast areas is labour intensive and expensive; therefore, LAI has been correlated to vegetation indices using remote sensing. Broadband indices use average spectral information over broad bandwidths; therefore details on the characteristics of the forest canopy are compromised and averaged. Moreover, the broadband indices are known to be highly affected by soil background at low vegetation cover. The aim of this study is to determine foliar and wood lignin concentrations of Eucalyptus clones using hyperspectral lignin indices, and to estimate LAI of Eucalyptus clones from narrowband vegetation indices in Zululand, South Africa Twelve Eucalyptus compartments of ages between 6 and 9 years were selected and 5 trees were randomly sampled from each compartment. A Hyperion image was acquired within ten days of field sampling, SI and LAI measurements. Leaf samples were analyzed in the laboratory using the Klason method as per Tappi standards (Tappi, 1996-1997). Wood samples were analyzed for lignin concentrations using a NIRS (Near Infrared Spectroscopy) instrument. The results showed that there is no general model for predicting wood lignin concentrations from foliar lignin concentrations in Eucalyptus clones of ages between 6 and 9 years. Regression analysis performed for individual compartments and on compartments grouped according to age and SI showed that the relationship between wood and foliar lignin concentration is site and age specific. A Hyperion image was georeferenced and atmospherically corrected using ENVI FLAASH 4.2. The equation to calculate lignin indices for this study was: L1R= ~n5il: A'''''y . 1750 AI680 The relationship between the lignin index and laboratory-measured foliar lignin was significant with R2 = 0.79. This relationship was used to calculate imagepredicted foliar lignin concentrations. Firstly, the compartment specific equations were used to calculate predicted wood lignin concentrations from predicted foliar lignin concentrations. The relationship between the laboratorymeasured wood lignin concentrations and predicted wood lignin concentrations was significant with R2 = 0.91. Secondly, the age and site-specific equations were used to convert foliar lignin concentration to wood lignin concentrations. The wood lignin concentrations predicted from these equations were then compared to the laboratory-measured wood lignin concentrations using linear regression and the R2 was 0.79 with a p-value lower than 0.001. Two bands were used to calculate nine vegetation indices; one band from the near infrared (NIR) region and the other from the short wave infrared (SWIR). Correlations between the Vis and the LAI measurements were generated and . then evaluated to determine the most effective VI for estimating LAI of Eucalyptus plantations. All the results obtained were significant but the NU and MNU showed possible problems of saturation. The MNDVI*SR and SAVI*SR produced the most significant relationships with LAI with R2 values of 0.899 and 0.897 respectively. The standard error for both correlations was very low, at 0.080, and the p-value of 0.001. It was concluded that the Eucalyptus wood lignin concentrations can be predicted using hyperspectral remote sensing, hence wood and foliar lignin concentrations can be fairly accurately mapped across compartments. LAI significantly correlated to eight of the nine selected vegetation indices. Seven Vis are more suitable for LAI estimations in the Eucalyptus plantations in Zululand. The NU and MNU can only be used for LAI estimations in arid or semi-arid areas.
Thesis (M.Sc.)-University of KwaZulu-Natal, Pietermaritzburg, 2006.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie