Siga este enlace para ver otros tipos de publicaciones sobre el tema: Image de microscopie.

Tesis sobre el tema "Image de microscopie"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Image de microscopie".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Toledo, Acosta Bertha Mayela. "Multimodal image registration in 2D and 3D correlative microscopy". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S054/document.

Texto completo
Resumen
Cette thèse porte sur la définition d'un schéma de recalage automatique en microscopie corrélative 2D et 3D, en particulier pour des images de microscopie optique et électronique (CLEM). Au cours des dernières années, la CLEM est devenue un outil d'investigation important et puissant dans le domaine de la bio-imagerie. En utilisant la CLEM, des informations complémentaires peuvent être collectées à partir d'un échantillon biologique. La superposition des différentes images microscopiques est généralement réalisée à l'aide de techniques impliquant une assistance manuelle à plusieurs étapes, ce qui est exigeant et prend beaucoup de temps pour les biologistes. Pour faciliter et diffuser le procédé de CLEM, notre travail de thèse est axé sur la création de méthodes de recalage automatique qui soient fiables, faciles à utiliser et qui ne nécessitent pas d'ajustement de paramètres ou de connaissances complexes. Le recalage CLEM doit faire face à de nombreux problèmes dus aux différences entre les images de microscopie électronique et optique et leur mode d'acquisition, tant en termes de résolution du pixel, de taille des images, de contenu, de champ de vision et d'apparence. Nous avons conçu des méthodes basées sur l'intensité des images pour aligner les images CLEM en 2D et 3D. Elles comprennent plusieurs étapes : représentation commune des images LM et EM à l'aide de la transformation LoG, pré-alignement exploitant des mesures de similarité à partir d'histogrammes avec une recherche exhaustive, et un recalage fin basé sur l'information mutuelle. De plus, nous avons défini une méthode de sélection robuste de modèles de mouvement, et un méthode de détection multi-échelle de spots, que nous avons exploitées dans le recalage CLEM 2D. Notre schéma de recalage automatisé pour la CLEM a été testé avec succès sur plusieurs ensembles de données CLEM réelles 2D et 3D. Les résultats ont été validés par des biologistes, offrant une excellente perspective sur l'utilité de nos développements
This thesis is concerned with the definition of an automated registration framework for 2D and 3D correlative microscopy images, in particular for correlative light and electron microscopy (CLEM) images. In recent years, CLEM has become an important and powerful tool in the bioimaging field. By using CLEM, complementary information can be collected from a biological sample. An overlay of the different microscopy images is commonly achieved using techniques involving manual assistance at several steps, which is demanding and time consuming for biologists. To facilitate and disseminate the CLEM process for biologists, the thesis work is focused on creating automatic registration methods that are reliable, easy to use and do not require parameter tuning or complex knowledge. CLEM registration has to deal with many issues due to the differences between electron microscopy and light microscopy images and their acquisition, both in terms of pixel resolution, image size, content, field of view and appearance. We have designed intensity-based methods to align CLEM images in 2D and 3D. They involved a common representation of the LM and EM images using the LoG transform, a pre-alignment step exploiting histogram-based similarities within an exhaustive search, and a fine mutual information-based registration. In addition, we have defined a robust motion model selection method, and a multiscale spot detection method which were exploited in the 2D CLEM registration. Our automated CLEM registration framework was successfully tested on several real 2D and 3D CLEM datasets and the results were validated by biologists, offering an excellent perspective in the usefulness of our methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Denimal, Emmanuel. "Détection de formes compactes en imagerie : développement de méthodes cumulatives basées sur l'étude des gradients : Applications à l'agroalimentaire". Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCK006/document.

Texto completo
Resumen
Les cellules de comptage (Malassez, Thoma …) sont conçues pour permettre le dénombrement de cellules sous microscope et la détermination de leur concentration grâce au volume calibré de la grille apparaissant dans l’image microscopique. Le comptage manuel présente des inconvénients majeurs : subjectivité, non-répétabilité… Il existe des solutions commerciales de comptage automatique dont l’inconvénient est de nécessiter un environnement bien contrôlé qu’il n’est pas possible d’obtenir dans le cadre de certaines études (ex. : le glycérol influe grandement sur la qualité des images). L’objectif du projet est donc double : un comptage des cellules automatisé et suffisamment robuste pour être réalisable, quelles que soient les conditions d’acquisition.Dans un premier temps, une méthode basée sur la transformée de Fourier a été développée pour détecter, caractériser et effacer la grille de la cellule de comptage. Les caractéristiques de la grille extraites par cette méthode servent à déterminer une zone d’intérêt et son effacement permet de faciliter la détection des cellules à compter.Pour réaliser le comptage, la problématique principale est d’obtenir une méthode de détection des cellules suffisamment robuste pour s’adapter aux conditions d’acquisition variables. Les méthodes basées sur les accumulations de gradients ont été améliorées par l’adjonction de structures permettant une détection plus fine des pics d’accumulation. La méthode proposée permet une détection précise des cellules et limite l’apparition de faux positifs.Les résultats obtenus montrent que la combinaison de ces 2 méthodes permet d’obtenir un comptage répétable et représentatif d’un consensus des comptages manuels réalisés par des opérateurs
The counting cells (Malassez, Thoma ...) are designed to allow the enumeration of cells under a microscope and the determination of their concentration thanks to the calibrated volume of the grid appearing in the microscopic image. Manual counting has major disadvantages: subjectivity, non-repeatability ... There are commercial automatic counting solutions, the disadvantage of which is that a well-controlled environment is required which can’t be obtained in certain studies ( eg glycerol greatly affects the quality of the images ). The objective of the project is therefore twofold: an automated cell count and sufficiently robust to be feasible regardless of the acquisition conditions.In a first step, a method based on the Fourier transform has been developed to detect, characterize and erase the grid of the counting cell. The characteristics of the grid extracted by this method serve to determine an area of interest and its erasure makes it easier to detect the cells to count.To perform the count, the main problem is to obtain a cell detection method robust enough to adapt to the variable acquisition conditions. The methods based on gradient accumulations have been improved by the addition of structures allowing a finer detection of accumulation peaks. The proposed method allows accurate detection of cells and limits the appearance of false positives.The results obtained show that the combination of these two methods makes it possible to obtain a repeatable and representative count of a consensus of manual counts made by operators
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Moisan, Frédéric. "Optimisation du contraste image en microscopie optique : application à l'inspection microélectronique". Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00331501.

Texto completo
Resumen
Dans le domaine de l'inspection visuelle automatique de circuits intégrés, le contraste des images est un paramètre important. La méthode d'optimisation proposée utilise l'effet des variations de réflexion optique en fonction de la longueur d'onde pour les structures de couches minces. Elle consiste a déterminer le filtrage en longueur d'onde optimisant un "facteur de qualité" de l'image (taux de la dynamique de la camera) à partir des spectres de réflexion des différentes structures présentés sur la plaquette. L'étude est limitée au cas des circuits intégrés à 2 structures, mais l'extension a un nombre quelconque est possible. Les différents moyens d'obtention des spectres de réflexion sont précisés. Des mesures photométriques démontrent la fiabilité de la méthode proposée. Un appareillage optique original permet l'application dans le cadre d'une machine d'inspection automatique
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Moisan, Frédéric. "Optimisation du contraste image en microscopie optique application à l'inspection microélectronique /". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37616602c.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Moisan, Frédéric Courtois Bernard. "Optimisation du contraste image en microscopie optique application à l'inspection microélectronique /". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00331501.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Jezierska, Anna Maria. "Image restoration in the presence of Poisson-Gaussian noise". Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00906718.

Texto completo
Resumen
This thesis deals with the restoration of images corrupted by blur and noise, with emphasis on confocal microscopy and macroscopy applications. Due to low photon count and high detector noise, the Poisson-Gaussian model is well suited to this context. However, up to now it had not been widely utilized because of theoretical and practical difficulties. In view of this, we formulate the image restoration problem in the presence of Poisson-Gaussian noise in a variational framework, where we express and study the exact data fidelity term. The solution to the problem can also be interpreted as a Maximum A Posteriori (MAP) estimate. Using recent primal-dual convex optimization algorithms, we obtain results that outperform methods relying on a variety of approximations. Turning our attention to the regularization term in the MAP framework, we study both discrete and continuous approximation of the $ell_0$ pseudo-norm. This useful measure, well-known for promoting sparsity, is difficult to optimize due to its non-convexity and its non-smoothness. We propose an efficient graph-cut procedure for optimizing energies with truncated quadratic priors. Moreover, we develop a majorize-minimize memory gradient algorithm to optimize various smooth versions of the $ell_2-ell_0$ norm, with guaranteed convergence properties. In particular, good results are achieved on deconvolution problems. One difficulty with variational formulations is the necessity to tune automatically the model hyperparameters. In this context, we propose to estimate the Poisson-Gaussian noise parameters based on two realistic scenarios: one from time series images, taking into account bleaching effects, and another from a single image. These estimations are grounded on the use of an Expectation-Maximization (EM) approach.Overall, this thesis proposes and evaluates various methodologies for tackling difficult image noise and blur cases, which should be useful in various applicative contexts within and beyond microscopy
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Le, Floch Hervé. "Acquisition des images en microscopie electronique a balayage in situ". Toulouse 3, 1986. http://www.theses.fr/1986TOU30026.

Texto completo
Resumen
Chaine d'acquisition du signal image du mebis. Etude des sources de bruit associees aux detecteurs a semiconducteur et mise au point d'un processus de realisation de diodes de detection a barriere de surface. Conception d'une carte electronique compatible avec un microordinateur. Cette carte permet la numerisation, le stockage sur disquette et la visualisation des images fournies par le mebis
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Henrot, Simon. "Déconvolution et séparation d'images hyperspectrales en microscopie". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0187.

Texto completo
Resumen
L'imagerie hyperspectrale consiste à acquérir une scène spatiale à plusieurs longueurs d'onde, e.g. en microscopie. Cependant, lorsque l'image est observée à une résolution suffisamment fine, elle est dégradée par un flou (convolution) et une procédure de déconvolution doit être utilisée pour restaurer l'image originale. Ce problème inverse, par opposition au problème direct modélisant la dégradation de l'image observée, est étudié dans la première partie . Un autre problème inverse important en imagerie, la séparation de sources, consiste à extraire les spectres des composants purs de l'image (sources) et à estimer les contributions de chaque source à l'image. La deuxième partie propose des contributions algorithmiques en restauration d'images hyperspectrales. Le problème est formulé comme la minimisation d'un critère pénalisé et résolu à l'aide d'une structure de calcul rapide. La méthode est adaptée à la prise en compte de différents a priori sur l'image, tels que sa positivité ou la préservation des contours. Les performances des techniques proposées sont évaluées sur des images de biocapteurs bactériens en microscopie confocale de fluorescence. La troisième partie est axée sur le problème de séparation de sources, abordé dans un cadre géométrique. Nous proposons une nouvelle condition suffisante d'identifiabilité des sources à partir des coefficients de mélange. Une étude innovante couplant le modèle d'observation avec le mélange de sources permet de montrer l'intérêt de la déconvolution comme étape préliminaire de la séparation. Ce couplage est validé sur des données acquises en spectroscopie Raman
Hyperspectral imaging refers to the acquisition of spatial images at many spectral bands, e.g. in microscopy. Processing such data is often challenging due to the blur caused by the observation system, mathematically expressed as a convolution. The operation of deconvolution is thus necessary to restore the original image. Image restoration falls into the class of inverse problems, as opposed to the direct problem which consists in modeling the image degradation process, treated in part 1 of the thesis. Another inverse problem with many applications in hyperspectral imaging consists in extracting the pure materials making up the image, called endmembers, and their fractional contribution to the data or abundances. This problem is termed spectral unmixing and its resolution accounts for the nonnegativity of the endmembers and abundances. Part 2 presents algorithms designed to efficiently solve the hyperspectral image restoration problem, formulated as the minimization of a composite criterion. The methods are based on a common framework allowing to account for several a priori assumptions on the solution, including a nonnegativity constraint and the preservation of edges in the image. The performance of the proposed algorithms are demonstrated on fluorescence confocal images of bacterial biosensors. Part 3 deals with the spectral unmixing problem from a geometrical viewpoint. A sufficient condition on abundance coefficients for the identifiability of endmembers is proposed. We derive and study a joint observation model and mixing model and demonstrate the interest of performing deconvolution as a prior step to spectral unmixing on confocal Raman microscopy data
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Henrot, Simon. "Déconvolution et séparation d'images hyperspectrales en microscopie". Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00931579.

Texto completo
Resumen
L'imagerie hyperspectrale consiste à acquérir une scène spatiale à plusieurs longueurs d'onde, de manière à reconstituer le spectre des pixels. Cette technique est utilisée en microscopie pour extraire des informations spectrales sur les spécimens observés. L'analyse de telles données est bien souvent difficile : lorsque l'image est observée à une résolution suffisamment fine, elle est dégradée par l'instrument (flou ou convolution) et une procédure de déconvolution doit être utilisée pour restaurer l'image originale. On parle ainsi de problème inverse, par opposition au problème direct consistant à modéliser la dégradation de l'image observée, étudié dans la première partie de la thèse. Un autre problème inverse important en imagerie consiste à extraire les signatures spectrales des composants purs de l'image ou sources et à estimer les contributions fractionnaires de chaque source à l'image. Cette procédure est qualifiée de séparation de sources, accomplie sous contrainte de positivité des sources et des mélanges. La deuxième partie propose des contributions algorithmiques en restauration d'images hyperspectrales. Le problème de déconvolution est formulé comme la minimisation d'un critère pénalisé et résolu à l'aide d'une structure de calcul rapide. Cette méthode générique est adaptée à la prise en compte de différents a priori sur la solution, tels que la positivité de l'image ou la préservation des contours. Les performances des techniques proposées sont évaluées sur des images de biocapteurs bactériens en microscopie confocale de fluorescence. La troisième partie de la thèse est axée sur la problématique de séparation de sources, abordé dans un cadre géométrique. Nous proposons une nouvelle condition suffisante d'identifiabilité des sources à partir des coefficients de mélange. Une étude innovante couplant le modèle d'observation instrumental avec le modèle de mélange de sources permet de montrer l'intérêt de la déconvolution comme étape préliminaire de la séparation. Ce couplage est validé sur des données acquises en microscopie confocale Raman.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Sibarita, Jean-Baptiste. "Formation et restauration d'images en microscopie à rayons : application à l'observation d'échantillons biologiques". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00345364.

Texto completo
Resumen
Technique récente, la microscopie à rayons X offre aujourd'hui une résolution spatiale supérieure à celle de la microscopie optique (20 nm contre 200 nm en microscopie optique confocal laser). Elle offre également un meilleur pouvoir de pénétration que la microscopie électronique (jusqu'à 10 μm contre 1 μm en microscopie électronique à moyenne et haute tension). Ainsi, la microscopie à rayons X mous (longueurs d'onde comprises entre 2,4 et 4,3 nanomètres) permet l'analyse à haute résolution en 2 ou 3 dimensions d'échantillons biologiques placés dans des conditions proches de leur milieu naturel (contrairement aux microscopes électroniques classiques qui imposent une préparation des échantillons). Cependant, la réduction de la dose absorbée par l'échantillon nécessite des durées d'expositions aussi courtes que possible. Or, effectuer une acquisition avec peu de photons se fait au détriment du rapport signal sur bruit des images. Un de nos objectifs a été le développement d'outils pour l'amélioration et la restauration de ces images. La première partie de nos travaux a consisté à déterminer la fonction de transfert du microscope à rayons X en transmission et à comparer les résultats obtenus avec le modèle théorique de la formation des images. Dans la seconde partie, nous avons complété les modèles existants liant le nombre de photons et le contraste, en prenant en compte le mode de formation des images dans le microscope. La troisième partie de ces travaux concerne le développement de techniques de traitement numérique des images dans le but d'améliorer et de restaurer des images obtenues par microscopie à rayons X avec de faibles temps d'exposition. Ces processus ont été appliqués à l'étude par microscopie à rayons X de différents types d'échantillons biologiques
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Vuillemot, Rémi. "Molecular dynamics simulation based image analysis methods for structural studies of biological macromolecular complexesolecular complexes". Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS328.pdf.

Texto completo
Resumen
La cryomicroscopie électronique (cryo-ME) permet d’étudier les changements conformationnels de complexes macromoléculaires dans leur état naturel, ces études étant essentielles pour comprendre les mécanismes de fonctionnement de ces complexes et pour permettre le développement de nouveaux médicaments. Prédire les transitions conformationnelles continues des macromolécules en utilisant les principales techniques de traitement d’images en cryo-ME, à savoir l’analyse en particule isolé (API) et la cryotomographie électronique (cryo-TE), est difficile en partie en raison d’un rapport signal sur bruit très bas, et est activement étudié ces dernières années. Pendant ma thèse, j’ai travaillé sur de nouvelles méthodes de traitement d’images, utilisant la simulation de la dynamique moléculaire, permettant d’extraire la variabilité conformationnelle continue des données d’API et de cryo-TE. Mes travaux ont abouti au développement de MDSAPCE et MDTOMO, les deux premières méthodes basées sur la simulation de la dynamique moléculaire, accélérées par une analyse de mode normaux, permettant d’extraire des paysages conformationnels continues des données d’API et de cryo-TE, respectivement. Les méthodes développées ont permis d’analyser le comportement conformationnel de systèmes divers comme le ribosome 80S, l’AAA ATPase p97 (MDSPACE) ou encore la protéine spiculaire de SARS-CoV2 (MDTOMO)
Cryo-Electron Microscopy (cryo-EM) allows conformational studies of macromolecular complexes in their close-to-native state, essential for understanding their working mechanisms and for structure-based drug development. Deciphering continuous conformational transitions of macromolecules, through the main cryo-EM processing techniques, Single Particle Analysis (SPA) and cryo-Electron Tomography (cryo-ET), is challenging partly due to the low signal-to-noise ratio and is currently an active field of research. During my Ph.D. thesis, I investigated new image processing methods based on Molecular Dynamics (MD) simulations that allow extracting continuous conformational variability from SPA and cryo-ET data. My work resulted in the development of MDSPACE and MDTOMO, the two first methods using MD simulations, empowered by Normal Mode Analysis (NMA), to extract the continuous conformational landscape from SPA and cryo-ET datasets, respectively. The developed methods were employed to investigate the conformational behavior of diverse systems such as 80S ribosome and AAA ATPase p97 (MDSPACE) and SARS-CoV2 spike protein in situ (MDTOMO)
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Bertrand, Cédric. "Développement d'une nouvelle méthode d'imagerie cutanée in-vivo par microscopie confocale tandem". Saint-Etienne, 1994. http://www.theses.fr/1994STET4016.

Texto completo
Resumen
Les différents aspects de la microscopie confocale tandem et de son application in vivo à la peau humaine sont présentés ; cette technique est comparée aux autres techniques de microscopie et d'imagerie cutanée (IRM, échographie us). La formation des images et la résolution axiale et latérale sont discutées de façon théorique et pratique. Les différentes structures cutanées observables par microscopie confocale in vivo sont présentées, illustrées et interprétées. Deux cas pathologiques (psoriasis, mélanome malin) ont été étudiés. L'utilisation de cette technique pour mesurer les épaisseurs épidermiques est présentée ; les résultats obtenus in vivo et sur biopsies sont comparés aux mesures par histologie et échographie us. Des exemples de reconstruction tri-dimensionnelle par moyens informatiques sont présentés. En vue d'un traitement automatique des images, deux méthodes de débruitage par transformée de Fourier et traitement logarithmique sont étudiés ; un algorithme de segmentation du stratum corneum et de débruitage par b-splines des surfaces segmentées est proposé ; des mesures automatiques de l'épaisseur du stratum corneum peuvent ainsi être obtenues. Une revue des développements futurs de la technique est proposée en conclusion
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Martinez, Sandrine. "Contribution à la caractérisation des surfaces acquises en microscopie tridimensionnelle". Saint-Etienne, 1998. http://www.theses.fr/1998STET4023.

Texto completo
Resumen
Les systèmes autrefois employés pour explorer les reliefs des matériaux à l'échelle microscopique limitaient leur étude à des profils, faussant ainsi quelquefois les résultats. L'objectif du travail présenté est d'apprécier les reliefs suivant leur véritable nature surfacique. Sont recensées pour cela plusieurs techniques d'acquisition tridimensionnelle dont la microscopie confocale à disque tournant et la microscopie à champ proche. Ces dernières font l'objet de diverses procédures visant à fiabiliser les résultats produits. Une méthode innovante de reconstruction tridimensionnelle est également proposée pour des microstructures incluses dans des matériaux opaques. Des topographies échantillonnées fournies par ces techniques modernes, la rugosité est le premier aspect plus particulièrement étudié dans ce travail de caractérisation. Pour cela, des outils issus du traitement et de l'analyse d'images sont développés : après suppression de leurs écarts macrogéométriques, les surfaces sont filtrées par des opérateurs statistiques sur des voisinages. Le résultat de cette procédure est double : une image dite de rugosité illustrant les variations locales du micro-relief et une quantification du critère choisi. Ce principe est validé à l'aide d'étalons de rugosité. D'autres procédés plus usuels sont également exposés et testés, comme le critère de la surface développée ou la dimension fractale. Leur comparaison démontre l'intérêt de bien connaitre le matériau étudié et le but des mesures effectuées. La seconde caractéristique des surfaces retenue dans cette étude est la courbure tridimensionnelle : les deux particularités de la méthode d'évaluation proposée sont la mise en oeuvre des théorèmes d'Euler et de Meusnier et la possibilité d'intégrer une démarche multi-échelle. Elle est appliquée avec succès sur des images topographiques et sur des objets volumiques. En conclusion, ce travail révèle l'analyse d'images comme une discipline à part entière des sciences des matériaux
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Bergher, Laurent Courtois Bernard. "Analyse de défaillances de circuits VLSI par microscopie électronique à balayage". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00315589.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Marim, Marcio. "Applications du Compressed Sensing à l'imagerie biologique de microscopie". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00710395.

Texto completo
Resumen
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition ef- ficace de signaux compressibles. Dans cette thèse, nous avons étudié des applica- tions pratiques de cette technique d'échantillonnage, où les acquisitions sont réal- isées dans le domaine de Fourier, menant aux deux principales contributions suiv- antes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le pho- toblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléa- toires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méth- odes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisi- tion compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches clas- siques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mou- vement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Karathanou, Argyro. "Image processing for on-line analysis of electron microscope images : automatic Recognition of Reconstituted Membranes". Phd thesis, Université de Haute Alsace - Mulhouse, 2009. http://tel.archives-ouvertes.fr/tel-00559800.

Texto completo
Resumen
The image analysis techniques presented in the présent thesis have been developed as part of a European projeet dedicated to the development of an automatic membrane protein crystallization pipeline. A large number of samples is simultaneously produced and assessed by transmission electron microscope (TEM) screening. Automating this fast step implicates an on-fine analysis of acquired images to assure the microscope control by selecting the regions to be observed at high magnification and identify the components for specimen characterization.The observation of the sample at medium magnification provides the information that is essential to characterize the success of the 2D crystallization. The resulting objects, and especially the artificial membranes, are identifiable at this scale. These latter present only a few characteristic signatures, appearing in an extremely noisy context with gray-level fluctuations. Moreover they are practically transparent to electrons yielding low contrast. This thesis presents an ensemble of image processing techniques to analyze medium magnification images (5-15 nm/pixel). The original contribution of this work lies in: i) a statistical evaluation of contours by measuring the correlation between gray-levels of neighbouring pixels to the contour and a gradient signal for over-segmentation reduction, ii) the recognition of foreground entities of the image and iii) an initial study for their classification. This chain has been already tested on-line on a prototype and is currently evaluated.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Mercier, Michel. "Recherches sur l'image scientifique : génèse du sens et signification en microscopie électronique". Bordeaux 1, 1987. http://www.theses.fr/1987BOR10567.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Bouyrie, Mathieu. "Restauration d'images de noyaux cellulaires en microscopie 3D par l'introduction de connaissance a priori". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA032/document.

Texto completo
Resumen
Cette thèse aborde la problématique de la restauration d’images 3D de noyaux cellulaires fluorescents issues de la microscopie 2-photons à balayage laser d’animaux observés in vivo et in toto au cours de leur développement embryonnaire. La dégradation originale de ces images provient des limitations des systèmes optiques, du bruit intrinsèque des systèmes de détection ansi que de l’absorption et la diffusion de la lumière dans la profondeur des tissus. A la différence des propositions de “débruitage” de l’état de l’art, nous proposons ici une méthode qui prend en compte les particularités des données biologiques. Cette méthode, adaptation à la troisième dimension d’un algorithme utilisé dans l’analyse d’image astronomique, tire parti de connaissances a priori sur les images étudiées. Les hypothèses émises portent à la fois sur la détérioration du signal par un bruit supposé Mixe Poisson Gaussien (MPG) et sur la nature des objets observés. Nous traitons ici le cas de noyaux de cellules embryonnaires que nous supposons quasi sphériques.L’implémentation en 3D doit prendre en compte les dimensions de la grille d’échantillonnage de l’image. En effet ces dimensions ne sont pas identiques dans les trois directions de l’espace et un objet sphérique échantillonné sur cette grille perd cette caractéristique. Pour adapter notre méthode à une telle grille, nous avons ré-interprété le processus de filtrage, au coeur de la théorie originale, comme un processus physique de diffusion
In this this document, we present a method to denoise 3D images acquired by 2-photon microscopy and displaying cell nuclei of animal embryos. The specimens are observed in toto and in vivo during their early development. Image deterioration can be explained by the microscope optical flaws, the acquisition system limitations, and light absorption and diffusion through the tissue depth.The proposed method is a 3D adaptation of a 2D method so far applied to astronomical images and it also differs from state-of the of-the-art methods by the introduction of priors on the biological data. Our hypotheses include assuming that noise statistics are Mixed Poisson Gaussian (MPG) and that cell nuclei are quasi spherical.To implement our method in 3D, we had to take into account the sampling grid dimensions which are different in the x, y or z directions. A spherical object imaged on this grid loses this property. To deal with such a grid, we had to interpret the filtering process, which is a core element of the original theory, as a diffusion process
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Angulo, López Jesús. "Morphologie mathématique et indexation d'image couleur : application à la microscopie en biomédecine". Paris, ENMP, 2003. https://pastel.archives-ouvertes.fr/tel-00007524.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Fernandez, Romain. "Reconstruction tridimensionnelle et suivi de lignées cellulaires à partir d'images de microscopie laser : application à des tissus végétaux". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00845205.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Louys, Mireille. "Traitement d'images de microscopie électronique appliqué à l'étude structurale de macromolécules biologiques". Université Louis Pasteur (Strasbourg) (1971-2008), 1988. http://www.theses.fr/1988STR13153.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Bouchama, Lyes. "Apport des techniques d'apprentissage (profond) à la microscopie holographique pour applications médicales". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS022.

Texto completo
Resumen
Mon travail s'inscrit dans le cadre du partenariat stratégique Télécom SudParis (TSP) et TRIBVN/T-life, dédié au développement de nouvelles approches en microscopie optique, couplées à l'intelligence artificielle, en vue d'identifier, de prédire et de monitorer les pathologies hématologiques et parasitologiques. C'est dans cette perspective que nous avons développé, dans le laboratoire, un prototype de microscope reposant sur un principe d'imagerie non conventionnelle à synthèse d'ouverture, basée sur l'approche FPM (Fourier Ptychographic Microscopy). Cette approche permet de dépasser les limites en résolution de l'optique conventionnelle ou, de façon équivalente, accéder à des champs de vue très larges (de 4 à 25 fois plus importants) à résolution fixée. Elle permet, en sus, de diversifier la nature des données acquises (avec l'enregistrement de la phase en complément des données d'intensité).Toutefois, en raison de certaines contraintes, notamment le temps d'acquisition et de reconstruction des images pour obtenir une qualité optimale, cette technologie rencontre encore des difficultés pour trouver ses applications et être commercialisée par les différents acteurs du domaine de la microscopie. Le travail réalisé dans cette thèse a permis des avancées significatives sur certains des aspects limitants de cette technologie grâce à la mise en œuvre de modèles à base de réseaux de neurones. Nous avons proposé une relocalisation automatique des images bimodales efficace sur de grands champs de vue, grâce à un post-traitement basé sur un U-Net. Nous avons aussi proposé une approche originale, alliant apprentissage statistique et optimisation guidée par la physique pour réduire les temps d'acquisition des images et les temps de reconstruction. Ces modèles ont démontré leur efficacité, par des diagnostics plus précis et discriminants, dans des applications de parasitologie et d'hématologie. Les contributions apportées ont un potentiel d'application qui dépasse le domaine de la FPM, ouvrant des perspectives dans divers autres champs de l'imagerie calculatoire
This research is part of the Télécom SudParis (TSP) and TRIBVN/T-life strategic partnership, dedicated to the development of new approaches in optical microscopy, coupled with artificial intelligence, to identify, predict and monitor hematological and parasitological pathologies.In this regard, we developed a prototype microscope based on a computational imaging principle with a synthetic aperture, based on the FPM (Fourier Ptychographic Microscopy) approach. This approach makes it possible to overcome conventional optics' resolution limits, or equivalently access very large fields of view (from 4 to 25 times larger) at fixed resolution. It also enables us to diversify the nature of the data acquired (with phase recording in addition to intensity data).However, despite its promise, the technology faces challenges in widespread adoption and commercialization within the microscopy field, primarily due to constraints such as the time-intensive process required for image acquisition and reconstruction to achieve optimal quality.The research conducted in this thesis has led to substantial advancements in overcoming certain limitations of this technology, leveraging models based on neural networks.We have proposed an efficient automatic refocusing of bimodal images over large fields of view, thanks to post-processing based on a U-Net. We have also proposed an original approach, combining statistical learning and physics-driven optimization to reduce image acquisition and reconstruction times.These frameworks have validated their efficacy by yielding more precise and discriminating diagnoses in the fields of parasitology and haematology.The potential applications of these contributions go far beyond the field of FPM, opening up perspectives in various other fields of computational imaging
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Bechensteen, Arne. "Optimisation L2-L0 contrainte et application à la microscopie à molécule unique". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4068.

Texto completo
Resumen
L'optimisation parcimonieuse est cruciale dans la société d'aujourd'hui, car elle est utilisée dans de nombreux domaines, tels que le débruitage, la compression, l’apprentissage et la sélection de caractéristiques. Cependant, obtenir une bonne solution parcimonieuse d'un signal est un défi de calcul.Cette thèse se concentre sur l'optimisation d’un terme des moindres carrés en norme L0 sous une contrainte de k-parcimonie sur la solution exprimée avec la pseudo-norme L0 (le problème L2-L0 contraint). Nous étudions également la somme de la fonction de perte des moindres carrés et d'un terme de pénalité L0 (le problème L2-L0 pénalisé). Les deux problèmes sont non convexes, non continus et NP-durs. Nous proposons trois nouvelles approches d'optimisation parcimonieuse. Nous présentons d'abord une relaxation continue du problème contraint et présentons une méthode pour minimiser la relaxation proposée. Deuxièmement, nous reformulons la pseudo-norme L0 comme un problème de minimisation convexe. Ceci est fait en introduisant une variable auxiliaire, et nous présentons une reformulation exacte du problème contraint (CoBic) et pénalisé (PeBic). Enfin, nous présentons une méthode pour minimiser le produit du terme de fidélité des données et du terme de régularisation. Ce dernier est un travail de recherche en cours. Nous appliquons les trois premières méthodes proposées (relaxation, CoBic et PeBic) à la microscopie par molécule unique. Les résultats des algorithmes proposés sont à l'état de l'art des méthodes basées sur la grille. De plus, fixer la constante de contrainte de parcimonie est généralement plus intuitif que fixer le paramètre de pénalité, ce qui rend l’approche contrainte attractive pour les applications
Sparse optimization is crucial in today's society, as this is used in multiple domains, such as denoising, compression, machine learning, and variable selection. Sparse optimization is also vital in single-molecule localization microscopy, a microscopy method widely used in biology. However, obtaining a good sparse solution of a signal is computationally challenging. This thesis focuses on sparse optimization in the form of minimizing the least square loss function under a k-sparse constraint with an L0 pseudo-norm (the constrained L2-L0 problem). We also study the sum of the least square loss function and an L0 penalty term (the penalized L2-L0 problem). Both problems are non-convex, non-continuous, and NP-hard. We propose three new approaches to sparse optimization. We present first a continuous relaxation of the constrained problem and present a method to minimize the proposed relaxation. Secondly, we reformulate the L0 pseudo-norm as a convex minimization problem. This is done by introducing an auxiliary variable, and we present an exact biconvex reformulation of the constrained (CoBic) and penalized (PeBic) problems. Finally, we present a method to minimize the product of the data fidelity term and the regularization term. The latter is still an ongoing research work. We apply the three proposed methods (relaxation, CoBic, and PeBic) to single-molecule localization microscopy and compare them with other commonly used algorithms in sparse optimization. The proposed algorithms' results are as good as the state-of-the-art in grid-based methods. Furthermore, fixing the sparsity constraint constant is usually more intuitive than fixing the penalty parameter, making the constraint approach attractive for applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Marim, Marcio. "L'Imagerie Compressé Appliqué a la Microscopie Biologique". Phd thesis, Telecom ParisTech, 2011. http://tel.archives-ouvertes.fr/tel-00586625.

Texto completo
Resumen
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition efficace de signaux compressibles. Dans cette thèse, nous avons étudié des applications pratiques de cette technique d'échantillonnage, où les acquisitions sont réalisées dans le domaine de Fourier, menant aux deux principales contributions suivantes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le photoblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléatoires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méthodes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisition compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches classiques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mouvement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ponzio, Serge. "Etude d'un système de numérisation d'image haute définition : application au traitement d'images obtenues par microscopie électronique". Saint-Etienne, 1987. http://www.theses.fr/1987STET4013.

Texto completo
Resumen
Le système développé utilise des barrettes de photodiodes de 2048 ou 4096 éléments se déplaçant devant le document à numériser. Les cartes nécessaires ont été développées dans le cadre du système Multibus II de la société Intel : une carte d'acquisition d'image, une carte de mémorisation d'image, une carte gestion de déplacement, une carte de visualisation d'image. Des exemples de traitement d'images obtenues en microscopie électronique sont donnés
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Shayan, Azad Seyed Ramtin. "Analyse structurale de la biogenèse de la petite sous-unité ribosomique eucaryote par cryo-microscopie électronique et analyse d'images". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30128.

Texto completo
Resumen
L'assemblage des deux sous-unités ribosomiques (appelées 40S et 60S chez les eucaryotes) est un processus complexe, qui nécessite l'intervention de plus de 200 co-facteurs de maturation (CFM). Pour former des sous-unités ribosomiques matures et fonctionnelles, les CFM sont nécessaires à la maturation des ARN ribosomiques (ARNr), mais également à leur repliement correct et à leur assemblage avec les protéines ribosomiques (Rps). Malgré une identification quasi-exhaustive de ces CFM chez la levure et l'humain, leur fonction moléculaire précise reste à élucider. Par ailleurs, des défauts dans la synthèse des ribosomes ont récemment été associés à une liste croissante de maladies génétiques humaines (appelées ribosomopathies) et de cancers, ce qui nécessite une compréhension précise de chaque étape des mécanismes de biogenèse des ribosomes. De nombreuses études moléculaires et fonctionnelles ont récemment permis de définir plusieurs étapes successives de maturation cytoplasmique des particules pré-40S eucaryotes. Il est maintenant crucial d'intégrer ces descriptions moléculaires très détaillées des événements de maturation des ribosomes dans une vision tridimensionnelle de l'assemblage des ribosomes, et de comprendre le remodelage structural que les particules pré-ribosomiques peuvent subir au cours de leur maturation. Dans ce but j'ai déterminé, par cryo-microscopie électronique en transmission et analyse d'images, la structure 3D de précurseurs de la petite sous-unité ribosomique, purifiés à différentes étapes de maturation, chez l'Homme et la levure. Dans un premier temps, j'ai utilisé le CFM Tsr1 comme appât de purification dans des levures de phénotype sauvage, et déterminé la structure haute résolution de ces particules pré-40S cytoplasmiques. Ceci m'a permis de mettre en évidence trois étapes de maturations successives, commençant par l'autophosphorylation et le relargage du CFM Ltv1 et aboutissant à la flexibilité de la plateforme de la particule pré-40S. Ensuite, en collaboration avec le Dr Brigitte Pertschy (Graz, Autriche) j'ai déterminé la structure de particules pré-40S cytoplasmiques de levure, portant une mutation sur la protéine Rps20.Ceci a permis de mieux caractériser le rôle de Rps20 dans le relargage des CFM Rio2 et Ltv1 lors de l'assemblage de la sous-unité 40S. Enfin, j'ai déterminé la structure 3D des particules pré-40S humaines purifiées à un stade cytoplasmique tardif, à une résolution de 3 Å. Ce travail a été mené en collaboration avec l'équipe du Pr. Ulrike Kutay (ETH Zurich). Cette analyse nous a permis de localiser pour la première fois le CFM RIO1 sur les particules pré-40S cytoplasmiques tardives. En outre, nos résultats nous ont permis de mettre en lumière l'existence de remodelages structuraux inédits dans les dernières étapes de la maturation de la petite sous-unité ribosomique humaine
Ribosome assembly is a complex process that requires the intervention of more than 200 assembly factors (AFs). These proteins are essential for the processing and modification of ribosomal RNAs, as well as the structural assembly of ribosomal subunits. This mechanism, highly studied in yeast, generally conserved in eukaryotes, but has become more complex with evolution in higher eukaryotes. In addition, defects in ribosome synthesis have recently been associated with a list of human genetic diseases (called ribosomopathies) and cancers, via ribosome biogenesis disease. Numerous molecular and functional studies then made it possible to define several successive stages of cytoplasmic maturation of pre-40S particles in human and yeast. It is now crucial to incorporate these highly detailed molecular descriptions of ribosome maturation events into a three-dimensional view of ribosome assembly and to understand the structural remodeling of pre-ribosomal maturation particles. Using tandem purification methods, coupled with cryo-electron microscopy and isolated particle analysis, I have determined several high-resolution 3D structures of cytoplasmic pre-40S particles, in yeast and human, at different maturation steps. First, i determined the 3D structure of the pre-40S particles, purified using AF Tsr1-FPZ as a bait at 3.1 Å resolution. Structural heterogeneity tests indicated that the beak and platform domains are dynamic zones, and sheds new light on the structural remodeling events occurring during 40S subunit assembly. Moreover, in collaboration with the team of Dr. Brigitte Pertschy, we have determined the 3D structure of yeast cytoplasmic pre-40S particles carrying point mutations on Rps20. Our atomic models have allowed to highlight a close relationship between the correct assembly of Rps20 and the release of AFs Ltv1 and Rio2 from the maturing small ribosomal subunit. Finally, I also determined the 3D structures of human pre-40S particles trapped at a very late cytoplasmic maturation step, with a resolution of ~3 Å. This work was performed in collaboration with Prof. Ulrike Kutay's team (ETH Zurich). These data allowed us to uncover new steps in the cytoplasmic maturation of human pre-40S particles. This structural study allows us to propose new molecular mechanisms underlying the final steps of eukaryotic ribosomal assembly
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Boussemaere, Luc. "Investigating off-axis digital holographic microscopy with a source of partial spatial coherence as a real-time sensor for cell cultures". Doctoral thesis, Universite Libre de Bruxelles, 2015. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209086.

Texto completo
Resumen
Bio-pharmaceutical industry is a vast growing market and recent recommendations of the Food and Drug Administration have put a large emphasis on the characterization of biological processes and models. As a consequence, there is a high incentive on developing modern sensors in order to more accurately monitor and control processes. In that way, Digital Holographic Microscopy (DHM) presents unique features thanks to the refocusing and quantitative phase contrast imaging capabilities. In this thesis we investigate the usage of DHM to monitor yeast cultures that are often used in both the bio-pharmaceutical and bread industries and lay the basis of a methodological framework for the study of in-line cell cultures in the context of process control. We begin with a description of Digital Holography and the microscopy setup used in the thesis as well as a detailed explanation of the image processing required to extract the holographic data and its implementation on GPU with some speed execution figures given for three popular programming paradigms. We then describe the flow setup used and infer the limitations on the dynamic range of the technique due to both Poisson statistics and overlapping phenomena. Finally, we describe an algorithm that extracts the cells position, count and morphological information such as the size, aspect ratio, circularity and refraction index. Some experimental results are presented for yeasts before drawing a general overview of the technology and its dependencies. We further end with some conclusions concerning the technology and a brief comparison with existing competitors.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Bigler, Emmanuel. "Detecteurs d'images x grand champ : applications a la microscopie x de contact et a la microanalyse d'absorption avec le rayonnement synchrotron". Phd thesis, Université Paris Sud - Paris XI, 1986. http://pastel.archives-ouvertes.fr/pastel-00713898.

Texto completo
Resumen
Detection d'images x a l'aide de plaques photographiques haute resolution. Detecteur d'images x par scintillation guidee destine a remplacer la detection photographique en vue de l'imagerie x quantitative a haut flux au dela de 5 kev. Il s'agit d'une matrice de fibres optiques conductrices d'images dont les coeurs sont remplaces par un liquide scintillateur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Souchay, Henri. "Microscopie électronique à transmission en haute résolution numérique et quantitative : développement d'un outil interactif d'acquisition, simulation et analyse d'images". Châtenay-Malabry, Ecole centrale de Paris, 1999. http://www.theses.fr/1999ECAP0625.

Texto completo
Resumen
Dans le contexte actuel de la microscopie à transmission quantitative a haute résolution, ce travail se propose de faire le lien entre les manipulations expérimentales et les analyses quantitatives auxquelles elles peuvent donner lieu. Pour y parvenir, trois éléments sont nécessaires : une théorie de la formation de l'image qui puisse donner lieu à des calculs numériques assez rapides ; un détecteur d'images électroniques performant ; et un outil logiciel permettant l'acquisition et le traitement des images, leur comparaison avec des simulations et les outils de base pour des reconstructions. Les principaux aspects de la formation d'image en haute résolution sont repris dans le premier chapitre, avec des rappels importants, et un calcul de l'image développe jusqu'aux effets non linéaires et la cohérence partielle pour des défauts cristallins. Dans le second chapitre, après un état de l'art des capteurs d'images électroniques, la propagation est décrite en détail, notamment les effets de l'étalement du signal sur sa variance. Le résultat montre que le bruit crée par la double scintillation était jusque-là sous-estime. Le développement d'une caméra, associe à ce travail, permet de présenter les méthodes de caractérisation de ce type de capteur, en insistant sur la distinction entre le transfert du bruit et du signal. Enfin, le dernier chapitre présente un cahier des charges pour le logiciel et explicite certains des algorithmes utilises, avant de proposer quelques applications : corrections du transfert dans la camera, alignement d'images, et application de la méthode des phases géométriques
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Ben, Romdhane Ferdaous. "Synthèse et caractérisation de nouvelles phases bidimensionnelles par microscopie électronique in-situ". Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAE001/document.

Texto completo
Resumen
Cette thèse porte sur la synthèse et la caractérisation de nouvelles phases bidimensionnelles par microscopie électronique in-situ, notamment la silice (SiO2), des cages nanométriques de carbone similaire à des molécules C20 et le chalcocite (β-Cu2S). Ces études ont permis de mettre en évidence les conditions préalables de croissance afin que celle-ci soit reproductible. La caractérisation de ces structures a été réalisée par imagerie haute résolution (HRTEM) ainsi que par spectroscopie de perte d’énergie (EELS). La première partie de la thèse est consacrée à l’étude de la nucléation et la croissance in-situ d’une phase cristalline 2D ordonnée et désordonnée sur différents métaux de transition (Co, Ru, Fe) ainsi qu’une phase 1D qui croît le long des marches atomiques sur la surface métallique. La seconde partie est consacrée à la croissance in-situ de cages de carbone d’un diamètre de l’ordre de 0.36 nm en présence d’un catalyseur métallique, tel que Co, Fe et Ru. La dernière partie est consacrée à l’étude de la croissance de la plus fine structure cristalline du β-Cu2S sur la surface du graphène. Toutes ces études ont été appuyées par des simulations d’images de microscopie
The aim of this thesis is the synthesis and characterization of new two-dimensional phases in an in-situ transmission electron microscopy experiment. These studies concerned the nucleation and growth of three deferent materials: quasi-two-dimensional silica (SiO2), the smallest possible carbon cages with the size of C20, and two-dimensional chalcocite (β-Cu2S). The characterization of these structures has been performed using high resolution imaging (HRTEM) and electron energy-loss spectroscopy (EELS). The first part of this thesis is devoted to the study of the nucleation and growth of an ordered or disordered 2D crystalline phase of silica on different substrates (Co, Ru, Fe) and a 1D silica phase grown at atomic steps of a metal surface. The second part illustrates the in-situ growth of the smallest possible carbon cages with a diameter of about 0.36 nm on catalytically active metal surfaces such as Co, Fe, or Ru. The last part is devoted to the growth of the thinnest stable layer of β-Cu2S on a graphene surface. All these studies were accompanied by image simulations
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Cottet‐Rousselle, Cécile. "Mesure par microscopie confocale du métabolisme mitochondrial et du niveau énergétique cellulaire au cours d’épisodes de carences en substrats et/ou en oxygène". Thesis, Paris, EPHE, 2016. http://www.theses.fr/2016EPHE3096/document.

Texto completo
Resumen
La mitochondrie est un carrefour d’informations au centre du fonctionnement cellulaire puisque son rôle physiologique consiste à récupérer l’énergie fournie par la dégradation des produits issus de notre alimentation pour produire de l’ATP, par le processus d’oxydation phosphorylante. Cependant, des altérations du fonctionnement de la mitochondrie peuvent être responsables de nombreuses pathologies. Parmi les stress métaboliques pouvant entraîner un dysfonctionnement mitochondrial, l’ischémie-reperfusion est un phénomène présent également dans de nombreuses situations pathologiques. L’objectif de ce travail consiste à développer une approche méthodologique basée sur la microscopie confocale et l’analyse d’images afin de décortiquer les conséquences cellulaires des stress métaboliques induits lors d’épisodes de privation de substrats associée ou non à une privation partielle ou totale d’oxygène. Après avoir mis au point le programme d’analyse d’images basée sur la méthode du « tophat », deux approches ont été développées pour visualiser et quantifier la fonction mitochondriale. La première, qui combine le marquage du TMRM et l’autofluorescence du NADH, a permis de mettre en évidence des différences de réponses au stress d’ischémie-reperfusion au niveau de la chaîne respiratoire ou de l’ouverture du PTP pour les quatre types cellulaires testés : HMEC-1, INS1, RT112 ou hépatocytes primaires. La seconde approche a consisté à tester l’utilisation de biosenseurs permettant de suivre les variations de concentration d’ATP (Ateam) ou d’activation de l’AMPK (AMPKAR). Les conditions expérimentales réalisées dans ce travail n’ont pas permis de valider leur utilisation
Mitochondria form an information hub at the center of the cellular metabolism because of its physiological role consisting in the porduction of ATP from the degradation of porducts stemming from our food through the OXPHOS process. However, changes in the functionnig of the mitochondria can be responsible for numerous diseases. Among the different foms of metabolic stress leading to mitchondrial dysfunctions, ischemia-reperfusion can be found in numerous pathological situations. This work aims at developing a methodological approach based on confocal microscopy and image analysis to dissect –at cell level- the consequences of metabolic stress induced by episodes of deprivation in substrata associated or not with hypoxia or anoxia. Having developed the program of image analysis based on the « tophat » method, two approaches were designed to vizualize and quantify the mitochondrial function. The first one, combining TMRM labelling with NADH fluorescence made it possible to highlight some differences in the response to the stress caused by ischemia-reperfusion at the level of the respiratory chain or concerning the PTP opening in the four cellular types that were tested : HMEC-1, INS1, RT112 or pirmary heaptocyes. The second approach consisted in testing the use of biosensors designed to follow the variations of ATP concentration (ATeam) or the activation of AMPK (AMPKAR). The experimental conditions established in this work did not allow us to validate their use
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Roudot, Philippe. "Image processing methods for dynamical intracellular processes analysis in quantitative fluorescence microscopy". Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S025/document.

Texto completo
Resumen
Nous présentons dans la première partie du document une étude portant sur l'imagerie de temps de vie de fluorescence sur structures dynamiques dans le domaine de fréquence (FD FLIM). Une mesure en FD FLIM est définie par une série d'images présentant une variation d'intensité sinusoïdale. La variation d'un temps de vie se traduit par une variation dans la phase de la sinusoïde décrite par l'intensité. Notre étude comporte deux contributions principales: une modélisation du processus de formation de l'image et du bruit inhérent au système d'acquisition (capteur ICCD) ; une méthode robuste d'estimation du temps vie sur des structures mobiles et des vésicules intracellulaires. Nous présentons ensuite une étude en microscopie de fluorescence portant sur la quantification du transport hétérogène dans un environnement intracellulaire dense. Les transitions entre la diffusion Brownienne dans le cytoplasme et les transports actifs supportés par le cytosquelette sont en effet des scénarios très couramment observés dans des cellules vivantes. Nous montrons que les algorithmes classiques de suivi d'objets nécessaires dans ce contexte, ne sont pas conçus pour détecter les transitions entre ces deux types de mouvement. Nous proposons donc un nouvel algorithme, inspiré de l'algorithme u-track [Jaqaman et al., 2008], qui s'appuie sur plusieurs filtrages de Kalman adaptés à différents types de transport (Brownien, Dirigé ...), indépendamment pour chaque objet suivi. Nous illustrons sur séquences simulées et expérimentales (vimentine, virus) l'aptitude de notre algorithme à détecter des mouvements dirigés rares
We propose in this manuscript a study of the instrumentation required for the quantification in frequency domain fluorescence lifetime imaging microscopy (FD FLIM). A FD FLIM measurement is defined as a series of images with sinusoidal intensity variations. The fluorescence lifetime is defined as the nanosecond-scale delay between excitation and emission of fluorescence. We propose two main contributions in the area: a modeling of the image process and noise introduced by the acquisition system (ICCD sensor); a robust statistical method for lifetime estimation on moving structures and intracellular vesicles. The second part presents a contribution to the tracking of multiple particles presenting heterogeneous transports in dense conditions. We focus here on the switching between confined diffusion in the cytosol and motor-mediated active transport in random directions. We show that current multiple model filtering and gating strategies fail at estimating unpredictable transitions between Brownian and directed displacements. We propose a new algorithm, based on the u-track algorithm [Jaqaman et al., 2008], based on a set of Kalman filters adapted to several motion types, for each tracked object. The algorithm has been evaluated on simulated and real data (vimentin, virus) data. We show that our method outperforms competing methods in the targeted scenario, but also on more homogeneous types of dynamics challenged by density
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Pankajakshan, Praveen. "Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage Laser". Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00474264.

Texto completo
Resumen
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Vercauteren, Tom. "Recalage et Mosaïques d'Images pour la Microscopie Confocale Fibrée Dynamique In Vivo". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00635297.

Texto completo
Resumen
La microscopie confocale classique permet d'obtenir des images à haute réso- lution de cellules en culture ou dans un tissu biologique excisé. Cette technologie peut être adaptée aux applications in vivo grâce à l'utilisation de fibres optiques et d'optiques miniaturisées. A terme, la microscopie confocale fibrée devrait permettre aux médecins et biologistes de réaliser des biopsies optiques; c'est à dire un exa- men histologique, en temps réel, des tissus biologiques à l'intérieur d'un organisme vivant et directement au contact de la zone d'intérêt. Le but premier de cette thèse est de dépasser les limites matérielles de ces in- struments d'imagerie en développant des outils de recalage d'images spécifiques et innovants. En particulier, le propos de ce manuscrit est cadré par l'objectif de pro- poser, au travers d'outils de création de mosaïques d'images, des biopsies optiques à grand champ aux médecins. Cette application est considérée, dans cette thèse, comme un système, ou un circuit, qui prendrait en entrée un flot de données brutes et délivrerait en sortie des mosaïques d'images à grand champ. Nous détaillons les éléments critiques de ce système, en particulier la reconstruction d'images en temps réel, le recalage linéaire d'images et le recalage non linéaire, avant de présenter la structure du système complet. Les données brutes produites par la microscopie confocale fibrée sont difficiles à interpréter parce qu'elle sont modulées par la structure en nid d'abeille du réseau de fibres optiques et parce qu'elle sont entachées d'artefacts géométriques. Dans ce contexte, nous montrons qu'une reconstruction en temps réel des images peut être utilisée en pré-traitement afin de produire des séquences vidéos directement interprétables. Comme la microscopie confocale fibrée est une imagerie qui se fait au contact des tissus, le mouvement relatif du tissu par rapport à la sonde optique implique qu'il est parfois difficile d'obtenir de manière robuste certaines mesures quantitatives d'intérêt. Nous avons donc attaqué le problème du recalage linéaire, efficace et robuste de paires d'images. Nous montrons que des outils ré- cents provenant du domaine du contrôle robotique par la vision peuvent surpasser les solutions standards utilisées en analyse d'images biomédicales. L'adéquation de ces outils au problème du recalage linéaire d'images nous a amenés à revisiter le problème du recalage non-linéaire. En interprétant le recalage non-linéaire comme un problème d'optimisation sur un groupe de Lie, nous développons un algorithme rapide de recalage difféomorphe non-paramétrique d'images. En plus d'être dif- féomorphe, notre algorithme produit des résultats qui sont similaires à ceux de l'algorithme des démons de Thirion mais qui sont plus lisses et plus proche de la vérité. Finalement, nous obtenons une boîte à outils de reconstruction et de recalage d'images que nous utilisons pour proposer un algorithme robuste de création de mosaïques d'images qui permette de calculer un alignement globalement cohérent à partir de résultats locaux, de compenser les distorsions liées au mouvement et de retrouver les déformations non-rigides. Par ailleurs, notre algorithme de mosaïques d'images a récemment été incorporé dans un essai clinique multicentrique. Cet essai illustre l'intérêt clinique de nos outils dans le cadre spécifique de la surveillance de l'oesophage de Barrett.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Marak, Laszlo. "On continuous maximum flow image segmentation algorithm". Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00786914.

Texto completo
Resumen
In recent years, with the advance of computing equipment and image acquisition techniques, the sizes, dimensions and content of acquired images have increased considerably. Unfortunately as time passes there is a steadily increasing gap between the classical and parallel programming paradigms and their actual performance on modern computer hardware. In this thesis we consider in depth one particular algorithm, the continuous maximum flow computation. We review in detail why this algorithm is useful and interesting, and we propose efficient and portable implementations on various architectures. We also examine how it performs in the terms of segmentation quality on some recent problems of materials science and nano-scale biology
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Claveau, Rémy. "Caractérisation spectrale locale à l'aide de la microscopie interférométrique : simulations et mesures". Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD037/document.

Texto completo
Resumen
La microscopie interférométrique est une méthode de mesure qui repose sur l’acquisition et le traitement du signal issu de l’interaction de deux ondes, dites ondes « objet » et de « référence ». Ces ondes proviennent des réflexions de la lumière sur un miroir de référence et sur l’échantillon étudié. Bien qu’étant généralement utilisées pour les analyses topographiques ou tomographiques d’un échantillon, les données interférométriques peuvent être exploitées pour réaliser des caractérisations spectrales locales résolues dans les trois directions de l’espace. Dans ce projet, nous avons étudié les performances de cette technique ainsi que ses limitations lorsque l’échantillon se complexifie (dégradation du signal d’interférences). L’analyse a été appliquée à des matériaux réfléchissants pour des mesures en surface puis à des couches transparentes et diffusantes pour aller sonder le milieu en profondeur et extraire la réponse spectrale individuelle de structures localisées dans ce milieu
White light interference microscopy is a measurement method based on the acquisition and processing of the signal coming from the interaction between two wave fronts, known as the “object” and “reference” wave-fronts. These waves come from the reflection of the light on a reference mirror and the sample studied. Usually used for topographic or tomographic analysis of a sample, the interferometric data can be exploited for spectroscopic purposes. The resulting spectral characterizations are spatially resolved in the three directions of space. In this project, we have studied the performance of this technique, as well as the associated limitations when the sample becomes more complex (degradation of the interferometric signal). The analysis has been first applied to reflective materials for surface measurements and subsequently to transparent and scattering layers for probing within the depth of the medium and then extracting the individual spectral response of the buried structures
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Basset, Antoine. "Détection et caractérisation par des approches statistiques locales d'évènements dynamiques dans des séquences d'images : application à la fusion membranaire en microscopie TIRF". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S096/document.

Texto completo
Resumen
Notre travail de thèse porte sur la détection et la modélisation de configurations dynamiques dans des séquences d'images. Nous développons des approches statistiques locales sans apprentissage supervisé. Notre application principale est la microscopie de fluorescence, un outil fondamental de la biologie cellulaire moderne. Deux cas peuvent se présenter : 1. les objets étudiés n'interagissent pas, et les dynamiques individuelles peuvent être analysées indépendamment ; 2. les objets étudiés interagissent, et la dynamique à analyser est celle du groupe entier d'objets. En ce qui concerne les dynamiques individuelles, nous nous intéressons à des séquences d’images biologiques dans lesquelles des protéines évoluent au sein de la cellule. Plus précisément, nous étudions la fusion de vésicules à la frontière de la cellule, appelée membrane plasmique. Les vésicules sont des intermédiaires de transport qui véhiculent des molécules dans la cellule. À la fin du processus d’exocytose, la fusion des vésicules avec la membrane s’accompagne d’une diffusion desdites protéines. Les images sont acquises en microscopie de fluorescence par réflexion totale interne (TIRF). Afin de repérer les évènements de fusion, nous proposons une nouvelle méthode de détection de spots. Puis, nous modélisons les dynamiques des protéines et estimons les paramètres biophysiques associés dans les séquences TIRF. La dynamique de groupe, quant à elle, est notamment rencontrée dans les mouvements de tissus cellulaires, le développement embryonnaire ou dans d’autres domaines, comme les mouvements de foules dans des vidéos. Nous proposons une nouvelle méthode d’estimation du mouvement de groupe permettant de caractériser le mouvement à la fois de façon quantitative et qualitative. Elle est utilisée pour classifier le mouvement de groupe, retrouver les chemins principaux dans la scène et détecter des anomalies locales. Dans l'un ou l'autre cas d'étude, nous abordons les problématiques selon une démarche commune, essentiellement dirigée par les données et mettant en œuvre des tests statistiques. Par ailleurs, nous avons le souci de proposer des méthodes nécessitant le réglage d'un faible nombre de paramètres qui sont, de plus, peu sensibles ou calibrés avec des règles statistiques. Enfin, nous adoptons des approches locales, qui ont l’avantage d’être rapides, flexibles et peu sensibles aux variations de contexte, qu’elles soient spatiales (arrière-plan variable) ou temporelles (changement d’illumination globale comme le photoblanchiment en microscopie de fluorescence)
In this thesis, we investigate statistical methods to detect, estimate and characterize dynamical events in image sequences. Our main focus is on fluorescence microscopy images, which represent a fundamental tool for cell biology. There are two cases : 1. Studied objects do not interact, and individual dynamics can be independently analyzed ; 2. Studied objects interact, and group dynamics must be analyzed as a whole. In the case of individual dynamics, our primary focus is on biological image sequences showing proteins evolving in a cell, and more precisely at the cell frontier named plasma membrane. Proteins transported in the cell by vesicles, are observed in total internal reflection fluorescence microscopy (TIRFM), an observation technique well adapted to plasma membrane dynamics analysis. At the end of the exocytosis process, vesicles fuse to the plasma membrane and release proteins, which then diffuse. We first propose a new spot detection method aimed at localizing fusion events. Then, we model the protein dynamics and estimate the biophysical parameters in TIRFM image sequences for further biological analysis. We also address the processing of image sequences at lower magnifications, that is, depicting groups of cells, instead of an isolated cell. We propose a method to jointly estimate quantitative and qualitative motion measurements. It is used to classify the group motion, recover principal paths followed in the scene, and detect localized anomalies. Since they are free of appearance model, the developed methods are quite general and also applied to other applications including crowd motion analysis in videos. Whether it is for spot detection, protein dynamics estimation or group motion analysis, a common approach is ubiquitous, however. First, statistical arguments are used to automatically infer the method parameters. Secondly, we rely on local approaches, which have the advantage of being computationally efficient. Local modeling handles spatially varying image statistics much more easily and more accurately than global modeling. Local approaches also allow neglecting contextual variations such as spatially varying background contrast or, in fluorescence microscopy, temporal fading known as photobleaching
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Pascal, Hubert y Jean-Michel Martin. "Modification des surfaces par frottement : apport des techniques de microscopie à force atomique et à balayage électronique". Ecully, Ecole centrale de Lyon, 1994. http://www.theses.fr/1994ECDL0042.

Texto completo
Resumen
Les microscopes à force atomique (AFM) et à force latérale (LFM) permettent de réaliser respectivement, dans l'espace réel, des images topographiques et des images en force latérale de matériaux très variés, avec une résolution exceptionnelle pouvant aller jusqu'à la dimension atomique. Cette étude a deux objectifs. Le premier est de situer l'AFM par rapport aux autres moyens d'observation des surfaces. Le second est d'utiliser un LFM ambiant en tant que microtribomètre afin d'investir les phénomènes de frottement et d'usure à l'échelle du nanomètre. Dans un premier temps, à partir de traces d'usure macroscopiques faites par un test tribologique classique sur une céramique (du carbure de silicium SIC polycristallin) et un dépôt pulvérisé (du bisulfure de molybdène MoS2), nous montrons que l'AFM confirme et complète les observations réalisées en microscopie optique et à balayage électronique. Le contraste restitué par une technique permet de pallier les artefacts technologiques et les incertitudes de l'autre. Pour comprendre l'origine du très faible coefficient de frottement (0,001) des couches de MoS2, les investigations se sont poursuivies à l'échelle atomique. Elles confirment certaines hypothèses échafaudées à partir d'observations de films minces (TEM, HRTEM. . . ) concernant l'implication de la structure cristalline dans le supra-frottement du MoS2. Dans un deuxième temps, la littérature ayant révélée que l'information est tributaire de l'appareil (pointe, levier) et de la physique du contact, nous modélisons le LFM pour comprendre et diminuer l'influence de l'appareil sur la mesure, de manière à pouvoir nous focaliser sur la denaturation physique. L'étude du contact révèle l'implication de la morphologie dans la force latérale, qui se décompose en une composante interfaciale induite par le frottement et une locale liée a la topographie. Cette distinction est a l'origine des deux procédures de calibration en force latérale proposées. Ensuite, nous nous sommes intéressés à l'influence de la composante en frottement sur la résolution d'image. Pour cela, nous avons modifié la physicochimie d'une surface de silice pure et d'un dépôt métallique de cobalt en travaillant en milieu liquide (eau, huile, alcool). Une conséquence du frottement est une usure faible à l'échelle du nanomètre. Pour appréhender les processus d'usure à cette échelle, nous adaptons une méthode de triboscopie au LFM
The atomic force (AFM) and lateral force microscope (LFM) allow respectively to achieve, in the real space, topographic images and lateral images of various materials. The resolution is uncommon and reach the atomic scale. This study has two main purposes. The first is to locale the AFM in comparison with others techniques of surfaces observation. The second is to use at room temperature a LFM as a micro-tribometer with in order to investigate the friction and wear phenomenas at nano-scale. First, from wear macroscopic tracks made by classic tribologic test on a ceramic (the polycristalline silicon carbide) and on a sputtered film (the molybdenum disulphide), we show that AFM confirms and completes the observations achieved by optical or electronic beam microscopy. The restored contrast by a technique allow to alleviate the artefacts and the doubt of each others. To understand the origin of the very weak coefficient of friction (0. 001) of MoS2 deposits, the investigations has been continued at atomic scale. They confirm certain hypothesis built up from thin films observations (TEM, HRTEM. . . ) concerning the role of the crystalline structure in superlubricity of MoS2. Second, the literature having revealed that the information is dependent on the apparatus (tip, lever,. . . ) and the physics of contact, we model the LFM mechanical structure to understand and to reduce the apparatus influence on the measurements, in order to focus them on the physics distortion. The contact study exhibits role of the surface morphology in lateral force measurements. This force is made of one interfacial component induced by friction and a local one linked to topography. This distinction is the starting point of two suggested calibration procedure in lateral force. After, we are interested in the friction component influence on the image resolution. For that, we modify the surface physicochemistry of pure silica and cobalt metallic deposit by working in liquid environment (water, oil, alcohol. . . ). A friction consequence is a very weak wear at nano-scale. To investigate the wear process at this scale, we adapt to LFM a triboscopic method
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Tseng, Qingzong. "Etude d'architecture multicellulaire avec le microenvironnement contrôlé". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00622264.

Texto completo
Resumen
Ce manuscrit de thèse est composé de trois parties dédiées aux développements technologiques nécessaires à l'étude de la polarité et des contraintes mécaniques dans les cellules épithéliales. La première partie décrit les développements technologiques et méthodologiques qui ont été réalisés en micro-fabrication et traitement de surface, acquisition et analyse d'image, et mesure des forces de traction. La deuxième partie décrit l'étude de l'organisation spatiale du système d'adhérence des cellules épithéliales. De la régulation de leur polarité à celle de leur fonction, l'architecture des cellules épithéliales est profondément liée à leur système d'adhérence. Nous avons utilisé les micropatrons adhésifs pour contrôler la géométrie de la matrice extra-cellulaire pour examiner l'effet de l'adhérence des cellules avec la matrice sur la position des zones d'adhérence intercellulaire. Nos résultats montrent que l'organisation spatiale de l'adhérence cellule-matrice joue un rôle déterminant sur celle de l'adhérence intercellulaire. Ils montrent également que cette organisation dirige ensuite la position du centrosome et l'orientation de l'ensemble de la polarité interne. Lors d'une réorganisation spatiale de l'épithélium, comme c'est le cas au cours de la transition épithélium-mésenchyme, les systèmes d'adhérence et la polarité interne subissent tous les deux de profondes modifications. Néanmoins, les cellules semblent capables de les réguler de façon indépendante selon le type de stimulus qui induit la réorganisation. La dernière partie est une analyse des paramètres physiques impliqués dans l'architecture épithéliale. En parallèle des régulations biochimiques, les contraintes mécaniques jouent également un rôle fondamental dans la régulation des processus morphogenétiques. L'association de l'ensemble de nos développements technologiques (patterning de substrat déformable, logiciel de détection et de mesure de force, contrôle du positionnement des cellules) nous a permis d'analyser précisément les propriétés mécaniques des architectures multicellulaires. Nous avons découvert que l'organisation spatiale du système adhérence était un régulateur majeur de l'intensité et de la répartition des forces intra-cellulaires. Cette observation nous a permis de proposer une modification du modèle actuel de distribution des contraintes dans un épithélium qui prend en compte l'anisotropie des forces inter-cellulaires en réponse à l'hétérogénéité de la matrice extra-cellulaire. Ce nouveau modèle physique permet de rendre compte des positions adoptées par les cellules en réponse aux différentes géométries de la matrice extra-cellulaire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Vurpillot, François. "Étude de la fonction de transfert pointe-image de la sonde atomique tomographique". Rouen, 2001. http://www.theses.fr/2001ROUES033.

Texto completo
Resumen
La sonde atomique Tomographique est un instrument de nanoanalyse quantitative. Cet instrument permet l'observation en trois dimensions, dans un volume voisin de 10x10x100 nm3, de la distribution chimique d'un matériau métallique à l'échelle subnanométrique. Ce travail de thèse est consacré à l'étude de la fonction de transfert entre l'échantillon analysé et l'image obtenue. Le principe fondamental est l'évaporation par effet de champ des atomes. Le champ électrique nécessaire est obtenu de l'application d'un potentiel intense sur l'échantillon préparé sous la forme d'une pointe très fine. L'image est produite par la projection des espèces chargées sur un détecteur tridimensionnel. L'évaporation et la projection des atomes de la pointe ont été étudiées au moyen d'un modèle de simulation prenant en compte les principes physiques fondamentaux de l'instrument. La confrontation des résultats simulés aux résultats expérimentaux a montré que le modèle décrit avec succès les processus d'évaporation pour les métaux purs, les alliages monophasés et les alliages multiphasés. Le champ électrique de surface est conforme aux observations de microscopie ionique. La rugosité de la pointe à l'échelle de l'atome a une influence notable sur les lignes de champ électrique et les trajectoires ioniques au voisinage de la pointe. L'influence des conditions initiales sur les aberrations de trajectoire a été évaluée. L'appui des simulations a permis la mise au point de méthodes de correction des images. Ces corrections réduisent notablement les grandissements locaux observés. La résolution spatiale de l'instrument a été calculée. Elle atteint, pour des cas favorables, 0,2 nm parallèlement à la surface d'analyse et 0,06 nm en profondeur. Cette excellente résolution permet la reconstruction tridimensionnelle du réseau cristallin du tungstène par des méthodes de transformée de Fourier développées au cours de cette thèse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Verguet, Amandine. "Développements méthodologiques et informatiques pour la microscopie électronique en transmission appliqués à des échantillons biologiques Alignment of Tilt Series (Chapter 7 of the Book: Cellular Imaging: Electron Tomography and Related Techniques, Hanssen Eric) An ImageJ tool for simplified post-treatment of TEM phase contrast images (SPCI) Comparison of methods based on feature tracking for fiducial-less image alignment in electron tomography". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS487.

Texto completo
Resumen
La microscopie électronique en transmission est une technique pertinente pour les études structurales en biologie. Certaines méthodes d’acquisition et d’analyse doivent être améliorées pour permettre l’observation d’échantillons sensibles aux doses d’électrons dans de bonnes conditions de contraste et de rapport signal sur bruit. Au cours de cette thèse, j’ai exploré différentes approches méthodologiques et informatiques dans le but d’améliorer la qualité des images. J’ai ainsi évalué la pertinence de la combinaison de l’imagerie en énergie filtrée avec le mode STEM. Je montre que cette combinaison est prometteuse puisqu’elle permet d’améliorer le rapport signal sur bruit des images. Par ailleurs, j’ai collaboré à des développements algorithmiques et logiciels pour la reconstitution d’images de contraste de phase. Ceci permet l’amélioration du contraste par rapport à une acquisition classique. Je montre aussi qu’à cette fin, la phase plate tout comme les séries focales sont des outils efficaces. En étudiant une approche logicielle pour l’exploitation des séries focales, nous avons déterminé qu’il est possible d’obtenir, en plus de données quantitatives, un résultat qualitatif à partir d’une seule image. J’ai ainsi développé le plugin SPCI pour le logiciel ImageJ, qui permet de traiter de une à trois images focales. Je m’intéresse également à l’optimisation du processus de reconstruction tomographique, tant à l’alignement qu’à la reconstruction proprement dite. L’approche évaluée pour l’alignement utilise des points caractéristiques associés à des descripteurs locaux. Elle s’est montrée performante et permet de traiter des images sans marqueurs fiduciaires. Enfin, je propose une nouvelle méthode unifiée de reconstruction tridimensionnelle de séries tomographiques parcimonieuses. Il en découle une approche innovante mélangeant reconstruction et alignement dont l’ébauche servira de base à des travaux futurs pour le traitement de séries tomographiques parcimonieuses. L’ensemble des méthodes évoquées ici, leur validation, ainsi que les perspectives d’évolution associées sont décrites dans ce manuscrit
Transmission Electron Microscopy is a major tool for performing structural studies in biology. Some methods used for image sampling and analysis need to be improved in order to observe electron dose sensitive samples with good contrast and good signal to noise ratio. During this thesis, various methodological and computational approaches have been studied which aim to improve image quality. First, I evaluated the relevance of combining energy filtered imaging with the STEM mode. I show that this allows an improvement of the signal to noise ratio of images. Then, I devised an algorithm that generates an image from phase data. This approach allows improving the image contrast over direct imaging. The use of a phase plate and focal tilt series are both efficient tools to achieve this goal. While working on the software approach for processing of tilt series, we found that a qualitative result can be obtained from a single image. I developped the SPCI plugin for the ImageJ software. It allows processing between one and three focal images. My work involves optimization of the tomographic reconstruction process, including working with both alignment algorithms and reconstruction algorithms. I expose my studies on image alignment methods used on tilt series. These methods do rely on the use of key points and associated local descriptors. They have proved to be efficient to process images lacking fiducial markers. Finally, I propose a new unified algorithmic approach for 3D reconstruction of tomographic tilt series acquired with sparse sampling. I then derived another novel method that integrates the image alignment step in the process. Studies and developments will continue on both methods in futur work
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Moebel, Emmanuel. "New strategies for the identification and enumeration of macromolecules in 3D images of cryo electron tomography". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S007/document.

Texto completo
Resumen
La cryo-tomographie électronique (cryo-ET) est une technique d'imagerie capable de produire des vues 3D de spécimens biologiques. Cette technologie permet d’imager de larges portions de cellules vitrifiées à une résolution nanométrique. Elle permet de combiner plusieurs échelles de compréhension de la machinerie cellulaire, allant des interactions entre les groupes de protéines à leur structure atomique. La cryo-ET a donc le potentiel d'agir comme un lien entre l'imagerie cellulaire in vivo et les techniques atteignant la résolution atomique. Cependant, ces images sont corrompues par un niveau de bruit élevé et d'artefacts d'imagerie. Leur interprétabilité dépend fortement des méthodes de traitement d'image. Les méthodes computationelles existantes permettent actuellement d'identifier de larges macromolécules telles que les ribosomes, mais il est avéré que ces détections sont incomplètes. De plus, ces méthodes sont limitées lorsque les objets recherchés sont de très petite taille ou présentent une plus grande variabilité structurelle. L'objectif de cette thèse est de proposer de nouvelles méthodes d'analyse d'images, afin de permettre une identification plus robuste des macromolécules d'intérêt. Nous proposons deux méthodes computationelles pour atteindre cet objectif. La première vise à réduire le bruit et les artefacts d'imagerie, et fonctionne en ajoutant et en supprimant de façon itérative un bruit artificiel à l'image. Nous fournissons des preuves mathématiques et expérimentales de ce concept qui permet d'améliorer le signal dans les images de cryo-ET. La deuxième méthode s'appuie sur les progrès récents de l'apprentissage automatique et les méthodes convolutionelles pour améliorer la localisation des macromolécules. La méthode est basée sur un réseau neuronal convolutif et nous montrons comment l'adapter pour obtenir des taux de détection supérieur à l'état de l'art
Cryo electron tomography (cryo-ET) is an imaging technique capable of producing 3D views of biological specimens. This technology enables to capture large field of views of vitrified cells at nanometer resolution. These features allow to combine several scales of understanding of the cellular machinery, from the interactions between groups of proteins to their atomic structure. Cryo-ET therefore has the potential to act as a link between in vivo cell imaging and atomic resolution techniques. However, cryo-ET images suffer from a high amount of noise and imaging artifacts, and the interpretability of these images heavily depends on computational image analysis methods. Existing methods allow to identify large macromolecules such as ribosomes, but there is evidence that the detections are incomplete. In addition, these methods are limited when searched objects are smaller and have more structural variability. The purpose of this thesis is to propose new image analysis methods, in order to enable a more robust identification of macromolecules of interest. We propose two computational methods to achieve this goal. The first aims at reducing the noise and imaging artifacts, and operates by iteratively adding and removing artificial noise to the image. We provide both mathematical and experimental evidence that this concept allows to enhance signal in cryo-ET images. The second method builds on recent advances in machine learning to improve macromolecule localization. The method is based on a convolutional neural network, and we show how it can be adapted to achieve better detection rates than the current state-of- the-art
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Tibayrenc, Pierre. "Mesures d'états au sein d'une population de levures : application à l'étude de la réponse de S. cerevisiae à différents stress technologiques liés à la production de bioéthanol". Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20027/document.

Texto completo
Resumen
Dans une démarche d'optimisation et de maîtrise d'un bioprocédé, une préoccupation importante concerne la mesure et le suivi de l'état des cellules. Au cours de cette thèse, des mesures in situ et/ou permettant de mettre en évidence une variabilité phénotypique au sein d'une population de levures ont été recherchées. La spectroscopie d'impédance, basée sur la capacité des cellules viables à se polariser sous l'effet d'un champ électrique, a été retenue pour estimer l'état des cellules en-ligne. Pour effectuer des mesures de morphologie et de viabilité à l'échelle de la cellule, un système complet de microscopie et d'analyse d'image automatisées a été développé, en parallèle de l'utilisation d'un compteur de cellules de type Coulter. Enfin, des suivis individuels de croissance sur milieu gélosé ont été réalisés afin de caractériser la population en termes de temps de latence et de vitesse de croissance. Le procédé modèle de cette étude est la production de bioéthanol, qui expose les levures utilisées (S. cerevisiae) à d'importantes contraintes physicochimiques (température, acétate, furfural,...) qui affectent leur état physiologique et limitent l'efficacité de l'étape de fermentation. La population, homogène sur le plan cinétique dans des conditions de culture non stressantes, devient hétérogène lorsqu'une perturbation est appliquée. La mesure de cette hétérogénéité peut être utilisée comme marqueur de la sévérité du stress subi. Au cours des phases de déclin, la mort s'accompagne d'une diminution de la taille des cellules et d'une modification de leur aspect en microscopie. Ces changements permettent d'estimer la proportion de cellules viables à partir des distributions de taille obtenues avec le compteur d'une part, et l'analyse des images de microscopie d'autre part. La spectroscopie d'impédance donne une estimation fiable de la fraction volumique de cellules viables et permet de mesurer la capacitance membranaire Cm, ainsi que la conductivité intracellulaire sin, des paramètres liés à l'état de la membrane et du cytoplasme. Cm, constante tant que les cellules sont viables, s'annule à leur mort, tandis que sin varie selon la phase de culture et en réponse aux stress
For bioprocess control and optimization, biomass monitoring and physiological state evaluation is an important issue. During this work, in situ and at-line measurements have been used to evaluate cell state and detect a phenotypic variability within a yeast population. Dielectric spectroscopy, based on the polarization of viable cell membranes exposed to an electrical field, has been selected to infer cell state on-line. In parallel with the use of a Coulter-type cell counter, a dedicated system of automated microscopy and image analysis has been developed to measure cell morphology and viability. Single-cell growth on agar medium was monitored to characterize individual cells with regard to lag-time and initial growth rate. Bioethanol production with S. cerevisiae has been chosen as a model process since the yeast cells are exposed to strong physicochemical stresses (temperature, acetate, furfural,?) which affect their physiological state and impair fermentation efficiency. The cell population, kinetically homogeneous during stress-free fermentations, became heterogeneous when a perturbation was applied. The mean and the variance of lag-time distributions were related to the stress severity. During the decline phase, cell death went along with a decrease in cell size and changes of their microscopy aspect. These changes were significant enough to infer the proportion of viable cells directly from the size distributions obtained with the cell counter or from microscopy image analysis. Dielectric spectroscopy gave reliable estimates of the viable cell volume fraction and enabled the measurements of membrane capacitance Cm and intracellular conductivity sin, parameters related to membrane and cytoplasm states. The Cm value remained constant as long as the cells were viable and dropped to zero at cell death, while sin varied significantly depending on the growth phase and in response to stress
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Pasqualin, Côme. "Dynamique calcique dans les cardiomyocytes de veines pulmonaires de rat : une hétérogénéité source d'arythmie ?" Thesis, Tours, 2016. http://www.theses.fr/2016TOUR3808/document.

Texto completo
Resumen
Les activités électriques ectopiques à l’origine des épisodes de fibrillation atriale pourraient être dues à des échanges calciques anormaux dans les cardiomyocytes (CM) de veine pulmonaire (VP). Le cycle du calcium des CM de VP a donc été caractérisé et comparé à celui des CM d’oreillette gauche (OG) et de ventricule gauche (VG). Des outils ont été développés pour mesurer la régularité d’organisation des réseaux de tubules transverses et la contractilité des CM de VP. Contrairement aux CM d’OG et de VG, l’organisation hétérogène du réseau de tubules dans la population des CM de VP conduit à une grande variabilité de forme des transitoires calciques et d’amplitude de contraction. Au sein des VP, ces différents types de CM sont regroupés en îlots. La fréquence des libérations calciques spontanées est également plus grande dans les CM de VP que dans ceux d’OG et de VG. La population des CM de VP présente une dynamique calcique aux caractéristiques uniques pouvant être source d’arythmies
Ectopic foci leading to atrial fibrillation episodes might be due to abnormal calcium handling by the pulmonary vein (PV) cardiomyocytes (CM). Therefore, the calcium cycle of PV CM was characterized and compared to those of left atria (LA) and left ventricle (LV) CM. Some tools have been developed to measure the organization of transverse tubular networks and contractility of PV CM. Unlike LA and LV CM, the heterogeneous organization of the tubular networks in the PV CM population leads to wide ranges of calcium transient shapes and contraction amplitudes. Within the whole PV, these different types of CM are gathered in islets. The frequency of spontaneous calcium release is also higher in PV CM than in LA and LV CM. The special features of the calcium handling properties of the PV CM population could be a source of arrhythmias
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Kouvahe, Amélé Eyram Florence. "Etude du remodelage vasculaire pathologique : de la caractérisation macroscopique en imagerie TDM à l’analyse en microscopie numérique". Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS019.

Texto completo
Resumen
Cette recherche s’intéresse à l’étude du réseau vasculaire en général, dans plusieurs modalités d’imagerie et plusieurs configurations anatomo-pathologiques. Son objectif consiste à discriminer les structures vasculaires dans les données image et détecter et quantifier la présence de modifications morphologiques (remodelage) en lien avec une pathologie. L’originalité de l’approche développée consiste à exploiter un filtrage localement connexe (FLC) multidirectionnel adapté à la dimension de l’espace de données (2D ou 3D). Ce filtrage permet de sélectionner les structures curvilignes en contraste positif dans les images dont la taille en section transverse (calibre) ne dépasse pas la taille de la fenêtre de filtrage. Cette sélection reste efficace même au niveau des régions de subdivisions des vaisseaux. La mise en place d’une technique de filtrage multirésolution permet de s’affranchir de la différence des calibres vasculaires dans le réseau et de segmenter l’ensemble de la structure vasculaire, y compris en présence d’une modification locale de calibre. Un autre intérêt de l’approche de segmentation proposée est sa généralité. Elle s’adapte facilement à différentes modalités d’imagerie qui préservent un contraste (positif ou négatif) entre les vaisseaux et leur environnement. Nous l’avons pu démontrer dans le cadre de l’imagerie TDM 3D thoracique avec la segmentation du réseau vasculaire intrapulmonaire, mais également en imagerie TDM 3D hépatique avec injection de produit de contraste, en imagerie 2D de fond d’œil et en imagerie microscopique infrarouge (pour la segmentation des fibres dans le cerveau de souris). A partir d’une segmentation précise et robuste du réseau vasculaire, il est possible par la suite de détecter et caractériser la présence d’un remodelage en présence d’une pathologie. Cela passe par une analyse de la variation du calibre des vaisseaux le long de l’axe central, permettant à la fois d’obtenir une vue globale de la distribution des calibres vasculaires dans l’organe étudié (et la comparer avec une référence « sujet sain »), et de détecter localement des modifications de forme (rétrécissement, dilatation). Ce dernier cas de figure a été étudié dans le cadre de la détection et la quantification des malformations artério-veineuses pulmonaires (MAVP). Prévue initialement dans un cadre d’étude de l’angiogénèse tumorale, la méthode développée n’a pas pu être appliquée en analyse microscopique par imagerie multispectrale infrarouge en raison de l’absence de contraste de vaisseaux dans les bandes spectrales étudiées. Nous nous sommes limités dans ce cas précis à l’extraction des fibres cérébrales comme élément d’appui pour retrouver l’information manquante dans le cas d’un sous-échantillonnage 2D du volume du cerveau. En effet, l’étude de la croissance tumorale nécessitait également de pouvoir recouvrir le volume de la tumeur dans le cerveau de souris à partir de coupes coronales éparses des échantillons biologiques ayant subi des déformations lors de la découpe physique. Pour cela, une interpolation 2D-2D après réalignement des structures a été envisagée avec une deuxième contribution méthodologique de la thèse portant sur une approche de recalage-interpolation géométrique contrôlée par une mise en correspondance préalable des structures similaires dans les images. Les structures ciblées dans notre cas seront notamment la tumeur, les fibres, les ventricules et le contour du cerveau, chacune pouvant être obtenue au moyen des techniques de segmentation appliquées aux différentes bandes spectrales de la même image. La mise en correspondance des images se fait au moyen d’un champ de vecteurs directionnels établi au niveau des contours des structures cible, dans un espace de dimension supérieure (3D ici). La diffusion du champ de vecteurs éparse construit sur l’ensemble de l’espace permet d’obtenir un flot directionnel dont les lignes de champ constituent la transformation homéomorphique entre les deux images
This research focuses on the study of the vascular network in general, in several imaging modalities and several anatomo-pathological configurations. Its objective is to discriminate vascular structures in image data and to detect and quantify the presence of morphological modifications (remodeling) related to a pathology. The proposed generic analysis framework exploits a priori knowledge of the geometry of blood vessels and their contrast with respect to the surrounding tissue. The originality of the developed approach consists in exploiting a multidirectional locally connected filter (LCF) adapted to the dimension of the data space (2D or 3D). This filter allows the selection of curvilinear structures in positive contrast in images whose cross-sectional size does not exceed the size of the filtering window. This selection remains effective even at the level of vessel subdivision. The multi-resolution approach makes it possible to overcome the difference in vascular calibers in the network and to segment the entire vascular structure, even in the presence of a local caliber change. The proposed segmentation approach is general. It can be easily adapted to different imaging modalities that preserve a contrast (positive or negative) between the vessels and their environment. This has been demonstrated in different types of imaging, such as thoracic CT with and without contrast agent injection, hepatic perfusion data, eye fundus imaging and infrared microscopy (for fiber segmentation in mouse brain).From an accurate and robust segmentation of the vascular network, it is possible to detect and characterize the presence of remodeling due to a pathology. This is achieved by analyzing the vessel caliber variation along the central axis which provides both a global view on the caliber distribution in the studied organ (to be compared with a "healthy" reference) and a local detection of shape remodeling. The latter case has been applied for the detection and quantification of pulmonary arteriovenous malformations (PAVM).Initially planned in a study of tumor angiogenesis, the segmentation method developed above was not applicable to infrared microscopy because of lack of vascular contrast in the spectral bands analyzed. Instead, it was exploited for the extraction of brain fibers as a support element for image interpolation aiming the 3D reconstruction of the brain volume from the 2D sub-sampled data. In this respect, a 2D-2D interpolation with realignment of the structures was developed as a second methodological contribution of the thesis. We proposed a geometric interpolation approach controlled by a prior mapping of the corresponding structures in the images, which in our case were the tumor region, the fibers, the brain ventricles and the contour of the brain. An atlas containing the unique labels of the structures to be matched is thus built up for each image. Labels of the same value are aligned using a field of directional vectors established at the level of their contours, in a higher dimensional space (3D here). The diffusion of this field of vectors results in a smooth directional flow from one image to the other, which represents the homeomorphic transformation between the two images. The proposed method has two advantages: it is general, which is demonstrated on different image modalities (microscopy, CT, MRI, atlas) and it allows controlling the alignment of structures whose correspondence is targeted in priority
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Mignon, Simon. "Semi-unbalanced optimal transport for referenced-based image restoration and synthesis". Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1044.

Texto completo
Resumen
Le transport optimal est largement utilisé en traitement d'image pour aligner des distributions, mais dans beaucoup de contextes il manque de flexibilité en intégrant l'ensemble de la distribution cible. Dans cette thèse, nous introduisons le transport optimal semi-déséquilibré, qui permet, grâce à un nouveau paramètre, de sélectionner les parties de la distribution cible les plus pertinentes vis-à-vis de la distribution traitée. Nous démontrons l'efficacité de ce nouvel outil dans des applications de restauration et de synthèse d'images en contexte discret et semi-discret, où il surpasse le transport optimal classique
Optimal transport is widely used in image processing to align distributions, but in many contexts, it lacks flexibility by incorporating the entire target distribution. In this thesis, we introduce semi-unbalanced optimal transport, which, through a new parameter, allows the selection of the most relevant parts of the target distribution with respect to the processed distribution. We demonstrate the effectiveness of this new tool in applications of image restoration and synthesis in both discrete and semi-discrete settings, where it outperforms classical optimal transport
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Luengo, Lydie. "Développement de méthodes d’analyse d’images dédiées à la caractérisation morphologique et nano structurale des noirs de carbone dans les matrices polymères". Thesis, Orléans, 2017. http://www.theses.fr/2017ORLE2038.

Texto completo
Resumen
Pour la confection des matériaux polymères à base de caoutchouc, le noir de carbone (NC) reste la charge renforçante la plus utilisée. Sa caractérisation morphologique et nano structurale est essentielle dans la maitrise des propriétés physico-chimiques qu’il confère aux matériaux auxquels il est mélangé. Les analyses classiques ne permettent d’accéder que de façon indirecte et incomplète à ces propriétés. Cette thèse propose une méthode de caractérisation innovante par le couplage d’un détecteur STEM (Scanning Transmission Electron Microscopy) et d’une chaine d’analyse d’images complètement automatique pour identifier les types de NC. Une étude statistique approfondie d’une centaine de caractéristiques morphologiques et structurales des NC a été réalisée sur les 6000 images STEM acquises. Cette étude a permis d’introduire 7 nouveaux descripteurs et de sélectionner les 37 descripteurs les plus discriminants pour la création du modèle d’identification. Pour rendre le processus le plus automatique possible, un algorithme de segmentation non supervisé a été développé et évalué. Cinq classifieurs ont ensuite été entraînés et comparés sur une base de près de 65000 agrégats. Le modèle le plus adapté s’avère les réseaux de neurones avec une identification des NC avoisinant les 100%. L’identification étant réalisée à partir de projections 2D des agrégats via les images STEM, une confrontation statistique valide la capacité des descripteurs 2D à caractériser la structure tridimensionnelle des NC observée par tomographies électroniques. L'approche complète proposée, depuis le protocole de préparation des échantillons et l'acquisition d'images STEM jusqu'à leur classification en passant par les étapes d'analyse d'images, offre une nouvelle méthode de caractérisation fiable des NC (à l’état natif ou au sein de mélanges élastomères) exploitable en routine
In the field of rubber material development, CB is the most commonly used reinforcing filler. The characterization of CB morphology and nanostructure is therefore crucial to understand the physicochemical properties induced by the introduction of CB in rubber materials. Classical analytical methods only allow indirect and incomplete access to these properties. This PhD offers an innovative method that allows the automatic identification of CB grades by coupling Scanning Transmission Electron Microscopy (STEM) detector and image processing chain. A thorough statistical investigation over a hundred of morphological and structural characteristics of CB was performed on a set of 6000 STEM images. This study has introduced 7 new features and selected the 37 most discriminating descriptors to create the final model. An unsupervised segmentation algorithm has been developed and evaluated in order to build an automatic process as efficient as possible. Then, five classifiers were trained and compared on a base of nearly 65,000 aggregates. It appears that the most suitable descriptor is the Neuron networks as it gives a perfect recognition. As the recognition model is based on 2D projections of CB aggregates, it is necessary to verify that the chosen descriptors are indeed able to correctly characterize the three dimensional structure of CB. The statistical comparison of the 2D descriptors with 3D descriptors extracted from electronic tomography images has been successful, and therefore demonstrates the relevance of the model. The proposed approach, starting from the sample preparation and STEM acquisitions to their classification and through the image analysis steps, offers a new and innovative method for the reliable characterization of CB. This method can be used routinely on raw CB or CB extracted from vulcanizes rubbers
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Pascault, Alice. "Investigating Candida albicans epithelial infection using a high-throughput microscopy-based assay". Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS277.pdf.

Texto completo
Resumen
Les infections fongiques représentent un problème émergeant de santé publique dans les pays développés. C. albicans est une levure dimorphique, commensale des muqueuses orales, génitales et intestinales d’une majorité de la population saine. Elle peut cependant conduire à des infections locales, comme les candidoses orales et vaginales voire à des infections systémiques chez les patients immunodéprimés. Si les interactions entre C. albicans et le système immunitaire de l’hôte sont désormais de mieux en mieux connues, l’invasion des épithélia qui est pourtant à l’origine des processus d’infection, demeure mal comprise. Quatre étapes ont été décrites : l’adhésion de la levure aux cellules de l’hôte, suivi par la filamentation qui permet d’obtenir une hyphe capable d’invasion et parfois de dommage infligé aux les cellules hôtes pouvant aboutir à une translocation dans les tissus profonds. Plusieurs facteurs ont été décrits, tant du côté de l’hôte que du pathogène, comme jouant un rôle dans l’invasion des epithelia, incluant les adhésines et invasines fongiques, la toxine candidalysine et l’E-cadherin de la cellule hôte. Une étude récente de notre équipe basée sur une technique de microscopie live à l’échelle cellulaire a permis de déterminer que l’invasion précoce des cellules épithéliales HeLa et Caco-2 peut faire intervenir deux modes d’interaction et donc deux modes de vie fongiques distincts : (1) l’invasion conduisant au dommage cellulaire, au cours de laquelle la membrane plasmique de la cellule hôte est rompue, fréquemment suivie de la mort de la cellule hôte (2) l’invasion au travers de tunnels trans-cellulaires (CaTCT) au cours de laquelle les hyphes envahissent les cellules hôtes entourés de tunnels de membrane cellulaire, sans dommage. Ces tunnels peuvent être multicellulaires et sont constitués de couches membranaires successives. Les mécanismes moléculaires conduisant à la formation de ces tunnels tant du point de vue fongique que du point de vue de l’hôte ne sont pas connus. L’objectif de ma thèse était d’identifier et de caractériser les facteurs d’hôte et du pathogène impliqués dans l’infection des cellules épithéliales Caco-2, qui ne fait intervenir que l’invasion au travers de CaTCT jusqu’à 9 heures d’infection. A cette fin j’ai développé un outil expérimental de microscopie permettant de quantifier de façon objective, universelle (i.e. pouvant s’appliquer à de nombreux modèles fongiques et de cellules hôtes) et à haut débit l’adhésion, la filamentation l’invasion et le dommage cellulaire au cours d’une seule expérience d’infection in vitro. Cet outil a ensuite été utilisé afin d’étudier plusieurs aspects dede la formation des CaTCT : (1) le rôle de la protéine fongique Als3 au cours de l’adhésion et de l’invasion (2) l’origine cellulaire des membranes impliquées dans les CaTCT (3) le rôle de la toxine peptidique candidalysine et des aspartyl-protéases (4) le métabolisme fongique au cours de l’invasion et notamment du métabolisme du glycogène (5) l’immunité de l’hôte au niveau des muqueuses au travers de la secrétion d’IgA. Le protocole mis en place m’a également permis de screener des souches cliniques commensales et issues d’infections systémiques afin de rechercher de nouveaux facteurs de virulence fongiques. Pour conclure, la nouvelle méthode expérimentale développée au cours de ce projet a permis quelques avancées dans la compréhension du processus énigmatique des CaTCT, et pourra servir à de futures études de l’infection de epithelia par C. albicans mais aussi à celles d’autres pathogènes
Fungal infections are an emerging threat to human health in developed countries. Candida albicans is a dimorphic yeast which colonizes the oral, genital and intestinal mucosa as part of the commensal flora of most of the healthy population. However, it can also lead to local infections such as oral and vaginal thrush and in susceptible patients to severe systemic infections. While much effort has been made in deciphering the interplay between C. albicans and the host at the immunological level, infection begins with invasion of the host epithelium, a process that is only partially understood. At the onset of infection, C. albicans transforms from a yeast to a filamentous hyphal form that can invade and damage epithelial cells, sometimes followed by translocation deeper into host tissues. Several fungal and host molecular factors have been shown to regulate epithelial invasion, including fungal adhesins, invasins and secreted factors such as the fungal toxin candidalysin, as well as host factors such as E-cadherin, which plays a role in C. albicans endocytic uptake. Recent work from our lab based on single cell, live imaging of early invasion into HeLa and Caco-2 cell lines revealed that two invasive lifestyles involving distinct host cellular niches can be exploited by the fungus: (1) Damaging invasion, in which host membranes are breached, leading most often to host cell death; (2) C. albicans trans-cellular tunnelling (CaTCT), in which hyphae extend within host membrane-derived transcellular tunnels without host damage. During CaTCT, hyphae can traverse through several host cells in sequence, leading to the formation of multi-layered tunnel structures. Currently, the molecular factors and cellular mechanisms regulating CaTCT from both the fungal and host sides remain almost entirely undescribed. The objective of my thesis project was to identify and characterize molecular factors and cellular processes regulating early Caco-2 infection by C. albicans, which occurs exclusively via CaTCT for up to 9 hours post-infection. For this purpose, I developed a novel quantitative, high-throughput and universal (i.e. applicable to a wide variety of fungal and host models) experimental imaging assay that uses an automated non-biased approach to provide single cell readouts pertaining to adhesion, hyphal formation, invasion and host damage in a single experiment. I then applied this assay to study several distinct aspects of CaTCT: (1) the function of the fungal Als3 protein in C. albicans adhesion and invasion; (2) the reservoir of host membranes implicated in trans-cellular tunnel formation and extension; (3) the function of the fungal toxin candidalysin and fungal secreted aspartyl proteases (Saps); (4) nutrient uptake and glycogen metabolism ; (5) the role of host secreted IgA in immune defence at the epithelial surface. In order to identify new potential virulence factors, I also employed the assay to screen for differences in epithelial infection between C. albicans clinical strains isolated from commensal and invasive origins. Overall, my work has provided several new insights into the mechanism of CaTCT, which act to further enhance our knowledge of this enigmatic process. Furthermore, the experimental assay developed in this project has important potential applications for future targeted studies and screens relating to C. albicans epithelial infection, as well as infection by other fungal pathogens
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Tran, Thi Nhu Hoa. "Analyse et modélisation 3D de l’organisation spatiale des tissus dans des images biologiques". Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS457.pdf.

Texto completo
Resumen
Nombreux travaux ont été menés pour analyser automatiquement des cellules dans des images de microscopie. Néanmoins, ces travaux se concentrent principalement sur l’application de traitement et d’analyse d’images sur des cellules individuelles. Il y a un manque d’un outil générique pour analyser les interactions entre les cellules et leur organisation spatiale au sein de tissus biologiques. De plus, il existe une demande pour une approche qui est plus efficace pour gérer des images de cellules en 3D à haut débit. Car l’étude des cellules dans l’espace tridimensionnel (3D) donne une meilleure impression et est plus réaliste en ce qui concerne les propriétés physiques et biochimiques du micro-environnement des cellules par rapport aux approches bidimensionnelles. Nous avons proposé un ensemble de méthodologies et un outil pour l’analyse de l’organisation des tissus dans des images biologiques. Cette combinaison d’outils logiciels se propose d’algorithmes pour i) l’identification automatique de plusieurs noyaux individuels et ii) des marqueurs cytoplasmiques, iii) prédiction de la position de la membrane cellulaire, et enfin iv) la reconstruction du réseaux cellulaire. Nous avons appliqué notre outil pour étudier l’organisation spatiale de l’îlot de Langerhans en essayant de comprendre son mécanisme interne. Nous avons aussi appliqué notre outil pour explorer la fonction des cellules de type delta cell dans l’îlot, dont le rôle n’est pas encore déterminé. Nous avons introduit une procédure générique pour modéliser l’organisation spatiale des cellules dans un tissu, qui peut être utilisée pour créer des modèles virtuels de tissus et créer des données à tester
Cells within the tissue preferentially form a network that works together to carry out a specific function. Thus, the role of a tissue is affected by its cell types as well as the architecture of cellular interactions. A question is to what degree the spatial organization of these cells affects the function of the tissue. We first propose a set of methodologies to analyze the multi-cellular structure of tissues at both local and global scale. The goal is to analyze, formalize, and model the spatial organization of the tissue captured by fluorescence microscopy images. At the local scale, we investigate the spatial relationship of several structures with both direct and indirect cellular interactions. At the global scale, we apply spatial statistic approaches to investigate the degree of randomness of the cell distribution. In addition, an open source toolbox is developed which allows researchers to perform investigations of the position of different cells within a 3D multicellular structure. We apply the toolbox to study of the spatial organization of the islet of Langerhans, a special kind of tissue that plays an important role in regulating the blood glucose level. With a good segmentation accuracy, we have been able to perform our analysis of the islets of Langerhans on several different species such as mouse and monkey. We also utilize our toolbox to explore the structural-functional mechanism of the delta cell, a specific kind of cell within the islet whose role has not yet been determined, but could potentially influence the islet function, in mouse and human. Our generic toolbox is implemented with unbiased analytical capabilities in software platform ImageJ
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Bélaroui, Karima. "Compréhension des mécanismes de fragmentation par analyse granulométrique et morphologique". Vandoeuvre-les-Nancy, INPL, 1999. http://docnum.univ-lorraine.fr/public/INPL_T_1999_BELAROUI_K.pdf.

Texto completo
Resumen
Le broyage est une opération importante en technologie des poudres où des progrès sont encore possibles pour améliorer le fonctionnement des appareils existants ou concevoir de nouveaux systèmes. Pour mieux connaître les phénomènes se produisant dans les chambres de broyage l'approche classique reposant sur l'étude des cinétiques granulométriques a été combinée à une prise en compte des cinétiques morphologiques établies grâce à l'analyse d'images des fragments observés par microscopie électronique à balayage. La morphologie des particules est caractérisée à partir d'un ensemble de sept paramètres : six pour la morphologie bi-dimensionnelle et un pour la morphologie pseudo tri-dimensionnelle. En complément des outils statistiques (tests de comparaison, analyse en composantes principales) ont été utilisés pour une meilleure précision et une interprétation plus fine des résultats. Des expériences de broyage de matériaux possédant une morphologie initiale contrôlée (hydrargillites obtenues par cristallisation) ou non (roches naturelles) ont été conduites dans un broyeur à billes agité en faisant varier la concentration en solide, le diamètre et taux de remplissage en corps broyants. Après une étude préalable des particules avant broyage, l'analyse des phénomènes de réduction de taille à partir des seules évolutions des distributions granulométriques a montré ses limites. La méthode finalement proposée est basée sur un examen de l'évolution des paramètres de forme en complément de celui des distributions granulométriques et a aidé à une meilleure compréhension de ces mécanismes. Si la maîtrise des mécanismes de fragmentation peut aider au contrôle de la qualité du produit final, la pollution possible par des fragments de corps broyants doit aussi être envisagée. Une méthode basée sur l'analyse de la surface des corps broyants observés par microscopie électronique à balayage permet d'en suivre l'évolution
Comminution is an important process in powder technology, in which progress can still be made, to improve the operation of existing equipments or to design new systems. To understand better the phenomena taking place in the grinding chambers, the classical approach based on the examination of size distributions has been combined with the distributions of the shape of the fragments, observed by scanning electron microscopy and characterised by image analysis. The particle morphology has been assessed through the use of a set of seven parameters, six of them describing the 2D shape and one the pseudo 3D shape. In complement statistical tools (tests, principal component analysis) have been used. Comminution experiments have been run with different materials exhibiting either welldefined initial morphology (gibbsites obtained by crystallisation) or not (natural rocks) in a stirred bead-mill with different suspension concentrations, and beads diameters and filling rates. After a preliminary study of the particles before grinding, the analysis of the size reduction phenomena from the size distributions only has shawn its limits. The method finally proposed is based on a joint analysis of the shape and size parameters. If a better understanding of the phenomena can help to control the product quality, a possible pollution by fines produced by wear of the grinding bodies should be taken into account. A method based on the analysis of their surface by scanning electron microscopy is proposed to monitor this wear
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía