Thèses sur le sujet « Imagerie à haut contenu »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Imagerie à haut contenu.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Imagerie à haut contenu ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Mau, Adrien. « Développements pour l'imagerie quantitative et à haut contenu en microscopie de fluorescence classique et super-résolue ». Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASP016.

Texte intégral
Résumé :
La microscopie de fluorescence et la microscopie de localisation de molécules uniques (SMLM) permettent d’imager spécifiquement les entités subcellulaires et sont donc des outils indispensables en Biologie. Cependant ces techniques d’imagerie sont intimement liées aux propriétés de l’illumination, qui possède des limites en termes d’uniformité et de contrôle de l’éclairement.Nous proposons une nouvelle méthode d’illumination nommée ASTER (Adaptable Scanning for Tunable Excitation Regions), capable de délivrer une illumination modulable et uniforme, et compatible avec les méthodes de sectionnement optique classiques. Nous l’appliquons en premier lieu à la microscopie de fluorescence où nous montrons sa compatibilité avec l’imagerie d’échantillons vivants. Ensuite, dans le contexte de l’imagerie SMLM nous démontrons l’obtention de résolutions uniformes, mais également l’impact sur d’autres paramètres et possibilités d’acquisitions. Ainsi ASTER permet de réduire le fond ambiant, d’imager des champs larges de 200x200µm² ou de réaliser une image SMLM sur l’ordre de quelques minutes.Nous présentons ensuite le bénéfice du couplage d’ASTER avec l’imagerie 3D, et une méthode d’imagerie multi-couleur SMLM. Cette méthode quantifiée analytiquement permet d’obtenir des cross talk de l’ordre de 2%, nous montrons sont application à l’imagerie à deux et trois couleurs, ainsi qu’à l’imagerie 3D. Différentes pistes d’amélioration d’ASTER et de l’imagerie multi couleur sont ensuite proposées
Fluorescence and Single Molecule Localization Microscopy (SMLM) allows for thespecific labeling and imaging of biological samples, and are an essential tool for biologists.However, images are generally non-quantitative and limited in feld of view, as well as in imagingtimes. These limits are fundamentally linked to the illumination scheme, which should be optimized both in term of uniformity, but also in control of the irradiance. We propose a novelillumination scheme named ASTER, which allow for a versatile and uniform illumination and is compatible with classical optical sectioning schemes. We first apply ASTER to fluorescence microscopy and particularly the imaging of live dynamic samples. Then we show the ability toobtain uniform resolution in SMLM, as well as the potential of ASTER's versatility. One mayreduce the uorescent background, image wide200 x 200 µm² fields, or realize a SMLM image under a minute. Finally, we present theimplementation of a multicolor SMLM experiment, allowing for the simultaneous imaging ofdifferent structures with cross-talks around 2%.This method is quanti ed and optimized, andthen applied to two and three color imaging, aswell as 3D imaging. Different perspectives for ASTER and multicolor imaging are then proposed
Styles APA, Harvard, Vancouver, ISO, etc.
2

German, Yolla. « L'imagerie cellulaire à haut débit révèle le contrôle de la synapse immunologique par le cytosquelette d'actine ». Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30015.

Texte intégral
Résumé :
Les lymphocytes cytotoxiques dépendent du remodelage du cytosquelette d'actine pour atteindre leur fonction. En particulier, les lymphocytes T cytotoxiques et les cellules NK assemblent la synapse immunologique (SI), structure complexe riche en actine qui permet l'interaction avec des cellules cibles et la distribution polarisée de granules lytiques (GL). Bien que le remodelage du cytosquelette d'actine soit connu pour être une force motrice de l'assemblage et de la dynamique de la SI, la compréhension du contrôle moléculaire du remodelage de l'actine soutenant la dynamique de la SI reste fragmentée. Ce projet de thèse a consisté à développer une approche d'imagerie à haut débit pour définir de manière impartiale les métriques de la SI des lymphocytes T et NK et caractériser les exigences d'intégrité du cytosquelette d'actine dans l'organisation de l'architecture de la SI.À cette fin, la stimulation et coloration des lignées cellulaires et cellules primaires dans des plaques à puits multiples et l'acquisition d'un ensemble unique d'images confocales avec un imageur à haut contenu entièrement automatisé ont été optimisées. Les images ont été analysées avec deux pipelines complémentaires avec CellProfiler pour définir les caractéristiques morphologiques associées aux différents traitements et à l'état de la maladie. Nous avons d'abord extrait 16 caractéristiques morphologiques se rapportant à la F-actine, LFA-1 ou aux GL, sur la base d'une connaissance préalable de l'assemblage de la SI, et inclus des caractéristiques relatives au noyau. Nous montrons que l'assemblage de la SI dans les lignées est caractérisé par une augmentation de l'intensité de la F-actine et la surface cellulaire. Pour les cellules Jurkat, nous rapportons une augmentation de l'intensité et de la surface LFA-1, et de la de la détection des LG sur le plan SI pour les cellules NK-92. Le traitement des cellules NK-92 avec 7 drogues affectant différents aspects de la dynamique de l'actine et l’étude des effets associés sur les caractéristiques de la SI montrent des effets dépendants de la concentration sur l'intensité de l’actine et sur la polarisation des GL. De plus, un profilage morphologique à haute résolution basé sur> 300 caractéristiques montre que chaque drogue inflige des altérations distinctes sur la morphologie de la SI. Nous avons appliqué ce pipeline à des cellules NK primaires isolées du sang de donneurs sains. Des caractéristiques morphologiques distinctes définissent les cellules NK de différents donneurs, soulignant la sensibilité de notre approche, mais révélant également une variabilité insoupçonnée des morphologies des cellules immunitaires parmi les donneurs. Nous avons appliqué notre approche aux cellules T CD8+ primaires de patients présentant une immunodéficience rare due à des mutations dans le gène codant pour le régulateur d'actine ARPC1B. La carence en ARPC1B entraîne une diminution de l'intensité de l'actine et de la polarisation des GL. Cela nous a incités à évaluer la capacité lytique de ces cellules, qui a été considérablement réduite. Ces résultats illustrent comment l'analyse systématique de la SI pourrait être utilisée pour aider à l'exploration des défauts fonctionnels des populations de lymphocytes dans des contextes pathologiques.En conclusion, notre étude révèle que, bien que l'assemblage de la SI puisse être caractérisé par quelques caractéristiques telles que l'intensité de l'actine et la propagation cellulaire, la capture de fines altérations résultant de la dérégulation du cytosquelette nécessite une analyse à haut débit. Le pipeline développé est prometteur pour le profilage morphologique des lymphocytes de patients atteints d'immunodéficiences primaires dont le défaut génétique n'a pas encore été identifié. De plus, le pouvoir discriminant de notre approche pourrait être exploité pour caractériser la réponse des lymphocytes à divers stimuli et surveiller leur activation dans de multiples pathologies et traitements
Cytotoxic lymphocytes rely on actin cytoskeleton remodeling to achieve their function. In particular cytotoxic T lymphocytes and NK cells assemble the immunological synapse (IS), a complex actin-rich structure that allows the interaction with target cells, such as infected cells or tumor cells, and permits the polarized delivery of lytic granules. Although actin cytoskeleton remodeling is known to be a driving force of IS assembly and dynamics, our understanding of the molecular control of actin remodeling sustaining IS dynamics remains fragmented. This PhD project consisted in developing a high-content imaging approach to unbiasedly define the metrics of IS from human T and NK lymphocytes and to characterize the requirements for actin cytoskeleton integrity in organizing the IS architecture.For that purpose, the stimulation and staining of cell lines and primary cells in multiwell plates and acquisition of a unique set of >100.000 confocal images with a fully automatized high-content imager was optimized. The images were analyzed with two complementary CellProfiler analytical pipelines to characterize the morphological features associated with different treatments and disease status. We first extracted 16 morphological features pertaining to F-actin, LFA-1 or lytic molecules based on prior knowledge of IS assembly, and included features pertaining to the nucleus. We show that IS assembly in Jurkat and NK-92 cells is characterized by increased F-actin intensity and cell area. For Jurkat cells, we report an increase in LFA-1 intensity and surface area, and for NK-92 cells an increase in lytic granule detection at the IS plane. We then treated NK-92 cells with seven drugs known to affect different aspects of actin dynamics and investigated the associated effects on IS features. We report concentration dependent effects, not only on F-actin intensity, as expected, but also on lytic granule polarization. Furthermore, using a high-resolution morphological profiling based on >300 features, we show that each drug inflicts distinct alterations of IS morphology. In a next step, we applied our experimental pipeline to primary NK cells isolated from the blood of healthy donors. Distinct morphological features were characterized among the NK cells from different donors, highlighting the sensitivity of our approach, but also revealing an unsuspected variability of immune cell morphologies among donors. We then further applied our approach to primary CD8+ T cells from patients with a rare immunodeficiency due to mutations in the gene encoding the actin regulator ARPC1B. ARPC1B deficiency results in decreased F-actin intensity, as well as in lytic granule polarization. This prompted us to assess the ability of these cells to kill target cells, which was markedly reduced. These results illustrate how the systematic analysis of the IS might be used to assist the exploration of fonctional defects of lymphocyte populations in pathological settings. In conclusion, our study reveals that although assembly of the IS can be characterized by a few features such as F-actin intensity and cell spreading, capturing fine alterations of that complex structure that arise from cytoskeleton dysregulation requires a high-content analysis. The pipeline we developed through this project holds promises for the morphological profiling of lymphocytes from primary immunodeficiency patients whose genetic defect has not yet been identified. Moreover, the discriminative power of our high-content approach could be exploited to characterize the response of lymphocytes to various stimuli and to monitor lymphocyte activation in multiple immune-related pathologies and treatment settings
Styles APA, Harvard, Vancouver, ISO, etc.
3

Schoenauer, Sebag Alice. « Développement de méthodes pour les données de cribles temporels à haut contenu et haut débit : versatilité et analyses comparatives ». Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0035/document.

Texte intégral
Résumé :
Un crible biologique a pour objectif de tester en parallèle l'impact de nombreuses conditions expérimentales sur un processus biologique d'un organisme modèle. Le progrès technique et computationnel a rendu possible la réalisation de tels cribles à grande échelle - jusqu'à des centaines de milliers de conditions. L'imagerie sur cellules vivantes est un excellent outil pour étudier en détail les conséquences d'une perturbation chimique sur un processus biologique. L'analyse des cribles sur cellules vivantes demande toutefois la combinaison de méthodes robustes d'imagerie par ordinateur et de contrôle qualité, et d'approches statistiques efficaces pour la détection des effets significatifs. La présente thèse répond à ces défis par le développement de méthodes analytiques pour les images de cribles temporels à haut débit. Les cadres qui y sont développés sont appliqués à des données publiées, démontrant par là leur applicabilité ainsi que les bénéfices d'une ré-analyse des données de cribles à haut contenu (HCS). Le premier workflow pour l'étude de la motilité cellulaire à l'échelle d'une cellule dans de telles données constitue le chapitre 2. Le chapitre 3 applique ce workflow à des données publiées et présente une nouvelle distance pour l'inférence de cible thérapeutique à partir d'images de cribles temporels. Enfin, le chapitre 4 présente une pipeline méthodologique complète pour la conduite de cribles temporels à haut débit en toxicologie environnementale
Biological screens test large sets of experimental conditions with respect to their specific biological effect on living systems. Technical and computational progresses have made it possible to perform such screens at a large scale - up to hundreds of thousands of experiments. Live cell imaging is an excellent tool to study in detail the consequences of chemical perturbation on a given biological process. However, the analysis of live cell screens demands the combination of robust computer vision methods, efficient statistical methods for the detection of significant effects and robust procedures for quality control. This thesis addresses these challenges by developing analytical methods for the analysis of High Throughput time-lapse microscopy screening data. The developed frameworks are applied to publicly available HCS data, demonstrating their applicability and the benefits of HCS data remining. The first multivariate workflow for the study of single cell motility in such large-scale data is detailed in Chapter 2. Chapter 3 presents this workflow application to previously published data, and the development of a new distance for drug target inference by in silico comparisons of parallel siRNA and drug screens. Finally, chapter 4 presents a complete methodological pipeline for performing HT time-lapse screens in Environmental Toxicology
Styles APA, Harvard, Vancouver, ISO, etc.
4

Reboud, Julien. « Mise au point d'un format innovant de puces à cellules pour l'analyse phénotypique à haut-contenu ». Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10047.

Texte intégral
Résumé :
Aujourd'hui la recherche en biologie dispose d'une masse d'informations génomiques considérable qu'il faut comprendre fonctionnellement pour faire émerger de nouveaux concepts, qui formeront le berceau de nouvelles thérapies. Ces études mettent en jeu des mécanismes contrôlés à l'échelle moléculaire et nécessitent le traitement d'informations à haut-débit et de manière parallèle. Les travaux pluridisciplinaires présentés ont permis de mettre au point une technologie miniaturisée de culture de cellules en gouttes matricées sur supports solides, pour tester l'action des molécules sur le comportement de cellules. Après avoir mis au point un démonstrateur macroscopique validé par des transfections de molécules nucléiques, nous avons développé un protocole de fabrication de substrats miniaturisés capable de maintenir 100 nano-gouttes par cm² à l'aide d'un différentiel de tension de surface. Un robot de dispense de pico-gouttes a été intégré pour réaliser les gouttes de culture cellulaire de manière automatique. Le comportement des cellules au sein des gouttes est évalué par microscopie en fluorescence à haut-contenu après fixation. Chaque cellule de chaque goutte est caractérisée par des dizaines de paramètres de manière individuelle. Cette nouvelle approche analytique a été appliquée dans le cadre d'un projet multipartenaire de criblage de siRNA visant à étudier l'impact de gènes sur la chimiorésistance de glioblastomes. Par ailleurs nous avons montré l'utilisation de la spectrométrie de masse comme méthode de phénotypage multiparamétrique. Cette technologie de puce à cellules est particulièrement adaptée à l'étude à haut-débit des comportements fins de cultures cellulaires
Nowadays biology research is faced with a considerable amount of genomic data which has to be functionally characterised in order to bring new concepts, which will lead to new therapies. These studies approach molecular-based mechanisms, and need high-throughput and parallel data management. The multidisciplinary work presented here has allowed the development of a miniaturised technology of cell culture in liquid drops, matrixed on a plane solid substrate, to test the action of molecules or conditions on the cells behaviour. After the macroscopic demonstration of nucleic acid molecule transfection in living cells on such a device, we have developed a fabrication protocol for a miniaturised support, able to maintain 100 nano-drops per cm², based on differential surface tensions. A picoliter dispensing robot was integrated to make the cell culture drops automatically. The cells' behaviour in the drops is analysed by high-content fluorescence microscopy after fixation. Each cell of each drop is characterised by tenths of parameters individually. This new analytical approach, which has triggered the development of new bio-statistical tools, has been applied to a multipartner project of siRNA screening, aimed at studying the impact of genes on glioblastoma cells chemoresistance. We have also shown the use of mass spectrometry as a multiparametric phenotyping method. This cell-on-chip technology seems particularly well suited for the study of the precise behaviour of cells among a population at high-throughput. It will be the base of new lab-on-chip technologies
Styles APA, Harvard, Vancouver, ISO, etc.
5

Beaulieu, Mathilde. « Imagerie optique à très haut contraste : une approche instrumentale optimale ». Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4040/document.

Texte intégral
Résumé :
Cette thèse vise à investiguer des moyens d'optimiser les performances de l'imagerie à haut contraste dans l'optique et le proche infrarouge pour la détection d'exo-planètes. L'étude principale a été menée sur le contraste à faible séparation permettant l'imagerie d'exo-planètes dans leur zone habitable. Cette détection directe est rendue possible par le développement des futurs grands télescopes et de coronographes de plus en plus performants à faible séparation. L'approche retenue permet de créer une zone sombre à haut contraste grâce à la coronographie et au « wavefront shaping » (contrôle de l'amplitude et de la phase avec 2 miroirs déformables), mais qui est limité par les effets de propagation de Fresnel. Les résultats obtenus ont déterminé les limitations de configuration optique pour le « wavefront shaping ». Grâce à une approche semi-analytique soutenue par des simulations numériques et une approche Monte-Carlo, ces limitations ont été analysées et quantifiées pour extraire les configurations optimales. Les résultats ont été appliqués au banc SPEED dont l'objectif est d'optimiser et de tester le haut contraste à faible séparation. Une deuxième étude a été une contribution à une étude générale de stabilité, en traitant la stabilité temporelle comme un paramètre indispensable dans la conception en amont d'instrument haut contraste. Un travail préliminaire a été initié sur la stabilité des instruments de mesure eux-mêmes à travers l'étude thermique d'un système de métrologie. Enfin, un dernier volet a été une étude de simulation de performances d'un nouveau concept d'imagerie différentielle basé sur l'acquisition d'images réalisées avec différentes tailles de pupilles
This thesis aims to optimize high-contrast imaging performance in visible and near infrared for exoplanet detection. The main study focuses on high-contrast at small separation, to image exoplanets in their habitable zone. This direct detection is achievable with the next Extremely Large Telescopes and with the development of coronagraph providing high performance at small separation. The approach adopted for this study creates a high-contrast region (a dark hole) with the combination of coronagraphy and wavefront shaping (wavefront control of both phase and amplitude with 2 deformable mirrors) but is limited by the Fresnel propagation of phase aberrations. The goal of this work is to define the wavefront shaping limitation in optical configuration (deformable mirrors location, component optical quality, beam diameter). A semi-analytic approach followed by a Monte-Carlo analysis of numerical end-to-end simulations is studied, resulting in the definition of the optimal configuration. Results are then applied to SPEED, a test bench to optimize and test high-contrast imaging at small separation with a segmented pupil. Another aspect of this thesis is a contribution to a stability study to treat the temporal stability as a crucial parameter in high-contrast imaging instrumentation, at the conception level. A preliminary work is initiated during the thesis to analyse the stability of the measuring instrument itself. A metrology tool and its thermal behaviour are thus studied. Finally, the last part of this thesis is a performance analysis of a new differential imaging technique, developed to improve high contrast with observations with different diaphragm sizes
Styles APA, Harvard, Vancouver, ISO, etc.
6

Jai, Andaloussi Said. « Indexation de l'information médicale. Application à la recherche d'images et de vidéos par le contenu ». Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0150.

Texte intégral
Résumé :
Dans ce travail de thèse, nous nous intéressons à l'utilisation des bases de données médicales multimédia pour l'aide à la décision diagnostique et le suivi thérapeutique. Notre objectif est de définir des méthodes, et un système, pour sélectionner dans les bases de documents multimédia des documents similaires à un document proposé en requête. Ces documents contiennent des informations sous forme texte, numérique, des images et parfois des séquences vidéos. Pour l'aide au diagnostic, l'interrogation du système s'effectue en lui présentant en requête le dossier patient, ou une partie de ce dossier. Notre travail va donc mettre en oeuvre des méthodes relatives au raisonnement à base de cas (CBR : Case Based Reasoning), à la fouille de données, à la recherche d‘images par le contenu (CBIR : Content Based Image Retrieval) et à la rechercher de vidéo par le contenu (CBVR : Content Based Video Retrieval). Les méthodes sont évaluées sur trois bases de données médicales multimodales. La première base de données étudiée est une base d‘images rétiniennes, constituée au LaTIM pour l‘aide au suivi de la rétinopathie diabétique. La seconde base est une base publique de mammographies (Digital Database for Screening Mammography, DDSM University of South Florida). La troisième base de données est une base de video gastro-entérologie constituée aussi au LaTIM. Nous utilisons cette base pour étudier les possibilités d'utilisation des méthodes développées dans le cadre de la recherche d‘images fixes, pour la recherche de séquences vidéos couleurs. Dans la première partie de notre travail, nous cherchons à caractériser individuellement chaque image du dossier patient. Nous avons poursuivi les travaux effectués dans le laboratoire sur l‘utilisation des méthodes globales de caractérisation des images dans le domaine compressé (quantification vectorielle, DCT, JPEG-ondelettes, ondelettes adaptées) pour la recherche d‘images. Les résultats obtenus avec les ondelettes, comparés aux autres méthodes de compression ont montré une grande amélioration en terme de retrouvaille. Cependant, les ondelettes nécessitent la spécification d'un noyau ou d'une fonction de base pour effectuer la décomposition. Pour pallier ce problème, nous avons proposé une méthode originale de caractérisation à partir de la décomposition BEMD des images (Bidimensionnal Empirical Mode Decomposition) : elle permet de décomposer une image en plusieurs modes BIMFs (Bidimensionnel Intrinsic Mode Functions), qui permettent d'accéder à des informations sur le contenu fréquentiel des images. Une des originalités de la méthode provient de l‘auto-adaptativite de la BEMD, qui ne nécessite pas une fonction de base pour effectuer la décomposition. Une fois les images caractérisées, la recherche s'effectue en calculant, au sens d'une métrique donnée, la distance entre la signature de l‘image requête et les signatures des images de la base. Ce calcul permet de sélectionner des images en réponse à la requête en dehors de toute signification sémantique. Pour améliorer le résultat de retrouvaille, nous introduisons une technique d‘optimisation pour le calcul de la distance entre signature, en utilisant les algorithmes génétiques. Nous abordons ensuite le problème de la recherche de vidéos par le contenu. Pour cela, nous introduisons une méthode pour le calcul des signatures vidéo à partir des images clefs extraites par l‘analyse du mouvement. La distance entre signatures video est calculée en utilisant une technique basée sur l‘analyse en composantes principales. Enfin, nous intégrons les travaux précédents dans la requète par dossiers patients, qui contiennent plusieurs images ainsi que des informations textuelles, sémantiques et numériques. Pour cela nous utilisons trois méthodes développées dans le cadre d‘une these récemment soutenue dans notre laboratoire : la première est basée sur les arbres de décision, la deuxième sur les réseaux bayésiens et la troisième sur la théorie de Dezert-Smarandache (DSmT)
This PhD thesis addresses the use of multimedia medical databases for diagnostic decision and therapeutic follow-up. Our goal is to develop methods and a system to select in multimedia databases documents similar to a query document. These documents consist of text information, numeric images and sometimes videos. In the proposed diagnosis aid system, the database is queried with the patient file, or a part of it, as input. Our work therefore involves implementing methods related to Case-Based Reasoning (CBR), datamining, Content Based Image Retrieval (CBIR) and Content Based Video Retrieval (CBVR). These methods are evaluated on three multimodal medical databases. The first database consists of retinal images collected by the LaTIM laboratory for aided diabetic retinopathy follow-up. The second database is a public mammography database (Digital Database for Screening Mammography – DDSM –) collected by the University of South Florida. The third database consists of gastroenterology videos also collected by the LaTIM laboratory. This database is used to discover whether methods developed for fixed image retrieval can also be used for color video retrieval. The first part of this work focuses on the characterization of each image in the patient file. We continued the work started in our laboratory to characterize images globally in the compressed domain (vector quantization, DCT-JPEG, wavelets, adapted wavelets) for image retrieval. Compared to other compression methods, the wavelet decomposition led to a great improvement in terms of retrieval performance. However, the wavelet decomposition requires the specification of a kernel or basis function. To overcome this problem, we proposed an original image characterization method based on the BEMD (Bidimensionnal Empirical Mode Decomposition). It allows decomposing an image into several BIMFs (Bidimensionnal Intrinsic Mode Functions) that provide access to frequency information of the image content. An originality of the method comes from the self-adaptivity of BEMD: it does not require the specification of a basic function. Once images are characterized, a similarity search is performed by computing the distance between the signature of the query image and the signature of each image in the database, given a metric. This process leads to the selection of similar images, without semantic meaning. An optimization process, based on genetic algorithms, is used to adapt the distance metric and thus improve retrieval performance. Then, the problem of content based video retrieval is addressed. A method to generate video signatures is presented. This method relies on key video frames extracted by movement analysis. The distance between video signatures is computed using a Principal Component Analysis (PCA) based technique. Finally, the proposed methods are integrated into the framework of patient file retrieval (each patient file consisting of several images and textual information). Three methods developed during a PhD thesis recently defended in our laboratory are used for patient file retrieval: the first approach is based on decision trees and their extensions, the second on Bayesian networks and the third on the Dezert-Smarandache theory (DSmT).
Styles APA, Harvard, Vancouver, ISO, etc.
7

Benoit, Landry. « Imagerie multimodalité appliquée au phénotypage haut-débit des semences et plantules ». Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0084.

Texte intégral
Résumé :
Au cours de ce travail nous avons utilisé les potentialités de différentes modalités d'imagerie, que nous appliquons au domaine du végétal afin de contribuer au phénotypage haut-débit des semences et plantules. Nous nous somme principalement consacré à la recherche de réponses à deux problématiques spécifiques et importantes de ce secteur. Nous commençons par montrer l'applicabilité de l'imagerie en lumière visible inactinique et de l'imagerie thermographique passive pour imager le développement des semences et plantules, un phénomène biologique se déroulant normalement dans le sol et l’obscurité. Nous présentons nos apports à ce type d’imagerie, au travers de nos contributions à la conception et à la réalisation d’un système de vision en imagerie visible inactinique, ayant pour finalité la réalisation de mesures individualisées automatisées sur les semences, les plantules et les organes des plantules. Ce système gère les croisements de plantules, via l'utilisation originale de la diffusion anisotrope, ce qui nous a permis de multiplier, sans perte d'information, les débits par dix. De plus, ce système réalise la séparation des organes au moyen d’un critère générique basé sur le gravitropisme. La validation des algorithmes de traitement d'images du système de vision utilise des voies originales (simulation numérique et test de l'influence de l'incertitude via simulation agronomique). L’imagerie thermographique, qui capte le rayonnement thermique passif des objets, nous permet de visualiser et de mesurer les semences et plantules dans l'obscurité. Elle permet aussi de réaliser la segmentation et le suivi des organes de plantules. Cette technologie d'imagerie nous a aussi permis de montrer la faisabilité d'un dosage non destructif de teneur en sucre des organes de plantules de betterave. Ensuite nous proposons une méthodologie générique permettant la conception de capteurs bas-coût spectralement optimisés, en fonction de tâches applicatives déterminées. Cette méthodologie utilise la théorie de l’information, pour extraire de l’imagerie hyperspectrale, relativement coûteuse, l’information utile à la conception des capteurs dédiés bas-coût. L’intérêt de cette méthodologie pour le phénotypage des plantes est montré et justifie le transfert de celle-ci au monde de la recherche en biologie végétale
Along this work, we have used the potentiality of different modalities of imagery that we apply to the plant domain so as to contribute to the high-throughput phenotyping of seeds and seedlings. We have mainly committed ourselves to the search for answers to two specific and important problematic in this domain. We begin by showing the applicability of visible imaging using an inactinic light and passive thermographic imaging to image the development of seeds and seedlings, a biological phenomenon usually occurring in soil and darkness. We present our contributions to this type of imaging through our contributions to the conception and the realization of a vision system using visible inactinic imaging, whose finality is the realization of individualized automated measurement on the seeds, the seedlings and the organs of the seedlings. This system handle seedling crossing, through the original use of anisotropic diffusion, which allowed us to multiply, without information loss, the output by ten. Furthermore, this system carries out the separation of the organs by means of a generic criterion based on gravitropism. The validation of the image processing algorithms of the vision system use original ways (numerical simulation and test of the influence of the uncertainty through agronomic simulation). Thermographic imaging, which captures the passive heat radiation of objects, allows us to visualize and to measure seeds and seedlings in the darkness. It also allows realizing the segmentation and the tracking of the organs of seedlings. This imaging technology also allowed us to demonstrate the feasibility of a non-destructive determination of sugar quantity in organs of beet seedlings. We then propose a generic methodology that allows the conception of spectrally optimized low-cost sensors, according to determined application tasks. This methodology uses information theory, to extract from, relatively expensive, hyperspectral imaging, the information needed for the conception of the dedicated low-cost sensors. The interest of this methodology for plant phenotyping has been shown and justifies its transfer to the world of research in plant biology
Styles APA, Harvard, Vancouver, ISO, etc.
8

Stout, Jacques. « Spectroscopie et Imagerie RMN multi-noyaux à très haut champ magnétique ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS312/document.

Texte intégral
Résumé :
Le trouble bipolaire est un trouble de l'humeur récurrent affectant de 1 à 3% de la population adulte à travers le monde et ayant une comorbidité importante avec une hausse du taux de suicides, l'abus de drogues et d'autres troubles médicaux. Ce trouble semble avoir plusieurs liens avec la schizophrénie et une vulnérabilité au trouble est souvent héréditaire dans une famille. Même si les causes biologiques n'ont pas encore été établies, de nombreuses anomalies dans le système limbique sous-cortical et la zone préfrontal ont été observés.Depuis sa découverte il y a plus d'un demi-siècle, une prise de sels de Lithium a été le traitement le plus fiable, mais l'action biochimique du Lithium sur le cerveau et le pourquoi de l'efficacité du traitement reste un mystère. Afin de pouvoir mieux comprendre cet effet, nous avons développé des séquences d'imagerie du Lithium-7 via résonance magnétique à 7 et 17 Tesla afin de pouvoir établir sa distribution et concentration cérébrale. Spécifiquement, j'ai travaillé sur le développement et la validation des méthodes d'acquisition, de reconstruction et de quantification de notre protocole. Ces méthodes ont d'abord été appliqués afin d'étudier la distribution cérébrale du Lithium sur des cerveaux de rats ex-vivo. Ces rats étés traités pendant 28 jours avec du Li2CO3, sacrifiés et leurs têtes fixés avec du PFA. En utilisant une antenne surfacique double canaux 1H/7Li fait maison, une acquisition 7Li Turbo Spin echo et une méthode de remplacement par fantôme pour la quantification, nous avons pu mesurer les cartes de concentration du Lithium. Les concentrations moyennes obtenus dans des régions d’intérêt prédéfinis ont été mesurés afin de les comparer avec les résultats obtenus par spectrométrie de masse.Après cette étude préclinique qui a permis de valider notre approche, un protocole similaire fut créé pour une étude in-vivo 7Li d'imagerie par résonance magnétique chez des patients bipolaires euthymiques sur un scanner 7T. Ces individus ont tous suivis un traitement régulier de Lithium. Pour cette étude, nous avons utilisé une séquence Steady State Free Precession à TE ultra-court et avec un échantillonnage du k-space non-cartésien. Un pipeline de quantification et d'analyse similaire à celle utilisé pour notre étude préclinique fut appliqué pour cette étude, avec l'ajout d'une étape de correction pour les inhomogénéités de B0. Après avoir fait une analyse statistique au niveau de toute la cohorte par régions d'intérêt, il a été observé que l'hippocampe gauche, une part majeur du système limbique associé au trouble bipolaire à de multiples occasions, possède systématiquement une haute concentration de Lithium. Finalement, la méthode de quantification fut modifiée en quantification bi-compartimentale afin de prendre en compte les différences dans les taux de relaxation du Lithium dans le CSF et dans le parenchyme du cerveau. Cette méthode fut appliqué afin de pouvoir quantifier le Lithium à 7T dans un sous-groupe des patients bipolaires et radicalement réduire les différences initialement observés entre les séquences SSFP et bSSFP
Bipolar disorder is a chronic affective disorder affecting 1 to 3% of the adult population worldwide and has a high level of comorbidity with suicide rates, substance abuse and other harmful conditions. The disorder has possible ties to schizophrenia and has been observed to have a strong genetic component. The exact biological underpinnings have not been firmly established, however abnormalities in limbic subcortical and prefrontal areas have been observed.Ever since its discovery more than half a century ago, a daily intake of Lithium salts has arguably become the most reliable treatment of the disorder, despite us possessing little to no understanding of its biochemical action. In order to shed some light on the effect of Lithium in the brain, we have developed Lithium-7 MR imaging at 7 and 17 Tesla in order to assess its cerebral concentration and distribution. Specifically, I worked on developing and validating several acquisition, reconstruction and quantification methods dedicated to 7Li MRI and MRS. Those methods were first applied to study ex vivo the cerebral distribution of lithium in rats. These rats were pretreated for 28 days with Li2CO3, sacrificed and their head fixated with PFA. Using a home-made 1H/7Li radiofrequency surface coil and a 7Li Turbo Spin echo acquisition and a modified phantom replacement method for quantification, we were able to measure Li concentration maps. Regional Li concentration values were then compared with those obtained with mass spectrometry.After this preclinical proof-of-concept study, an in vivo 7Li MRI protocol was designed to map the cerebral Li concentration in euthymic bipolar subjects at 7T. These individuals all followed a regular lithium treatment. For this study, we chose to use an ultra-short echo-time Steady State Free Precession sequence with non-Cartesian k-space sampling. A quantification and analysis pipeline similar to the one used for our preclinical study was applied for this study, with the addition of a correction step for B0 inhomogeneities. After conducting a statistical analysis at the cohort level, it was assessed that the left hippocampus, a major part of the limbic system that has been associated with BD on multiple occasions, exhibited systematically a high level of lithium. Finally, I developed a quantification method accounting for the different relaxation times of 7Li in the CSF and in the brain parenchyma. This method was applied to image lithium at 7T in a subset of bipolar patients reducing drastically the differences initially observed between the SSFP and bSSFP sequences
Styles APA, Harvard, Vancouver, ISO, etc.
9

Po, Chrystelle. « Etude par IRM à haut champ de l'ischémie cérébrale transitoire chez le rat nouveau né ». Thesis, Evry-Val d'Essonne, 2009. http://www.theses.fr/2009EVRY0002.

Texte intégral
Résumé :
Le but de cette étude était de caractériser par IRM et SRM in vivo le développement à court et moyen terme des atteintes cérébrales consécutives à une ischémie expérimentale transitoire focale chez le rat nouveau né (P7). Les résultats obtenus ont montré que l’IRM à court terme permettait le suivi de l’extension des aires atteintes pendant l’ischémie et la reperfusion et que ce suivi avait un caractère prédictif en ce qui concerne le devenir futur de ces tissus. Le suivi a moyen terme a permis de mettre en évidence le développement d’une cicatrice gliale dans les aires atteintes, par imagerie pondérée T2, et les réorganisations des réseaux de fibres cérébrales, par imagerie du tenseur de diffusion dans cette cicatrice et dans des aires adjacentes homolatérales. Les protocoles d’IRM développés seront donc des outils performants pour l’évaluation de traitements thérapeutiques ayant pour cible ces deux processus
The aim of this study was to characterize by in vivo MRI and MRS the short term and middle term developments of cerebral injuries following an experimental transient focal ischemia in the newborn rat (P7). The results show the efficiency of MRI to monitor the short term extent of the injured areas during ischemia and reperfusion and to predict the extent of the middle term extent of brain damage. The middle term monitoring has shown the development of a glial scar in the injured areas, by T2 weighted imaging, and the remodeling of the cerebral fiber networks, by Diffusion Tensor Imaging both in the glial scar and in ipsilateral adjacent areas. The monitoring of cerebral ischemia by these imaging methods will be thus a useful tool to evaluate the efficiency of therapeutic treatments directed toward these two processes
Styles APA, Harvard, Vancouver, ISO, etc.
10

Hadam, Pawel. « Transports nouvelle génération dans les réseaux à très haut débit ». Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00010643.

Texte intégral
Résumé :
Cette thèse a été motivée par le développement des réseaux à très haut débit (au-delà de 1 Gb/s). Nous avons étudié comment ce type de réseaux peut changer les concepts et les protocoles utilisés actuellement. Nous avons considéré deux problèmes : le premier est le multihoming : la possibilité pour un hôte de bénéficier de plusieurs connexions simultanées aux fournisseurs d'accès, et le deuxième la distribution de contenu. Nous avons étudié le nouveau protocole de niveau transport SCTP et proposé des extensions qui permettent d'augmenter les performances et la fiabilité de communication grâce au multi-accès. Le protocole SCTP et les extensions proposées ont été testés et validés sur le réseau à très haut débit VTHD++. Pour le deuxième problème, nous avons conçu et prototypé un protocole de diffusion de contenu basé sur la notion d'inondation. Grâce au routage par contenu proposé pour le protocole, le contenu peut être livré aux consommateurs sans connaître leur localisation.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Ouellet, Mireille, et Mireille Ouellet. « Système optique d'imagerie haut contraste embarqué sur un ballon stratosphérique ». Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37114.

Texte intégral
Résumé :
Plusieurs projets de télescopes spatiaux ont pour objectif d’étudier des exoplanètes en ayant recours à des techniques d’imagerie directe à haut contraste. Afin d’atteindre une différence de contraste requise entre la lumière de l’étoile et celle réfléchie par l’exoplanète, ses systèmes doivent utiliser un coronographe pour occulter la lumière de l’étoile et corriger en temps réel les erreurs de front d’onde avec des techniques d’optique adaptative. Les aberrations sont détectées par un analyseur de front d’onde, puis une boucle de contrôle envoie une commande qui modifie la surface d’un miroir déformable pour compenser les erreurs de front d’onde. Les performances des systèmes d’optiques adaptatives sont cependant souvent limitées par la présente d’erreurs quasi statiques qui sont causées par la différence de trajet optique entre la caméra de science et le senseur de front d’onde. Un système d’imagerie haut contraste a donc été développé pour démontrer le potentiel d’une technique de contrôle qui permet d’éliminer cette source d’erreur. Cette boucle de contrôle a la particularité d’utiliser un coronographe qui permet d’analyser les erreurs de front d’onde directement à partir de l’image de la caméra de science. Le système optique développé dans le cadre de ce mémoire a été testé en laboratoire et a également été optimisé pour réaliser une démonstration fonctionnelle dans des conditions similaires à l’espace lors d’un vol de ballon dans la stratosphère. Les résultats de vol ont permis de valider la maturité technologique de certaines composantes qui ont le potentiel d’être utilisées pour les prochaines générations de télescopes spatiaux.
Plusieurs projets de télescopes spatiaux ont pour objectif d’étudier des exoplanètes en ayant recours à des techniques d’imagerie directe à haut contraste. Afin d’atteindre une différence de contraste requise entre la lumière de l’étoile et celle réfléchie par l’exoplanète, ses systèmes doivent utiliser un coronographe pour occulter la lumière de l’étoile et corriger en temps réel les erreurs de front d’onde avec des techniques d’optique adaptative. Les aberrations sont détectées par un analyseur de front d’onde, puis une boucle de contrôle envoie une commande qui modifie la surface d’un miroir déformable pour compenser les erreurs de front d’onde. Les performances des systèmes d’optiques adaptatives sont cependant souvent limitées par la présente d’erreurs quasi statiques qui sont causées par la différence de trajet optique entre la caméra de science et le senseur de front d’onde. Un système d’imagerie haut contraste a donc été développé pour démontrer le potentiel d’une technique de contrôle qui permet d’éliminer cette source d’erreur. Cette boucle de contrôle a la particularité d’utiliser un coronographe qui permet d’analyser les erreurs de front d’onde directement à partir de l’image de la caméra de science. Le système optique développé dans le cadre de ce mémoire a été testé en laboratoire et a également été optimisé pour réaliser une démonstration fonctionnelle dans des conditions similaires à l’espace lors d’un vol de ballon dans la stratosphère. Les résultats de vol ont permis de valider la maturité technologique de certaines composantes qui ont le potentiel d’être utilisées pour les prochaines générations de télescopes spatiaux.
Several space telescope projects aim to study exoplanets using high-contrast direct imaging techniques. In order to achieve the required difference in contrast between the light from the star and that reflected by the exoplanet, those systems must use a coronagraph to mask the light of the star and correct in real time wavefront errors with adaptive optics techniques.The aberrations are detected by a wavefront sensor, then a control loop sends a command that modifies the surface of a deformable mirror to compensate for the wavefront errors. However, the performance of adaptive optics systems is often limited by the present quasi-static errors that are caused by the optical path difference between the science camera and the wavefront sensor. A high contrast imaging system has been developed to demonstrate the potential of a control technique which enables the reduction of this kind of error. This control loop has the particularity of using a coronagraph which allows the analyze of the wavefront errors directly from the science camera’s image. The optical system developed within the frameworkof this master’s project has been tested in a laboratory and was also optimized to perform afunctional demonstration in space-like conditions during a balloon flight in the stratosphere.The flight results validated the readiness level of some components that could potentially beused for the next generation of space telescopes.
Several space telescope projects aim to study exoplanets using high-contrast direct imaging techniques. In order to achieve the required difference in contrast between the light from the star and that reflected by the exoplanet, those systems must use a coronagraph to mask the light of the star and correct in real time wavefront errors with adaptive optics techniques.The aberrations are detected by a wavefront sensor, then a control loop sends a command that modifies the surface of a deformable mirror to compensate for the wavefront errors. However, the performance of adaptive optics systems is often limited by the present quasi-static errors that are caused by the optical path difference between the science camera and the wavefront sensor. A high contrast imaging system has been developed to demonstrate the potential of a control technique which enables the reduction of this kind of error. This control loop has the particularity of using a coronagraph which allows the analyze of the wavefront errors directly from the science camera’s image. The optical system developed within the frameworkof this master’s project has been tested in a laboratory and was also optimized to perform afunctional demonstration in space-like conditions during a balloon flight in the stratosphere.The flight results validated the readiness level of some components that could potentially beused for the next generation of space telescopes.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Mazard, Angélique. « Bases neurales de l'imagerie mentale visuelle : effet du contenu de l'image mentale et implication de l'aire visuelle primaire ». Caen, 2002. http://www.theses.fr/2002CAEN3078.

Texte intégral
Résumé :
Nos travaux de thèse présentent l'influence de différents facteurs (nature de la tâche, contenu sémantique de l'image mentale, variabilité inter-individuelle) sur la nature des substrats neuraux impliqués dans des tâches d'imagerie mentale visuelle, et particulièrement sur la présence et l'absence d'activation de l'aire visuelle primaire (AVP). En Tomographie par Emission de Positon, nous avons montré que la réalisation d'une tâche d'imagerie mentale dans un environnement sonore bruyant induit l'activation d'un réseau d'aires attentionnelles, et de l'AVP, absente lors de la réalisation de la même tâche dans le silence. Nous avons également montré l'influence de la nature spatiale ou figurative de la tâche d'imagerie mentale sur l'activité de l'AVP. Enfin, en IRMf, nous avons observé un effet du caractère signifiant de l'image mentale, à l'origine d'un réseau d'activation latéralisé à gauche ainsi qu'une variabilité interindividuelle de l'activité de l'AVP.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Kazemi, Kamran. « L' intégration d'information bas et haut-niveau pour la segmentation optimisée d'images cérébrales 3D chez l'enfant nouveau-né ». Amiens, 2008. http://www.theses.fr/2008AMIED004.

Texte intégral
Résumé :
La première étape de cette Thèse était de créer un atlas probabiliste du cerveau néonatal comprenant un atlas 'template' et des modèles probabilistes du cerveau, du liquide cérébro-spinal (CSF) et du crâne. L'atlas est basé sur les images IRM T1 en haute résolution de 7 patients d’âge gestationnel compris entre 39 et 42 semaines. L'atlas 'template' a été évalué par la détermination de la déviation de points de repère anatomiques caractéristiques et la somme total de déformation locale nécessaire pour la normalisation des tissus cérébraux en fonction d’une image néonatale de référence. Dans la deuxième partie, nous avons construit un simulateur d’images IRM cérébrales néonatales à partir de notre fantôme 3D néonatal numérique. Ce fantôme est composé de 9 types tissulaires différents: scalpe, crâne, graisse, muscle, dure-mère, substance grise, substance blanche, myelinisée et non-myelinisée et liquide cérébrospinal. Le fantôme numérique a été utilisé pour caractériser les intensités des signaux pour simuler ensuite les images IRM. Les images simulées avec une dégradation bien contrôlée peuvent servir comme données d'évaluation pour des méthodes d'analyse des images IRM néonatales, tel que des algorithmes de segmentation et/ou d’acquisition. Dans la dernière partie, nous avons développé une méthode de segmentation tissulaire automatique pour les IRM néonatales. Dans cette étude, nous avons appliqué un algorithme basé sur un atlas permettant la segmentation du crâne, du cerveau, et du CSF chez le nouveau-né à partir des images IRM 3D en T1. Nous avons utilisé la méthode de segmentation basée sur l'algorithme EM et la chaîne aléatoire de Markov qui est implémentée et utilisée dans l'outil SPM et sa boîte à outils VBM en conjonction avec notre atlas probabiliste, qui est utilisé pour constituer des informations a priori. Les résultats démontrent que notre méthode permet de segmenter avec une grande précision le cerveau, le CSF et le crâne des IRM néonatales
In this thesis, as the first step, we created a neonatal brain probabilistic atlas consisting of atlas template and probabilistic models for brain, cerebrospinal fluid (CSF) and skull. The atlas is created based on high resolution T1 Magnetic Resonance images of 7 individuals with gestational ages between 39 and 42 weeks at date of examination. The atlas template was evaluated by i) determining the deviation of characteristic anatomical landmarks and ii) the total amount of local deformation needed for the different brain tissues to meet the normalized neonatal image. In the second part of the thesis, we constructed a neonatal cerebral MR image simulator based on our created 3D digital neonatal neurocranial phantom. The created neonatal brain phantom consists of 9 different tissue types: scalp, skull, fat, muscle, dura mater, gray matter, myelinated white matter, non-myelinated white matter and CSF. The digital phantom was used to map simulated nuclear magnetic resonance signal intensities to simulate MR images of the newborns' head. The simulated images with controlled degradation of image data may serve as an evaluation data set for evaluating neonatal MRI analysis methods, e. G. Segmentation/registration algorithms. In the last part of this thesis, we developed an automatic tissue segmentation method for newborn brains from magnetic resonance images. We applied an atlas based algorithm for brain, CSF and skull segmentation of the newborns from 3D T1 weighted MR images. We used the segmentation method based on EM algorithm and Markov random filed which is implemented in SPM toolbox and its VBM toolbox in conjunction with our created probabilistic atlas as prior information. The results demonstrate that our method realizes a tool capable to segment reliably brain, CSF and skull from MRI of neonates
Styles APA, Harvard, Vancouver, ISO, etc.
14

Laou, Laetitia. « Bases neurales de l’imagerie mentale figurative et spatiale : effet de la présence de contenu sémantique et de l’utilisation de la réalité virtuelle ». Caen, 2006. http://www.theses.fr/2006CAEN2058.

Texte intégral
Résumé :
Nous avons étudié en IRMf les bases neurales de l’imagerie mentale visuelle, à travers ses relations avec deux modes de représentation : l’un naturel, le langage, et l’autre artificiel, la réalité virtuelle. L’hémisphère gauche étant dominant pour le langage chez les droitiers, nous avons testé, dans une première étude, l’hypothèse d’une spécialisation hémisphérique gauche pour les images mentales ayant un contenu lexico-sémantique (objets) comparées à celles n’ayant aucune signification (non-objets). Cette expérience a révélé une activation d’un réseau occipito-temporo-frontal gauche plus importante dans l’imagerie mentale d’objets que dans celle de non-objets, confirmant ainsi l’hypothèse initiale. Une deuxième étude visait à déterminer si la nature réelle ou virtuelle de l’environnement appris modifie le substrat cérébral de la représentation topographique. Malgré l’observation de similitudes comportementales entre les modalités Réel et Virtuel, nous avons rapporté des différences au niveau neural, en particulier dans les régions sensori-motrices. La condition Réel a davantage recruté les aires prémotrices associées à l’activité locomotrice des sujets tandis que la condition Virtuel a davantage impliqué des régions frontales et pariétales latéralisées à gauche liées à l’utilisation d’un joystick, reflétant ainsi une trace neurale de la modalité d’apprentissage. Nos travaux de thèse montrent donc que le recrutement de l’hémisphère gauche en imagerie mentale serait modulé par la nature (signifiante vs non signifiante) des informations encodées ainsi que par la modalité (virtuelle vs réelle) dans laquelle ces informations ont été acquises
We studied with fMRI the neural bases of visual mental imagery through its relations with two kinds of representation: one natural, language, the other artificial, virtual reality. Given that language is predominantly processed by the left hemisphere in right-handed subjects, we tested, in a first study, the hypothesis of a left hemispheric specialization for mental images including lexico-semantic information (objects) compared to meaningless images (non-objects). This work revealed that activation was stronger in a left occipito-temporo-frontal network during object imagery than non-object one, supporting our initial hypothesis. A second study investigated whether the real or virtual nature of the learnt environment affected the neural substrate of the topographical representation. Although behavioural performance was similar between Real and Virtual modalities, differences were reported at the brain level, especially in sensori-motor regions. Real learners showed greater activity in premotor areas related to actual locomotion of the subjects, while Virtual learners engaged more left-lateralized frontal and parietal regions involved in the use of a joystick, thus reflecting a neural trace of the learning modality. Overall, our work demonstrates that the recruitment of the left hemisphere in mental imagery would be modulated by the nature (meaningful vs meaningless) of the informations encoded and by the modality (virtual vs real) wherein these informations have been acquired
Styles APA, Harvard, Vancouver, ISO, etc.
15

Song, Ok-Ryul. « Criblage phénotypique d'une banque d'ARN interférents par microscopie haut-débit haut-contenu d'informations appliqué à l'identification de facteurs cellulaires impliqués dans la colonisation du pneumocyte par Mycobacterium tuberculosis ». Angers, 2012. http://www.theses.fr/2012ANGE0012.

Texte intégral
Résumé :
La psychopathologie de la tuberculose associée à l'épidémie de SIDA et l'apparition de bacilles multi - résistants et extrêmement - résistants conduisent à des situations d’échecs thérapeutiques. Une meilleure compréhension des mécanismes moléculaires et cellulaires impliqués dans le processus de colonisation de l'organisme hôte par Mycobacteriun tuberculosis est nécessaire pour permettre des progrès radicaux en matière de lutte contre la tuberculose. M. Tuberculosis a la capacité de coloniser différents types de cellules pulmonaires constituant ainsi des véritables réservoirs du bacille. Si la contribution du bacille intramacrophagique dans la pathogenèse est bien établie, en revanche, le processus de colonisation des cellules épithéliales par M. Tuberculosis par microscopie haut débit haut contenu et l'avons appliqué au calibrage de 20 000 ARN interférents. Nous avons ainsi identifié 88 gènes candidats impliqués dans la réplication du bac. ARFGAP1 est un régulateur négatif de l'activation d'ARF1 qui est impliqué dans les système de trafic vésiculaire COPI et les voies de signalisation par la phospholipase D. L'ensemble de nos résultats ouvrent de nouvelles perspectives de recherche dans la signalisation intercellulaire de M. Tuberculosis. The current TB lengthy antibiotic therapy fails to be effective against multidrug and extremly resistant strains. To this end, improved understanding of the fundamental biology of this complex disease is needed to come up with radical advances in TB control. Pathology is intimately linked to the interplay between the host immune response and the persistence of the mycobacterium. In the lungs -the major affected organ- M. Tuberculosis has a preferential tropism for alveolar macrophages, dendritic cells and type II alveolar pneumocytes. Whereas the colonization of macrophages by M. Tuberculosis has been comprehensively studied, much less is knowm abaout that of lungs epithelial cells in which the bacillus penetrates but hardly replicates. To uncover key cellular genes involved in the invasion of M. Tuberculosis in pneumocytes, we undertook a genome wide RNAi screening on the M. Tuberculosis infected type II pneumocyte cell model A549. To do this we established a method relying on high content high troughput microscopy enabling the screening of a library of 20 000 RNAi and the selection and confirmation of the 88 RNAi hits. Among them, we carried out a more thorough study on ARFGAP1 for which silencing led to extensive bacterial internalization inside the epithelial cells followed by strong replication. We showed that in the context of out in vitro M. Tuberculosis model of infection, ARFGAP1 negatively regulates ARF1, which impacts on vesicular trafficking, signaling through phospholipase D and actin remodeling. Altogether, our results reveal novel host pathways that are involved in the succesful intracellular colonization of the tubercle becillus. S.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Chaouch, Mohamed. « Recherche par le contenu d'objets 3D ». Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005168.

Texte intégral
Résumé :
Aujourd'hui, grâce aux technologies récentes de numérisation et de modélisation 3D, des bases d'objets 3D de taille de plus en plus grande deviennent disponibles. La recherche par le contenu apparaît être une solution nécessaire pour structurer, gérer ces données multimédia, et pour naviguer dans ces grandes bases. Dans ce contexte, nous nous sommes intéressés plus particulièrement aux trois phases qui constituent le processus de la recherche par le contenu : la normalisation, l'extraction de la signature, et la mesure de similarité entre objets 3D. La première partie de la thèse porte sur la normalisation d'objets 3D, en particulier sur la recherche de la pose optimale. Nous proposons une nouvelle méthode d'alignement d'objets 3D basée sur la symétrie de réflexion et la symétrie de translation locale. L'approche repose sur les propriétés intéressantes de l'analyse en composantes principales vis-à-vis des symétries de réflexion pour retrouver d'éventuels axes d'alignement optimaux parmi les axes principaux. La deuxième partie de la thèse est consacrée à l'étude des descripteurs de forme et des mesures de similarité associées. Dans un premier temps, nous proposons un nouveau descripteur 3D dérivé de la transformée de Gauss, appelé 3D Gaussian descriptor. Calculé sur une partition de l'espace englobant l'objet, ce descripteur permet de caractériser localement la géométrie de la surface. Dans un deuxième temps, nous avons étudié les approches multi-vues caractérisant l'objet 3D à partir des images de projection. Nous introduisons une technique d'amélioration, appelée Enhanced Multi-views Approach, pouvant s'appliquer à la plupart des approches multi-vues. Des valeurs de pertinence sont définies et introduites dans la mesure de similarité afin de pondérer les contributions des projections dans la description de la forme 3D. La dernière méthode d'indexation que nous proposons, appelée Depth Line Approach, est une approche multi-vues fondée sur les images de profondeur. Pour les caractériser, nous introduisons une méthode de transcodage qui transforme les lignes de profondeur extraites en séquence d'états. Pour permettre une comparaison efficace, la mesure de similarité associée se base sur la programmation dynamique.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Chaouch, Mohamed. « Recherche par le contenu d'objets 3D ». Phd thesis, Paris, ENST, 2009. https://pastel.hal.science/pastel-00005168.

Texte intégral
Résumé :
Dans cette thèse, nous nous sommes intéressés aux trois phases qui constituent le processus de la recherche par le contenu : la normalisation, l'extraction de la signature, et la mesure de similarité. La première partie de la thèse porte sur la normalisation d'objets 3D, en particulier sur la recherche de la pose optimale. Nous proposons une nouvelle méthode d'alignement basée sur la symétrie de réflexion et la symétrie de translation locale. L'approche repose sur les propriétés intéressantes de l'analyse en composantes principales vis-à-vis des symétries de réflexion pour retrouver d'éventuels axes d'alignement optimaux. La deuxième partie est consacrée à l'étude des descripteurs de forme et des mesures de similarité associées. Dans un premier temps, nous proposons un nouveau descripteur 3D dérivé de la transformée de Gauss, appelé 3D Gaussian descriptor. Calculé sur une partition de l'espace englobant l'objet, ce descripteur permet de caractériser localement la géométrie de la surface. Dans un deuxième temps, nous avons étudié les approches multi-vues caractérisant l'objet 3D à partir des images de projection. Nous introduisons une technique d'amélioration, appelée Enhanced Multi-views Approach, pouvant s'appliquer à la plupart des approches multi-vues. Des valeurs de pertinence sont définies et introduites dans la mesure de similarité afin de pondérer les contributions des projections. La dernière méthode d'indexation proposée, la Depth Line Approach, est une approche multi-vues fondée sur les images de profondeur. Pour les caractériser, nous introduisons une méthode de transcodage qui transforme les lignes de profondeur extraites en séquence d'états
This thesis deals with 3D shape similarity search. We focus on the main steps of the 3D shape matching process: normalization of 3D models, signature extraction from models, and similarity measure. The first part of the thesis concerns the normalization of 3D models, in particular the search for the optimal pose. We propose a new alignment method of 3D models based on the reflective symmetry and the local translational symmetry. We use the properties of the principal component analysis with respect to the planar reflective symmetry in order to select the eventual optimal alignment axes. The second part of the thesis is dedicated to the shape descriptors and the associated similarity measures. Firstly, we propose a new 3D descriptor, called 3D Gaussian descriptor, which is derived from the Gauss transform. Based on a partition of the enclosing 3D model space, this descriptor provides a local characterization of the boundary of the shape. Secondly, we study the multi-views based approaches that characterize the 3D model using their projection images. We introduce an augmented approach, named Enhanced Multi-views Approach, which can be applied in most of the multi-views descriptors. The relevance indices are defined and used in the similarity computation in order to normalize the contributions of the projections in the 3D-shape description. Finally, we propose a robust 3D shape indexing approach, called Depth Line Approach, which is based on the appearance of a set of depth-buffer images. To extract a compact signature, we introduce a sequencing method that transforms the depth lines into sequences. Retrieval is improved by using dynamic programming to compare sequence
Styles APA, Harvard, Vancouver, ISO, etc.
18

Chauvin, Gaël. « Étude des environnements circumstellaires en imagerie à haut contraste et à haute résolution angulaire ». Grenoble 1, 2003. http://www.theses.fr/2003GRE10158.

Texte intégral
Résumé :
Dans le contexte de la recherche des compagnons de faibles masses, planètes et naines brunes, et des disques de poussières autour des étoiles brillantes, une première partie de mon travail est consacrée à l'étude des performances de détection des instruments dédiés à l'imagerie à haut contraste et à haute résolution angulaire. Je me suis particulièrement intéressé aux instruments équipant actuellement les grands telescopes au sol, qui sont composés d'un système d'optique adaptative et d'une caméra infrarouge, couplée à un coronographe stellaire. J'ai eu la chance de participer aux phases d'intégration et de tests de l'instrument d'optique adaptative NAOS. Il est actuellement installé sur le télescope UT4 du Very Large Telescope de l'ESO, au Chili. J'ai, ensuite, developpé un modèle de contraste afin de cerner et d'étudier le comportement des différentes limitations dans une image d'optique adaptative, en fonction de la configuration observationnelle choisie, des modes de fonctionnement du détecteur, des caractéristiques de l'instrument utilisé et de la qualité d'image liée aux conditions atmosphériques. Cette réflexion a été déterminante dans le cadre du second volet de mon travail, portant sur la recherche en imagerie coronographique des compagnons naines brunes ou planètes et des disques circumstellaires. Deux catégories d'étoiles se sont avérées particulièrement propices à ce type d'étude. Il s'agit des membres des associations jeunes et proches, favorisant, par leur statut évolutif, la détection d'objets peu massifs, et les étoiles ayant une planète détectée par des mesures de vitesses radiales. Je présente, d'une part, les résultats que j'ai obtenus, concernant la détection de plusieurs compagnons de faibles masses probables, dans les associations jeunes du groupe Béta Pictoris, de MBM 12 et de Tucana-Horologium, ainsi qu'une étude statistique, sans précédent, sur la fraction de compagnons stellaires et naines brunes parmi ces étoiles. Je décris, d'autre part, les résultats obtenus lors de relevés systématiques d'imagerie profonde des étoiles ayant des planètes. Ils concernent la découverte d'objets faibles, jusqu'à présent inconnus dans l'environnement de ces étoiles, et les capacités de détection atteintes grâce à l'imagerie à haut contraste et à haute résolution angulaire
Ln the context of the search for brown dwarfs and giant planets companions to stars, as well as circumstellar disks, a first part of my work has been devoted to the study ofthe detection capabilities performed by high contrast and high angular resolution instruments. 1 have been, mainly, interested by the instruments, which presently equip the large ground based telescopes, and which are composed of an adaptive optics system and an infTared camera, coupled with a stellar coronagraph. 1 have been particularly involved into the integration and test phases of the Nasmyth Adaptive Optics System NAOS, presently installed at the UT4 telescope of the ESO Very Large Telescope, in Chili. 1 also developed a model to study and to predict the detection capabilities performed by su ch instruments as a function of the detector modes, the instrument characteristics, the observing configurations or the atmospheric conditions. Thinking of the limitations and the optimization of the observing detection performances has been crucial for the second part of my work, dedicated to the search for low mass companions to stars and circumstellar disks. Two types of targets have been found ideal for this study: the young, nearby associations due to their evolutionary status and the stars with planets, indirectly detected by the radial velocity measurements. I present the detection of severa! substellar candidates in the young, nearby associations Beta Pictoris, MBM 12 and Tucana-Horologium, as well as an unprecedented work on the fraction of stellar companions and of brown dwarf companions among these stars. 1 also describe the recent results concerning the discovery of faint companions in the circumstellar environment of stars with planets and 1 present the detection capabilities performed thanks to our deep imaging strategy
Styles APA, Harvard, Vancouver, ISO, etc.
19

Galicher, Raphaël. « Étude de techniques d'imagerie à haut contraste basées sur la cohérence ». Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00436293.

Texte intégral
Résumé :
Depuis 1995, environ 350 exoplanètes ont été détectées mais seule une dizaine l'a été directement pour plusieurs raisons. D'abord, les projections de l'étoile hôte et de sa planète sur la sphère céleste sont très proches -- quelques fractions de secondes d'arc. Ceci impose un diamètre minimum pour le télescope et un système compensant les perturbations atmosphériques. Ensuite, le flux lumineux de l'étoile hôte est entre un million et dix milliards de fois plus fort que celui de la planète. Pour réduire ce flux stellaire sans affecter le flux planétaire, nous utilisons un coronographe dont les performances sont limitées par les défauts optiques qui doivent être compensés ou estimés. Pendant ma thèse, j'ai étudié sur des plans théoriques et expérimentaux deux techniques: le coronographe à quatre quadrants à étages multiples (MFQPM) pour atténuer le flux stellaire et la self coherent camera (SCC) qui minimise l'impact des aberrations optiques en utilisant l'incohérence entre lumières stellaires et planétaires. J'ai montré en laboratoire qu'un prototype non optimisé du MFQPM fournissait une extinction achromatique de l'étoile centrale de mille à dix milles entre 550 et 750nm. Puis, j'ai montré par simulations que la SCC s'associe aisément avec un coronographe de type Lyot et qu'en utilisant ses deux modes de fonctionnement -- analyseur de surface d'onde en plan focal et imagerie différentielle --, des planètes de type Terre pouvaient être détectées de l'espace sous des conditions réalistes. J'ai également mesuré un défaut réel de phase via la SCC sur le banc d'Imagerie Très Haute Dynamique que j'ai développé à l'Observatoire de Paris.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Mendes, Tiago. « Identification of the modulators of and the molecular pathways involved in the BIN1-Tau interaction ». Thesis, Lille 2, 2018. http://www.theses.fr/2018LIL2S033/document.

Texte intégral
Résumé :
Les principales caractéristiques neuropathologiques de la maladie d’Alzheimer (MA) sont les plaques séniles extracellulaires composées de peptide amyloïde β (Aβ) et les enchevêtrements neurofibrillaires intracellulaires composés de Tau hyperphosphorylé. Les mécanismes conduisant à la formation de ces lésions sont encore peu connus et le laboratoire a récemment caractériser le gène “bridging integrator 1” (BIN1), deuxième facteur de risque génétique le plus associé au risque de MA, comme facteur de risque potentiellement associé à la pathologie Tau. Une interaction entre les deux protéines a été décrite in vitro et in vivo suggérant que BIN1 pourrait être impliqué dans le développement de la pathologie associée à Tau dans le cadre de la MA. Cependant, ce rôle de l'interaction BIN1-Tau dans le processus pathophysiologique de la MA n'est pas connu et il reste ainsi à déterminer si cette interaction constitue une cible thérapeutique potentielle. Ce projet a visé alors à mieux comprendre les acteurs de cette interaction en identifiant les modulateurs et les voies moléculaires impliquées dans le contrôle de l'interaction BIN1-Tau, puis de déterminer comment cette interaction est modulée dans le contexte de la MA. Nous avons utilisé pour cela des approches complémentaires de biochimie, de résonance magnétique nucléaire et de microscopie confocale. Comme modèle cellulaire, des cultures primaires de neurones de rat ont été utilisées, et la méthode “proximity ligation assay” (PLA) a été développée comme approche principale pour observer l'interaction BIN1-Tau dans ces cellules. Nous avons déterminé que l'interaction se produit entre les domaines SH3 de BIN1 et le PRD de Tau et nous avons démontré que l’interaction est modulée par la phosphorylation de Tau et BIN1: la phosphorylation de la Thréonine 231 de Tau diminue son interaction avec BIN1, tandis que la phosphorylation de BIN1 à la Thréonine 348 (T348) augmente son interaction avec Tau. Nous avons mis au point une approche de criblage d’haut contenu semi-automatisée et basé sur une bibliothèque de composés commerciaux. Ce criblage s’est basé sur des cultures primaires de neurones comme modèle cellulaire et le PLA pour détecter l'interaction BIN1-Tau. Nous avons identifié plusieurs composés capables de moduler l'interaction BIN1-Tau, notamment U0126, un inhibiteur de MEK-1/2, qui diminue cette interaction, et la cyclosporine A, un inhibiteur de la calcineurine, qui au contraire augmente celle-ci en augmentant la phosphorylation de T348 de BIN1. Par ailleurs les “Cyclin-dependent kinases” (CDK) ont été montré comme contrôlant aussi ce site de phosphorylation. Nous avons donc mis en évidence le couple Calcineurine/CDK comme contrôlant la phosphorylation T348 de Bin1 et donc l’interaction BIN1-Tau. Nous avons également développé un modèle murin de tauopathie dans lequel nous avons surexprimé BIN1 humain. Nous avons observé que la surexpression de BIN1 résorbait les déficits de mémoire à long terme et réduisait la présence d'inclusions intracellulaires de Tau phosphorylée, provoquées par la surexpression de Tau, ce qui était associé à une augmentation de l'interaction BIN1-Tau. En utilisant des échantillons de cerveau humain post-mortem, nous avons observé que les niveaux de l’isoforme BIN1 neuronal étaient diminués dans les cerveaux d’AD, alors que les niveaux relatifs de BIN1 phosphorylé à T348 étaient augmentés, suggérant un mécanisme compensatoire. Cette étude a démontré la complexité et la dynamique de l’interaction BIN1-Tau dans les neurones, a révélé des modulateurs et des voies moléculaires potentiellement impliquées dans cette interaction, et a montré que les variations de l’expression ou de l’activité de BIN1 ont des effets directs sur l’apprentissage et la mémoire, possiblement liés à la régulation de son interaction avec Tau
The main neuropathological hallmarks of Alzheimer’s disease (AD) are the extracellular senile plaques composed of amyloid-β peptide (Aβ) and the intracellular neurofibrillary tangles composed of hyperphosphorylated Tau. The mechanisms leading to the formation of these lesions is not well understood and our lab has recently characterized the bridging integrator 1 (BIN1) gene, the second most associated genetic risk factor of AD and the first genetic risk factor to have a potential link to Tau pathology. The interaction between BIN1 and Tau proteins has been described in vitro and in vivo, which suggests that BIN1 might help us to understand Tau pathology in the context of AD. However, the role of BIN1-Tau interaction in the pathophysiological process of AD is not known, and whether this interaction is a potential therapeutic target remains to be determined. The aim of this project is to better understand the actors of BIN1-Tau interaction through the identification of the modulators and the molecular pathways involved therein, as well as to understand how BIN1-Tau interaction is modulated in the context of AD. We employed biochemistry, nuclear magnetic resonance, and confocal microscopy. We used rat primary neuronal cultures (PNC) as the cellular model and developed the proximity ligation assay (PLA) as the main readout of the BIN1-Tau interaction in cultured neurons. We determined that the interaction occurs between BIN1’s SH3 domain and Tau’s PRD domain, and demonstrated that it is modulated by Tau and BIN1 phosphorylation: phosphorylation of Tau at Threonine 231 decreases its interaction with BIN1, while phosphorylation of BIN1 at Threonine 348 (T348) increases its interaction with Tau. We developed a novel, semi-automated high content screening (HCS) assay based on a commercial compound library, also using PNC as the cellular model and PLA as the readout of BIN1-Tau interaction. We identified several compounds that are able to modulate the BIN1-Tau interaction, most notably U0126, an inhibitor of MEK-1/2, which reduced the interaction, and Cyclosporin A, an inhibitor of Calcineurin, which increased the interaction through increasing the BIN1 phosphorylation at T348. Furthermore, Cyclin-dependent kinases (CDK) were also shown as regulator of this phosphorylation site. These results suggest that the couple Calcineurin/CDK regulates BIN1 phosphorylation at T348 and consequently the BIN1-Tau interaction. We also developed a mouse model of tauopathy in which we overexpressed human BIN1. We observed that the overexpression of BIN1 rescued the long-term memory deficits and reduced the presence of intracellular inclusions of phosphorylated Tau, caused by Tau overexpression, and this was associated with an increase of BIN1-Tau interaction. Also, using post-mortem human brain samples, we observed that the levels of the neuronal BIN1 isoform were decreased in AD brains, whereas the relative levels of BIN1 phosphorylated at T348 were increased, suggesting a compensatory mechanism. Altogether, this study demonstrated the complexity and the dynamics of BIN1-Tau interaction in neurons, revealed modulators of and molecular pathways potentially involved in this interaction, and showed that variations in BIN1 expression or activity have direct effects on learning and memory, possibly linked to the regulation of its interaction with Tau
Styles APA, Harvard, Vancouver, ISO, etc.
21

Grisollet, Alain. « Contribution à une étude multinucléaire ¹H, ² ³ Na, ³¹ P, sur une machine d'imagerie médicale par résonance magnétique à haut champ (1. 5 tesla) ». Paris 11, 1985. http://www.theses.fr/1985PA112302.

Texte intégral
Résumé :
L’abondance naturelle importante du proton dans le corps humain lui permet de constituer l’élément privilégié des techniques d’imagerie médicale par résonance magnétique nucléaire. Les noyaux de phosphore ³¹P, de carbone ¹³C ou de sodium ²³Na sont également utilisables, mais nécessitent des champs magnétiques importants. L’objet de cette thèse est l’étude des possibilités offertes par chacun de ces noyaux sur une machine d’IRM à 1. 5 Tesla. Alors que l’ « imagerie classique » du proton offre un lot d’informations essentiellement descriptives (tels l’emplacement ou la forme de tumeurs cancéreuses), l’imagerie spectroscopique (différentiation eau/graisses) ou l’utilisation des noyaux ²³Na et ³¹P semblent pouvoir apporter certaines données d’analyse (différentiation œdèmes/zones nécrosées par exemple). Nous nous sommes dès lors attachés au développement de ces différentes techniques, permettant ainsi l’élaboration d‘un protocole d’imagerie chimique.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Quellec, Gwenole. « Indexation et fusion multimodale pour la recherche d'informations par le contenu : Application aux bases de données d'images médicales ». Télécom Bretagne, 2008. http://www.theses.fr/2008TELB0078.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons aux méthodes de recherche d'information dans des bases de données constituées de documents multimédia. Nous les appliquons à des documents contenant des images numériques et des éléments sémantiques associés. Notre objectif est de sélectionner dans la base des documents similaires à un document proposé en requête. Pour réaliser cet objectif, nous proposons des méthodes basées sur la recherche d'images par le contenu et le raisonnement à base de cas. L'application visée est l'aide au diagnostic dans un cadre médical : la base est constituée de dossiers patients contenant plusieurs images et des informations cliniques contextuelles à propos du patient. Le système est appliqué à deux bases de données médicales multimodales. La première base de données étudiée est une base d'images rétiniennes, constituée au LaTIM pour l'aide au suivi de la rétinopathie diabétique. La seconde est une base publique de mammographies. Dans un premier temps, nous cherchons à caractériser individuellement chaque image du dossier patient. Cette caractérisation est effectuée dans le domaine compressé. Nous avons ainsi proposé deux méthodes originales d'indexation à partir de la transformée en ondelettes des images : 1) une méthode globale, modélisant la distribution des coefficients d'ondelette dans l'image, 2) une méthode locale, basée sur l'extraction de lésions modélisables par une fonction paramétrique. Une des originalités de ces méthodes réside dans le fait que la base d'ondelettes est recherchée par optimisation dans le cadre du schéma de lissage. Après avoir obtenu les signatures caractérisant les images, nous cherchons à fusionner les signatures provenant de l'ensemble des images du dossier, ainsi que des informations sémantiques contextuelles, pour sélectionner les dossiers patients les plus proches. Outre le problème de l'hétérogénéité des données, nous devons résoudre le problème de l'incomplétude des dossiers patients. A notre connaissance, seuls des systèmes de recherche traitant séparément chaque type d'information ont été proposées dans la littérature. Nous proposons trois nouvelles approches, inspirées de la fouille de données et de la fusion d'information, pour réellement intégrer les différentes sources d'information hétérogènes tout en gérant les informations manquantes. La première est basée sur les arbres de décision et ses extensions, la deuxième sur les réseaux bayésiens et la troisième sur la théorie de Dezert-Smarandache (DSmT). Les résultats que nous obtenons pour les deux bases de données médicales multimodales que nous étudions sont très satisfaisants et supérieurs aux méthodes classiques. Ainsi, la précision moyenne pour une fenêtre de cinq cas atteint 81,78% pour la base d'images rétiniennes et 92,90% pour la base des mammographies
In this Ph. D thesis, we study methods for information retrieval in databases made of multidimedia documents. Our objective is to select in a database documents similar to a query document. The aimed application is computer aided diagnosis in a medical framework: the database is made up of several images together with clinical contextual information about the patient. We firts try to characterize each image in the patient file individually. We have thus proposed two original indexing methods derived from the wavelet transform of images: 1) a global method, modeling the distribution of wavelet coefficients in the image, 2) a local method, based on the extraction of lesions. Once images are characterized, we try to used all the information in the file to retrieve the closest patient files. In addition to the heterogeneity of the data, with have to cope with missing information in patient files. We propose three new approaches, derived from data mining and information fusion theory. The first approach is based on decision trees, the second one on Bayesian networks and the third one on the Dezert-Smarandache theory (DSmT). The results obtained on two multimodamedical databases are satisfying and superior to existing methods. Thus, the mean precision at five research 81. 78 % on a retinal image database and 92. 90 % on a mammography database
Styles APA, Harvard, Vancouver, ISO, etc.
23

Zaaraoui, Wafaa. « Développements méthodologiques en imagerie et en spectrométrie RMN à haut champ magnétique : du cerveau de la souris à celui de l'homme ». Bordeaux 2, 2007. http://www.theses.fr/2007BOR21444.

Texte intégral
Résumé :
Cette thèse a été réalisée afin de proposer certains développements méthodologiques en RMN applicables à l'étude in vivo des cerveaux de l'homme et de la souris. Dans une première étude, l'imagerie par transfert d'aimantation et la spectrométrie localisée par RMN ont été implantées à 9,4 T. Ces techniques ont été employées pour analyser un modèle animal de démyélinisation et de remyélinisation. Les résultats de RMN ont été vérifiés par des examens histologiques. Le taux de transfert d'aimantation (MTR) s'est avéré être un marqueur sensible des variations du contenu de la myéline. Aucun marqueur métabolique traduisant ces phénomènes n'a encore été identifié. La seconde étude consistait à déterminer les temps de relaxation transversale T2 des métabolites du cerveau humain à 3 T. Une méthode à deux points optimisée pour la moindre erreur d'estimation pour un temps fixé d'expérience a été proposée. Cette méthode a été combinée à une séquence de spectrométrie RMN tridimensionnelle afin d'examiner en une heure, 320 voxels d'1 cm3 de résolution spatiale. Les T2 du NAA, de la créatine et de la choline ont été évalués dans différentes structures cérébrales. A notre connaissance, ces valeurs ont été obtenues pour la première fois à 3 T, avec cette couverture spatiale, cette résolution spatiale et cette précision. Ces résultats sont essentiels pour les quantifications absolues des métabolites
This work was designed to implement several NMR methodological developments to study the human and the mouse brain in vivo. In the first study, magnetization transfer imaging and localized MR spectroscopy were set up at 9,4 T. These techniques were used to analyze an animal model of demyelinisation and remyelinisation. The MR results were verified by histological examinations. The magnetization transfer ratio (MTR) was found to be a relevant sensitive marker of myelin content changes. A surrogate metabolic marker of these phenomena was not yet identified. The second study was devised to determine the transverse relaxation time T2 of human brain metabolites at 3 T. An optimized two-point method for the least error per given experimental time was proposed. This method was combined to a three-dimensional MR spectroscopic sequence to examine, within 1 hour, 320 voxels at 1 cm3 spatial resolution. T2 of NAA, cretatine and choline were assessed for different brain structures. To our knowledge, these values were obtained for the first time at 3 T with this spatial resolution, coverage and precision. These results are essential for reliable absolute metabolic quantification
Styles APA, Harvard, Vancouver, ISO, etc.
24

Guignard, Léo. « Analyse quantitative de la morphogenèse animale : de l'imagerie laser haut-débit à l'embryon virtuel chez les ascidies ». Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS048/document.

Texte intégral
Résumé :
Les embryons d'ascidies se développent avec un lignage cellulaire stéréotypé et évolutionairement conservé pour produire en quelques heures ou jours un têtard comportant un petit nombre de cellules. De ce fait, ils fournissent un cadre intéressant pour décrire avec une résolution cellulaire le programme de développement d’un organisme complet. Pendant mon doctorat, j’ai développé une approche quantitative pour décrire l’évolution morphologique embryonnaire pendant le développement de Phallusia mammillata. J’ai ensuite utilisé cette approche pour systématiquement caractériser en détail les logiques des événements de spécifications de destin cellulaire.Pour caractériser quantitativement les comportements cellulaires pendant l’embryogenèse, nous avons utilisé de la microscopie à feuille de lumière multi-angles pour imager des embryons entiers à haute résolution spatio-temporelle. Les membranes plasmiques étaient marquées pour permettre l’identification des cellules. Pour extraire les informations biologiques de ce jeu de donnés, j’ai développé une nouvelle méthode pour segmenter les cellules en 4D, ASTEC. Une fois appliquée aux embryons de Phallusia mammillata imagés pendant 6 heures entre le stade 64 cellules et le début des stades bourgeon caudal, cette méthode a permis de récupérer la forme et de suivre 1030 cellules pendant 640 divisions. L’embryon digital 4D résultant peut être formalisé par un graphe dynamique, dans lequel les cellules sont représentées par des sommets reliés par des arrêtes représentant au sein d’un point de temps leur voisinage spatial, et entre différents points de temps leur lignage cellulaire.Basé sur cette représentation digitale et quantitative, nous avons systématiquement identifié les événements de spécification cellulaire jusqu’au dernier stade de la gastrulation. Des simulations informatiques ont révélé que des règles remarquablement simples intégrant les aires de contacts cellulaires et les expressions spatio-temporelles booléennes de signaux moléculaires extracellulaires sont suffisantes pour expliquer les inductions cellulaires au cours du développement précoce. Ce travail suggère que pour les embryons établissant des contacts stéréotypés et précis entre cellules voisines, les contraintes génomiques sont relâchées, ce qui permet une évolution plus rapide du génome
Ascidian embryos develop with stereotyped and evolutionarily conserved invariant cell lineages to produce in a few hours or days tadpole larvae with a small number of cells. They thus provide an attractive framework to describe with cellular resolution the developmental program of a whole organism. During my PhD, I developed a quantitative approach to describe the evolution of embryonic morphologies during the development of the ascidian Phallusia mammillata. I then used this approach to systematically characterize in detail the logic of cell fate induction events. To quantitatively characterize cell behaviors during embryogenesis, we used multi-angle light-sheet microscopy to image with high spatio-temporal resolution entire live embryos with fluorescently labeled plasma membranes. To extract biological information from this imaging dataset, I then developed a conceptually novel automated method for 4D cell segmentation, ASTEC. Applied to a Phallusia mammillata embryo imaged for 6 hours between the 64-cell and the initial tailbud stages, this method allows the accurate tracking and shape analysis of 1030 cells across 640 cell divisions. The resulting 4D digital embryo can be formalized as a dynamic graph, in which cells are represented by nodes, linked within a time point by edges that represent their spatial neighborhood, and between time points by temporal edges describing cell lineages.Based on this quantitative digital representation, we systematically identified cell fate specification events up to the late gastrula stage. Computational simulations revealed that remarkably simple rules integrating measured cell-cell contact areas with boolean spatio-temporal expression data for extracellular signalling molecules are sufficient to explain most early cell inductions. This work suggests that in embryos establishing precise stereotyped contacts between neighboring cells, the genomic constraints for precise gene expression levels are relaxed, thereby allowing rapid genome evolution
Styles APA, Harvard, Vancouver, ISO, etc.
25

Vallat, Raphaël. « Fréquence et contenu du rapport de rêve : approches comportementales et neurophysiologiques ». Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1335/document.

Texte intégral
Résumé :
Objet de nombreuses spéculations religieuses ou philosophiques, le rêve reste encore l'une des grandes terra incognita de la cognition humaine.Une des questions récurrentes sur le rêve porte sur la grande variabilité de fréquence de rappel de rêve. En effet, alors que certaines personnes se souviennent de leurs rêves quotidiennement (« Rêveurs »), d'autres ne s'en souviennent que très rarement (« Non-rêveurs »). Le principal objectif de notre travail de thèse a été de caractériser les corrélats cérébraux et comportementaux de cette variabilité interindividuelle, en comparant entre ces deux groupes la structure du sommeil (Étude 1), mais aussi l'activité cérébrale pendant les minutes qui suivent le réveil (Étude 2). Nous avons entre autres montré que les « Rêveurs » faisaient preuve d'une plus grande connectivité fonctionnelle au sein du réseau par défaut et de régions impliquées dans des processus mnésiques dans les minutes suivant l'éveil, ce qui pourrait faciliter chez ces personnes le rappel et/ou la consolidation du rêve. Cette étude nous a également permis, grâce à l'analyse des nombreuses réponses obtenues au questionnaire de recrutement, de mesurer les habitudes de sommeil et de rêve chez un échantillon large d'étudiants de l'Université de Lyon 1 (Étude 3).Dans une quatrième étude comportementale, nous nous sommes intéressés au lien existant entre la vie éveillée et le contenu du rêve. Nos résultats ont permis de mieux caractériser les facteurs influençant la probabilité d'incorporation des évènements de la vie éveillée dans le rêve, et ont mis en évidence l'importance du rêve dans des processus de régulation émotionnelle.Finalement, en parallèle de ces travaux, nous nous sommes attachés au développement d'un logiciel gratuit de visualisation et d'analyse de tracés de polysomnographie, dont l'objectif est de fournir une interface intuitive et portable aux étudiants et chercheurs travaillant sur le sommeil
Since the dawn of time, humans have sought to understand the nature and meaning of their dreams. However, despite millennia of philosophical speculation and more than a century of scientific exploration, several questions regarding dreams remain pending.One question that constitutes the core problematic of this thesis relates to why there are such individual differences in the frequency of dream recall, or in other words, why some people remember up to several dreams per morning (High-recallers, HR) while some hardly ever recall one (Low-recallers, LR). To characterize the cerebral and behavioral correlates of this variability, we compared the sleep microstructure (Study 1), as well as the brain functional connectivity in the minutes following awakeningfrom sleep, a period marked by sleep inertia (Study 2). Among other results, we have shown that just after awakening, HR demonstrated a greater functional connectivity within regions involved in memory processes (default mode network). We proposed that this reflect a differential neurophysiological profile, which could facilitate in HRthe retrieval of dream content upon awakening. Second, the numerous answers to the recruitment questionnaire of this study allowed us to conduct an epidemiological survey to characterize the sleep and dream habits of a large sample of French college students from Lyon 1 University (Study 3). In another study, we focused on the relationships between waking-life and dream content (Study 4). Our results enhanced and refined our comprehension of the factors influencing the likelihood of incorporation of waking-life elements into dreams, and provided support for the hypothesis of an active role of dreaming in emotional regulation.Lastly, we designed a free and open-source software dedicated to the visualization and analysis of polysomnographic recordings (Study 5), which aims at providing an intuitive and portable graphical interface to students and researchers working on sleep
Styles APA, Harvard, Vancouver, ISO, etc.
26

Donadieu, Maxime. « Spectroscopie par résonance magnétique à haut (3 Tesla) et très haut champ (7 Tesla) : développements méthodologiques et applications à la sclérose en plaques ». Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0651/document.

Texte intégral
Résumé :
La spectroscopie par résonance magnétique permet de manière non invasive, de caractériser et suivre l'évolution du métabolisme cérébral in vivo chez l’Homme. Néanmoins, de nombreux biais empêchent l’obtention d’une caractérisation métabolique cérébrale complète, un prérequis essentiel pour mieux comprendre une pathologie diffuse comme la Sclérose en Plaques (SEP).Mon premier projet a donc consisté à transposer une technique de spectroscopie rapide en 3 dimensions, acquise dans deux orientations spatiales. Cette comparaison a mis en évidence des diminutions de métabolites reliés à la viabilité et à l’activité neuronale, dans des régions fonctionnelles motrices et cognitives, mais également une activité gliale accrue dans les lésions de substance blanche mais aussi en dehors. La deuxième étude a visée à caractériser d'un point de vue métabolique, les accumulations cérébrales de sodium observées chez les patients atteints de SEP par IRM du 23Na. Nous avons pu mettre en évidence des corrélations significatives entre les accumulations de sodium et les diminutions de NAA mettant en lumière un lien fort entre ces accumulations et les phénomènes de souffrance neuronale.Enfin, le dernier projet a eu pour but d'améliorer la résolution spatiale de l'imagerie spectroscopique du proton en tirant partie des avantages d'un imageur clinique 7 Tesla. Après avoir corrigé différents problèmes comme les inhomogénéités B0 et B1 ainsi que l’artefact de déplacement chimique, nous avons obtenu le profil du NAA, de la Choline et de la Créatine pour 4 gros noyaux thalamiques. De plus, l’analyse statistique a mis en évidence des différences métabolique entre les noyaux Thalamiques
Magnetic Resonance Spectroscopy (MRS) allows to characterize, in vivo and non-invasively, the cerebral metabolism in Human. Nevertheless, use MRS in clinical routine is marginal and it is impossible to obtain whole brain metabolic topography, mandatory step in order to understand diffuse pathology like Multiple Sclerosis (MS).First of all, we aimed to transpose a fast 3D-MRSI sequence acquired in two different orientations. We observed significant decrease in metabolites linked with neuronal health and activity, in important motor and cognitive areas, and also increase in glial activation, inside white matter T2 lesions but also outside in normal appearing white and grey matter.Secondly, we aimed to characterize the metabolic counterpart of cerebral sodium accumulations observed, using 23Na MRI, in MS patients. We observed significant correlations between sodium accumulations and decrease in NAA highlighting a strong link between sodium accumulations and neuronal suffering.Finally, we attempted to improve spatial resolution of proton MR spectroscopy using 7 Tesla scanner. We also addressed ultra-high field artifacts like B0 and B1 inhomogeneities as well as chemical shift displacement error. We obtained metabolic profiles of NAA, Choline and Creatine for 4 big thalamic nuclei. Moreover, statistical analysis evidencing metabolic differences between nuclei in same hemisphere but also for some nuclei left/right differences
Styles APA, Harvard, Vancouver, ISO, etc.
27

Benmokhtar, Rachid. « Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique ». Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005321.

Texte intégral
Résumé :
Aujourd'hui, l'accès aux documents dans les bases de données, d'archives et sur Internet s'effectue principalement grâce à des données textuelles : nom de l'image ou mots-clés. Cette recherche est non exempte de fautes plus ou moins graves : omission, orthographe, etc. Les progrès effectués dans le domaine de l'analyse d'images et de l'apprentissage automatique permettent d'apporter des solutions comme l'indexation et la recherche à base des caractéristiques telles que la couleur, la forme, la texture, le mouvement, le son et le texte. Ces caractéristiques sont riches en informations et notamment d'un point de vue sémantique. Cette thèse s'inscrit dans le cadre de l'indexation automatique par le contenu sémantique des documents multimédia: plans vidéo et images-clés. L'indexation consiste à extraire, représenter et organiser efficacement le contenu des documents d'une base de données. L'état de l'art du domaine est confronté au «fossé sémantique» qui sépare les représentations visuelles brutes (bas-niveau) et conceptuelles (haut-niveau). Pour limiter les conséquences de cette problématique, nous avons introduit dans le système plusieurs types de descripteurs, tout en prenant à notre avantage les avancées scientifiques dans le domaine de l'apprentissage automatique et de la ``fusion multi-niveaux''. En effet, la fusion est utilisée dans le but de combiner des informations hétérogènes issues de plusieurs sources afin d'obtenir une information globale, plus complète, de meilleure qualité, permettant de mieux décider et d'agir. Elle peut être appliquée sur plusieurs niveaux du processus de classification. Dans cette thèse, nous avons étudié la fusion bas-niveau (précoce), la fusion haut-niveau (tardive), ainsi qu'à un niveau décisionnel basé sur l'ontologie et la similarité inter-concepts dit de raisonnement. Les systèmes proposés ont été validés sur les données de TRECVid (projet NoE K-Space) et les vidéos de football issues d'Orange-France Télécom Labs (projet CRE-Fusion). Les résultats révèlent l'importance de la fusion sur chaque niveau du processus de classification, en particulier, l'usage de la théorie des évidences.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Quillon, Kevin. « Les amphores à salaisons et sauces de poissons de Bétique et de Tarraconaise : typologie et contenu (fin de la République – Haut-Empire) ». Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3039.

Texte intégral
Résumé :
Consacrée aux amphores à saumures de l’Hispania Ulterior/Bétique et de l’Hispania Citerior/Tarraconaise de la fin de la République et du Haut-Empire, la présente thèse se construit autour de deux problématiques principales. La première porte sur l’identification des formes par une refonte de la typologie. Notre classification a été construite à partir des amphores provenant des ensembles céramiques de référence au travers d’un examen morphologique et chronologique minutieux. Elle a été appliquée à quelques-unes des épaves du littoral français et aux amphores du Rhône dont celles inédites provenant du dépotoir de l’épave Arles-Rhône 3 récupérées lors de l’opération de renflouage de l’épave. Le second volet concerne l’étude des denrées halieutiques (salaisons et sauces) transportées dans ces conteneurs par l’examen des textes anciens et des données directes du contenu que sont les résidus organiques et les inscriptions peintes. L’inédit de la recherche réside dans la lecture critique des tituli picti, véritable publicité sur amphores. Elle suppose l’existence de différents formulaires commerciaux propres à tel ou tel type de denrée
Dedicated to fish sauces and salted fish amphoras of Hispania Ulterior/Baetica and Hispania Citerior/Tarraconensis from the end of the Republic and the Early Roman Empire, this thesis is established on two main problematics. The first one is the identification of amphora forms by a review of the current typology. Our classification is built on a precise study, morphological and chronological, of amphoras from reference contexts. It has been used for some shipwrecks materials located on the French coast and the amphoras from the Rhone context, including thoses from the Arles-Rhône 3 shipwreck deposits collected during the salvage operation.The second problematic focuses on the study of fisheries commodity (fish sauces and salted fish) carried out in theses ceramic containers through the analysis of antique texts and direct data which are organic residues and painted inscriptions. The novelty of this research lies in the critical reading and interpretation of theses tituli picti, genuine advertising on amphoras. It involves the existence of different business forms suitable for a particular type of commodity
Styles APA, Harvard, Vancouver, ISO, etc.
29

Laugier, Romain. « Observables robustes pour la détection haut-contraste à faible séparation angulaire ». Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4046.

Texte intégral
Résumé :
L'étude des exoplanètes est un domaine très actif. Malgré la nature indirecte de la plupart des détections, celles-ci nous fournissent déjà une quantité importante d'informations sur les propriétés de ces systèmes exoplanétaires: leur masse, taille et paramètres orbitaux. Pourtant, la détection directe de la lumière qu'elles émettent ou réfléchissent fournit des informations encore plus précieuses. Les instruments coronographiques conçus dans ce but sont généralement limités par la qualité de front d'onde, qui les empêchent notamment d'atteindre leurs performances théoriques. A l'inverse les techniques employant des observables qui sont robustes à ces aberrations sont limitées par le bruit de photon. Ces deux approches sont rendues incompatibles par la rupture de la relation de convolution qui lie l'objet à l'image. Les travaux décrits dans cette thèse explorent différentes avenues visant à contourner cette incompatibilité afin de combiner les performances des méthodes coronographiques et interférométriques, grâce à des transferts technologiques et au développement de nouvelles méthodes: Le développement des kernels différentiels angulaires (ADK) qui utilisent les principes de l'imagerie différentielle angulaire (ADI) dans le cadre des noyaux de phases et clôtures de phases. L'expérimentation de noyaux de phases avec une pupille apodisée. L'exploitation des noyaux de phases à partir d'images saturées. Le développement d'architectures exploitant les noyaux d'obscurité (kernel nulling) pour un nombre arbitraire de pupille, et notamment pour des architectures à grandes lignes de base. Ces travaux poussent les performances en contraste des observables robustes à faible séparation, et entament l'exploration des nouvelles voies du haut contraste robuste
The study of exoplanets has been a very active topic in the past years. Despite the indirect nature of most detections to date, those already provide us with a wealth of information on the properties of these exoplanetary systems, like their mass, size, and orbital elements. However, the direct detection of the light emitted or reflected by those planets provides some even more precious information. Coronagraphic instruments that would allow this are generally limited by the wavefront quality at their input, which prevents them from reaching their theoretical performance. Conversely, techniques employing observables designed to be robust to those aberrations are limited by photon noise. These two methods are made incompatible because coronagraphy breaks the convolution relationship betwen the object and its image. The works described in this thesis explore different avenues aiming to sidestep this incompatibility and to combine the performance of coronagraphic and interferometric methods though technology transfers as well as the development of new methods. The development of angular differential kernel phases (ADK) that make use the principles of angular differential imaging (ADI), transfering them for kernel and closure phases observables. The experimentation of kernel phases behind shaped pupil apodization masks. The exploitation kernel phases extracted from archival saturated images. The development of architectures for kernel nulling for an arbitrary number of apertures for Fizeau and long-baseline interferometry. These works push the contrast performance of robust observables at small angular separations and begin the exploration of new methods of robust high-contrast observations
Styles APA, Harvard, Vancouver, ISO, etc.
30

Islas-Perez, Carlos. « Etude, réalisation et évaluation des performances d'une station de transport réseau haut débit pour un réseau d'imagerie médicale dans un environnement multimédia / ». Paris : Ecole nationale supérieure des télécommunications, 1988. http://catalogue.bnf.fr/ark:/12148/cb34998510z.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Ygouf, Marie. « Nouvelle méthode de traitement d'images multispectrales fondée sur un modèle d'instrument pour la haut contraste : application à la détection d'exoplanètes ». Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00843202.

Texte intégral
Résumé :
Ce travail de thèse porte sur l'imagerie multispectrale à haut contraste pour la détection et la caractérisation directe d'exoplanètes. Dans ce contexte, le développement de méthodes innovantes de traitement d'images est indispensable afin d'éliminer les tavelures quasi-statiques dans l'image finale qui restent à ce jour, la principale limitation pour le haut contraste. Bien que les aberrations résiduelles instrumentales soient à l'origine de ces tavelures, aucune méthode de réduction de données n'utilise de modèle de formation d'image coronographique qui prend ces aberrations comme paramètres. L'approche adoptée dans cette thèse comprend le développement, dans un cadre bayésien, d'une méthode d'inversion fondée sur un modèle analytique d'imagerie coronographique. Cette méthode estime conjointement les aberrations instrumentales et l'objet d'intérêt, à savoir les exoplanètes, afin de séparer correctement ces deux contributions. L'étape d'estimation des aberrations à partir des images plan focal (ou phase retrieval en anglais), est la plus difficile car le modèle de réponse instrumentale sur l'axe dont elle dépend est fortement non-linéaire. Le développement et l'étude d'un modèle approché d'imagerie coronographique plus simple se sont donc révélés très utiles pour la compréhension du problème et m'ont inspiré des stratégies de minimisation. J'ai finalement pu tester ma méthode et d'estimer ses performances en terme de robustesse et de détection d'exoplanètes. Pour cela, je l'ai appliquée sur des images simulées et j'ai notamment étudié l'effet des différents paramètres du modèle d'imagerie utilisé. J'ai ainsi démontré que cette nouvelle méthode, associée à un schéma d'optimisation fondé sur une bonne connaissance du problème, peut fonctionner de manière relativement robuste, en dépit des difficultés de l'étape de phase retrieval. En particulier, elle permet de détecter des exoplanètes dans le cas d'images simulées avec un niveau de détection conforme à l'objectif de l'instrument SPHERE. Ce travail débouche sur de nombreuses perspectives dont celle de démontrer l'utilité de cette méthode sur des images simulées avec des coronographes plus réalistes et sur des images réelles de l'instrument SPHERE. De plus, l'extension de la méthode pour la caractérisation des exoplanètes est relativement aisée, tout comme son extension à l'étude d'objets plus étendus tels que les disques circumstellaire. Enfin, les résultats de ces études apporteront des enseignements importants pour le développement des futurs instruments. En particulier, les Extremely Large Telescopes soulèvent d'ores et déjà des défis techniques pour la nouvelle génération d'imageurs de planètes. Ces challenges pourront très probablement être relevés en partie grâce à des méthodes de traitement d'image fondées sur un modèle direct d'imagerie.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Capri, Arnaud. « Caractérisation des objets dans une image en vue d'une aide à l'interprétation et d'une compression adaptée au contenu : application aux images échographiques ». Orléans, 2007. http://www.theses.fr/2007ORLE2020.

Texte intégral
Résumé :
Cette thèse, réalisée dans le cadre d’une convention CIFRE avec la société ECA-Sinters, se situe dans la continuité de projets de robotique télé-opérée pour des applications médicales non-invasives réalisés au laboratoire de Vision et Robotique ; l’application médicale télé-opérée concerne ici la télé-échographie. Notre travail a porté plus précisément sur le traitement des images ultrasonores sur lesquelles se base l’expert médical pour le contrôle à distance du robot porteur de la sonde échographique positionné sur le patient. Une étude des méthodes actuelles de segmentation d’image ainsi que sur les méthodes permettant d’évaluer un résultat de segmentation, nous conforte dans l’idée d’une non universalité des méthodes de segmentation. La difficulté de partitionner une image ultrasonore en composantes illustre cette affirmation. Nous proposons donc, via l’utilisation combinée d’approches floue et fractale, une caractérisation des divers objets présents au sein de l’image sans réelle segmentation. De plus, le lien démontré entre ces deux approches nous permet de prendre en compte, dans le calcul de la complexité des divers objets, le bruit initialement présent au sein de l’image ultrasonore. Ces résultats obtenus d’un point de vue théorique sont alors appliqués à différents domaines tels que la segmentation ou la compression d’images.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Polge, Géraldine. « Etude de la faisabilité d'un système de cartographie de dose par stimulation optique et application à la radiothérapie à haut gradient de dose ». Montpellier 2, 2001. http://www.theses.fr/2001MON20190.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
34

Laprie, Anne. « Imagerie métabolique par spectrométrie de résonnance magnétique des tumeurs gliales de haut-grade irradiées de l'adulte et de l'enfant ». Toulouse 3, 2007. http://www.theses.fr/2007TOU30332.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
35

VOLK, ANDREAS. « Imagerie spectroscopique et spectroscopie localisee "in vivo" par resonance magnetique nucleaire : nouvelles methodes pour l'experimentation a haut champ magnetique ». Paris 6, 1989. http://www.theses.fr/1989PA066510.

Texte intégral
Résumé :
Les appareils de resonance magnetique nucleaire (rmn) recents, equipes d'aimants supraconducteurs horizontaux avec un acces important et produisant un champ magnetique eleve (> 4 tesla), permettent d'associer l'imagerie et la spectroscopie pour l'observation in vivo. Deux experiences originales sont presentees qui realisent cette association selon deux approches differentes, l'imagerie de deplacement chimique et la spectroscopie localisee. La premiere, c4s, chemical shift specific slice selection permet, en observation des protons, l'acquisition d'images spectrales separees de l'eau et des lipides. La deuxieme, frivol, frequency interval-selective volume localization permet l'observation du signal rmn provenant exclusivement d'un volume localise avec precision dans l'objet. La mise en uvre de ces methodes est analysee en detail et leur faisabilite est demontree par des exemples d'application sur des objets de test, puis in vivo
Styles APA, Harvard, Vancouver, ISO, etc.
36

La, Rochefoucauld-Rossier Ombeline de. « Résolution du problème inverse spatio-temporel en imagerie acoustique de champ proche : application au rayonnement de sources industrielles instationnaires ». Le Mans, 2002. http://cyberdoc.univ-lemans.fr/theses/2002/2002LEMA1006.pdf.

Texte intégral
Résumé :
Cette thèse consiste à adapter l'holographie acoustique de champ proche aux sources instationnaires en géométrie plane. Il s'agit, à partir de la pression mesurée au niveau d'un plan, de la reconstruire sur un plan plus éloigné (propagation) ou plus proche (rétropropagation) de la source. La plus adaptée des quatre implémentations possibles de la propagation est utilisée pour la rétropropagation. Les paramètres des filtres (Veronesi, Wiener et Tikhonov), indispensables lors de cette reconstruction, sont optimisés en utilisant une méthode de régularisation (courbe en L, validation croisée généralisée). Ces algorithmes sont validés sur un signal simulé (rayonnement d'un piston excité par un profil de vitesse dépendant du temps) puis testé sur des signaux réels (rayonnement de hauts-parleurs bafflés, d'une plaque en aluminium bafflée puis suspendue). Des données fournies par PSA-Peugeot Citroe͏̈n nous ont permis d'appliquer les algorithmes sur le rayonnement d'un moteur en montée de régime
This work was focused on the Nearfield Acoustical Holography (NAH) in planar geometry, applied to non stationary sources. The pressure field can be forward and backward propagated which allows us to localize sources accurately. The advantage of this method is that the measurement is realized without contact : the microphone array is placed at a fevv centimetres from the source. Initially, four propagation methods have been developed and tested on the theoretical pressure field radiated by a baffled, planar piston. The more appropriate one is used to backward propagate the field. Filtering process such as Veronesi, Wiener and Tikhonov are necessary and regularisation methods (L-curve, Generalized Cross Validation) enable us to optimise the filtering parameters. The results obtained were in agreement \vith the theoretical pressure. Then, measurements of transient fields of audible sources were carried out : the pressure radiated by three baffled loudspeakers, an aluminium baffled plate, an aluminium hung plate and a plexiglas plate, was measured, using an array of microphones. The results of forward and backward propagation obtained with these sources are good. A collaboration with the firm PSA Peugeot-Citroen has allowed us to test them on the pressure radiated by an industrial source : a car engine
Styles APA, Harvard, Vancouver, ISO, etc.
37

Collet, Anne-Claire. « Implication relative des traits de haut niveau et de bas niveau des stimuli dans la catégorisation, chez l'homme et le singe ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30118/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous sommes proposé d'explorer les contributions relatives des caractéristiques de haut et de bas niveau des stimuli dans la catégorisation d'objet. Ce travail comporte trois études, chez l'homme et le singe. L'originalité de cette thèse réside donc dans la construction des stimuli. Notre première étude a visé à caractériser les corrélats neuraux de la reconnaissance d'images chez le singe en ECoG. Pour cela nous avons développé un protocole de catégorisation où les stimuli étaient des séquences visuelles dans lesquelles les contours des objets (information sémantique, caractéristique de haut niveau) étaient modulés cycliquement grâce à la technique SWIFT (créée par Roger Koenig et Rufin VanRullen) alors que la luminance, les contrastes et les fréquences spatiales (caractéristiques de bas niveau) étaient conservées. Grâce à une analyse en potentiels évoqués, nous avons pu mettre en évidence une activité électrophysiologique tardive en " tout ou rien " spécifique de la reconnaissance de la cible de la tâche par le singe. Mais parce que les objets sont rarement isolés en conditions réelles, nous nous sommes penchés dans une deuxième étude sur l'effet de congruence contextuelle lors de la catégorisation d'objets chez l'homme et le singe. Nous avons comparé la contribution du spectre d'amplitude d'une transformée de Fourier à cet effet de congruence chez ces deux espèces. Nous avons révélé une divergence de stratégie, le singe semblant davantage sensible à ces caractéristiques de bas niveau que l'homme. Enfin dans une dernière étude nous avons tenté de quantifier l'effet de congruence sémantique multisensorielle dans une tâche de catégorisation audiovisuelle chez l'homme. Dans cette étude nous avons égalisé un maximum de paramètres de bas niveau dans les deux modalités sensorielles, que nous avons toujours stimulées conjointement. Dans le domaine visuel, nous avons réutilisé la technique SWIFT, et dans le domaine auditif nous avons utilisé une technique de randomisation de snippets. Nous avons pu alors constater un gain multisensoriel important pour les essais congruents (l'image et le son désignant le même objet), s'expliquant spécifiquement par le contenu sémantique des stimuli. Cette thèse ouvre donc de nouvelles perspectives, tant sur la cognition comparée entre homme et primate non humain que sur la nécessité de contrôler les caractéristiques physiques de stimuli utilisés dans les tâches de reconnaissance d'objets
In this thesis, we explored the relative contributions of high level and low level features of stimuli used in object categorization tasks. This work consists of three studies in human and monkey. The originality of this thesis lies in stimuli construction. Our first study aimed to characterize neural correlates of image recognition in monkey, using ECoG recordings. For that purpose we developped a categorization task using SWIFT technique (technique created by Roger Koenig and Rufin VanRullen). Stimuli were visual sequences in which object contours (semantic content, high level feature) were cyclically modulated while luminance, contrasts and spatial frequencies (low level features) remained stable. By analyzing evoked potentials, we brought to light a late electrophysiological activity, in an " all or none " fashion, specifically related to the target recognition in monkey. But because in real condition objects are never isolated, we explored in a second study contextual congruency effect in visual categorization task in humans and monkeys. We compared the contribution of Fourier transform amplitude spectrum to this congruency effect in the both species. We found a strategy divergence showing that monkeys were more sensitive to the low level features of stimuli than humans. Finally, in the last study, we tried to quantify multisensory semantic congruency effect, during a audiovisual categorization task in humans. In that experiment, we equalized a maximum of low level features, in both sensory modalities which were always jointly stimulated. In the visual domain, we used again the SWIFT technique, whereas in auditory domain we used a snippets randomization technique. We highlighted a large multisensory gain in congruent trials (i.e. image and sound related to the same object), specifically linked to the semantic content of stimuli. This thesis offers new perspectives both for comparative cognition between human and non human primates and for the importance of controlling the physical features of stimuli used in object recognition tasks
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bonte, Y. « Effet du swash sur l'érosion d'un escarpement de haut de plage ». Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-00903357.

Texte intégral
Résumé :
Le but de ce travail est tout d'abord de quantifier, à des échelles évènementielle et instantanée, les effets du swash sur l'évolution d'un escarpement de haut de plage formé dans une berme lors de conditions tempétueuses. Il aboutit à la détermination d'une formulation permettant de calculer et prévoir le volume érodé de la berme par l'érosion régulière de l'escarpement en fonction des forçages hydrodynamiques. Afin d'étudier au mieux ce phénomène, une berme artificielle, avec un front d'escarpement, a été reproduite sur la plage de Luc-sur-Mer. La zone d'étude a été instrumentée durant plusieurs marées dans des conditions d'agitation moyennes à fortes. Des données météorologiques, topographiques, hydrodynamiques et d'imagerie vidéo ont été acquises régulièrement au cours des deux expérimentations réalisées, afin de suivre les évolutions morphologiques de l'escarpement en parallèle des conditions hydrodynamiques. Ces mesures ont permis de mettre en avant l'importance des niveaux d'eau statique et dynamique, ainsi que l'incidence des vagues, sur l'évolution transversale et longitudinale de l'escarpement. La similitude entre les érosions des fronts de dune et les escarpements de haut de plage a permis de développer une nouvelle formule de calcul pour estimer les volumes érodés d'un escarpement dans la berme. Le calage de la formulation a été réalisé grâce à un calcul précis des runup, et à une acquisition très fine, au scanner laser terrestre, de l'évolution topographique, à pleine mer, du front d'escarpement expérimental, couplé à une analyse temporelle vidéo des impacts sur celui-ci lors d'une marée fortement érosive.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Cohé, Aurélie. « Manipulation de contenu 3D sur des surfaces tactiles ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00789111.

Texte intégral
Résumé :
Les surfaces tactiles ayant connu un grand essor ces dernières années, le grand public les utilise quotidiennement pour de multiples tâches, telles que la consultation d'e-mail, la manipulation de photos, etc. En revanche, très peu d'applications 3D existent sur ces dispositifs, alors que de telles applications pourraient avoir un grand potentiel dans des domaines variés, telles que la culture, l'architecture, ou encore l'archéologie. La difficulté majeure pour ce type d'applications est d'interagir avec un espace défini en trois dimensions à partir d'une modalité d'interaction définie en deux dimensions. Les travaux effectués dans cette thèse explorent l'association entre surfaces tactiles et manipulation de contenu 3D pour le grand public. Les premières études ont été réalisées afin de comprendre comment l'utilisateur réagit pour manipuler un objet virtuel 3D avec une surface tactile sans lui imposer de techniques d'interaction particulières. De par les connaissances acquises sur les utilisateurs, les travaux suivants présentent l'élaboration de nouvelles techniques d'interaction ainsi que leur évaluation.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Labrousse, Marc. « Le contenu de l'angle ponto-cérébelleux : artères et mouvements : morphogenèse, anatomie statique et dynamique ». Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10078/document.

Texte intégral
Résumé :
Différents éléments vasculo-nerveux participent à la constitution de l'angle ponto-cérébelleux. Dans certaines conditions pathologiques dont la genèse est encore imparfaitement connue actuellement, des conflits peuvent apparaître entre des vaisseaux battants autour du tronc cérébral et des nerfs crâniens. L'objectif de ce travail en trois parties distinctes est consacré à certaines bases anatomiques et physiologiques permettant de mieux appréhender ces conflits vasculo-nerveux. La première partie s'intéresse à la morphogenèse du système vertébrobasilaire. La conception d'un logiciel original de reconstruction tridimensionnelle a permis la modélisation de quatre embryons à partir de coupes histologiques. Les images obtenues permettent de confirmer la morphogenèse décrite dans la littérature et jette les bases d'une étude plus exhaustive. La deuxième partie démontre pour la première fois la mobilité physiologique du nerf vestibulo-cochléaire au niveau de l'angle ponto-cérébelleux, par l'utilisation d'une séquence IRM en contraste de phase. Les directions crânio-caudale et antéro-postérieure et leur amplitude ont été étudiées. Ces mouvements sont dépendants de l'onde de pouls. De façon plus générale, ils peuvent être modélisés sous la forme d'une corde oscillant entre le tronc cérébral et le fond du méat acoustique interne. La troisième partie traite d'une étude de faisabilité qui jette les bases informatiques permettant d'apprécier le vieillissement artériel par la variabilité morphologique du point de confluence des artères vertébrales. Au laboratoire, nous avons conçu un programme de normalisation à partir des scanographies de neuf patients. Il autorise ainsi la création d'un tronc cérébral moyen, et la comparaison de la topographie de ces points de confluence
Several vascular and nervous structures are located within the cerebello-pontine angle. In certain pathological conditions, microvascular compression syndroms may occur, where an artery or a vein is compressing a cranial nerve. The purpose of this work in three parts is to investigate some anatomical and physiological bases of these microvascular compression syndroms. The first part focuses on the vertebrobasilar system morphogenesis. A special designed 3D reconstruction original software allowed us to reformate four human embryos from histological serial sections. The three-dimensional views are confirming the classical features thus creating the basis of a larger study based on multiple embryos. The second part shows for the first time the physiological motion of the vestibulo-cochlear nerve at the level of the cerebello-pontine angle, with the help of a phase-contrast MRI sequence. The cranio-caudal and antero-posterior directions and their amplitudes have been studied. These motions are cardiac-cycle-dependant. We used an "oscillating string" model to explain the VCN motion between the brain stem and the fundus of the internal acoustic meatus. The third part of this work is focused on a preliminary study of the variability of the vertebro-basilar arterial fusion along the lifetime. An original software has been designed and allowing the normalisation from nine post-contrast cerebral CT scanners. A ?mean? brain stem was obtained and visualized in front of nine arterial fusion points
Styles APA, Harvard, Vancouver, ISO, etc.
41

LAURENT, WILFRIED. « Determination des composantes structurales du muscle par imagerie rmn a haut champ : mise en correspondance avec l'image ultrasonore (doctorat : genie informatique) ». Clermont-Ferrand 1, 2000. http://www.theses.fr/2000CLF1MM05.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
42

Koné, Fankroma Martial Thierry. « Méthode de criblage haut-débit pour l'évolution dirigée de glycosidases en transglycosidases : application à la β-glycosidase de Thermus thermophilus ». Nantes, 2009. http://www.theses.fr/2009NANT2044.

Texte intégral
Résumé :
L’évolution dirigée constitue une nouvelle approche pour explorer les relations structure/fonction des protéines et constitue également une stratégie efficace pour générer de nouvelles activités enzymatiques. Cependant, l'ingénierie de transglycosidases par les méthodes d'évolution dirigée est limitée par l’absence de systèmes de criblage à haut débit pour ces activités enzymatiques. Nous avons développé dans ce travail une nouvelle méthode de criblage haut-débit qui permet de détecter sur des colonies intactes de E. Coli, une activité transférase sur des mutants de glycosylhydrolases faiblement hydrolytiques. Cette méthode est basée sur le suivi par imagerie digitale de la réactivation des mutants par un accepteur de groupement glycosyle. Cette approche a été appliquée a la β-glycosidase de Thermus thermophilus (Ttβgly), enzyme appartenant à la famille 1 des glycosylhydrolases, dans le but de la faire évoluer en transglycosidases. Avec les meilleurs clones isolés par cette stratégie, des rendements de transglycosylation de 70 - 80 % sont atteints pour la synthèse de trisaccharides (Gal-cellobiose). Cette stratégie a été ensuite testée pour le criblage d’autres activités transglycosidasiques de manière à cerner les limites de ce criblage. En particulier, deux systèmes d’exportation (TAT et SRP) des mutants dans le périplasme ont été évalués pour permettre d’appliquer le criblage sur des substrats donneur ou accepteur qui ne pénètrent pas dans la bactérie. Enfin, une activité N-acetyl-glucosaminidase a été génére��e de novo sur la Ttβgly par une approche mixte de mutagenèse dirigée et aléatoire. En fonction des mutations introduites, nous montrons qu’il est possible de contrôler le type de mécanisme utilisé pour l’hydrolyse
Directed evolution provides a new approach to explore the structure/function relationship in proteins and also provides an efficient strategy to generate new enzymatic activities. However, the engineering of transglycosidases by directed evolution methodologies is limited by the lack of high-throughput screening systems for these enzymatic activities. In this work we developed a new high-throughput screening method (HTS) which allows the detection of transferase activity of low hydrolytic glycosylhydrolases mutants in intact E. Coli cells. This method is based on the digital imaging monitoring of reactivation of mutants by an acceptor of glycosyl group. This approach has been applied to the glycosylhydrolases family 1 β-glycosidase from Thermus thermophilus (Ttβgly), in order to reveal evolution toward transglycosidase. From the best isolated clones obtained by this strategy, yields of transglycosylation up to 70 - 80 % were performed for trisaccharides synthesis (Gal-cellobiose). This strategy has also been tested for the screening of other transglycosidases activities in order to determine the limits of this screening. In particular, two export systems (TAT and SRP) of mutants in the periplasmic space have been tested to apply the screening on donor or acceptor substrates which do not penetrate in the bacterium. Finally, de novo N-acetyl-glucosaminidase activity has been generated on the Ttβgly by a mixed approach of directed and random mutagenesis. According to the mutations performed, we show that it is possible to control the type of mechanism used for the hydrolysis
Styles APA, Harvard, Vancouver, ISO, etc.
43

Vigan, Arthur. « Détection et Caractérisation des Exoplanètes par Imagerie Directe avec IRDIS ». Phd thesis, Université de Provence - Aix-Marseille I, 2009. http://tel.archives-ouvertes.fr/tel-00460567.

Texte intégral
Résumé :
Depuis la découverte de la première exoplanète autour d'une étoile de la séquence principale en 1995, seule une poignée d'exoplanètes ont été détectées par imagerie directe du fait de la grande différence de contraste qui existe entre les étoiles et les planètes. L'instrument SPHERE pour le VLT fait partie d'une nouvelle génération d'instruments dédiés à la détection directe de planètes géantes gazeuses qui combine un système d'OA extrême et des coronographes de dernière génération pour allier haute résolution angulaire et haut contraste. IRDIS, le spectro-imageur différentiel de SPHERE, offre plusieurs modes d'observation dans le proche infrarouge, dont les deux principaux sont l'imagerie différentielle (DBI) et la spectroscopie longue fente (LSS). Durant ma thèse j'ai étudié au moyen de simulations numériques détaillées les performances des modes DBI et LSS pour la détection et la caractérisation des exoplanètes. En mode DBI j'ai utilisé les méthodes SDI et ADI pour éliminer les speckles qui limitent intrinsèquement les données, puis j'ai estimé les limites de détection et la précision photométrique de IRDIS en imagerie afin de déterminer une séquence de paires de filtres optimale pour la caractérisation des exoplanètes. En utilisant cette séquence, j'ai pu estimer les températures effectives des planètes qui seront effectivement caractérisables avec IRDIS. En mode LSS, j'ai développé une méthode d'analyse des données spécifique pour les spectres dominés par les speckles et j'ai étudié ses performances en détail pour la caractérisation des exoplanètes. Enfin, j'ai travaillé sur la stratégie d'observation à adopter pour la caractérisation des exoplanètes avec IRDIS au moyen de tests en aveugle en imagerie et en spectroscopie. Ces tests m'ont permis de confirmer les résultats obtenus dans le cadre du travail détaillé sur les modes DBI et LSS, et en particulier d'étudier la discrimination des contaminants stellaires dans les données de IRDIS.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Leboulleux, Lucie. « Contrôle de front d'onde optimal pour l'imagerie à très haut contraste : application au cophasage de miroirs segmentés ». Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0561/document.

Texte intégral
Résumé :
Imager une exo-terre à proximité d’une étoile est une tâche complexe : le signal de la planète est noyé dans le flux immense de l’étoile, très proche. Doivent donc être combinés :- de grands télescopes spatiaux segmentés. La segmentation du miroir primaire facilite le transport mais crée des erreurs liées à l’alignement.- un coronographe, permettant d’éteindre la lumière stellaire. - enfin, toute aberration optique crée un résidu lumineux nuisible dans l’image. La mesure et le contrôle des aberrations d’un système coronographique, notamment celles liées à la segmentation du télescope, sont donc primordiaux et constituent le sujet de ma thèse.Tout d’abord, j’ai développé PASTIS, un modèle simplifié du contraste d’un coronographe en présence d’une pupille segmentée, permettant d’analyser facilement les performances pour contraindre les aberrations optiques lors du design de l’instrument. PASTIS prend en compte les spécificités des instruments : structure de la pupille, aberrations optiques dues à la segmentation, coronographe. Je l’ai appliqué au télescope LUVOIR afin d’analyser les modes limitant le contraste et ainsi mieux répartir les contraintes sur les segments. Par la suite, j’ai travaillé sur l’analyse de front d’onde coronographique en présence d’un télescope segmenté sur le banc expérimental HiCAT avec une première démonstration de l’analyseur COFFEE permettant de reconstruire les erreurs de phasage avec une grande précision. Enfin, j’ai mené une analyse comparative des multiples méthodes de contrôle de front d’onde existantes et validé l’une d’elles (Dark Hole Non Linéaire) expérimentalement dans un cadre simplifié sur le banc MITHIC du LAM
Direct imaging of exo-Earths is extremely complex: the star is by far brighter and very close to the planet. Several tools have to be combined:- a giant primary mirror. For manufacturing and transportation reasons, we tend to use segmented mirrors, ie. mirrors made of smaller mirrors but that have to be well-aligned and stabilised.- a coronagraph, enabling to remove the starlight.- the smallest residual wavefront aberration into residual light that decreases the image quality. The measurement and control of the aberrations, including the ones due to the telescope segmentation, are crucial and consist in the topic of my thesis.First, I developed PASTIS, a model of the contrast of a coronagraphic system in presence of a segmented pupil, enabling to analyze the performance to set up constraints on the optical aberrations during the instrument design. PASTIS takes into account the specificities of high-contrast instruments: pupil structure, optical aberrations due to the segmentation, coronagraph. I applied it to the LUVOIR telescope to analyze the main modes limiting the contrast and therefore optimizing the repartition of the constraints on the segments. In parallel, I worked on the analysis of the coronagraphic wavefront in presence of a segmented telescope on the experimental testbed called HiCAT, with a first demonstration of the COFFEE sensor enabling to reconstruct phasing errors with a high precision.Eventually, I ran a comparative analysis of existing methods of wavefront control and experimentally validated one of them (Non Linear Dark Hole) in a simplified case on the MITHIC testbed at LAM
Styles APA, Harvard, Vancouver, ISO, etc.
45

Ben, Cheikh Bassem. « Morphologie mathématique sur les graphes pour la caractérisation de l’organisation spatiale des structures histologiques dans les images haut-contenu : application au microenvironnement tumoral dans le cancer du sein ». Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066286/document.

Texte intégral
Résumé :
L'un des problèmes les plus complexes dans l'analyse des images histologiques est l'évaluation de l¿organisation spatiale des structures histologiques dans le tissu. En fait, les sections histologiques peuvent contenir un très grand nombre de cellules de différents types et irrégulièrement réparties dans le tissu, ce qui rend leur contenu spatial indescriptible d'une manière simple. Les méthodes fondées sur la théorie des graphes ont été largement explorées dans cette direction, car elles sont des outils de représentation efficaces ayant la capacité expressive de décrire les caractéristiques spatiales et les relations de voisinage qui sont interprétées visuellement par le pathologiste. On peut distinguer trois familles principales de méthodes des graphes utilisées à cette fin: analyse de structure syntaxique, analyse de réseau et analyse spectrale. Cependant, un autre ensemble distinctif de méthodes basées sur la morphologie mathématique sur les graphes peut être développé et adapté pour ce problème. L'objectif principal de cette thèse est le développement d'un outil capable de fournir une évaluation quantitative des arrangements spatiaux des structures histologiques en utilisant la morphologie mathématique basée sur les graphes
One of the most challenging problems in histological image analysis is the evaluation of the spatial organizations of histological structures in the tissue. In fact, histological sections may contain a very large number of cells of different types and irregularly distributed, which makes their spatial content indescribable in a simple manner. Graph-based methods have been widely explored in this direction, as they are effective representation tools having the expressive ability to describe spatial characteristics and neighborhood relationships that are visually interpreted by the pathologist. We can distinguish three main families of graph-based methods used for this purpose: syntactic structure analysis, network analysis and spectral analysis. However, another distinctive set of methods based on mathematical morphology on graphs can be additionally developed for this issue. The main goal of this dissertation is the development of a framework able to provide quantitative evaluation of the spatial arrangements of histological structures using graph-based mathematical morphology
Styles APA, Harvard, Vancouver, ISO, etc.
46

Amalric, Marie. « Etude des mécanismes cérébraux d'apprentissage et de traitement des concepts mathématiques de haut niveau ». Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066143/document.

Texte intégral
Résumé :
Comment le cerveau humain parvient-il à conceptualiser des idées abstraites ? Quelle est en particulier l’origine de l’activité mathématique lorsqu'elle est associée à un haut niveau d’abstraction ? La question de savoir si la pensée mathématique peut exister sans langage intéresse depuis longtemps les philosophes, les mathématiciens et les enseignants. Elle commence aujourd’hui à être abordée par les neurosciences cognitives. Alors que les études précédentes se sont principalement focalisées sur l’arithmétique élémentaire, mon travail de thèse privilégie l’étude de la manipulation d’idées mathématiques plus avancées et des processus cérébraux impliqués dans leur apprentissage. Les travaux présentés dans cette thèse révèlent que : (1) la réflexion sur des concepts mathématiques de haut niveau appris depuis de nombreuses années n’implique pas les aires du langage ; (2) l’activité mathématique, quels qu’en soient la difficulté et le domaine, implique systématiquement des régions classiquement associées à la manipulation des nombres et de l’espace, y compris chez des personnes non-voyantes; (3) l’apprentissage non-verbal de règles géométriques repose sur un langage de la pensée indépendant du langage parlé naturel. Ces résultats ouvrent la voie à de nouvelles questions en neurosciences. Par exemple, l’apprentissage de concepts mathématiques enseignés à l’école par le truchement des mots se passe-t-il également du langage ? Ou enfin, que signifie réellement "faire des mathématiques" pour le cerveau humain ?
How does the human brain conceptualize abstract ideas? In particular, what is the origin of mathematical activity, especially when it is associated with high-level of abstraction? Is mathematical thought independent of language? Cognitive science has now started to investigate this question that has been of great interest to philosophers, mathematicians and educators for a long time. While studies have so far focused on basic arithmetic processing, my PhD thesis aims at further investigating the cerebral processes involved in the manipulation and learning of more advanced mathematical ideas. I have shown that (1) advanced mathematical reflection on concepts mastered for many years does not recruit the brain circuits for language; (2) mathematical activity systematically involves number- and space-related brain regions, regardless of mathematical domain, problem difficulty, and participants' visual experience; (3) non-verbal acquisition of geometrical rules relies on a language of thought that is independent of natural spoken language. Finally, altogether these results raise new questions and pave the way to further investigations in neuroscience: - is the human ability for language also irrelevant to advanced mathematical acquisition in schools where knowledge is taught verbally? - What is the operational definition of the fields of “mathematics” and “language” at the brain level?
Styles APA, Harvard, Vancouver, ISO, etc.
47

Samrouth, Khouloud. « Représentation et compression à haut niveau sémantique d’images 3D ». Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0025/document.

Texte intégral
Résumé :
La diffusion de données multimédia, et particulièrement les images, continuent à croitre de manière très significative. La recherche de schémas de codage efficaces des images reste donc un domaine de recherche très dynamique. Aujourd'hui, une des technologies innovantes les plus marquantes dans ce secteur est sans doute le passage à un affichage 3D. La technologie 3D est largement utilisée dans les domaines de divertissement, d'imagerie médicale, de l'éducation et même plus récemment dans les enquêtes criminelles. Il existe différentes manières de représenter l'information 3D. L'une des plus répandues consiste à associer à une image classique dite de texture, une image de profondeur de champs. Cette représentation conjointe permet ainsi une bonne reconstruction 3D dès lors que les deux images sont bien corrélées, et plus particulièrement sur les zones de contours de l'image de profondeur. En comparaison avec des images 2D classiques, la connaissance de la profondeur de champs pour les images 3D apporte donc une information sémantique importante quant à la composition de la scène. Dans cette thèse, nous proposons un schéma de codage scalable d'images 3D de type 2D + profondeur avec des fonctionnalités avancées, qui préserve toute la sémantique présente dans les images, tout en garantissant une efficacité de codage significative. La notion de préservation de la sémantique peut être traduite en termes de fonctionnalités telles que l'extraction automatique de zones d'intérêt, la capacité de coder plus finement des zones d'intérêt par rapport au fond, la recomposition de la scène et l'indexation. Ainsi, dans un premier temps, nous introduisons un schéma de codage scalable et joint texture/profondeur. La texture est codée conjointement avec la profondeur à basse résolution, et une méthode de compression de la profondeur adaptée aux caractéristiques des cartes de profondeur est proposée. Ensuite, nous présentons un schéma global de représentation fine et de codage basé contenu. Nous proposons ainsi schéma global de représentation et de codage de "Profondeur d'Intérêt", appelé "Autofocus 3D". Il consiste à extraire finement des objets en respectant les contours dans la carte de profondeur, et de se focaliser automatiquement sur une zone de profondeur pour une meilleure qualité de synthèse. Enfin, nous proposons un algorithme de segmentation en régions d'images 3D, fournissant une forte consistance entre la couleur, la profondeur et les régions de la scène. Basé sur une exploitation conjointe de l'information couleurs, et celle de profondeur, cet algorithme permet la segmentation de la scène avec un degré de granularité fonction de l'application visée. Basé sur cette représentation en régions, il est possible d'appliquer simplement le même principe d'Autofocus 3D précédent, pour une extraction et un codage de la profondeur d'Intérêt (DoI). L'élément le plus remarquable de ces deux approches est d'assurer une pleine cohérence spatiale entre texture, profondeur, et régions, se traduisant par une minimisation des problèmes de distorsions au niveau des contours et ainsi par une meilleure qualité dans les vues synthétisées
Dissemination of multimedia data, in particular the images, continues to grow very significantly. Therefore, developing effective image coding schemes remains a very active research area. Today, one of the most innovative technologies in this area is the 3D technology. This 3D technology is widely used in many domains such as entertainment, medical imaging, education and very recently in criminal investigations. There are different ways of representing 3D information. One of the most common representations, is to associate a depth image to a classic colour image called texture. This joint representation allows a good 3D reconstruction, as the two images are well correlated, especially along the contours of the depth image. Therefore, in comparison with conventional 2D images, knowledge of the depth of field for 3D images provides an important semantic information about the composition of the scene. In this thesis, we propose a scalable 3D image coding scheme for 2D + depth representation with advanced functionalities, which preserves all the semantics present in the images, while maintaining a significant coding efficiency. The concept of preserving the semantics can be translated in terms of features such as an automatic extraction of regions of interest, the ability to encode the regions of interest with higher quality than the background, the post-production of the scene and the indexing. Thus, firstly we introduce a joint and scalable 2D plus depth coding scheme. First, texture is coded jointly with depth at low resolution, and a method of depth data compression well suited to the characteristics of the depth maps is proposed. This method exploits the strong correlation between the depth map and the texture to better encode the depth map. Then, a high resolution coding scheme is proposed in order to refine the texture quality. Next, we present a global fine representation and contentbased coding scheme. Therefore, we propose a representation and coding scheme based on "Depth of Interest", called "3D Autofocus". It consists in a fine extraction of objects, while preserving the contours in the depth map, and it allows to automatically focus on a particular depth zone, for a high rendering quality. Finally, we propose 3D image segmentation, providing a high consistency between colour, depth and regions of the scene. Based on a joint exploitation of the colour and depth information, this algorithm allows the segmentation of the scene with a level of granularity depending on the intended application. Based on such representation of the scene, it is possible to simply apply the same previous 3D Autofocus, for Depth of Interest extraction and coding. It is remarkable that both approaches ensure a high spatial coherence between texture, depth, and regions, allowing to minimize the distortions along object of interest's contours and then a higher quality in the synthesized views
Styles APA, Harvard, Vancouver, ISO, etc.
48

Magnin, Rémi. « Développements précliniques de nouveaux outils utilisant les ultrasons transcraniens guidés par IRM haut champ pour la délivrance de médicaments dans le cerveau et la stimulation non invasive de circuits neuronaux ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS037/document.

Texte intégral
Résumé :
La Barrière Hémato-Encéphalique (BHE) représente aujourd’hui un obstacle majeur pour le développement de nouveaux traitements des pathologies cérébrales puisqu’elle empêche le passage de la majorité des agents thérapeutiques vers le cerveau. Afin de contourner cet obstacle, une technique proposée dans les années 2000 a montré son potentiel pour perméabiliser la BHE de façon non-invasive, locale et transitoire grâce à l’utilisation conjointe de microbulles circulantes et d’ultrasons focalisés, permettant une augmentation significative de la quantité de molécules délivrée aux tissus cérébraux. Ce protocole peut néanmoins présenter des risques (œdèmes, micro-hémorragies) qu’il est possible de maîtriser grâce à un bon contrôle du faisceau acoustique. A ce titre, l’imagerie par résonance magnétique (IRM) représente un outil de choix permettant à la fois de planifier la procédure, puis de la suivre et enfin d’étudier ses effets grâce à l’utilisation d’agents de contraste et de séquences d’imagerie quantitative (relaxométrie T1 / T2). Durant cette thèse, nous avons développé de nouveaux outils permettant l’étude de la perméabilisation de la BHE chez le rongeur. Dans un premier temps, nous avons développé et validé un système motorisé compatible IRM, permettant de déplacer le transducteur ultrasonore à l’intérieur d’un scanner préclinique à 7T, avec un rétro-contrôle en temps réel du faisceau ultrasonore sur la base des images IRM de la force de radiation acoustique (MR-ARFI). Nous avons montré que ce dispositif permettait de réaliser l’ensemble du protocole de perméabilisation de BHE guidé par IRM en choisissant la structure anatomique à traiter de façon reproductible. Nous avons également montré qu’il pouvait être utilisé pour délivrer des molécules sur des régions étendues du cerveau selon des trajectoires arbitrairement programmées. Dans une seconde partie de cette thèse, nous avons réalisé plusieurs études en vue d’étudier l’innocuité de la technique. Nous avons mis en évidence l’influence de certains paramètres acoustiques sur l’efficacité du protocole (pression acoustique, temps de cycle), puis nous avons réalisé une étude histologique des dommages engendrés par une perméabilisation chez des animaux sains pour plusieurs pressions acoustiques, entre 0 et 14 jours post-ultrasons. Enfin, dans une troisième partie, nous avons étudié la diffusion de différents agents de contraste paramagnétiques dans les tissus cérébraux suivant une perméabilisation focale de la BHE. Nous avons montré que cette technique permettait d’obtenir des mesures précises de la tortuosité des tissus cérébraux de façon non-invasive et que cette tortuosité n’était pas modifiée par les ultrasons, contrairement à ce qui est observé suite à une injection intracérébrale
By preventing most of the molecules from penetrating the brain in sufficient quantitiy, the Blood Brain Barrier represents a major obstacle for the development of new therapeutic drugs for brain diseases. A new technique introduced in the early 2000’s combining focused ultrasound and circulating microbubbles has however shown promising results, allowing to induce a local and transient permeabilization of the BBB in a non-invasive manner, thus significantly improving the amount of drugs delivered to the Central Nervous System (CNS). However, this protocol may present some risks (oedema, small hemorrages) which can be avoided by a good control of the acoustic beam properties. To do so, Magnetic Resonance Imaging (MRI) represents a very useful tool since it allows planning, monitoring and following the permeabilization effects by using MRI contrast agents and quantitative imaging sequences (T1/T2 relaxometry). During this PhD, we worked on developing new tools for the study of ultrasound induced BBB permeabilization in rodents. The first part of this work consisted in developing a MR compatible motorized device, allowing the displacment of the ultrasound transducer within a 7T preclinic MRI scanner, with a realtime feedback on the acoustic beam position thanks to MR Acoustic Radiation Force Imaging (MR-ARFI). We have shown that this system allowed performing a full BBB permeabilization protocol under MR-guidance, with an accurate and reproducible choice of the targeted anatomical structure. This system was also used to deliver drugs along arbitrary trajectories over extended regions of the brain. Another part of the work was dedicated to study and improve the safety of the procedure. The influence of different acoustic parameters (acoustic pressure, duty cycle) on the permeabilization efficacy was studied, as well as histologic investigations of short and mid-term effects of BBB permeabilization for different acoustic pressures on healthy rats. Finally, we investigated the diffusion process of contrast agents within the brain tissues following BBB permeabilization. We have shown that this technique allowed accurate measurements of brain tissues tortuosity in a non-invasive way, and found that the tortuosity was not modified by the ultrasound application
Styles APA, Harvard, Vancouver, ISO, etc.
49

Bouyeron, Laurent. « Optimisation et cophasage d'un dispositif d'imagerie directe à haute résolution et haut contraste : l'hypertélescope temporel ». Phd thesis, Université de Limoges, 2013. http://tel.archives-ouvertes.fr/tel-00870029.

Texte intégral
Résumé :
Les hypertélescopes, grâce à leur capacité d'imagerie directe à haute résolution, constituent une voie prometteuse pour le développement de nouveaux instruments dédiés à l'astrophysique. Il reste cependant à démontrer expérimentalement leur faisabilité et notamment à trouver une solution au difficile problème du cophasage. C'est dans cette optique qu'ont été réalisés les travaux présentés dans cette thèse. Le banc de test THT, développé au laboratoire XLIM de Limoges, est le prototype entièrement fibré d'une version particulière d'hypertélescope, appelée hypertélescope temporel. L'historique ainsi que le concept de cet instrument constitué d'un réseau de huit télescopes sont présentés dans le premier chapitre de ce manuscrit. Une étude des défauts expérimentaux intrinsèques à l'instrument a été réalisée afin d'évaluer ses capacités théoriques d'imagerie. Dans un second temps, un dispositif de cophasage a été mis en place. Il est basé sur l'utilisation couplée d'un algorithme génétique et de la technique de diversité de phase. Son efficacité a été validé expérimentalement grâce à l'acquisition en laboratoire d'une image d'un système binaire d'étoiles présentant un écart en magnitude de 9,1 nécessitant un contrôle de tous les chemins optiques avec une résolution d'environ 3 nm. Nous avons ensuite testé cette méthode dans le cas d'un fonctionnement en régime de comptage de photons. Les résultats expérimentaux obtenus démontrent que même dans ces conditions difficiles, les qualités d'imagerie du dispositif sont conservées. Finalement, le dernier chapitre de ce document donne différentes pistes de développement et propose une ébauche d'un projet spatial réalisable à moyen terme.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Daudé, Pierre. « Quantification du tissu adipeux épicardique à haut champ par IRM-Dixon, pour le phénotypage de la cardiomyopathie diabétique ». Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0333.

Texte intégral
Résumé :
L’amélioration de la prise en charge des complications cardiaques dans les maladies métaboliques, obésité et diabète, est un enjeu majeur de notre société. La mesure du tissu adipeux épicardique (TAE), dépôt de graisse attaché au cœur, est un élément diagnostique émergent et prometteur pour identifier les patients à risque. Nous avons développé l’automatisation de cette mesure sur des images IRM de routine par apprentissage profond. Puis, une technique IRM innovante a été proposée pour mesurer et caractériser le TAE en 3D, réunissant : une acquisition en respiration libre, une reconstruction des images robuste au mouvement cardio-respiratoire et aux imperfections de l’IRM, un algorithme de caractérisation de la graisse optimisé et validé et la connaissance de la composition d’échantillons ex-vivo de TAE. L’ensemble permet la caractérisation in vivo et non-invasive du TAE, élément diagnostique novateur du risque cardio-métabolique
Improving the management of cardiac complications in metabolic diseases, obesity and diabetes, is a major challenge for our society. The measurement of epicardial adipose tissue (EAT), a fat depot attached to the heart, is an emerging and promising diagnosis to identify patients at risk. We developed the automation of this measurement on routine MRI images by deep learning. Then, an innovative MRI technique was proposed to measure and characterize the EAT in 3D, combining: a free-breathing acquisition, an image reconstruction robust to cardio-respiratory motion and MRI imperfections, an optimized and validated fat characterization algorithm and the knowledge of the composition of ex-vivo EAT samples. Together, this allows for in vivo, non-invasive characterization of EAT, a novel diagnosis for cardiometabolic risk
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie