Índice

  1. Tesis

Literatura académica sobre el tema "Apprentissage automatique – Imagerie spectroscopique"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Apprentissage automatique – Imagerie spectroscopique".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Tesis sobre el tema "Apprentissage automatique – Imagerie spectroscopique"

1

Abushawish, Mojahed. "New Machine Learning-Based Approaches for AGATA Detectors Characterization and Nuclear Structure Studies of Neutron-Rich Nb Isotopes". Electronic Thesis or Diss., Lyon 1, 2024. http://www.theses.fr/2024LYO10344.

Texto completo
Resumen
Pour effectuer la spectroscopie gamma de haute résolution de noyaux émis en vol, à des vitesse élevées, il est nécessaire d'appliquer une correction Doppler précise. En ce sens, le détecteur AGATA (Advanced Gamma Tracking Array) représente une avancée révolutionnaire en spectroscopie gamma. Sa capacité à reconstruire la trajectoire des gammas dans le détecteur conduit à une excellente résolution en position, assurant une corrections Doppler optimale. Les cristaux de germanium de haute pureté utilisés dans AGATA sont divisés en 36 segments. La détermination des positions des points d'interaction se fait en analysant la forme des impulsions électriques mesurées. L'algorithme utilisé: le PSA (Pulse Shape Analysis), compare les signaux mesurés avec des bases simulées de signaux de référence, ce qui présente des limites en termes de précision. Ces bases de référence peuvent également être obtenues expérimentalement en scannant les cristaux avec des sources de gamma collimatées. Ce travail propose un nouvel algorithme d'apprentissage automatique basé sur les réseaux LSTM (Long Short-Term Memory), plus efficace et précis que la méthode standard de coïncidence de forme d'impulsion: PSCS (Pulse Shape Coincidence Scan). Cette thèse explore également la structure nucléaire des isotopes de Niobium riches en neutrons. Ces noyaux avec Z et N autour de 40 et 60, respectivement, montrent l'un des exemples les plus remarquables de transition soudaine de forme nucléaire entre des noyaux sphériques et tres déformés. Ces isotopes ont été produits au GANIL lors de deux expériences de fission induites par transfert et fusion. La combinaison du spectromètre VAMOS++, d'AGATA et du spectromètre gamma EXOGAM offre une opportunité unique d'obtenir une identification isotopique précise (A, Z), événement par événement, de l'un des fragments de fission, en coïncidence avec les gamma prompts et retardés émis, offrant une résolution sans précédent. Cette étude présente des schémas de niveaux mis à jour pour les isotopes Nb et introduit de nouvelles structures de bandes pour les noyaux Nb. Elle met en évidence la coexistence de formes sphériques/déformées dans l'isotope, réévalue le schéma de niveaux du Nb et le placement de sa bande rotationnelle. Une comparaison systématique suit l'évolution de la déformation nucléaire avec l'augmentation du nombre de neutrons, fournissant des données expérimentales précieuses pour affiner les modèles nucléaires. Les résultats expérimentaux sont comparés avec les calculs théoriques les plus récents de chaque isotope
In-beam gamma-ray spectroscopy, particularly with high-velocity recoil nuclei, requires precise Doppler correction. The Advanced GAmma Tracking Array (AGATA) represents a groundbreaking development in gamma-ray spectrometers, boosting the ability to track gamma-rays within the detector. This capability leads to exceptional position resolution which ensures optimal Doppler corrections. The high-purity germanium crystals used in AGATA are divided into 36 segments. The determination of interaction point positions is achieved by analyzing the shape of the measured electrical pulses. The algorithm used, PSA (Pulse Shape Analysis), compares the measured signals with simulated reference simulated databases, which presents accuracy limitations. On the other hand, experimental databases can be obtained by scanning crystals with collimated gamma-ray sources using a computationally expensive method called Pulse Shape Coincidence Scan (PSCS). This work proposes, a novel machine learning algorithm based on Long Short-Term Memory (LSTM) networks that replaces the PSCS method, reducing processing time and achieving higher consistency and accuracy. This thesis also explores the nuclear structure of neutron-rich Niobium isotopes. These nuclei, with Z and N around 40 and 60, respectively, exhibit one of the most remarkable examples of a sudden shape transition between spherical and highly deformed nuclei. These isotopes were produced at GANIL during two experiments involving transfer-induced fission and fusion. The combination of the VAMOS++ spectrometer, AGATA, and the EXOGAM gamma spectrometer offers a unique opportunity to obtain precise isotopic identification (A, Z) on an event-by-event basis for one of the fission fragments, with the prompt and delayed gamma-rays emitted in coincidence with unprecedented resolution. The research presents updated level schemes for the Nb isotopes and introduces new band structures for the Nb nuclei, pushing the boundaries of what is possible in fission experiments. It highlights spherical/deformed shape coexistence in theNb isotope, reassesses the level scheme of Nb and the placement of its rotational band, and tracks the evolution of nuclear deformation with increasing neutron number, providing valuable experimental data to refine nuclear models. The results are compared with the most recent theoretical calculations of each isotope
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Armanni, Thibaut. "Étude de nouveaux alliages de titane pour applications aéronautiques hautes températures". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0342.

Texto completo
Resumen
L'amélioration de la tenue en température des alliages de titane représente un défi de taille pour l'industrie aéronautique. En effet, dépasser la limite actuelle de 550°C dans les turbomoteurs requiert de trouver le meilleur compromis entre une bonne tenue à l'oxydation et de bonnes propriétés mécaniques en température. Les alliages dits quasi-alpha, constitués majoritairement de phase hexagonale compacte, sont ceux qui offrent les meilleures performances. Ils sont malheureusement sensibles à la fatigue/fluage à froid dit effet Dwell. Dans ce contexte, l'objectif de notre travail est double. D'une part, il s'agit de contribuer à la conception de nouveaux alliages quasi-alpha par apprentissage automatique grâce à une campagne extensive de caractérisation des propriétés mécaniques, à l'ambiante et à chaud. D'autre part, il s'agit de mieux comprendre l'impact de la composition chimique, notamment la teneur en silicium, sur la microstructure et le comportement mécanique. Pour cela, notre démarche a reposé sur la caractérisation de la microstructure de plusieurs alliages sélectionnés judicieusement, en croisant différentes techniques de microscopie. Nous avons ainsi examiné l'influence d'une variation de la teneur en silicium à différentes échelles, en combinant la microscopie électronique à balayage (MEB) et la microscopie électronique en transmission (MET). Nous avons mis en évidence la précipitation de siliciures au-delà d'une certaine teneur en Si, et entrepris de les caractériser de manière approfondie. En particulier, nous avons démontré les limitations d'une analyse en deux dimensions, et nous avons utilisé une technique alternative, combinant le découpage par faisceau d'ions (FIB) et l'observation par MEB pour reconstruire la microstructure en trois dimensions. Cette approche nous a permis d'observer en détail les formes, les tailles et les répartitions spatiales des siliciures. Enfin, nous avons mené des essais de traction à différentes vitesses de déformation ainsi que des essais de fluage dans diverses conditions, pour mieux comprendre le rôle bénéfique du silicium sur le comportement à froid et à chaud des alliages quasi-alpha
Improving the high-temperature resistance of titanium alloys is a major challenge for the aerospace industry. Exceeding the current limit of 550°C in aircraft engines requires finding the best compromise between good oxidation resistance and good mechanical properties. Near-alpha alloys consisting mainly of a compact hexagonal phase are the best candidates. Unfortunately, they are sensitive to cold creep-fatigue, known as the dwell effect. In this context, our work aims to achieve two main objectives. Firstly, to contribute to the design of new near-alpha alloys based on machine learning, supported by extensive mechanical testing, at both ambient and high temperatures. Secondly, to gain a better understanding of the effect of chemical composition, particularly silicon content, on the microstructure and mechanical behaviour. Our approach was based on multi-scale microstructure study of selected alloys using a combination of different microscopy techniques. We examined the influence of a variation in silicon content using a combination of scanning electron microscopy (SEM) and transmission electron microscopy (TEM). We showed that silicide precipitation occurs above a certain silicon content. We demonstrated the limitations of two-dimensional analysis, and used an alternative technique combining ion beam cutting (FIB) with SEM observation to reconstruct the 3D microstructure. This approach enabled us to analyze and quantify the shapes, sizes and spatial distributions of the silicides. Finally, we carried out tensile tests at different strain rates as well as creep tests under various conditions to better understand how silicon addition improves the behaviour of near-alpha alloys
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Mensch, Arthur. "Apprentissage de représentations en imagerie fonctionnelle". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS300/document.

Texto completo
Resumen
Grâce aux avancées technologiques dans le domaine de l'imagerie fonctionnelle cérébrale, les neurosciences cognitives accumulent une grande quantité de cartes spatiales décrivant de manière quantitative l'activité neuronale suscitée dans le cerveau humain en réponse à des tâches ou des stimuli spécifiques, ou de manière spontanée. Dans cette thèse, nous nous intéressons particulièrement aux données issues de l'imagerie par résonance magnétique fonctionnelle (IRMf), que nous étudions dans un cadre d'apprentissage statistique. Notre objectif est d'apprendre des modèles d'activité cérébrale à partir des données. Nous proposons différentes nouvelles manières de profiter de la grande quantité de données IRMf disponible. Tout d'abord, nous considérons les données d'IRMf de repos, que nous traitons grâce à des méthodes de factorisation de matrices. Nous présentons de nouvelles méthodes pour calculer en un temps raisonnable une factorisation parcimonieuse de matrices constituées de centaines d'enregistrements d'IRMf. Cela nous permet d'extraire des réseaux fonctionnels à partir de données d'une envergure inédite. Notre méthode principale introduit une réduction aléatoire de la dimension des données dans une boucle d'apprentissage en ligne. L'algorithme proposé converge plus de 10 fois plus vite que les meilleures méthodes existantes, pour différentes configurations et sur plusieurs jeux de données. Nous effectuons une vaste validation expérimentale de notre approche de sous-échantillonnage aléatoire. Nous proposons une étude théorique des propriétés de convergence de notre algorithme. Dans un second temps, nous nous intéressons aux données d'IRMf d'activation. Nous démontrons comment agréger différents études acquises suivant des protocoles distincts afin d'apprendre des modèles joints de décodage plus justes et interprétables. Notre modèle multi-études apprend à réduire la dimension des images cérébrales en entrée en même temps qu'il apprend à les classifier, pour chacune des études, à partir de leurs représentations réduites. Cela suscite un transfert d'information entre les études. En conséquence, notre modèle multi-étude est plus performant que les modèles de décodage appris sur chaque étude séparément. Notre approche identifie une représentation universellement pertinente de l'activité cérébrale, supportée par un petit nombre de réseaux optimisés pour l'identification de tâches
Thanks to the advent of functional brain-imaging technologies, cognitive neuroscience is accumulating maps of neural activity responses to specific tasks or stimuli, or of spontaneous activity. In this work, we consider data from functional Magnetic Resonance Imaging (fMRI), that we study in a machine learning setting: we learn a model of brain activity that should generalize on unseen data. After reviewing the standard fMRI data analysis techniques, we propose new methods and models to benefit from the recently released large fMRI data repositories. Our goal is to learn richer representations of brain activity. We first focus on unsupervised analysis of terabyte-scale fMRI data acquired on subjects at rest (resting-state fMRI). We perform this analysis using matrix factorization. We present new methods for running sparse matrix factorization/dictionary learning on hundreds of fMRI records in reasonable time. Our leading approach relies on introducing randomness in stochastic optimization loops and provides speed-up of an order of magnitude on a variety of settings and datasets. We provide an extended empirical validation of our stochastic subsampling approach, for datasets from fMRI, hyperspectral imaging and collaborative filtering. We derive convergence properties for our algorithm, in a theoretical analysis that reaches beyond the matrix factorization problem. We then turn to work with fMRI data acquired on subject undergoing behavioral protocols (task fMRI). We investigate how to aggregate data from many source studies, acquired with many different protocols, in order to learn more accurate and interpretable decoding models, that predicts stimuli or tasks from brain maps. Our multi-study shared-layer model learns to reduce the dimensionality of input brain images, simultaneously to learning to decode these images from their reduced representation. This fosters transfer learning in between studies, as we learn the undocumented cognitive common aspects that the many fMRI studies share. As a consequence, our multi-study model performs better than single-study decoding. Our approach identifies universally relevant representation of brain activity, supported by a few task-optimized networks learned during model fitting. Finally, on a related topic, we show how to use dynamic programming within end-to-end trained deep networks, with applications in natural language processing
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Pitiot, Alain. "Segmentation Automatique des Structures Cérébrales s'appuyant sur des Connaissances Explicites". Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://pastel.archives-ouvertes.fr/pastel-00001346.

Texto completo
Resumen
Nous proposons avec cette thèse un système de segmentation automatique pour les images cérébrales (en particulier les IRM in vivo). Nous avons mis l'accent sur la conception d'une méthodologie de segmentation qui s'appuie au maximum sur l'expertise médicale a priori. Nous appréhendons le problème de la recherche des contours des structures cibles sous l'angle du processus d'appariement d'un groupe de patrons déformables (maillages simplexes) aux frontières des structures. Ces patrons évoluent en parallèle, sous la supervision d'un ensemble de règles dérivées à la fois de l'analyse de la dynamique des patrons et de l'expertise médicale. Nous soumettons les patrons à une variété de contraintes,concues à partir d'informations a priori sur la texture, la forme et les propriétes histologiques des tissus sous-jacents aux structures. L'information texturale est extraite par un classificateur linéaire/non-linéaire qui prend la forme d'un réseau de neurones à 2 étages. Cette architecture hybride, liée à une phase d'apprentissage dynamique, permet de produire de meilleures cartes de classification et donc de meilleures contraintes. Une approche originale, par apprentissage, du problème de l'appariement dense d'objets n-D permet l'introduction de connaissances a priori dans l'élaboration des modèles de forme des structures cibles. Nous présentons également un nouveau descripteur de forme, le descripteur "observed transport", dont la robustesse au bruit et le pouvoir de discrémination accru en font un bon candidat pour notre stratégie d'appariement. Enfin, un modèle plus fidèle des transformations induites par les processus histologiques, l'approche affine par morceau, permet la conception d'un algorithme de recalage biomédical mieux adapté à la reconstruction de volumes histologiques 3-D.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001.

Texto completo
Resumen
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Ratiney, Hélène. "Quantification automatique de signaux de spectrométrie et d'imagerie spectroscopique de résonance magnétique fondée sur une base de métabolites : une approche semi-paramétrique". Lyon 1, 2004. http://www.theses.fr/2004LYO10195.

Texto completo
Resumen
La Spectrométrie de Résonance Magnétique (SRM) permet d'accéder, de façon non invasive, aux concentrations des substances chimiques - métabolites - d'un tissu vivant. Cette thèse concerne le développement et la validation de méthodes de quantification des signaux de SRM, principalement les signaux 1H du cerveau humain acquis in vivo à temps d'écho courts, à 1,5 tesla, et ceux d'Imagerie Spectroscopique de Résonance Magnétique (ISRM). Nous proposons une approche semi-paramétrique pour quantifier le signal des métabolites d'intérêt en présence d'un signal de nuisance. La méthode développée, QUEST, quantifie dans le domaine temporel et utilise la connaissance a priori d'une base de métabolites. Une estimation de l'erreur de quantification en présence de paramètres de nuisance est traitée. Les performances statistiques de QUEST sont évaluées par des simulations Monte Carlo. Enfin QUEST est appliquée à l'ISRM. Les artefacts dus à l'acquisition et la quantification dans l'espace {k,t} sont étudiés
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Wei, Wen. "Apprentissage automatique des altérations cérébrales causées par la sclérose en plaques en neuro-imagerie multimodale". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4021.

Texto completo
Resumen
La sclérose en plaques (SEP) est la maladie neurologique évolutive la plus courante chez les jeunes adultes dans le monde et représente donc un problème de santé publique majeur avec environ 90 000 patients en France et plus de 500 000 personnes atteintes de SEP en Europe. Afin d'optimiser les traitements, il est essentiel de pouvoir mesurer et suivre les altérations cérébrales chez les patients atteints de SEP. En fait, la SEP est une maladie aux multiples facettes qui implique différents types d'altérations, telles que les dommages et la réparation de la myéline. Selon cette observation, la neuroimagerie multimodale est nécessaire pour caractériser pleinement la maladie. L'imagerie par résonance magnétique (IRM) est devenue un biomarqueur d'imagerie fondamental pour la sclérose en plaques en raison de sa haute sensibilité à révéler des anomalies tissulaires macroscopiques chez les patients atteints de SEP. L'IRM conventionnelle fournit un moyen direct de détecter les lésions de SEP et leurs changements, et joue un rôle dominant dans les critères diagnostiques de la SEP. De plus, l'imagerie par tomographie par émission de positons (TEP), une autre modalité d'imagerie, peut fournir des informations fonctionnelles et détecter les changements tissulaires cibles au niveau cellulaire et moléculaire en utilisant divers radiotraceurs. Par exemple, en utilisant le radiotraceur [11C]PIB, la TEP permet une mesure pathologique directe de l'altération de la myéline. Cependant, en milieu clinique, toutes les modalités ne sont pas disponibles pour diverses raisons. Dans cette thèse, nous nous concentrons donc sur l'apprentissage et la prédiction des altérations cérébrales dérivées des modalités manquantes dans la SEP à partir de données de neuroimagerie multimodale
Multiple Sclerosis (MS) is the most common progressive neurological disease of young adults worldwide and thus represents a major public health issue with about 90,000 patients in France and more than 500,000 people affected with MS in Europe. In order to optimize treatments, it is essential to be able to measure and track brain alterations in MS patients. In fact, MS is a multi-faceted disease which involves different types of alterations, such as myelin damage and repair. Under this observation, multimodal neuroimaging are needed to fully characterize the disease. Magnetic resonance imaging (MRI) has emerged as a fundamental imaging biomarker for multiple sclerosis because of its high sensitivity to reveal macroscopic tissue abnormalities in patients with MS. Conventional MR scanning provides a direct way to detect MS lesions and their changes, and plays a dominant role in the diagnostic criteria of MS. Moreover, positron emission tomography (PET) imaging, an alternative imaging modality, can provide functional information and detect target tissue changes at the cellular and molecular level by using various radiotracers. For example, by using the radiotracer [11C]PIB, PET allows a direct pathological measure of myelin alteration. However, in clinical settings, not all the modalities are available because of various reasons. In this thesis, we therefore focus on learning and predicting missing-modality-derived brain alterations in MS from multimodal neuroimaging data
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Richard, Hugo. "Unsupervised component analysis for neuroimaging data". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG115.

Texto completo
Resumen
Cette thèse d'informatique et de mathématiques s'applique au domaine des neurosciences, et plus particulièrement aux recherches sur la modélisation de l'activité cérébrale humaine par électrophysiologie et imagerie. Dans ce champ, la tendance est actuellement d’expérimenter avec des stimuli naturels, comme le visionnage d’un film ou l’écoute d’une piste audio, et non plus avec des stimuli étroitement contrôlés mais outrageusement simples. L’analyse de ces stimuli « naturels » et de leurs effets demande toutefois de disposer d’une immense quantité d’images, par ailleurs très coûteuses. Sans outils mathématique, identifier l'activité neuronale à partir des données est quasi impossible. Toutefois, ces stimuli sont compliqués à modéliser et à analyser, car l'utilisation de méthodes fondées sur des régressions est limitée par la difficulté de modéliser les stimuli. C'est ce qui motive l'utilisation de méthodes non-supervisées qui ne font pas d'hypothèses sur ce qui déclenche les activations neuronales. Dans cette thèse, nous considérons d'abord le cas du modèle de réponse partagée (MRP), dans lequel les sujets sont supposés partager une réponse commune. Ce modèle est utile pour réduire la dimension des données, mais son entraînement est coûteux pour les données d'imagerie fonctionnelle (IRMf) dont la dimension peut être immense. Nous présentons une version bien plus rapide et beaucoup plus économe en mémoire. Mais le MRP fait des hypothèses irréalistes sur les données d'imagerie. Des hypothèses plus réalistes sont utilisées dans l'analyse en composantes indépendantes (ACI) mais cette méthode est difficile à généraliser aux jeux de données qui contiennent plusieurs sujets. Nous proposons alors une extension de l'ACI appelée ACI multi-vue, fondée sur le principe de maximum de vraisemblance et qui convient à des jeux de données multi-sujets. L’ACI multi-vue a une vraisemblance en forme fermée qui peut être maximisée efficacement. Toutefois, cette méthode suppose la même quantité de bruit pour tous les sujets. Nous présentons donc l’ACI partagée, une généralisation de l’ACI multi-vue qui s'accompagne d'un modèle de bruit plus général. Contrairement à presque tous les modèles fondés sur l'ACI, l’ACI partagée peut séparer des sources gaussiennes et non gaussiennes et propose une estimation optimale des sources communes, qui pondère chaque sujet en fonction de son niveau de bruit estimé. En pratique, l’ACI partagée et l’ACI multi-vue permettent d'obtenir, en magnéto-encéphalographie et en IRMf, une estimation plus fiable de la réponse commune que leurs concurrents. Enfin, nous utilisons l'ACI comme base pour faire de l'augmentation de données. Plus précisément, nous présentons l’ACI conditionnelle, une méthode d'augmentation de données qui exploite la grande quantité de données d'IRMf non étiquetées pour construire un modèle génératif en utilisant seulement un petit nombre de données étiquetées. L’ACI conditionnelle permet d'augmenter de façon appréciable la précision du décodage sur huit grands jeux de données d'IRMf. Nos principaux apports nous semblent consister dans l’accélération de l’entraînement du MRP ainsi que dans l’introduction de deux modèles plus réalistes pour l’analyse de l’activité cérébrale de sujets exposés à des stimuli naturels : l’ACI multi-vue et l’ACI partagée. Enfin, nos résultats sont prometteurs concernant l’utilisation de l’ACI pour faire de l’augmentation de données. Nous présentons pour finir quelques pistes qui pourraient guider des travaux ultérieurs. D’un point de vue pratique, des modifications mineures de nos méthodes pourraient permettre l’analyse des données d’imagerie obtenues sur des sujets au repos en faisant l’hypothèse d’une organisation spatiale partagée. D’un point de vue théorique, les travaux futurs pourraient se concentrer sur la compréhension de la façon dont la réduction de dimensions et l'identification de la réponse partagée peuvent être réalisées conjointement
This thesis in computer science and mathematics is applied to the field ofneuroscience, and more particularly to the mapping of brain activity based on imaging electrophysiology. In this field, a rising trend is to experiment with naturalistic stimuli such as movie watching or audio track listening,rather than tightly controlled but outrageously simple stimuli. However, the analysis of these "naturalistic" stimuli and their effects requires a huge amount of images that remain hard and costly to acquire. Without mathematical modeling, theidentification of neural signal from the measurements is very hard if not impossible. However, the stimulations that elicit neural activity are challenging to model in this context, and therefore, the statistical analysis of the data using regression-based approaches is difficult. This has motivated the use of unsupervised learning methods that do not make assumptions about what triggers brain activations in the presented stimuli. In this thesis, we first consider the case of the shared response model (SRM), wheresubjects are assumed to share a common response. While this algorithm is usefulto perform dimension reduction, it is particularly costly on functional magneticresonance imaging (fMRI) data where thedimension can be very large. We considerably speed up thealgorithm and reduce its memory usage. However, SRM relies on assumptions thatare not biologically plausible. In contrast, independent component analysis (ICA) is more realistic but not suited to multi-subject datasets. In this thesis, we present a well-principled method called MultiViewICA that extends ICA to datasets containing multiple subjects. MultiViewICA is a maximum likelihood estimator. It comes with a closed-formlikelihood that can be efficiently optimized. However, it assumes the same amount of noise for all subjects. We therefore introduce ShICA, a generalization of MultiViewICA that comes with a more general noise model. In contrast to almost all ICA-based models, ShICA can separate Gaussian and non-Gaussian sources and comes with a minimum mean square error estimate of the common sources that weights each subject according to its estimated noise level. In practice, MultiViewICA and ShICA yield on magnetoencephalography and functional magnetic resonance imaging a more reliable estimateof the shared response than competitors. Lastly, we use independent component analysis as a basis to perform data augmentation. More precisely, we introduce CondICA, a data augmentation method that leverages a large amount of unlabeled fMRI data to build a generative model for labeled data using only a few labeled samples. CondICA yields an increase in decoding accuracy on eight large fMRI datasets. Our main contributions consist in the reduction of SRM's training time as well as in the introduction of two more realistic models for the analysis of brain activity of subjects exposed to naturalistic stimuli: MultiViewICA and ShICA. Lastly, our results showing that ICA can be used for data augmentation are promising. In conclusion, we present some directions that could guide future work. From apractical point of view, minor modifications of our methods could allow theanalysis of resting state data assuming a shared spatial organization instead of a shared response. From a theoretical perspective, future work could focus on understanding how dimension reduction and shared response identification can be achieved jointly
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001/document.

Texto completo
Resumen
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Couteaux, Vincent. "Apprentissage profond pour la segmentation et la détection automatique en imagerie multi-modale : application à l'oncologie hépatique". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT009.

Texto completo
Resumen
Pour caractériser les lésions hépatiques, les radiologues s’appuient sur plusieurs images acquises selon différentes modalités (différentes séquences IRM, tomodensitométrie, etc.) car celles-ci donnent des informations complémentaires. En outre, les outils automatiques de segmentation et de détection leur sont d’une grande aide pour la caractérisation des lésions, le suivi de la maladie ou la planification d’interventions. A l’heure où l’apprentissage profond domine l’état de l’art dans tous les domaines liés au traitement de l’image médicale, cette thèse vise à étudier comment ces méthodes peuvent relever certains défis liés à l’analyse d’images multi-modales, en s’articulant autour de trois axes : la segmentation automatique du foie, l’interprétabilité des réseaux de segmentation et la détection de lésions hépatiques. La segmentation multi-modale dans un contexte où les images sont appariées mais pas recalées entre elles est un problème peu abordé dans la littérature. Je propose une comparaison de stratégies d’apprentissage proposées pour des problèmes voisins, ainsi qu’une méthode pour intégrer une contrainte de similarité des prédictions à l’apprentissage. L’interprétabilité en apprentissage automatique est un champ de recherche jeune aux enjeux particulièrement importants en traitement de l’image médicale, mais qui jusqu’alors s’était concentré sur les réseaux de classification d’images naturelles. Je propose une méthode permettant d’interpréter les réseaux de segmentation d’images médicales. Enfin, je présente un travail préliminaire sur une méthode de détection de lésions hépatiques dans des paires d’images de modalités différentes
In order to characterize hepatic lesions,radiologists rely on several images using different modalities (different MRI sequences, CT scan, etc.) because they provide complementary information.In addition, automatic segmentation and detection tools are a great help in characterizing lesions, monitoring disease or planning interventions.At a time when deep learning dominates the state of the art in all fields related to medical image processing, this thesis aims to study how these methods can meet certain challenges related to multi-modal image analysis, revolving around three axes : automatic segmentation of the liver, the interpretability of segmentation networks and detection of hepatic lesions.Multi-modal segmentation in a context where the images are paired but not registered with respect to each other is a problem that is little addressed in the literature.I propose a comparison of learning strategies that have been proposed for related problems, as well as a method to enforce a constraint of similarity of predictions into learning.Interpretability in machine learning is a young field of research with particularly important issues in medical image processing, but which so far has focused on natural image classification networks.I propose a method for interpreting medical image segmentation networks.Finally, I present preliminary work on a method for detecting liver lesions in pairs of images of different modalities
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía