Tesi sul tema "Apprentissage automatique – Imagerie spectroscopique"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Apprentissage automatique – Imagerie spectroscopique".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Abushawish, Mojahed. "New Machine Learning-Based Approaches for AGATA Detectors Characterization and Nuclear Structure Studies of Neutron-Rich Nb Isotopes". Electronic Thesis or Diss., Lyon 1, 2024. http://www.theses.fr/2024LYO10344.

Testo completo
Abstract (sommario):
Pour effectuer la spectroscopie gamma de haute résolution de noyaux émis en vol, à des vitesse élevées, il est nécessaire d'appliquer une correction Doppler précise. En ce sens, le détecteur AGATA (Advanced Gamma Tracking Array) représente une avancée révolutionnaire en spectroscopie gamma. Sa capacité à reconstruire la trajectoire des gammas dans le détecteur conduit à une excellente résolution en position, assurant une corrections Doppler optimale. Les cristaux de germanium de haute pureté utilisés dans AGATA sont divisés en 36 segments. La détermination des positions des points d'interaction se fait en analysant la forme des impulsions électriques mesurées. L'algorithme utilisé: le PSA (Pulse Shape Analysis), compare les signaux mesurés avec des bases simulées de signaux de référence, ce qui présente des limites en termes de précision. Ces bases de référence peuvent également être obtenues expérimentalement en scannant les cristaux avec des sources de gamma collimatées. Ce travail propose un nouvel algorithme d'apprentissage automatique basé sur les réseaux LSTM (Long Short-Term Memory), plus efficace et précis que la méthode standard de coïncidence de forme d'impulsion: PSCS (Pulse Shape Coincidence Scan). Cette thèse explore également la structure nucléaire des isotopes de Niobium riches en neutrons. Ces noyaux avec Z et N autour de 40 et 60, respectivement, montrent l'un des exemples les plus remarquables de transition soudaine de forme nucléaire entre des noyaux sphériques et tres déformés. Ces isotopes ont été produits au GANIL lors de deux expériences de fission induites par transfert et fusion. La combinaison du spectromètre VAMOS++, d'AGATA et du spectromètre gamma EXOGAM offre une opportunité unique d'obtenir une identification isotopique précise (A, Z), événement par événement, de l'un des fragments de fission, en coïncidence avec les gamma prompts et retardés émis, offrant une résolution sans précédent. Cette étude présente des schémas de niveaux mis à jour pour les isotopes Nb et introduit de nouvelles structures de bandes pour les noyaux Nb. Elle met en évidence la coexistence de formes sphériques/déformées dans l'isotope, réévalue le schéma de niveaux du Nb et le placement de sa bande rotationnelle. Une comparaison systématique suit l'évolution de la déformation nucléaire avec l'augmentation du nombre de neutrons, fournissant des données expérimentales précieuses pour affiner les modèles nucléaires. Les résultats expérimentaux sont comparés avec les calculs théoriques les plus récents de chaque isotope
In-beam gamma-ray spectroscopy, particularly with high-velocity recoil nuclei, requires precise Doppler correction. The Advanced GAmma Tracking Array (AGATA) represents a groundbreaking development in gamma-ray spectrometers, boosting the ability to track gamma-rays within the detector. This capability leads to exceptional position resolution which ensures optimal Doppler corrections. The high-purity germanium crystals used in AGATA are divided into 36 segments. The determination of interaction point positions is achieved by analyzing the shape of the measured electrical pulses. The algorithm used, PSA (Pulse Shape Analysis), compares the measured signals with simulated reference simulated databases, which presents accuracy limitations. On the other hand, experimental databases can be obtained by scanning crystals with collimated gamma-ray sources using a computationally expensive method called Pulse Shape Coincidence Scan (PSCS). This work proposes, a novel machine learning algorithm based on Long Short-Term Memory (LSTM) networks that replaces the PSCS method, reducing processing time and achieving higher consistency and accuracy. This thesis also explores the nuclear structure of neutron-rich Niobium isotopes. These nuclei, with Z and N around 40 and 60, respectively, exhibit one of the most remarkable examples of a sudden shape transition between spherical and highly deformed nuclei. These isotopes were produced at GANIL during two experiments involving transfer-induced fission and fusion. The combination of the VAMOS++ spectrometer, AGATA, and the EXOGAM gamma spectrometer offers a unique opportunity to obtain precise isotopic identification (A, Z) on an event-by-event basis for one of the fission fragments, with the prompt and delayed gamma-rays emitted in coincidence with unprecedented resolution. The research presents updated level schemes for the Nb isotopes and introduces new band structures for the Nb nuclei, pushing the boundaries of what is possible in fission experiments. It highlights spherical/deformed shape coexistence in theNb isotope, reassesses the level scheme of Nb and the placement of its rotational band, and tracks the evolution of nuclear deformation with increasing neutron number, providing valuable experimental data to refine nuclear models. The results are compared with the most recent theoretical calculations of each isotope
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Armanni, Thibaut. "Étude de nouveaux alliages de titane pour applications aéronautiques hautes températures". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0342.

Testo completo
Abstract (sommario):
L'amélioration de la tenue en température des alliages de titane représente un défi de taille pour l'industrie aéronautique. En effet, dépasser la limite actuelle de 550°C dans les turbomoteurs requiert de trouver le meilleur compromis entre une bonne tenue à l'oxydation et de bonnes propriétés mécaniques en température. Les alliages dits quasi-alpha, constitués majoritairement de phase hexagonale compacte, sont ceux qui offrent les meilleures performances. Ils sont malheureusement sensibles à la fatigue/fluage à froid dit effet Dwell. Dans ce contexte, l'objectif de notre travail est double. D'une part, il s'agit de contribuer à la conception de nouveaux alliages quasi-alpha par apprentissage automatique grâce à une campagne extensive de caractérisation des propriétés mécaniques, à l'ambiante et à chaud. D'autre part, il s'agit de mieux comprendre l'impact de la composition chimique, notamment la teneur en silicium, sur la microstructure et le comportement mécanique. Pour cela, notre démarche a reposé sur la caractérisation de la microstructure de plusieurs alliages sélectionnés judicieusement, en croisant différentes techniques de microscopie. Nous avons ainsi examiné l'influence d'une variation de la teneur en silicium à différentes échelles, en combinant la microscopie électronique à balayage (MEB) et la microscopie électronique en transmission (MET). Nous avons mis en évidence la précipitation de siliciures au-delà d'une certaine teneur en Si, et entrepris de les caractériser de manière approfondie. En particulier, nous avons démontré les limitations d'une analyse en deux dimensions, et nous avons utilisé une technique alternative, combinant le découpage par faisceau d'ions (FIB) et l'observation par MEB pour reconstruire la microstructure en trois dimensions. Cette approche nous a permis d'observer en détail les formes, les tailles et les répartitions spatiales des siliciures. Enfin, nous avons mené des essais de traction à différentes vitesses de déformation ainsi que des essais de fluage dans diverses conditions, pour mieux comprendre le rôle bénéfique du silicium sur le comportement à froid et à chaud des alliages quasi-alpha
Improving the high-temperature resistance of titanium alloys is a major challenge for the aerospace industry. Exceeding the current limit of 550°C in aircraft engines requires finding the best compromise between good oxidation resistance and good mechanical properties. Near-alpha alloys consisting mainly of a compact hexagonal phase are the best candidates. Unfortunately, they are sensitive to cold creep-fatigue, known as the dwell effect. In this context, our work aims to achieve two main objectives. Firstly, to contribute to the design of new near-alpha alloys based on machine learning, supported by extensive mechanical testing, at both ambient and high temperatures. Secondly, to gain a better understanding of the effect of chemical composition, particularly silicon content, on the microstructure and mechanical behaviour. Our approach was based on multi-scale microstructure study of selected alloys using a combination of different microscopy techniques. We examined the influence of a variation in silicon content using a combination of scanning electron microscopy (SEM) and transmission electron microscopy (TEM). We showed that silicide precipitation occurs above a certain silicon content. We demonstrated the limitations of two-dimensional analysis, and used an alternative technique combining ion beam cutting (FIB) with SEM observation to reconstruct the 3D microstructure. This approach enabled us to analyze and quantify the shapes, sizes and spatial distributions of the silicides. Finally, we carried out tensile tests at different strain rates as well as creep tests under various conditions to better understand how silicon addition improves the behaviour of near-alpha alloys
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Mensch, Arthur. "Apprentissage de représentations en imagerie fonctionnelle". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS300/document.

Testo completo
Abstract (sommario):
Grâce aux avancées technologiques dans le domaine de l'imagerie fonctionnelle cérébrale, les neurosciences cognitives accumulent une grande quantité de cartes spatiales décrivant de manière quantitative l'activité neuronale suscitée dans le cerveau humain en réponse à des tâches ou des stimuli spécifiques, ou de manière spontanée. Dans cette thèse, nous nous intéressons particulièrement aux données issues de l'imagerie par résonance magnétique fonctionnelle (IRMf), que nous étudions dans un cadre d'apprentissage statistique. Notre objectif est d'apprendre des modèles d'activité cérébrale à partir des données. Nous proposons différentes nouvelles manières de profiter de la grande quantité de données IRMf disponible. Tout d'abord, nous considérons les données d'IRMf de repos, que nous traitons grâce à des méthodes de factorisation de matrices. Nous présentons de nouvelles méthodes pour calculer en un temps raisonnable une factorisation parcimonieuse de matrices constituées de centaines d'enregistrements d'IRMf. Cela nous permet d'extraire des réseaux fonctionnels à partir de données d'une envergure inédite. Notre méthode principale introduit une réduction aléatoire de la dimension des données dans une boucle d'apprentissage en ligne. L'algorithme proposé converge plus de 10 fois plus vite que les meilleures méthodes existantes, pour différentes configurations et sur plusieurs jeux de données. Nous effectuons une vaste validation expérimentale de notre approche de sous-échantillonnage aléatoire. Nous proposons une étude théorique des propriétés de convergence de notre algorithme. Dans un second temps, nous nous intéressons aux données d'IRMf d'activation. Nous démontrons comment agréger différents études acquises suivant des protocoles distincts afin d'apprendre des modèles joints de décodage plus justes et interprétables. Notre modèle multi-études apprend à réduire la dimension des images cérébrales en entrée en même temps qu'il apprend à les classifier, pour chacune des études, à partir de leurs représentations réduites. Cela suscite un transfert d'information entre les études. En conséquence, notre modèle multi-étude est plus performant que les modèles de décodage appris sur chaque étude séparément. Notre approche identifie une représentation universellement pertinente de l'activité cérébrale, supportée par un petit nombre de réseaux optimisés pour l'identification de tâches
Thanks to the advent of functional brain-imaging technologies, cognitive neuroscience is accumulating maps of neural activity responses to specific tasks or stimuli, or of spontaneous activity. In this work, we consider data from functional Magnetic Resonance Imaging (fMRI), that we study in a machine learning setting: we learn a model of brain activity that should generalize on unseen data. After reviewing the standard fMRI data analysis techniques, we propose new methods and models to benefit from the recently released large fMRI data repositories. Our goal is to learn richer representations of brain activity. We first focus on unsupervised analysis of terabyte-scale fMRI data acquired on subjects at rest (resting-state fMRI). We perform this analysis using matrix factorization. We present new methods for running sparse matrix factorization/dictionary learning on hundreds of fMRI records in reasonable time. Our leading approach relies on introducing randomness in stochastic optimization loops and provides speed-up of an order of magnitude on a variety of settings and datasets. We provide an extended empirical validation of our stochastic subsampling approach, for datasets from fMRI, hyperspectral imaging and collaborative filtering. We derive convergence properties for our algorithm, in a theoretical analysis that reaches beyond the matrix factorization problem. We then turn to work with fMRI data acquired on subject undergoing behavioral protocols (task fMRI). We investigate how to aggregate data from many source studies, acquired with many different protocols, in order to learn more accurate and interpretable decoding models, that predicts stimuli or tasks from brain maps. Our multi-study shared-layer model learns to reduce the dimensionality of input brain images, simultaneously to learning to decode these images from their reduced representation. This fosters transfer learning in between studies, as we learn the undocumented cognitive common aspects that the many fMRI studies share. As a consequence, our multi-study model performs better than single-study decoding. Our approach identifies universally relevant representation of brain activity, supported by a few task-optimized networks learned during model fitting. Finally, on a related topic, we show how to use dynamic programming within end-to-end trained deep networks, with applications in natural language processing
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Pitiot, Alain. "Segmentation Automatique des Structures Cérébrales s'appuyant sur des Connaissances Explicites". Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://pastel.archives-ouvertes.fr/pastel-00001346.

Testo completo
Abstract (sommario):
Nous proposons avec cette thèse un système de segmentation automatique pour les images cérébrales (en particulier les IRM in vivo). Nous avons mis l'accent sur la conception d'une méthodologie de segmentation qui s'appuie au maximum sur l'expertise médicale a priori. Nous appréhendons le problème de la recherche des contours des structures cibles sous l'angle du processus d'appariement d'un groupe de patrons déformables (maillages simplexes) aux frontières des structures. Ces patrons évoluent en parallèle, sous la supervision d'un ensemble de règles dérivées à la fois de l'analyse de la dynamique des patrons et de l'expertise médicale. Nous soumettons les patrons à une variété de contraintes,concues à partir d'informations a priori sur la texture, la forme et les propriétes histologiques des tissus sous-jacents aux structures. L'information texturale est extraite par un classificateur linéaire/non-linéaire qui prend la forme d'un réseau de neurones à 2 étages. Cette architecture hybride, liée à une phase d'apprentissage dynamique, permet de produire de meilleures cartes de classification et donc de meilleures contraintes. Une approche originale, par apprentissage, du problème de l'appariement dense d'objets n-D permet l'introduction de connaissances a priori dans l'élaboration des modèles de forme des structures cibles. Nous présentons également un nouveau descripteur de forme, le descripteur "observed transport", dont la robustesse au bruit et le pouvoir de discrémination accru en font un bon candidat pour notre stratégie d'appariement. Enfin, un modèle plus fidèle des transformations induites par les processus histologiques, l'approche affine par morceau, permet la conception d'un algorithme de recalage biomédical mieux adapté à la reconstruction de volumes histologiques 3-D.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001.

Testo completo
Abstract (sommario):
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Ratiney, Hélène. "Quantification automatique de signaux de spectrométrie et d'imagerie spectroscopique de résonance magnétique fondée sur une base de métabolites : une approche semi-paramétrique". Lyon 1, 2004. http://www.theses.fr/2004LYO10195.

Testo completo
Abstract (sommario):
La Spectrométrie de Résonance Magnétique (SRM) permet d'accéder, de façon non invasive, aux concentrations des substances chimiques - métabolites - d'un tissu vivant. Cette thèse concerne le développement et la validation de méthodes de quantification des signaux de SRM, principalement les signaux 1H du cerveau humain acquis in vivo à temps d'écho courts, à 1,5 tesla, et ceux d'Imagerie Spectroscopique de Résonance Magnétique (ISRM). Nous proposons une approche semi-paramétrique pour quantifier le signal des métabolites d'intérêt en présence d'un signal de nuisance. La méthode développée, QUEST, quantifie dans le domaine temporel et utilise la connaissance a priori d'une base de métabolites. Une estimation de l'erreur de quantification en présence de paramètres de nuisance est traitée. Les performances statistiques de QUEST sont évaluées par des simulations Monte Carlo. Enfin QUEST est appliquée à l'ISRM. Les artefacts dus à l'acquisition et la quantification dans l'espace {k,t} sont étudiés
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Wei, Wen. "Apprentissage automatique des altérations cérébrales causées par la sclérose en plaques en neuro-imagerie multimodale". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4021.

Testo completo
Abstract (sommario):
La sclérose en plaques (SEP) est la maladie neurologique évolutive la plus courante chez les jeunes adultes dans le monde et représente donc un problème de santé publique majeur avec environ 90 000 patients en France et plus de 500 000 personnes atteintes de SEP en Europe. Afin d'optimiser les traitements, il est essentiel de pouvoir mesurer et suivre les altérations cérébrales chez les patients atteints de SEP. En fait, la SEP est une maladie aux multiples facettes qui implique différents types d'altérations, telles que les dommages et la réparation de la myéline. Selon cette observation, la neuroimagerie multimodale est nécessaire pour caractériser pleinement la maladie. L'imagerie par résonance magnétique (IRM) est devenue un biomarqueur d'imagerie fondamental pour la sclérose en plaques en raison de sa haute sensibilité à révéler des anomalies tissulaires macroscopiques chez les patients atteints de SEP. L'IRM conventionnelle fournit un moyen direct de détecter les lésions de SEP et leurs changements, et joue un rôle dominant dans les critères diagnostiques de la SEP. De plus, l'imagerie par tomographie par émission de positons (TEP), une autre modalité d'imagerie, peut fournir des informations fonctionnelles et détecter les changements tissulaires cibles au niveau cellulaire et moléculaire en utilisant divers radiotraceurs. Par exemple, en utilisant le radiotraceur [11C]PIB, la TEP permet une mesure pathologique directe de l'altération de la myéline. Cependant, en milieu clinique, toutes les modalités ne sont pas disponibles pour diverses raisons. Dans cette thèse, nous nous concentrons donc sur l'apprentissage et la prédiction des altérations cérébrales dérivées des modalités manquantes dans la SEP à partir de données de neuroimagerie multimodale
Multiple Sclerosis (MS) is the most common progressive neurological disease of young adults worldwide and thus represents a major public health issue with about 90,000 patients in France and more than 500,000 people affected with MS in Europe. In order to optimize treatments, it is essential to be able to measure and track brain alterations in MS patients. In fact, MS is a multi-faceted disease which involves different types of alterations, such as myelin damage and repair. Under this observation, multimodal neuroimaging are needed to fully characterize the disease. Magnetic resonance imaging (MRI) has emerged as a fundamental imaging biomarker for multiple sclerosis because of its high sensitivity to reveal macroscopic tissue abnormalities in patients with MS. Conventional MR scanning provides a direct way to detect MS lesions and their changes, and plays a dominant role in the diagnostic criteria of MS. Moreover, positron emission tomography (PET) imaging, an alternative imaging modality, can provide functional information and detect target tissue changes at the cellular and molecular level by using various radiotracers. For example, by using the radiotracer [11C]PIB, PET allows a direct pathological measure of myelin alteration. However, in clinical settings, not all the modalities are available because of various reasons. In this thesis, we therefore focus on learning and predicting missing-modality-derived brain alterations in MS from multimodal neuroimaging data
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Richard, Hugo. "Unsupervised component analysis for neuroimaging data". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG115.

Testo completo
Abstract (sommario):
Cette thèse d'informatique et de mathématiques s'applique au domaine des neurosciences, et plus particulièrement aux recherches sur la modélisation de l'activité cérébrale humaine par électrophysiologie et imagerie. Dans ce champ, la tendance est actuellement d’expérimenter avec des stimuli naturels, comme le visionnage d’un film ou l’écoute d’une piste audio, et non plus avec des stimuli étroitement contrôlés mais outrageusement simples. L’analyse de ces stimuli « naturels » et de leurs effets demande toutefois de disposer d’une immense quantité d’images, par ailleurs très coûteuses. Sans outils mathématique, identifier l'activité neuronale à partir des données est quasi impossible. Toutefois, ces stimuli sont compliqués à modéliser et à analyser, car l'utilisation de méthodes fondées sur des régressions est limitée par la difficulté de modéliser les stimuli. C'est ce qui motive l'utilisation de méthodes non-supervisées qui ne font pas d'hypothèses sur ce qui déclenche les activations neuronales. Dans cette thèse, nous considérons d'abord le cas du modèle de réponse partagée (MRP), dans lequel les sujets sont supposés partager une réponse commune. Ce modèle est utile pour réduire la dimension des données, mais son entraînement est coûteux pour les données d'imagerie fonctionnelle (IRMf) dont la dimension peut être immense. Nous présentons une version bien plus rapide et beaucoup plus économe en mémoire. Mais le MRP fait des hypothèses irréalistes sur les données d'imagerie. Des hypothèses plus réalistes sont utilisées dans l'analyse en composantes indépendantes (ACI) mais cette méthode est difficile à généraliser aux jeux de données qui contiennent plusieurs sujets. Nous proposons alors une extension de l'ACI appelée ACI multi-vue, fondée sur le principe de maximum de vraisemblance et qui convient à des jeux de données multi-sujets. L’ACI multi-vue a une vraisemblance en forme fermée qui peut être maximisée efficacement. Toutefois, cette méthode suppose la même quantité de bruit pour tous les sujets. Nous présentons donc l’ACI partagée, une généralisation de l’ACI multi-vue qui s'accompagne d'un modèle de bruit plus général. Contrairement à presque tous les modèles fondés sur l'ACI, l’ACI partagée peut séparer des sources gaussiennes et non gaussiennes et propose une estimation optimale des sources communes, qui pondère chaque sujet en fonction de son niveau de bruit estimé. En pratique, l’ACI partagée et l’ACI multi-vue permettent d'obtenir, en magnéto-encéphalographie et en IRMf, une estimation plus fiable de la réponse commune que leurs concurrents. Enfin, nous utilisons l'ACI comme base pour faire de l'augmentation de données. Plus précisément, nous présentons l’ACI conditionnelle, une méthode d'augmentation de données qui exploite la grande quantité de données d'IRMf non étiquetées pour construire un modèle génératif en utilisant seulement un petit nombre de données étiquetées. L’ACI conditionnelle permet d'augmenter de façon appréciable la précision du décodage sur huit grands jeux de données d'IRMf. Nos principaux apports nous semblent consister dans l’accélération de l’entraînement du MRP ainsi que dans l’introduction de deux modèles plus réalistes pour l’analyse de l’activité cérébrale de sujets exposés à des stimuli naturels : l’ACI multi-vue et l’ACI partagée. Enfin, nos résultats sont prometteurs concernant l’utilisation de l’ACI pour faire de l’augmentation de données. Nous présentons pour finir quelques pistes qui pourraient guider des travaux ultérieurs. D’un point de vue pratique, des modifications mineures de nos méthodes pourraient permettre l’analyse des données d’imagerie obtenues sur des sujets au repos en faisant l’hypothèse d’une organisation spatiale partagée. D’un point de vue théorique, les travaux futurs pourraient se concentrer sur la compréhension de la façon dont la réduction de dimensions et l'identification de la réponse partagée peuvent être réalisées conjointement
This thesis in computer science and mathematics is applied to the field ofneuroscience, and more particularly to the mapping of brain activity based on imaging electrophysiology. In this field, a rising trend is to experiment with naturalistic stimuli such as movie watching or audio track listening,rather than tightly controlled but outrageously simple stimuli. However, the analysis of these "naturalistic" stimuli and their effects requires a huge amount of images that remain hard and costly to acquire. Without mathematical modeling, theidentification of neural signal from the measurements is very hard if not impossible. However, the stimulations that elicit neural activity are challenging to model in this context, and therefore, the statistical analysis of the data using regression-based approaches is difficult. This has motivated the use of unsupervised learning methods that do not make assumptions about what triggers brain activations in the presented stimuli. In this thesis, we first consider the case of the shared response model (SRM), wheresubjects are assumed to share a common response. While this algorithm is usefulto perform dimension reduction, it is particularly costly on functional magneticresonance imaging (fMRI) data where thedimension can be very large. We considerably speed up thealgorithm and reduce its memory usage. However, SRM relies on assumptions thatare not biologically plausible. In contrast, independent component analysis (ICA) is more realistic but not suited to multi-subject datasets. In this thesis, we present a well-principled method called MultiViewICA that extends ICA to datasets containing multiple subjects. MultiViewICA is a maximum likelihood estimator. It comes with a closed-formlikelihood that can be efficiently optimized. However, it assumes the same amount of noise for all subjects. We therefore introduce ShICA, a generalization of MultiViewICA that comes with a more general noise model. In contrast to almost all ICA-based models, ShICA can separate Gaussian and non-Gaussian sources and comes with a minimum mean square error estimate of the common sources that weights each subject according to its estimated noise level. In practice, MultiViewICA and ShICA yield on magnetoencephalography and functional magnetic resonance imaging a more reliable estimateof the shared response than competitors. Lastly, we use independent component analysis as a basis to perform data augmentation. More precisely, we introduce CondICA, a data augmentation method that leverages a large amount of unlabeled fMRI data to build a generative model for labeled data using only a few labeled samples. CondICA yields an increase in decoding accuracy on eight large fMRI datasets. Our main contributions consist in the reduction of SRM's training time as well as in the introduction of two more realistic models for the analysis of brain activity of subjects exposed to naturalistic stimuli: MultiViewICA and ShICA. Lastly, our results showing that ICA can be used for data augmentation are promising. In conclusion, we present some directions that could guide future work. From apractical point of view, minor modifications of our methods could allow theanalysis of resting state data assuming a shared spatial organization instead of a shared response. From a theoretical perspective, future work could focus on understanding how dimension reduction and shared response identification can be achieved jointly
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001/document.

Testo completo
Abstract (sommario):
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Couteaux, Vincent. "Apprentissage profond pour la segmentation et la détection automatique en imagerie multi-modale : application à l'oncologie hépatique". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT009.

Testo completo
Abstract (sommario):
Pour caractériser les lésions hépatiques, les radiologues s’appuient sur plusieurs images acquises selon différentes modalités (différentes séquences IRM, tomodensitométrie, etc.) car celles-ci donnent des informations complémentaires. En outre, les outils automatiques de segmentation et de détection leur sont d’une grande aide pour la caractérisation des lésions, le suivi de la maladie ou la planification d’interventions. A l’heure où l’apprentissage profond domine l’état de l’art dans tous les domaines liés au traitement de l’image médicale, cette thèse vise à étudier comment ces méthodes peuvent relever certains défis liés à l’analyse d’images multi-modales, en s’articulant autour de trois axes : la segmentation automatique du foie, l’interprétabilité des réseaux de segmentation et la détection de lésions hépatiques. La segmentation multi-modale dans un contexte où les images sont appariées mais pas recalées entre elles est un problème peu abordé dans la littérature. Je propose une comparaison de stratégies d’apprentissage proposées pour des problèmes voisins, ainsi qu’une méthode pour intégrer une contrainte de similarité des prédictions à l’apprentissage. L’interprétabilité en apprentissage automatique est un champ de recherche jeune aux enjeux particulièrement importants en traitement de l’image médicale, mais qui jusqu’alors s’était concentré sur les réseaux de classification d’images naturelles. Je propose une méthode permettant d’interpréter les réseaux de segmentation d’images médicales. Enfin, je présente un travail préliminaire sur une méthode de détection de lésions hépatiques dans des paires d’images de modalités différentes
In order to characterize hepatic lesions,radiologists rely on several images using different modalities (different MRI sequences, CT scan, etc.) because they provide complementary information.In addition, automatic segmentation and detection tools are a great help in characterizing lesions, monitoring disease or planning interventions.At a time when deep learning dominates the state of the art in all fields related to medical image processing, this thesis aims to study how these methods can meet certain challenges related to multi-modal image analysis, revolving around three axes : automatic segmentation of the liver, the interpretability of segmentation networks and detection of hepatic lesions.Multi-modal segmentation in a context where the images are paired but not registered with respect to each other is a problem that is little addressed in the literature.I propose a comparison of learning strategies that have been proposed for related problems, as well as a method to enforce a constraint of similarity of predictions into learning.Interpretability in machine learning is a young field of research with particularly important issues in medical image processing, but which so far has focused on natural image classification networks.I propose a method for interpreting medical image segmentation networks.Finally, I present preliminary work on a method for detecting liver lesions in pairs of images of different modalities
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Razakarivony, Sébastien. "Apprentissage de variétés pour la Détection et Reconnaissance de véhicules faiblement résolus en imagerie aérienne". Caen, 2014. http://www.theses.fr/2014CAEN2055.

Testo completo
Abstract (sommario):
Cette thèse traite les problématiques de Détection et Reconnaissance de véhicules faiblement résolus dans des images aériennes. Nous présentons tout d'abord ces deux problématiques et leurs difficultés, tant générales que spécifiques au contexte industriel. Dans un second temps, nous effectuons un état de l'art des techniques existantes qui permettent de résoudre ces problématiques sur les contextes classiques, puis nous présentons les bases de données utilisées par la communauté de vision par ordinateur et les bases de données utilisées et crées dans cette thèse. Par la suite, nous présentons les expériences et résultats obtenus avec des méthodes de l'état de l'art sur les bases de données présentées, après quoi nous introduisons l'utilisation des variétés de manière générative, afin de découpler la modélisation des véhicules à détecter et la modélisation du fond à traiter. Ensuite, l'autoencodeur discriminant, un nouvel algorithme basé sur de l'apprentissage de métrique à des fins de classification est présenté, ainsi que son extension, l'autoencodeur discriminant convolutionel. Enfin, nous présentons quelques expériences basées sur l'apprentissage des caractéristiques du fond d'une image. Nous exposons finalement les conclusions et perspectives des travaux effectués
This manuscript addresses the problematics of Detection and Recognition of vehicles of poor resolution in aerial imagery. First, we present these two problems and we give a survey of the different state-of-the-art techniques that exist to solve them. We then introduce databases which are used by the Computer Vision community and the databases created and used during our work, that are more suited to our industrial context. Thirdly, we test some of the state-of-the-art algorithms and we present the related results on these databases. Next, we introduce the use of manifolds as generative models in order to decorrelate the modelisation of the vehicles from the modelisation of the background regions. Then, the discriminative autoencoder, a novel algorithm based on metric learning to detect and recognise efficiently vehicles, as well as its extension, the convolutional discriminative autoencoder, are presented with the associated experiments and results. Finally, we present some experiments on learning the characteristics of the background of an image. The document is closed by the conclusions and a discussion about the future works
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Ruppli, Camille. "Methods and frameworks of annotation cost optimization for deep learning algorithms applied to medical imaging". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT039.

Testo completo
Abstract (sommario):
Ces dernières années, la quantité de données d'imagerie médicale n'a cessé de croître. En 1980, 30 minutes d'acquisition étaient nécessaires pour obtenir 40 images médicales.Aujourd'hui, 1000 images peuvent être acquises en 4 secondes. Cette croissance de la quantité de données est allée de pair avec le développement de techniques d'apprentissage profond qui ont besoin d'annotations de qualité pour être entraînées. En imagerie médicale, les annotations sont beaucoup plus coûteuses à obtenir car elles nécessitent l'expertise d'un radiologue dont le temps est limité.L'objectif de cette thèse est de proposer et de développer des méthodes permettant de limiter la charge d'annotation en imagerie médicale tout en maintenant une performance élevée des algorithmes d'apprentissage profond.Dans la première partie de cette thèse, nous étudions les méthodes d'apprentissage auto-supervisé. Ces méthodes introduisent des sous-tâches de différents types : approches génératives, contextuelle et basée sur l'auto-distillation. Ces tâches sont utilisées pour pré-entraîner un réseau de neurones sans annotations supplémentaires afin de tirer profit des données non annotées disponibles.La plupart de ces tâches utilisent des perturbations assez génériques, sans rapport avec la tâche supervisée sous-jacente et échantillonnées au hasard dans une liste avec des paramètres fixés. La meilleure façon de combiner et de choisir ces perturbations et leurs paramètres n'est pas encore claire. En outre, certaines perturbations peuvent être préjudiciables à la tâche supervisée objectif. Certains travaux atténuent ce problème en concevant des sous-tâches pour une tâche supervisée spécifique, en particulier dans le domaine de l'imagerie médicale. Mais ces tâches ne se généralisent pas bien à d'autres problèmes.Un équilibre doit donc être trouvé entre l'optimisation de la perturbation ou de la sous-tâche pour un problème supervisé donné et la capacité de généralisation de la méthode.Parmi les méthodes basées sur le contexte, les approches d'apprentissage contrastif proposent une tâche de discrimination par instance : l'espace latent est structuré suivant la similarité entre différentes instances. La définition de la similarité des instances est le principal défi de ces approches et a été largement explorée.Lorsque des perturbations sont utilisées pour définir la similarité entre les images, les mêmes questions d'optimisation des perturbations se posent.Nous introduisons un générateur de perturbations optimisé pour le pré-entraînement contrastif guidé par une petite quantité de supervision.Les annotations de classes et certaines métadonnées ont été utilisées pour conditionner la similarité des instances, mais ces données peuvent être sujettes à la variabilité des annotateurs, en particulier dans le domaine médical. Certaines méthodes ont été proposées pour utiliser la confiance dans l'apprentissage supervisé et auto-supervisé, mais elles sont principalement basées sur les valeurs de la fonction de perte. Cependant, la confiance dans les annotations et les métadonnées est souvent liée à des connaissances a priori du domaine, telles que l'acquisition des données, l'expérience et l'accord entre les annotateurs. Ceci est encore plus pertinent pour les données médicales.Dans la deuxième partie de cette thèse, nous proposons une fonction de perte contrastive prenant en compte la confiance des annotations pour le problème spécifique de la détection des lésions du cancer de la prostate.Enfin, nous explorons quelques approches pour appliquer l'apprentissage auto-supervisé et contrastif à la segmentation des lésions du cancer de la prostate
In recent years, the amount of medical imaging data has kept on growing. In 1980, 30 minutes of acquisition were necessary to obtain 40 medical images.Today, 1000 images can be acquired in 4 seconds. This growth in the amount of data has gone hand in hand with the development of deep learning techniques which need quality labels to be trained. In medical imaging, labels are much more expensive to obtain as they require the expertise of a radiologist whose time is limited. The goal of this thesis is to propose and develop methods to limit the annotation load in medical imaging while maintaining a high performance of deep learning algorithms.In the first part of this thesis, we focus on self-supervised learning methods which introduce pretext tasks of various types: generation based, context based and self-distillation approaches. These tasks are used to pretrain a neural network with no additional annotations to take advantage of the amount of available unannotated data. Most of these tasks use perturbations often quite generic, unrelated to the objective task and sampled at random in a fixed list with fixed parameters. How to best combine and choose these perturbations and their parameters remains unclear. Furthermore, some perturbations can be detrimental to the target supervised task. Some works mitigate this issue by designing pretext tasks for a specific supervised task, especially in medical imaging. But these tasks do not generalize well to other problems.A balance must be found between perturbation or pretext task optimization for a given supervised problem and method generalization ability.Among context-based methods, contrastive learning approaches propose an instance-level discrimination task: the latent space is structured with instance similarity. Defining instance similarity is the main challenge of these approaches and has been widely explored.When defining similarity through perturbed versions of the same image, the same questions of perturbations optimization arise.We introduce a perturbation generator optimized for contrastive pre-training guided by a small amount of supervision.Class labels and metadata have been used to condition instance similarity, but these data can be subject to annotator variability, especially in the medical domain. Some methods have been proposed to use confidence in fully supervised and self-supervised training, but it is mostly based on loss function values. However, confidence on labels and metadata is often linked to a priori domain knowledge such as data acquisition, annotators experience and agreement. This is even more relevant for medical data.In the second part of this thesis, we focus we design an adapted contrastive loss introducing annotation confidence for the specific problem of prostate cancer lesion detection.Finally, we explore some approaches to apply self-supervised and contrastive learning to prostate cancer lesion segmentation
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Margeta, Ján. "Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques". Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0055/document.

Testo completo
Abstract (sommario):
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient
The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Yousefi, Bardia. "Mineral identification using data-mining in hyperspectral infrared imagery". Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30304.

Testo completo
Abstract (sommario):
Les applications de l’imagerie infrarouge dans le domaine de la géologie sont principalement des applications hyperspectrales. Elles permettent entre autre l’identification minérale, la cartographie, ainsi que l’estimation de la portée. Le plus souvent, ces acquisitions sont réalisées in-situ soit à l’aide de capteurs aéroportés, soit à l’aide de dispositifs portatifs. La découverte de minéraux indicateurs a permis d’améliorer grandement l’exploration minérale. Ceci est en partie dû à l’utilisation d’instruments portatifs. Dans ce contexte le développement de systèmes automatisés permettrait d’augmenter à la fois la qualité de l’exploration et la précision de la détection des indicateurs. C’est dans ce cadre que s’inscrit le travail mené dans ce doctorat. Le sujet consistait en l’utilisation de méthodes d’apprentissage automatique appliquées à l’analyse (au traitement) d’images hyperspectrales prises dans les longueurs d’onde infrarouge. L’objectif recherché étant l’identification de grains minéraux de petites tailles utilisés comme indicateurs minéral -ogiques. Une application potentielle de cette recherche serait le développement d’un outil logiciel d’assistance pour l’analyse des échantillons lors de l’exploration minérale. Les expériences ont été menées en laboratoire dans la gamme relative à l’infrarouge thermique (Long Wave InfraRed, LWIR) de 7.7m à 11.8 m. Ces essais ont permis de proposer une méthode pour calculer l’annulation du continuum. La méthode utilisée lors de ces essais utilise la factorisation matricielle non négative (NMF). En utlisant une factorisation du premier ordre on peut déduire le rayonnement de pénétration, lequel peut ensuite être comparé et analysé par rapport à d’autres méthodes plus communes. L’analyse des résultats spectraux en comparaison avec plusieurs bibliothèques existantes de données a permis de mettre en évidence la suppression du continuum. Les expérience ayant menés à ce résultat ont été conduites en utilisant une plaque Infragold ainsi qu’un objectif macro LWIR. L’identification automatique de grains de différents matériaux tels que la pyrope, l’olivine et le quartz a commencé. Lors d’une phase de comparaison entre des approches supervisées et non supervisées, cette dernière s’est montrée plus approprié en raison du comportement indépendant par rapport à l’étape d’entraînement. Afin de confirmer la qualité de ces résultats quatre expériences ont été menées. Lors d’une première expérience deux algorithmes ont été évalués pour application de regroupements en utilisant l’approche FCC (False Colour Composite). Cet essai a permis d’observer une vitesse de convergence, jusqu’a vingt fois plus rapide, ainsi qu’une efficacité significativement accrue concernant l’identification en comparaison des résultats de la littérature. Cependant des essais effectués sur des données LWIR ont montré un manque de prédiction de la surface du grain lorsque les grains étaient irréguliers avec présence d’agrégats minéraux. La seconde expérience a consisté, en une analyse quantitaive comparative entre deux bases de données de Ground Truth (GT), nommée rigid-GT et observed-GT (rigide-GT: étiquet manuel de la région, observée-GT:étiquetage manuel les pixels). La précision des résultats était 1.5 fois meilleur lorsque l’on a utlisé la base de données observed-GT que rigid-GT. Pour les deux dernières epxérience, des données venant d’un MEB (Microscope Électronique à Balayage) ainsi que d’un microscopie à fluorescence (XRF) ont été ajoutées. Ces données ont permis d’introduire des informations relatives tant aux agrégats minéraux qu’à la surface des grains. Les résultats ont été comparés par des techniques d’identification automatique des minéraux, utilisant ArcGIS. Cette dernière a montré une performance prometteuse quand à l’identification automatique et à aussi été utilisée pour la GT de validation. Dans l’ensemble, les quatre méthodes de cette thèse représentent des méthodologies bénéfiques pour l’identification des minéraux. Ces méthodes présentent l’avantage d’être non-destructives, relativement précises et d’avoir un faible coût en temps calcul ce qui pourrait les qualifier pour être utilisée dans des conditions de laboratoire ou sur le terrain.
The geological applications of hyperspectral infrared imagery mainly consist in mineral identification, mapping, airborne or portable instruments, and core logging. Finding the mineral indicators offer considerable benefits in terms of mineralogy and mineral exploration which usually involves application of portable instrument and core logging. Moreover, faster and more mechanized systems development increases the precision of identifying mineral indicators and avoid any possible mis-classification. Therefore, the objective of this thesis was to create a tool to using hyperspectral infrared imagery and process the data through image analysis and machine learning methods to identify small size mineral grains used as mineral indicators. This system would be applied for different circumstances to provide an assistant for geological analysis and mineralogy exploration. The experiments were conducted in laboratory conditions in the long-wave infrared (7.7μm to 11.8μm - LWIR), with a LWIR-macro lens (to improve spatial resolution), an Infragold plate, and a heating source. The process began with a method to calculate the continuum removal. The approach is the application of Non-negative Matrix Factorization (NMF) to extract Rank-1 NMF and estimate the down-welling radiance and then compare it with other conventional methods. The results indicate successful suppression of the continuum from the spectra and enable the spectra to be compared with spectral libraries. Afterwards, to have an automated system, supervised and unsupervised approaches have been tested for identification of pyrope, olivine and quartz grains. The results indicated that the unsupervised approach was more suitable due to independent behavior against training stage. Once these results obtained, two algorithms were tested to create False Color Composites (FCC) applying a clustering approach. The results of this comparison indicate significant computational efficiency (more than 20 times faster) and promising performance for mineral identification. Finally, the reliability of the automated LWIR hyperspectral infrared mineral identification has been tested and the difficulty for identification of the irregular grain’s surface along with the mineral aggregates has been verified. The results were compared to two different Ground Truth(GT) (i.e. rigid-GT and observed-GT) for quantitative calculation. Observed-GT increased the accuracy up to 1.5 times than rigid-GT. The samples were also examined by Micro X-ray Fluorescence (XRF) and Scanning Electron Microscope (SEM) in order to retrieve information for the mineral aggregates and the grain’s surface (biotite, epidote, goethite, diopside, smithsonite, tourmaline, kyanite, scheelite, pyrope, olivine, and quartz). The results of XRF imagery compared with automatic mineral identification techniques, using ArcGIS, and represented a promising performance for automatic identification and have been used for GT validation. In overall, the four methods (i.e. 1.Continuum removal methods; 2. Classification or clustering methods for mineral identification; 3. Two algorithms for clustering of mineral spectra; 4. Reliability verification) in this thesis represent beneficial methodologies to identify minerals. These methods have the advantages to be a non-destructive, relatively accurate and have low computational complexity that might be used to identify and assess mineral grains in the laboratory conditions or in the field.
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Aghaei, Mazaheri Jérémy. "Représentations parcimonieuses et apprentissage de dictionnaires pour la compression et la classification d'images satellites". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S028/document.

Testo completo
Abstract (sommario):
Cette thèse propose d'explorer des méthodes de représentations parcimonieuses et d'apprentissage de dictionnaires pour compresser et classifier des images satellites. Les représentations parcimonieuses consistent à approximer un signal par une combinaison linéaire de quelques colonnes, dites atomes, d'un dictionnaire, et ainsi à le représenter par seulement quelques coefficients non nuls contenus dans un vecteur parcimonieux. Afin d'améliorer la qualité des représentations et d'en augmenter la parcimonie, il est intéressant d'apprendre le dictionnaire. La première partie de la thèse présente un état de l'art consacré aux représentations parcimonieuses et aux méthodes d'apprentissage de dictionnaires. Diverses applications de ces méthodes y sont détaillées. Des standards de compression d'images sont également présentés. La deuxième partie traite de l'apprentissage de dictionnaires structurés sur plusieurs niveaux, d'une structure en arbre à une structure adaptative, et de leur application au cas de la compression d'images satellites en les intégrant dans un schéma de codage adapté. Enfin, la troisième partie est consacrée à l'utilisation des dictionnaires structurés appris pour la classification d'images satellites. Une méthode pour estimer la Fonction de Transfert de Modulation (FTM) de l'instrument dont provient une image est étudiée. Puis un algorithme de classification supervisée, utilisant des dictionnaires structurés rendus discriminants entre les classes à l'apprentissage, est présenté dans le cadre de la reconnaissance de scènes au sein d'une image
This thesis explores sparse representation and dictionary learning methods to compress and classify satellite images. Sparse representations consist in approximating a signal by a linear combination of a few columns, known as atoms, from a dictionary, and thus representing it by only a few non-zero coefficients contained in a sparse vector. In order to improve the quality of the representations and to increase their sparsity, it is interesting to learn the dictionary. The first part of the thesis presents a state of the art about sparse representations and dictionary learning methods. Several applications of these methods are explored. Some image compression standards are also presented. The second part deals with the learning of dictionaries structured in several levels, from a tree structure to an adaptive structure, and their application to the compression of satellite images, by integrating them in an adapted coding scheme. Finally, the third part is about the use of learned structured dictionaries for the classification of satellite images. A method to estimate the Modulation Transfer Function (MTF) of the instrument used to capture an image is studied. A supervised classification algorithm, using structured dictionaries made discriminant between classes during the learning, is then presented in the scope of scene recognition in a picture
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Pinte, Caroline. "Machine learning for bi-modal EEG-fMRI neurofeedback : EEG electrodes localization and fMRI NF scores prediction". Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS053.

Testo completo
Abstract (sommario):
Cette thèse explore l'apport des méthodes d'apprentissage automatique dans le contexte de la bi-modalité EEG-IRMf, avec pour objectif de localiser automatiquement et précisément les électrodes EEG dans un volume IRM et de prédire des scores neurofeedback IRMf à partir de signaux EEG. La première partie présente le contexte et les outils utilisés, en abordant les modalités EEG et IRMf ainsi que leur combinaison, le neurofeedback, les réseaux de neurones artificiels, la segmentation d'images et la régression de séries temporelles. La deuxième partie comprend trois contributions principales. La première décrit le développement d'une méthode permettant détecter automatiquement la position et l'étiquetage des électrodes EEG dans un volume IRM à l'aide d'une séquence IRM spécifique. La deuxième contribution propose une méthode de recherche d'hyperparamètres d'architecture de modèles basée sur un algorithme génétique. Ces modèles sont ensuite entraînés sur plusieurs sujets afin de prédire des scores neurofeedback IRMf à partir de signaux EEG. Cette étude compare différentes architectures issues de deux catégories de réseaux neuronaux : les LSTMs et les CNNs. Enfin, la troisième contribution consiste à étudier une piste d'amélioration de ces modèles. Ce travail évalue l'impact de la réduction de la variabilité inter-sujet sur les performances, en appliquant un alignement dans l'espace euclidien aux données EEG
This thesis explores the impact of machine learning methods in the context of bi- modal EEG-fMRI, with the goal of automatically and accurately localizing EEG electrodes in an MRI volume and predicting fMRI neurofeedback scores from EEG signals. The first part presents the context and tools used, covering EEG and fMRI modalities as well as their combination, neurofeedback, artificial neural networks, image segmentation and time series regression. The second part contains three main contributions. The first one describes the development of a method for automatically detecting the position and labeling of EEG electrodes in an MRI volume using a specific MRI sequence. The second contribution proposes a method for finding model architecture hyperparameters based on a genetic algorithm. These models are then trained on several subjects to predict fMRI neurofeedback scores from EEG signals. This study compares different architectures from two categories of neural networks: LSTMs and CNNs. Finally, the third contribution consists in investigating an area of improvement for these models. This work evaluates the impact on model performance of reducing inter-subject variability, by applying an alignment in Euclidean space to EEG data
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Blanchart, Pierre. "Apprentissage rapide adapté aux spécificités de l'utilisateur : application à l'extraction d'informations d'images de télédétection". Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00662747.

Testo completo
Abstract (sommario):
Le traitement des images de télédétection a reçu ces dernières années une attention accrue du fait notamment de l'augmentation du nombre et de la résolution des instruments d'observation de la Terre. Avec l'apparition de capteurs de résolution métriques, les contenus informationnels des images se diversifient énormément et l'accroissement des capacités d'archivage permet de stocker de plus en plus d'images. Dans ce contexte, la nécessité de recourir à des systèmes d'indexation automatique d'images se fait nettement sentir car il n'est plus possible d'analyser toutes les images manuellement. Au cours de ma thèse, j’ai proposé différentes contributions autour de l'apprentissage avec très peu d'exemples qui est une problématique propre à l'imagerie satellitaire. Les méthodes développées concernent principalement l'utilisation de méthodes semi-supervisées pour exploiter l'information contenue dans les données non-labélisées et pallier en quelque sorte la faiblesse et la non-exhaustivité des bases d'apprentissage. Un premier scénario concerne l’utilisation de méthodes semi-supervisées dans le cadre des systèmes d’annotation automatique. L’idée est d’utiliser les données non-labélisées pour identifier des structures inconnues dans les données (i. E. Qui ne sont pas représentées au niveau de la base d’apprentissage) et de guider l’utilisateur dans sa tâche d’exploration de la base d’images. Les deux scénarios suivants présentent des systèmes avec retour de pertinence utilisant des méthodes de type apprentissage actif pour apprendre le concept ciblé par l’utilisateur. Les données non-labélisées sont utilisées pour minimiser le nombre d’interactions système-utilisateur
An important emerging topic in satellite image content extraction and classification is building retrieval systems that automatically learn high-level semantic interpretations from images, possibly under the direct supervision of the user. In this thesis, we envisage successively the two very broad categories of auto-annotation systems and interactive image search engine to propose our own solutions to the recurring problem of learning from small and non-exhaustive training datasets and of generalizing over a very high-volume of unlabeled data. In our first contribution, we look into the problem of exploiting the huge volume of unlabeled data to discover "unknown" semantic structures, that is, semantic classes which are not represented in the training dataset. We propose a semi-supervised algorithm able to build an auto-annotation model over non-exhaustive training datasets and to point out to the user new interesting semantic structures in the purpose of guiding him in his database exploration task. In our second contribution, we envisage the problem of speeding up the learning in interactive image search engines. We derive a semi-supervised active learning algorithm which exploits the intrinsic data distribution to achieve faster identification of the target category. In our last contribution, we describe a cascaded active learning strategy to retrieve objects in large satellite image scenes. We propose consequently an active learning method which exploits a coarse-to-fine scheme to avoid the computational overload inherent to multiple evaluations of the decision function of complex classifiers such as needed to retrieve complex object classes
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Blanchart, Pierre. "Apprentissage rapide adapté aux spécificités de l'utilisateur : application à l'extraction d'informations d'images de télédétection". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00662747.

Testo completo
Abstract (sommario):
Le but des systèmes de recherche d'images est de diriger rapidement l'utilisateur vers des contenus qui sont pertinents par rapport à la requête qu'il a formulée. Après une présentation de la problématique et un état d'art du domaine, cette thèse présente nos contributions dans le cadre de l'apprentissage avec très peu d'exemples qui est propre à l'imagerie satellitaire. Ces contributions se situent principalement autour de l'utilisation de méthodes semi-supervisées pour exploiter l'information contenue dans les données non-labellisées et pallier en quelque sorte la faiblesse et la non-exhaustivité des bases d'apprentissage. Nous présentons deux scénarios d'utilisation de méthodes semi-supervisées. Le premier se place dans le cadre d'un système d'annotation automatique d'images. Le but est alors de détecter les structures inconnues, c'est à dire les ensembles cohérents de données qui ne sont pas représentées dans la base d'apprentissage et ainsi de guider l'utilisateur dans son exploration de la base. Le second scénario concerne les systèmes de recherche interactive d'images. L'idée est d'exploiter une structuration des données, sous la forme d'un clustering par exemple, pour accélérer l'apprentissage (i.e. minimiser le nombre d'itérations de feedback) dans le cadre d'un système avec boucle de pertinence. La nouveauté de nos contributions se situe autour du fait que la plupart des méthodes semi-supervisées ne permettent pas de travailler avec de gros volumes de données comme on en rencontre en imagerie satellitaire ou alors ne sont pas temps-réel ce qui est problématique dans un système avec retour de pertinence où la fluidité des interactions avec l'utilisateur est à privilégier. Un autre problème qui justifie nos contributions est le fait que la plupart des méthodes semi-supervisées font l'hypothèse que la distribution des données labellisées suit la distribution des données non labellisées, hypothèse qui n'est pas vérifiée dans notre cas du fait de la non-exhaustivité des bases d'apprentissage et donc de l'existence de structures inconnues au niveau des données non labellisées. La dernière partie de cette thèse concerne un système de recherche d'objets à l'intérieur d'un schéma de type apprentissage actif. Une stratégie de type "coarse-to-fine" est introduite pour autoriser l'analyse de la base d'images à une taille de patch beaucoup plus "fine" tout en maintenant un nombre raisonnable d'évaluations de la fonction de décision du classificateur utilisé à chaque itération de la boucle d'apprentissage actif. L'idée est d' élaguer de grandes parties de la base de données à une échelle d'analyse dite "grossière'', afin de réserver un traitement plus complexe et plus coûteux sur des zones restreintes et plus prometteuses des images.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Tomasini, Linda. "Apprentissage d'une représentation statistique et topologique d'un environnement". Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0024.

Testo completo
Abstract (sommario):
Cette thèse porte sur l'apprentissage d'une représentation d'un environnement par un réseau de neurones. L’algorithme d'apprentissage non supervisé que nous proposons est basé sur l'identification d'un mélange de gaussiennes et est mis en œuvre sur une carte topologique du type de celles de Kohonen. Une relation formelle est établie avec les algorithmes de classification automatique floue. Nous traitons ensuite deux applications directes de cet algorithme à la vision artificielle: en segmentation d'images par analyse de texture et en imagerie médicale pour la visualisation de données tomographiques de débit sanguin cérébral. Dans la dernière partie, deux architectures hybrides sont définies dans les buts d'apprendre, respectivement, une suite récurrente et les corrélations entre deux variables représentées sur deux cartes topologiques. Dans les deux cas, l'apprentissage fait coopérer l'algorithme précédent de classification automatique avec une règle d'apprentissage supervisée.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Yang, Jinlong. "Apprentissage des espaces de forme du modèle 3d humain habillé en mouvement". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM008/document.

Testo completo
Abstract (sommario):
Les représentations virtuelles 3D de l'humain habillé apparaissent dans les films, les jeux vidéo, et depuis peu, dans les contenus VR.Ces représentations sont souvent générées par l'acquisition 3D ou par la synthétisation des séquences avec les simulations basées sur la physique ou d'autres techniques d'infographie telles que le riggin et skinning. Ces méthodes traditionnelles nécessitent généralement une intervention manuelle fastidieuse, elles génèrent à faible vitesse des contenus de mauvaise qualité, en raison de la complexité du mouvement des vêtements. Afin de résoudre ce problème, nous proposons dans ce travail une approche d'apprentissage pilotée par les données, ce qui peut prendre à la fois des captures réelles et des séquences simulées comme données d'apprentissage, et produire sans les avoir vu des formes 3D de l'humain habillé ayant différentes formes et mouvements corporels, dans les vêtements de différentes adaptations et de matériaux variés.En raison du manque de la cohérence temporelle et des informations sémantiques, il est difficile d'utiliser directement les captures brutes dans l'analyse et l'apprentissage. Par conséquent, nous proposons d'abord une méthode automatique pour extraire le corps humain sous des vêtements à partir de séquences 3D non structurées. Il est réalisé en exploitant un modèle de corps humain statistique et en optimisant les paramètres du modèle, de sorte que la surface du corps reste toujours à l'intérieur de la surface vêtue observée, et aussi près que possible de celle-ci. Nous montrons que notre méthode peut atteindre un résultat similaire ou meilleur que d'autres méthodes de pointe et na pas besoin de l'intervention manuelle.Après avoir extrait le corps humain sous les vêtements, nous proposons une méthode pour enregistrer la surface du vêtement à l'aide de patchs isométriques. Certains points anatomiques du modèle du corps humain sont d'abord projetés sur la surface du vêtement dans chaque cadre de la séquence. Ces points projetés donnent la correspondance de départ entre les surfaces de vêtement sur une séquence. Nous développons isométriquement des plaques autour de ces points afin de propager les correspondances sur la surface du vêtement. Par la suite, ces correspondances denses sont utilisées pour guider l'enregistrement non rigide afin que nous puissions déformer le maillage du modèle pour obtenir la cohérence temporelle des captures brutes.Sur la base des captures traitées et des données simulées, nous proposons enfin une analyse complète des statistiques de la couche de vêtements avec un modèle simple à deux composants. Il est basé, d'une part, sur la réduction des sous-espaces PCA des informations de couche, et de l'autre, sur un modèle de régression de paramètres génériques utilisant des réseaux neuronaux, conu pour régresser de tous les paramètres sémantiques dont la variation est observée dans l'ensemble des données d'entraînement. Nous montrons que notre modèle permet non seulement de reproduire des travaux précédents sur le ré-ciblage, mais aussi de généraliser les capacités de synthèse de données à d'autres paramètres sémantiques tels que les mouvements corporels, l'adaptation des vêtements et les matériaux physiques, ce qui ouvre la voie pour de nombreuses applications des créations et des augmentations axées sur les données
The 3D virtual representations of dressed humans appear in movies, video games and since recently, VR contents. To generate these representations, we usually perform 3D acquisitions or synthesize sequences with physics-based simulation or other computer graphics techniques such as rigging and skinning. These traditional methods generally require tedious manual intervention and generate new contents with low speed or low quality, due to the complexity of clothing motion. To deal with this problem, we propose in this work, a data-driven learning approach, which can take both captures and simulated sequences as learning data, and output unseen 3D shapes of dressed human with different body shape, body motion, clothing fit and clothing materials.Due to the lack of temporal coherence and semantic information, raw captures can hardly be used directly for analysis and learning. Therefore, we first propose an automatic method to extract the human body under clothing from unstructured 3D sequences. It is achieved by exploiting a statistical human body model and optimizing the model parameters so that the body surface stays always within while as close as possible to the observed clothed surface throughout the sequence. We show that our method can achieve similar or better result compared with other state-of-the-art methods, and does not need any manual intervention.After extracting the human body under clothing, we propose a method to register the clothing surface with the help of isometric patches. Some anatomical points on the human body model are first projected to the clothing surface in each frame of the sequence. Those projected points give the starting correspondence between clothing surfaces across a sequence. We isometrically grow patches around these points in order to propagate the correspondences on the clothing surface. Subsequently, those dense correspondences are used to guide non-rigid registration so that we can deform the template mesh to obtain temporal coherence of the raw captures.Based on processed captures and simulated data, we finally propose a comprehensive analysis of the statistics of the clothing layer with a simple two-component model. It is based on PCA subspace reduction of the layer information on one hand, and a generic parameter regression model using neural networks on the other hand, designed to regress from any semantic parameter whose variation is observed in a training set, to the layer parameterization space. We show that our model not only allows to reproduce previous re-targeting works, but generalizes the data synthesizing capabilities to other semantic parameters such as body motion, clothing fit, and physical material parameters, paving the way for many kinds of data-driven creation and augmentation applications
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Taiello, Riccardo. "Apprentissage automatique sécurisé pour l'analyse collaborative des données de santé à grande échelle". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4031.

Testo completo
Abstract (sommario):
Cette thèse de doctorat explore l'intégration de la préservation de la confidentialité, de l'imagerie médicale et de l'apprentissage fédéré (FL) à l'aide de méthodes cryptographiques avancées. Dans le cadre de l'analyse d'images médicales, nous développons un cadre de recalage d'images préservant la confidentialité (PPIR). Ce cadre aborde le défi du recalage des images de manière confidentielle, sans révéler leur contenu. En étendant les paradigmes de recalage classiques, nous incorporons des outils cryptographiques tels que le calcul multipartite sécurisé et le chiffrement homomorphe pour effectuer ces opérations en toute sécurité. Ces outils sont essentiels car ils empêchent les fuites de données pendant le traitement. Étant donné les défis associés à la performance et à l'évolutivité des méthodes cryptographiques dans les données de haute dimension, nous optimisons nos opérations de recalage d'images en utilisant des approximations de gradient. Notre attention se porte sur des méthodes de recalage de plus en plus complexes, telles que les approches rigides, affines et non linéaires utilisant des splines cubiques ou des difféomorphismes, paramétrées par des champs de vitesses variables dans le temps. Nous démontrons comment ces méthodes de recalage sophistiquées peuvent intégrer des mécanismes de préservation de la confidentialité de manière efficace dans diverses tâches.Parallèlement, la thèse aborde le défi des retardataires dans l'apprentissage fédéré, en mettant l'accent sur le rôle de l'agrégation sécurisée (SA) dans l'entraînement collaboratif des modèles. Nous introduisons "Eagle", un schéma SA synchrone conçu pour optimiser la participation des dispositifs arrivant tardivement, améliorant ainsi considérablement les efficacités computationnelle et de communication. Nous présentons également "Owl", adapté aux environnements FL asynchrones tamponnés, surpassant constamment les solutions antérieures. En outre, dans le domaine de la Buffered AsyncSA, nous proposons deux nouvelles approches : "Buffalo" et "Buffalo+". "Buffalo" fait progresser les techniques de SA pour la Buffered AsyncSA, tandis que "Buffalo+" contrecarre les attaques sophistiquées que les méthodes traditionnelles ne parviennent pas à détecter. Cette solution exploite les propriétés des fonctions de hachage incrémentielles et explore la parcimonie dans la quantification des gradients locaux des modèles clients. "Buffalo" et "Buffalo+" sont validés théoriquement et expérimentalement, démontrant leur efficacité dans une nouvelle tâche de FL inter-dispositifs pour les dispositifs médicaux.Enfin, cette thèse a accordé une attention particulière à la traduction des outils de préservation de la confidentialité dans des applications réelles, notamment grâce au cadre open-source FL Fed-BioMed. Les contributions concernent l'introduction de l'une des premières implémentations pratiques de SA spécifiquement conçues pour le FL inter-silos entre hôpitaux, mettant en évidence plusieurs cas d'utilisation pratiques
This PhD thesis explores the integration of privacy preservation, medical imaging, and Federated Learning (FL) using advanced cryptographic methods. Within the context of medical image analysis, we develop a privacy-preserving image registration (PPIR) framework. This framework addresses the challenge of registering images confidentially, without revealing their contents. By extending classical registration paradigms, we incorporate cryptographic tools like secure multi-party computation and homomorphic encryption to perform these operations securely. These tools are vital as they prevent data leakage during processing. Given the challenges associated with the performance and scalability of cryptographic methods in high-dimensional data, we optimize our image registration operations using gradient approximations. Our focus extends to increasingly complex registration methods, such as rigid, affine, and non-linear approaches using cubic splines or diffeomorphisms, parameterized by time-varying velocity fields. We demonstrate how these sophisticated registration methods can integrate privacy-preserving mechanisms effectively across various tasks. Concurrently, the thesis addresses the challenge of stragglers in FL, emphasizing the role of Secure Aggregation (SA) in collaborative model training. We introduce "Eagle", a synchronous SA scheme designed to optimize participation by late-arriving devices, significantly enhancing computational and communication efficiencies. We also present "Owl", tailored for buffered asynchronous FL settings, consistently outperforming earlier solutions. Furthermore, in the realm of Buffered AsyncSA, we propose two novel approaches: "Buffalo" and "Buffalo+". "Buffalo" advances SA techniques for Buffered AsyncSA, while "Buffalo+" counters sophisticated attacks that traditional methods fail to detect, such as model replacement. This solution leverages the properties of incremental hash functions and explores the sparsity in the quantization of local gradients from client models. Both Buffalo and Buffalo+ are validated theoretically and experimentally, demonstrating their effectiveness in a new cross-device FL task for medical devices.Finally, this thesis has devoted particular attention to the translation of privacy-preserving tools in real-world applications, notably through the FL open-source framework Fed-BioMed. Contributions concern the introduction of one of the first practical SA implementations specifically designed for cross-silo FL among hospitals, showcasing several practical use cases
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Leclerc, Sarah Marie-Solveig. "Automatisation de la segmentation sémantique de structures cardiaques en imagerie ultrasonore par apprentissage supervisé". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI121.

Testo completo
Abstract (sommario):
L’analyse d’images médicales joue un rôle essentiel en cardiologie pour la réalisation du diagnostique cardiaque clinique et le suivi de l’état du patient. Parmi les modalités d’imagerie utilisées, l’imagerie par ultrasons, temps réelle, moins coûteuse et portable au chevet du patient, est de nos jours la plus courante. Malheureusement, l’étape nécessaire de segmentation sémantique (soit l’identification et la délimitation précise) des structures cardiaques est difficile en échocardiographie à cause de la faible qualité des images ultrasonores, caractérisées en particulier par l’absence d’interfaces nettes entre les différents tissus. Pour combler le manque d’information, les méthodes les plus performante, avant ces travaux, reposaient sur l’intégration d’informations a priori sur la forme ou le mouvement du cœur, ce qui en échange réduisait leur adaptabilité au cas par cas. De plus, de telles approches nécessitent pour être efficaces l’identification manuelle de plusieurs repères dans l’image, ce qui rend le processus de segmentation difficilement reproductible. Dans cette thèse, nous proposons plusieurs algorithmes originaux et entièrement automatiques pour la segmentation sémantique d’images échocardiographiques. Ces méthodes génériques sont adaptées à la segmentation échocardiographique par apprentissage supervisé, c’est-à-dire que la résolution du problème est construite automatiquement à partir de données pré- analysées par des cardiologues entraînés. Grâce au développement d’une base de données et d’une plateforme d’évaluation dédiées au projet, nous montrons le fort potentiel clinique des méthodes automatiques d’apprentissage supervisé, et en particulier d’apprentissage profond, ainsi que la possibilité d’améliorer leur robustesse en intégrant une étape de détection automatique des régions d’intérêt dans l’image
The analysis of medical images plays a critical role in cardiology. Ultrasound imaging, as a real-time, low cost and bed side applicable modality, is nowadays the most commonly used image modality to monitor patient status and perform clinical cardiac diagnosis. However, the semantic segmentation (i.e the accurate delineation and identification) of heart structures is a difficult task due to the low quality of ultrasound images, characterized in particular by the lack of clear boundaries. To compensate for missing information, the best performing methods before this thesis relied on the integration of prior information on cardiac shape or motion, which in turns reduced the adaptability of the corresponding methods. Furthermore, such approaches require man- ual identifications of key points to be adapted to a given image, which makes the full process difficult to reproduce. In this thesis, we propose several original fully-automatic algorithms for the semantic segmentation of echocardiographic images based on supervised learning ap- proaches, where the resolution of the problem is automatically set up using data previously analyzed by trained cardiologists. From the design of a dedicated dataset and evaluation platform, we prove in this project the clinical applicability of fully-automatic supervised learning methods, in particular deep learning methods, as well as the possibility to improve the robustness by incorporating in the full process the prior automatic detection of regions of interest
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Hage, Chehade Aya. "Détection et classification multi-label de maladies pulmonaires par apprentissage automatique à partir d’images de radiographie thoracique". Electronic Thesis or Diss., Angers, 2024. http://www.theses.fr/2024ANGE0020.

Testo completo
Abstract (sommario):
Les maladies pulmonaires représentent une cause majeure de décès dans le monde, et le diagnostic précoce est crucial pour améliorer les chances de rétablissement. Les technologies d’Intelligence Artificielle ont ouvert des voies prometteuses dans le domaine biomédical. Ainsi dans cette thèse,des modèles d’IA sont utilisés pour améliorer la performance de classification des maladies pulmonaires à partir des images de radiographie thoracique. De nouvelles approches de prétraitement basées sur CycleGAN sont développées pour réduire l’effet du bruit causé par les artefacts tels que des dispositifs médicaux dans les radiographies thoraciques, ainsi que pour générer des masques incluant les zones pathologiques dans les régions d’intérêt. Ensuite, une nouvelle approche de sélection de caractéristiques est développée pour identifier a priori les caractéristiques statistiquement les plus significatives avant la classification. Au-delà de l’analyse des images, les données cliniques associées sont également examinées pour affiner le modèle de classification selon le profil du patient, ce qui améliore l’efficacité diagnostique. Les avancées proposées présentent des résultats prometteurs améliorant la performance de la classification binaire et multi-label des maladies pulmonaires
Lung diseases are a major cause of death worldwide, and early diagnosis is crucial to improve the chance of recovery. Artificial Intelligence technologies have opened promising avenues in the biomedical field. Thus, in this thesis, AI models are used to improve the classification performance of lung diseases from chest X-ray images. New preprocessing approaches based on CycleGAN are developed to reduce the noise effect caused by artifacts such as medical devices in chest Xrays, as well as to generate masks that include pathological areas within the regions of interest. Additionally, a new feature selection approach is developed to identify the statistically most significant features a priori before classification. Beyond image analysis, the associated clinical data are also examined to refine the classification model according to the patient’s profile, enhancing diagnostic effectiveness. The proposed advancements show promising results in improving the performance of both binary and multi-label classification of lung diseases
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Calandre, Jordan. "Analyse non intrusive du geste sportif dans des vidéos par apprentissage automatique". Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS040.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous intéressons à la caractérisation et à l’analyse fine de gestes sportifs dans des vidéos, et plus particulièrement à l’analyse non-intrusive 3D en vision mono caméra. Notre cas d’étude est le tennis de table. Nous proposons une méthode de reconstruction des positions 3D des balles en utilisant une caméra rapide (240 fps) calibrée. Pour cela, nous définissons et entraînons un réseau convolutif qui permet d’extraire des images le diamètre apparent de la balle. La connaissance du diamètre réel de la balle permet de calculer la distance caméra/balle puis de positionner cette dernière dans un repère 3D lié à la table. Ensuite, nous utilisons un modèle physique, prenant en compte l’effet Magnus, pour estimer les paramètres cinématiques de la balle à partir de ses positions 3D successives. La méthode proposée segmente les trajectoires à partir des impacts de la balle sur la table ou la raquette, ce qui permet, en utilisant un modèle physique de rebond, d’affiner les estimations des paramètres cinématiques de la balle puis de calculer la vitesse et l’angle de la raquette lors de la frappe et d’en déduire des indicateurs de performance pertinents. Deux bases de données ont été construites : la première est constituée d’acquisitions de séquences réelles de jeu et la seconde, synthétique, reproduit les conditions d'acquisition de la première et permet de valider nos méthodes, les paramètres physiques utilisés pour la générer étant connus. Enfin, nous présentons notre participation à la tâche Sport\&Vision du challenge MediaEval sur la classification d'actions humaines, par des approches basées sur l'analyse et la représentation du mouvement
In this thesis, we are interested in the characterization and fine-grained analysis of sports gestures in videos, and more particularly in non-intrusive 3D analysis using a single camera. Our case study is table tennis. We propose a method for reconstructing 3D ball positions using a high-speed calibrated camera (240fps). For this, we propose and train a convolutional network that extracts the apparent diameter of the ball from the images. The knowledge of the real diameter of the ball allows us to compute the distance between the camera and the ball, and then to position the latter in a 3D coordinate system linked to the table. Then, we use a physical model, taking into account the Magnus effect, to estimate the kinematic parameters of the ball from its successive 3D positions. The proposed method segments the trajectories from the impacts of the ball on the table or the racket. This allows, using a physical model of rebound, to refinethe estimates of the kinematic parameters of the ball. It is then possible to compute the racket's speed and orientation after the stroke and to deduce relevant performance indicators. Two databases have been built: the first one is made of real game sequence acquisitions. The second is a synthetic dataset that reproduces the acquisition conditions of the previous one. This allows us to validate our methods as the physical parameters used to generate it are known.Finally, we present our participation to the Sport\&Vision task of the MediaEval challenge on the classification of human actions, using approaches based on the analysis and representation of movement
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Rebaud, Louis. "Whole-body / total-body biomarkers in PET imaging". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST047.

Testo completo
Abstract (sommario):
Cette thèse, réalisée en partenariat avec l'Institut Curie et Siemens Healthineers, explore l'utilisation de l'imagerie par tomographie par émission de positrons (TEP) pour le pronostic du cancer, en se concentrant sur les lymphomes non hodgkiniens, en particulier le lymphome folliculaire (FL) et le lymphome diffus à grandes cellules B (DLBCL). Partant de l'hypothèse que les biomarqueurs actuels calculés dans les images TEP sous-utilisent leur richesse en informations, ce travail se concentre sur la recherche de nouveaux biomarqueurs en imagerie TEP corps entier. Une première approche manuelle a permis de valider une caractéristique précédemment identifiée (fragmentation de la tumeur) et d'explorer l'importance pronostique de l'atteinte splénique dans les DLBCL, en constatant que le volume de l'atteinte splénique ne permet pas de stratifier davantage les patients présentant une telle atteinte. Pour dépasser les limites empiriques de la recherche manuelle, une méthode d'identification semi-automatique des caractéristiques a été mise au point. Elle consiste à extraire automatiquement des milliers de biomarqueurs candidats et à les tester à l'aide d'un pipeline de sélection conçu pour trouver des caractéristiques quantifiant de nouvelles informations pronostiques. Les biomarqueurs sélectionnés ont ensuite été analysés et recodés de manière plus simple et plus intuitive. Cette approche a permis d'identifier 22 nouveaux biomarqueurs basés sur l'image, qui reflètent des informations biologiques sur les tumeurs, mais aussi l'état de santé général du patient. Parmi eux, 10 caractéristiques se sont avérées pronostiques à la fois pour les patients atteints de FL que pour ceux souffrant de DLBCL. La thèse aborde également le défi que représente l'utilisation de ces caractéristiques dans la pratique clinique, en proposant le modèle ICARE (Individual Coefficient Approximation for Risk Estimation). Ce modèle d'apprentissage automatique, conçu pour réduire le surapprentissage et améliorer la généralisation, a démontré son efficacité dans le cadre du challenge HECKTOR 2022 visant à prédire le risque de rechute de patients atteints de cancer des voies aérodigestives supérieures à partir de leurs images TEP. Ce modèle s'est également avéré plus résistant au surapprentissage que d'autres méthodes d'apprentissage automatique lors d'une comparaison exhaustive sur un benchmark de 71 jeux de données médicales. Ces développements ont été implémentés dans une extension logicielle d'un prototype développé par Siemens Healthineers
This thesis in partnership with Institut Curie and Siemens Healthineers explores the use of Positron Emission Tomography (PET) for cancer prognosis, focusing on non-Hodgkin lymphomas, especially follicular lymphoma (FL) and diffuse large B cell lymphoma (DLBCL). Assuming that current biomarkers computed in PET images overlook significant information, this work focuses on the search for new biomarkers in whole-body PET imaging. An initial manual approach validated a previously identified feature (tumor fragmentation) and explored the prognostic significance of splenic involvement in DLBCL, finding that the volume of splenic involvement does not further stratify patients with such an involvement. To overcome the empirical limitations of the manual search, a semi-automatic feature identification method was developed. It consisted in the automatic extraction of thousands of candidate biomarkers and there subsequent testing by a selection pipeline design to identify features quantifying new prognostic information. The selected biomarkers were then analysed and re-encoded in simpler and more intuitive ways. Using this approach, 22 new image-based biomarkers were identified, reflecting biological information about the tumours, but also the overall health status of the patient. Among them, 10 features were found prognostic of both FL and DLBCL patient outcome. The thesis also addresses the challenge of using these features in clinical practice, proposing the Individual Coefficient Approximation for Risk Estimation (ICARE) model. This machine learning model, designed to reduce overfitting and improve generalizability, demonstrated effectiveness in the HECKTOR 2022 challenge for predicting outcomes from head and neck cancer patients [18F]-PET/CT scans. This model was also found to overfit less than other machine learning methods on an exhaustive comparison using a benchmark of 71 medical datasets. All these developments were implemented in a software extension of a prototype developed by Siemens Healthineers
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Pierrefeu, Amicie de. "Apprentissage automatique avec parcimonie structurée : application au phénotypage basé sur la neuroimagerie pour la schizophrénie". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS329/document.

Testo completo
Abstract (sommario):
La schizophrénie est un trouble mental, chronique et invalidant caractérisé par divers symptômes tels que des hallucinations, des épisodes délirants ainsi que des déficiences dans les fonctions cognitives. Au fil des ans, l'Imagerie par Résonance Magnétique (IRM) a été de plus en plus utilisée pour mieux comprendre les anomalies structurelles et fonctionnelles inhérentes à ce trouble. Les progrès récents en apprentissage automatique et l'apparition de larges bases de données ouvrent maintenant la voie vers la découverte de biomarqueurs pour le diagnostic/ pronostic assisté par ordinateur. Compte tenu des limitations des algorithmes actuels à produire des signatures prédictives stables et interprétables, nous avons prolongé les approches classiques de régularisation avec des contraintes structurelles provenant de la structure spatiale du cerveau afin de: forcer la solution à adhérer aux hypothèses biologiques, produisant des solutions interprétables et plausibles. De telles contraintes structurelles ont été utilisées pour d'abord identifier une signature neuroanatomique de la schizophrénie et ensuite une signature fonctionnelle des hallucinations chez les patients atteints de schizophrénie
Schizophrenia is a disabling chronic mental disorder characterized by various symptoms such as hallucinations, delusions as well as impairments in high-order cognitive functions. Over the years, Magnetic Resonance Imaging (MRI) has been increasingly used to gain insights on the structural and functional abnormalities inherent to the disorder. Recent progress in machine learning together with the availability of large datasets now pave the way to capture complex relationships to make inferences at an individual level in the perspective of computer-aided diagnosis/prognosis or biomarkers discovery. Given the limitations of state-of-the-art sparse algorithms to produce stable and interpretable predictive signatures, we have pushed forward the regularization approaches extending classical algorithms with structural constraints issued from the known biological structure (spatial structure of the brain) in order to force the solution to adhere to biological priors, producing more plausible interpretable solutions. Such structured sparsity constraints have been leveraged to identify first, a neuroanatomical signature of schizophrenia and second a neuroimaging functional signature of hallucinations in patients with schizophrenia. Additionally, we also extended the popular PCA (Principal Component Analysis) with spatial regularization to identify interpretable patterns of the neuroimaging variability in either functional or anatomical meshes of the cortical surface
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Nguyen, Bang Giang. "Classification en espaces fonctionnels utilisant la norme BV avec applications aux images ophtalmologiques et à la complexité du trafic aérien". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2473/.

Testo completo
Abstract (sommario):
Dans cette thèse, nous traitons deux problèmes différents, en utilisant le concept de variation totale. Le premier problème est la classification des vascularites dans l'angiographie du fond d'œil, et a pour but de faciliter le travail des ophtalmologistes pour diagnostiquer ce type de maladies auto-immunes. Il vise aussi à identifier sur les angiographies les éléments permettant de diagnostiquer la sclérose en plaques. A partir de certains résultats du premier problème, un second problème a pu être abordé, consistant à développer une nouvelle métrique de congestion d'espace aérien. Cette métrique permet de quantifier la complexité de gestion du trafic aérien dans une zone donnée et s'avère très utile dans les processus d'optimisation du système de gestion du trafic aérien (Air Trafic Management, ATM). Dans la première partie de cette thèse, nous introduisons les notions requises pour résoudre ces deux problèmes. Tout d'abord nous présentons le principe de variation totale, ainsi que la manière dont il est utilisé dans nos méthodes. Ensuite, nous détaillons le fonctionnement des machines à vecteurs supports (Support Vector Machines, SVM), qui sont des algorithmes d'apprentissage automatique utilisés pour la classification et la régression. Dans la deuxième partie de cette thèse, nous présentons d'abord un état de l'art des méthodes de segmentation et de mesure des vaisseaux sanguins dans les images rétiniennes, étape importante de notre méthode. Ensuite, nous décrivons notre méthode de classification des images rétiniennes. Pour commencer, nous détectons les régions pathologiques dans les images des patients malades en nous basant sur la norme BV calculée à chaque point le long de l'axe central des vaisseaux. Ensuite, pour classer les images, nous introduisons une stratégie d'extraction des caractéristiques pathologiques pour générer un ensemble de vecteurs de caractéristiques pathologiques qui représente l'ensemble d'images d'origine pour le SVM. Les images sont alors classées en utilisant des méthodes standard de classification par SVM. Enfin, la troisième partie décrit deux applications de la variation totale dans le domaine de l'ATM. Dans la première application, en partant des idées développées dans la deuxième partie, nous introduisons une méthode d'extraction des flux principaux d'avions de l'espace aérien. En nous basant sur les algorithmes utilisés dans la deuxième partie, nous avons développé un indicateur de complexité de l'espace aérien utilisable au niveau macroscopique. Cet indicateur est ensuite comparé à la métrique de densité habituelle, qui consiste simplement à compter le nombre d'avions dans un secteur de l'espace aérien. La seconde application se base sur un modèle par systèmes dynamiques du trafic aérien. Nous proposons une nouvelle métrique de complexité du trafic basée sur le calcul de la norme locale de variation totale vectorielle de la déviation relative du champ de vecteurs. Le but est de réduire la complexité. Trois scénarios de trafic différents sont étudiés pour évaluer la qualité de la méthode proposée
In this thesis, we deal with two different problems using Total Variation concept. The first problem concerns the classification of vasculitis in multiple sclerosis fundus angiography, aiming to help ophthalmologists to diagnose such autoimmune diseases. It also aims at determining potential angiography details in intermediate uveitis in order to help diagnosing multiple sclerosis. The second problem aims at developing new airspace congestion metric, which is an important index that is used for improving Air Traffic Management (ATM) capacity. In the first part of this thesis, we provide preliminary knowledge required to solve the above-mentioned problems. First, we present an overview of the Total Variation and express how it is used in our methods. Then, we present a tutorial on Support Vector Machines (SVMs) which is a learning algorithm used for classification and regression. In the second part of this thesis, we first provide a review of methods for segmentation and measurement of blood vessel in retinal image that is an important step in our method. Then, we present our proposed method for classification of retinal images. First, we detect the diseased region in the pathological images based on the computation of BV norm at each point along the centerline of the blood vessels. Then, to classify the images, we introduce a feature extraction strategy to generate a set of feature vectors that represents the input image set for the SVMs. After that, a standard SVM classifier is applied in order to classify the images. Finally, in the third part of this thesis, we address two applications of TV in the ATM domain. In the first application, based on the ideas developed in the second part, we introduce a methodology to extract the main air traffic flows in the airspace. Moreover, we develop a new airspace complexity indicator which can be used to organize air traffic at macroscopic level. This indicator is then compared to the regular density metric which is computed just by counting the number of aircraft in the airspace sector. The second application is based on a dynamical system model of air traffic. We propose a method for developing a new traffic complexity metric by computing the local vectorial total variation norm of the relative deviation vector field. Its aim is to reduce complexity. Three different traffic situations are investigated to evaluate the fitness of the proposed method
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Germani, Élodie. "Exploring and mitigating analytical variability in fMRI results using representation learning". Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS031.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous intéressons aux variations induites par différentes méthodes d'analyse, ou variabilité analytique, dans les études d'imagerie cérébrale. C'est un phénomène qui est désormais connu dans la communauté, et notre objectif est maintenant de mieux comprendre les facteurs menant à cette variabilité et de trouver des solutions pour mieux la prendre en compte. Pour cela, j’analyse des données et j’explore les relations entre les résultats de différentes méthodes. Parallèlement, j’étudie les contraintes liées à la réutilisation de données et je propose des solutions basées sur l'intelligence artificielle afin de rendre les études plus robustes
In this thesis, we focus on the variations induced by different analysis methods, also known as analytical variability, in brain imaging studies. This phenomenon is now well known in the community, and our aim is now to better understand the factors leading to this variability and to find solutions to better account for it. To do so, I analyse data and explore the relationships between the results of different methods. At the same time, I study the constraints related to data reuse and I propose solutions based on artificial intelligence to build more robust studies
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Felefly, Tony. "Quantum-classical machine learning for brain tumor imaging analysis". Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAJ064.

Testo completo
Abstract (sommario):
La caractérisation des tumeurs cérébrales par des techniques non invasives est nécéssaire. L'objectif est d'utiliser l'apprentissage automatique et la technologie quantique sur des imageries pour caractériser les tumeurs cérébrales. Nous développons un Réseau Neuronal Quantique en utilisant la radiomique des IRM cérébrales pour différencier métastases et gliomes de haut grade. Nous sélectionnons les variables en se basant sur l'information mutuelle et nous utilisons D-Wave pour la solution. Nous entraînons le modèle sur un Simulateur Quantique. Nous utilisons les valeurs de Shapley pour expliquer les prédictions. Nous comparons les résultats á deux modèles classiques performants, DNN et XGB. Le modèle montre une performance comparable. Ensuite, nous développons un Réseau Neuronal Convolutif 3D en utilisant des TDM cérébrales non injectées pour identifier les patients ayant des métastases cérébrales. Nous avons construit deux cohortes de patients, une avec des métastases cérébrales, et une sans anomalies cérébrales. Le cerveau a été segmenté automatiquement. Nous entraînons plusieurs modèles, et le meilleur a montré une bonne performance
Brain tumor characterization using non-invasive techniques is eagerly needed. The objective of this thesis is to use advanced machine learning techniques and quantum technology on brain medical images to characterize brain tumors. First, we built a Quantum Neural Network using radiomic features from on brain MRI to differentiate between metastases and gliomas. We used a Mutual Information feature selection technique, and solved the resulting heuristic on D-Wave’s Quantum Annealer. We trained the model on a Quantum Simulator. We employed instance-wise Shapley values to explain the model predictions. We benchmarked the results against two state-of-the-art classical models, Dense Neural Network and Extreme Gradient Boosting. The model showed comparable performance.Second, we developed a 3D Convolutional Neural Network using non-enhanced brain CT scans to identify patients with brain metastases. For this purpose, we curated two cohorts of patients, one with brain metastases, and one without brain abnormalities. The brain was automatically segmented. We trained several versions of the model, and the best model showed an impressive performance
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Zubiolo, Alexis. "Extraction de caractéristiques et apprentissage statistique pour l'imagerie biomédicale cellulaire et tissulaire". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4117/document.

Testo completo
Abstract (sommario):
L'objectif de cette thèse est de s'intéresser à la classification de cellules et de tissus au sein d'images d'origine biomédicales en s'appuyant sur des critères morphologiques. Le but est de permettre aux médecins et aux biologistes de mieux comprendre les lois qui régissent certains phénomènes biologiques. Ce travail se décompose en trois principales parties correspondant aux trois problèmes typiques des divers domaines de l'imagerie biomédicale abordés. L'objet de la première est l'analyse de vidéos d'endomicroscopie du colon dans lesquelles il s'agit de déterminer automatiquement la classe pathologique des polypes qu'on y observe. Cette tâche est réalisée par un apprentissage supervisé multiclasse couplant les séparateurs à vaste marge à des outils de théorie des graphes. La deuxième partie s'intéresse à l'étude de la morphologie de neurones de souris observés par microscopie confocale en fluorescence. Afin de disposer d'une information riche, les neurones sont observés à deux grossissements, l'un permettant de bien caractériser les corps cellulaires, l'autre, plus faible, pour voir les dendrites apicales dans leur intégralité. Sur ces images, des descripteurs morphologiques des neurones sont extraits automatiquement en vue d'une classification. La dernière partie concerne le traitement multi-échelle d'images d'histologie digitale dans le contexte du cancer du rein. Le réseau vasculaire est extrait et mis sous forme de graphe afin de pouvoir établir un lien entre l'architecture vasculaire de la tumeur et sa classe pathologique
The purpose of this Ph.D. thesis is to study the classification based on morphological features of cells and tissues taken from biomedical images. The goal is to help medical doctors and biologists better understand some biological phenomena. This work is spread in three main parts corresponding to the three typical problems in biomedical imaging tackled. The first part consists in analyzing endomicroscopic videos of the colon in which the pathological class of the polyps has to be determined. This task is performed using a supervised multiclass machine learning algorithm combining support vector machines and graph theory tools. The second part concerns the study of the morphology of mice neurons taken from fluorescent confocal microscopy. In order to obtain a rich information, the neurons are imaged at two different magnifications, the higher magnification where the soma appears in details, and the lower showing the whole cortex, including the apical dendrites. On these images, morphological features are automatically extracted with the intention of performing a classification. The last part is about the multi-scale processing of digital histology images in the context of kidney cancer. The vascular network is extracted and modeled by a graph to establish a link between the architecture of the tumor and its pathological class
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Goya, Outi Jessica. "Développements en radiomique pour une meilleure caractérisation du gliome infiltrant du tronc cérébral à partir d'imagerie par résonance magnétique". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS219/document.

Testo completo
Abstract (sommario):
La radiomique suppose que des informations pertinentes non repérables visuellement peuvent être trouvées en calculant une grande quantité d’indices quantitatifs à partir des images médicales. En cancérologie, ces informations pourraient caractériser le phénotype de la tumeur et définir le pronostic du patient. Le GITC est une tumeur pédiatrique rare diagnostiquée d'après des signes cliniques et son apparence en IRM. Cette thèse présente les premières études radiomiques pour des patients atteints de GITC. Comme les intensités en IRM clinique sont exprimées en unités arbitraires, la première étape de l’étude a été la standardisation des images. Une méthode de normalisation basée sur l'estimation de l'intensité dans la matière blanche d'apparence normale s’est avérée efficace sur plus de 1500 volumes d'images. Des études méthodologiques sur le calcul des indices de texture ont abouti aux recommandations suivantes : (a) discrétiser les niveaux de gris avec une largeur constante pour tous les patients, (b) utiliser un volume d'intérêt constant ou faire attention au biais introduit par des volumes de taille et forme différentes. En s’appuyant sur ces recommandations, les indices radiomiques issus de 4 modalités d'IRM ont été systématiquement analysés en vue de prédire les principales mutations génétiques associées aux GITC et la survie globale des patients au moment du diagnostic. Un pipeline de sélection d’indices a été proposé et différentes méthodes d’apprentissage automatique avec validation croisée ont été mises en oeuvre pour les deux tâches de prédiction. La combinaison des indices cliniques avec les indices d’imagerie est plus efficace que les indices cliniques ou d’imagerie seuls pour la prédiction des deux principales mutations de l’histone H3 (H3.1 versus H3.3) associées au GITC. Comme certaines modalités d'imagerie étaient manquantes, une méthodologie adaptée à l’analyse des bases de données d’imagerie multi-modales avec données manquantes a été proposée pour pallier les limites de recueil des données d'imagerie. Cette approche permet d'intégrer de nouveaux patients. Les résultats du test externe de prédiction des deux principales mutations de l’histone H3 sont encourageants. Concernant la survie, certains indices radiomiques semblent informatifs. Toutefois, le faible nombre de patients n'a pas permis d'établir les performances des prédicteurs proposés. Enfin, ces premières études radiomiques suggèrent la pertinence des indices radiomiques pour la prise en charge des patients atteints de GITC en absence de biopsie mais l’augmentation de la base de données est nécessaire pour confirmer ces résultats. La méthodologie proposée dans cette thèse peut être appliquée à d'autres études cliniques
Radiomics is based on the assumption that relevant, non-visually identifiable information can be found by calculating a large amount of quantitative indices from medical images. In oncology, this information could characterize the phenotype of the tumor and define the prognosis of the patient. DIPG is a rare pediatric tumor diagnosed by clinical signs and MRI appearance. This work presents the first radiomic studies for patients with DIPG. Since clinical MRI intensities are expressed in arbitrary units, the first step in the study was image standardization. A normalization method based on intensity estimation of the normal-appearing white matter has been shown to be effective on more than 1500 image volumes. Methodological studies on the calculation of texture indices have then defined the following recommendations: (a) discretize gray levels with a constant width for all patients, (b) use a constant volume of interest or pay attention to the bias introduced by volumes of different size and shape. Based on these recommendations, radiomic indices from four MRI modalities were systematically analyzed to predict the main genetic mutations associated with DIPG and the overall survival of patients at the time of diagnosis. An index selection pipeline was proposed and different cross-validated machine learning methods were implemented for both prediction tasks. The combination of clinical indices with imaging indices is more effective than the clinical or imaging indices alone for the prediction of the two main mutations in histone H3 (H3.1 versus H3.3) associated with DIPG. As some imaging modalities were missing, a methodology adapted to the analysis of multi-modal imaging databases with missing data was proposed to overcome the limitations of the collection of imaging data. This approach made it possible to integrate new patients. The results of the external prediction test for the two main mutations of H3 histone are encouraging. Regarding survival, some radiomic indices seem to be informative. However, the small number of patients did not make it possible to establish the performance of the proposed predictors. Finally, these first radiomic studies suggest the relevance of the radiomic indices for the management of patients with DIPG in the absence of biopsy but the database need to be increased in order to confirm these results. The proposed methodology can be applied to other studies
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Jas, Mainak. "Contributions pour l'analyse automatique de signaux neuronaux". Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0021.

Testo completo
Abstract (sommario):
Les expériences d’électrophysiologie ont longtemps reposé sur de petites cohortes de sujets pour découvrir des effets d’intérêt significatifs. Toutefois, la faible taille de l’échantillon se traduit par une faible puissance statistique, ce qui entraîne un taux élevé de fausses découvertes et un faible taux de reproductibilité. Deux questions restent à répondre : 1) comment faciliter le partage et la réutilisation des données pour créer de grands ensembles de données; et 2) une fois que de grands ensembles de données sont disponibles, quels outils pouvons-nous construire pour les analyser ? Donc, nous introduisons une nouvelle norme pour le partage des données, Brain Imaging Data Structure (BIDS), et son extension MEG-BIDS. Puis, nous présentons un pipeline d’analyse de données électrophysiologie avec le logiciel MNE. Nous tenons compte des différents choix que l’utilisateur doit faire à chaque étape et formulons des recommandations standardisées. De plus, nous proposons un outil automatisé pour supprimer les segments de données corrompus par des artefacts, ainsi qu’un algorithme de détection d’anomalies basé sur le réglage des seuils de rejet. Par ailleurs, nous utilisons les données HCP, annotées manuellement, pour comparer notre algorithme aux méthodes existantes. Enfin, nous utilisons le convolutional sparse coding pour identifier les structures des séries temporelles neuronales. Nous reformulons l’approche existante comme une inférence MAP pour être atténuer les artefacts provenant des grandes amplitudes et des distributions à queue lourde. Ainsi, cette thèse tente de passer des méthodes d’analyse lentes et manuelles vers des méthodes automatisées et reproducibles
Electrophysiology experiments has for long relied upon small cohorts of subjects to uncover statistically significant effects of interest. However, the low sample size translates into a low power which leads to a high false discovery rate, and hence a low rate of reproducibility. To address this issue means solving two related problems: first, how do we facilitate data sharing and reusability to build large datasets; and second, once big datasets are available, what tools can we build to analyze them ? In the first part of the thesis, we introduce a new data standard for sharing data known as the Brain Imaging Data Structure (BIDS), and its extension MEG-BIDS. Next, we introduce the reader to a typical electrophysiological pipeline analyzed with the MNE software package. We consider the different choices that users have to deal with at each stage of the pipeline and provide standard recommendations. Next, we focus our attention on tools to automate analysis of large datasets. We propose an automated tool to remove segments of data corrupted by artifacts. We develop an outlier detection algorithm based on tuning rejection thresholds. More importantly, we use the HCP data, which is manually annotated, to benchmark our algorithm against existing state-of-the-art methods. Finally, we use convolutional sparse coding to uncover structures in neural time series. We reformulate the existing approach in computer vision as a maximuma posteriori (MAP) inference problem to deal with heavy tailed distributions and high amplitude artifacts. Taken together, this thesis represents an attempt to shift from slow and manual methods of analysis to automated, reproducible analysis
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Mascarilla, Laurent. "Apprentissage de connaissances pour l'interprétation des images satellite". Toulouse 3, 1996. http://www.theses.fr/1996TOU30300.

Testo completo
Abstract (sommario):
Dans le cadre d'un systeme expert en interpretation d'images satellite pour la cartographie automatique, ou donnees multi-spectrales et connaissances sont combinees pour produire une classification finale, ce document a pour objet la description d'un systeme neuro-flou d'apprentissage automatique de regles. Deux niveaux de reseaux de neurones sont mis en uvre pour induire, puis optimiser, des regles floues a partir d'exemples de classes de vegetation designees sur l'image par un expert. Dans une premiere phase, un reseau neuro-flou de type competitif entraine sur les echantillons fournit, a partir des donnees exogenes, une base de connaissances et a partir des donnees image un classifieur. A ce stade, les notions d'information relative et de mesure de frequence floue sont utilisees pour produire des regles compactes affectees d'un facteur de certitude. Une approximation linguistique permet ensuite de les presenter en langage naturel a l'expert qui peut alors les valider ou les modifier. A l'issue de cette phase, une premiere carte peut etre obtenue en fusionnant, pour chaque pixel, les degres d'appartenance issus de la partie regle et de la partie image. Dans une seconde phase, un perceptron neuro-flou affine les resultats en ajustant les parametres de la base de connaissances sur la base d'echantillons. En particulier, les formes des fonctions d'appartenance et les connecteurs logiques sont optimises. De la meme facon qu'a la fin de la premiere phase, une carte finale est produite
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Desir, Chesner. "Classification automatique d'images, application à l'imagerie du poumon profond". Phd thesis, Rouen, 2013. http://www.theses.fr/2013ROUES053.

Testo completo
Abstract (sommario):
Cette thèse porte sur la classification automatique d’images, appliquée aux images acquises par alvéoscopie, une nouvelle technique d’imagerie du poumon profond. L’objectif est la conception et le développement d’un système d’aide au diagnostic permettant d’aider le praticien à analyser ces images jamais vues auparavant. Nous avons élaboré, au travers de deux contributions, des méthodes performantes, génériques et robustes permettant de classer de façon satisfaisante les images de patients sains et pathologiques. Nous avons proposé un premier système complet de classification basé à la fois sur une caractérisation locale et riche du contenu des images, une approche de classification par méthodes d’ensemble d’arbres aléatoires et un mécanisme de pilotage du rejet de décision, fournissant à l’expert médical un moyen de renforcer la fiabilité du système. Face à la complexité des images alvéoscopiques et la difficulté de caractériser les cas pathologiques, contrairement aux cas sains, nous nous sommes orientés vers la classification oneclass qui permet d’apprendre à partir des seules données des cas sains. Nous avons alors proposé une approche one-class tirant partie des mécanismes de combinaison et d’injection d’aléatoire des méthodes d’ensemble d’arbres de décision pour répondre aux difficultés rencontrées dans les approches standards, notamment la malédiction de la dimension. Les résultats obtenus montrent que notre méthode est performante, robuste à la dimension, compétitive et même meilleure comparée aux méthodes de l’état de l’art sur une grande variété de bases publiques. Elle s’est notamment avérée pertinente pour notre problématique médicale
This thesis deals with automated image classification, applied to images acquired with alveoscopy, a new imaging technique of the distal lung. The aim is to propose and develop a computer aided-diagnosis system, so as to help the clinician analyze these images never seen before. Our contributions lie in the development of effective, robust and generic methods to classify images of healthy and pathological patients. Our first classification system is based on a rich and local characterization of the images, an ensemble of random trees approach for classification and a rejection mechanism, providing the medical expert with tools to enhance the reliability of the system. Due to the complexity of alveoscopy images and to the lack of expertize on the pathological cases (unlike healthy cases), we adopt the one-class learning paradigm which allows to learn a classifier from healthy data only. We propose a one-class approach taking advantage of combining and randomization mechanisms of ensemble methods to respond to common issues such as the curse of dimensionality. Our method is shown to be effective, robust to the dimension, competitive and even better than state-of-the-art methods on various public datasets. It has proved to be particularly relevant to our medical problem
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Desir, Chesner. "Classification Automatique d'Images, Application à l'Imagerie du Poumon Profond". Phd thesis, Université de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00879356.

Testo completo
Abstract (sommario):
Cette thèse porte sur la classification automatique d'images, appliquée aux images acquises par alvéoscopie, une nouvelle technique d'imagerie du poumon profond. L'objectif est la conception et le développement d'un système d'aide au diagnostic permettant d'aider le praticien à analyser ces images jamais vues auparavant. Nous avons élaboré, au travers de deux contributions, des méthodes performantes, génériques et robustes permettant de classer de façon satisfaisante les images de patients sains et pathologiques. Nous avons proposé un premier système complet de classification basé à la fois sur une caractérisation locale et riche du contenu des images, une approche de classification par méthodes d'ensemble d'arbres aléatoires et un mécanisme de pilotage du rejet de décision, fournissant à l'expert médical un moyen de renforcer la fiabilité du système. Face à la complexité des images alvéoscopiques et la difficulté de caractériser les cas pathologiques, contrairement aux cas sains, nous nous sommes orientés vers la classification one-class qui permet d'apprendre à partir des seules données des cas sains. Nous avons alors proposé une approche one-class tirant partie des mécanismes de combinaison et d'injection d'aléatoire des méthodes d'ensemble d'arbres de décision pour répondre aux difficultés rencontrées dans les approches standards, notamment la malédiction de la dimension. Les résultats obtenus montrent que notre méthode est performante, robuste à la dimension, compétitive et même meilleure comparée aux méthodes de l'état de l'art sur une grande variété de bases publiques. Elle s'est notamment avérée pertinente pour notre problématique médicale.
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Zhang, Jing. "Prise en compte de l’esthétique dans la gestion des gammes de luminance des images". Electronic Thesis or Diss., Littoral, 2024. http://www.theses.fr/2024DUNK0704.

Testo completo
Abstract (sommario):
L'analyse des caractéristiques esthétiques d'images numériques permettent d'améliorer la qualité esthétique du contenu visuel. En analysant les caractéristiques esthétiques qui influencent la perception visuelle à travers les données de l'image, les ordinateurs peuvent effectuer des tâches telles que l'édition assistée d'image, l'amélioration de la qualité esthétique et le filtrage de la meilleure image. Cette thèse intègre l'analyse des caractéristiques esthétiques des images avec l'imagerie à haute gamme dynamique (HDR). Nous prenons en compte les propriétés du HDR et les caractéristiques esthétiques lors du traitement des images HDR. L'objectif est de maximiser la préservation des caractéristiques esthétiques originales des images lors de l'ajustement des effets d'affichage HDR, afin d'atteindre l'expérience visuelle plus agréable. Dans cette thèse, nous proposons deux approches d'auto-ajustement des images HDR et une méthode de reconstruction des lignes de force de la composition. Concernant l'auto-ajustement des images HDR, nous développons un modèle basé sur un réseau de neurones pour prédire la courbe d'ajustement des images HDR, et un modèle utilisant un réseau de neurones convolutifs pour estimer la valeur d'ajustement de l'exposition, en analysant les caractéristiques potentielles des images HDR. Ces deux méthodes consistent à améliorer automatiquement la perception de la qualité esthétique des images HDR sur des dispositifs d'affichage HDR. Elles le font en entraînant des réseaux de neurones à apprendre des paramètres d'édition d'experts à partir de jeux de données HDR. Afin d'analyser l'esthétique de la composition d'une image, nous proposons de reconstruire les lignes de force. Tout comme la couleur, les lumières ou le grain de l'image, les lignes de force font partie des caractéristiques esthétiques qui doivent être analysées. La méthode proposée identifie les lignes de force implicites dans l'image par un algorithme de regroupement des lignes. Nous avons initialement mené une analyse de cohérence entre experts pour démontrer la faisabilité de notre méthode. Par ailleurs, nous proposons une métrique pour comparer les deux ensembles de lignes de force
Aesthetic analysis of digital images enhances the visual content's aesthetic quality. By analyzing aesthetic features that influence visual perception through image data, computers can perform tasks like assisted image editing, aesthetic quality enhancement, and filtering for the best image. This thesis merges aesthetic image analysis with high dynamic range (HDR) imaging. We consider both the properties of HDR and the aesthetic characteristics of images during HDR image processing. The aim is to maximize the preservation of the original aesthetic features of images when adjusting HDR image display results, thereby achieving a pleasant visual experience. In this thesis, we propose a composition leading lines reconstruction method and two HDR image auto-adjustment methods. Regarding automatic adjustment of HDR images, we are developing a model based on a neural network to predict the adjustment curve of HDR images, and a model using a convolutional neural network to estimate the exposure adjustment value, by analyzing potential features of HDR images. Both methods automatically enhance the aesthetic quality perception of HDR images on HDR display devices by training neural networls to learn expert editing parameters from an HDR database. In order to analyze the aesthetics of image composition, we propose to reconstruct the leading lines of the image. Just like color, lighting, or the grain of the image, the leading lines among the aesthetic features that need to be analyzed. The proposed method identified implicit leading lines in the image through a line regrouping algorithm. We initially carried out an inter-expert consistency analysis to demonstrate the feasibility of our method. In addition, we propose a metric for comparing the two sets of leading lines
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Desbordes, Paul. "Méthode de sélection de caractéristiques pronostiques et prédictives basée sur les forêts aléatoires pour le suivi thérapeutique des lésions tumorales par imagerie fonctionnelle TEP". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR030/document.

Testo completo
Abstract (sommario):
La radiomique propose de combiner des caractéristiques images avec celles issues de la clinique, de la génomique, de la protéomique, etc . . .afin de mettre en place une médecine personnalisée dans la prise en charge du cancer. L’objectif est d’anticiper, à partir d’un examen initial, les chances de survie du patient ou la probabilité de la maladie de répondre à un traitement. En médecine, des méthodes statistiques classiques sont généralement utilisées comme l’analyse de Mann-Whitney pour les études prédictives et l’analyse des courbes de survie de Kaplan-Meier pour les études pronostiques. Cependant, l’augmentation du nombre de caractéristiques étudiées pose des problèmes pour l’utilisation de ces statistiques. C’est pour cela que nous nous sommes orientés vers l’utilisation des algorithmes d’apprentissage automatique et des méthodes de sélectionde caractéristiques. Ces méthodes sont résistantes aux grandes dimensions, ainsi qu’aux relations non-linéaires entre caractéristiques. Nous avons proposé 2 méthodes de sélection des caractéristiques basées sur la méthode d’apprentissage automatique des forêts aléatoires. Nos méthodes ont permis la sélection de sous-ensembles de caractéristiques prédictives et pronostiques sur 2 bases de données (cancer de l’oesophage et du poumon). Nos algorithmes ont montré les meilleures performances de classification comparées aux méthodes statistiques classiques et aux autres méthodes de sélection des caractéristiques étudiées
Radiomics proposes to combine image features with those extracted from other modalities (clinical, genomic, proteomic) to set up a personalized medicine in the management of cancer. From an initial exam, the objective is to anticipate the survival rate of the patient or the treatment response probability. In medicine, classical statistical methods are generally used, such as theMann-Whitney analysis for predictive studies and analysis of Kaplan-Meier survival curves for prognostic studies. Thus, the increasing number of studied features limits the use of these statistics. We have focused our works on machine learning algorithms and features selection methods. These methods are resistant to large dimensions as well as non-linear relations between features. We proposed two features selection strategy based on random forests. Our methods allowed the selection of subsets of predictive and prognostic features on 2 databases (oesophagus and lung cancers). Our algorithms showed the best classification performances compared to classical statistical methods and other features selection strategies studied
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Ogier, du Terrail Jean. "Réseaux de neurones convolutionnels profonds pour la détection de petits véhicules en imagerie aérienne". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC276/document.

Testo completo
Abstract (sommario):
Cette thèse présente une tentative d'approche du problème de la détection et discrimination des petits véhicules dans des images aériennes en vue verticale par l'utilisation de techniques issues de l'apprentissage profond ou "deep-learning". Le caractère spécifique du problème permet d'utiliser des techniques originales mettant à profit les invariances des automobiles et autres avions vus du ciel.Nous commencerons par une étude systématique des détecteurs dits "single-shot", pour ensuite analyser l'apport des systèmes à plusieurs étages de décision sur les performances de détection. Enfin nous essayerons de résoudre le problème de l'adaptation de domaine à travers la génération de données synthétiques toujours plus réalistes, et son utilisation dans l'apprentissage de ces détecteurs
The following manuscript is an attempt to tackle the problem of small vehicles detection in vertical aerial imagery through the use of deep learning algorithms. The specificities of the matter allows the use of innovative techniques leveraging the invariance and self similarities of automobiles/planes vehicles seen from the sky.We will start by a thorough study of single shot detectors. Building on that we will examine the effect of adding multiple stages to the detection decision process. Finally we will try to come to grips with the domain adaptation problem in detection through the generation of better looking synthetic data and its use in the training process of these detectors
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Khiali, Lynda. "Fouille de données à partir de séries temporelles d’images satellites". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS046/document.

Testo completo
Abstract (sommario):
Les images satellites représentent de nos jours une source d’information incontournable. Elles sont exploitées dans diverses applications, telles que : la gestion des risques, l’aménagent des territoires, la cartographie du sol ainsi qu’une multitude d’autre taches. Nous exploitons dans cette thèse les Séries Temporelles d’Images Satellites (STIS) pour le suivi des évolutions des habitats naturels et semi-naturels. L’objectif est d’identifier, organiser et mettre en évidence des patrons d’évolution caractéristiques de ces zones.Nous proposons des méthodes d’analyse de STIS orientée objets, en opposition aux approches par pixel, qui exploitent des images satellites segmentées. Nous identifions d’abord les profils d’évolution des objets de la série. Ensuite, nous analysons ces profils en utilisant des méthodes d’apprentissage automatique. Afin d’identifier les profils d’évolution, nous explorons les objets de la série pour déterminer un sous-ensemble d’objets d’intérêt (entités spatio-temporelles/objets de référence). L’évolution de ces entités spatio-temporelles est ensuite illustrée en utilisant des graphes d’évolution.Afin d’analyser les graphes d’évolution, nous avons proposé trois contributions. La première contribution explore des STIS annuelles. Elle permet d’analyser les graphes d’évolution en utilisant des algorithmes de clustering, afin de regrouper les entités spatio-temporelles évoluant similairement. Dans la deuxième contribution, nous proposons une méthode d’analyse pluri-annuelle et multi-site. Nous explorons plusieurs sites d’étude qui sont décrits par des STIS pluri-annuelles. Nous utilisons des algorithmes de clustering afin d’identifier des similarités intra et inter-site. Dans la troisième contribution, nous introduisons une méthode d’analyse semi-supervisée basée sur du clustering par contraintes. Nous proposons une méthode de sélection de contraintes. Ces contraintes sont utilisées pour guider le processus de clustering et adapter le partitionnement aux besoins de l’utilisateur.Nous avons évalué nos travaux sur différents sites d’étude. Les résultats obtenus ont permis d’identifier des profils d’évolution types sur chaque site d’étude. En outre, nous avons aussi identifié des évolutions caractéristiques communes à plusieurs sites. Par ailleurs, la sélection de contraintes pour l’apprentissage semi-supervisé a permis d’identifier des entités profitables à l’algorithme de clustering. Ainsi, les partitionnements obtenus en utilisant l’apprentissage non supervisé ont été améliorés et adaptés aux besoins de l’utilisateur
Nowadays, remotely sensed images constitute a rich source of information that can be leveraged to support several applications including risk prevention, land use planning, land cover classification and many other several tasks. In this thesis, Satellite Image Time Series (SITS) are analysed to depict the dynamic of natural and semi-natural habitats. The objective is to identify, organize and highlight the evolution patterns of these areas.We introduce an object-oriented method to analyse SITS that consider segmented satellites images. Firstly, we identify the evolution profiles of the objects in the time series. Then, we analyse these profiles using machine learning methods. To identify the evolution profiles, we explore all the objects to select a subset of objects (spatio-temporal entities/reference objects) to be tracked. The evolution of the selected spatio-temporal entities is described using evolution graphs.To analyse these evolution graphs, we introduced three contributions. The first contribution explores annual SITS. It analyses the evolution graphs using clustering algorithms, to identify similar evolutions among the spatio-temporal entities. In the second contribution, we perform a multi-annual cross-site analysis. We consider several study areas described by multi-annual SITS. We use the clustering algorithms to identify intra and inter-site similarities. In the third contribution, we introduce à semi-supervised method based on constrained clustering. We propose a method to select the constraints that will be used to guide the clustering and adapt the results to the user needs.Our contributions were evaluated on several study areas. The experimental results allow to pinpoint relevant landscape evolutions in each study sites. We also identify the common evolutions among the different sites. In addition, the constraint selection method proposed in the constrained clustering allows to identify relevant entities. Thus, the results obtained using the unsupervised learning were improved and adapted to meet the user needs
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Cuingnet, Rémi. "Contributions à l'apprentissage automatique pour l'analyse d'images cérébrales anatomiques". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00602032.

Testo completo
Abstract (sommario):
L'analyse automatique de différences anatomiques en neuroimagerie a de nombreuses applications pour la compréhension et l'aide au diagnostic de pathologies neurologiques. Récemment, il y a eu un intérêt croissant pour les méthodes de classification telles que les machines à vecteurs supports pour dépasser les limites des méthodes univariées traditionnelles. Cette thèse a pour thème l'apprentissage automatique pour l'analyse de populations et la classification de patients en neuroimagerie. Nous avons tout d'abord comparé les performances de différentes stratégies de classification, dans le cadre de la maladie d'Alzheimer à partir d'images IRM anatomiques de 509 sujets de la base de données ADNI. Ces différentes stratégies prennent insuffisamment en compte la distribution spatiale des \textit{features}. C'est pourquoi nous proposons un cadre original de régularisation spatiale et anatomique des machines à vecteurs supports pour des données de neuroimagerie volumiques ou surfaciques, dans le formalisme de la régularisation laplacienne. Cette méthode a été appliquée à deux problématiques cliniques: la maladie d'Alzheimer et les accidents vasculaires cérébraux. L'évaluation montre que la méthode permet d'obtenir des résultats cohérents anatomiquement et donc plus facilement interprétables, tout en maintenant des taux de classification élevés.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Ramadier, Lionel. "Indexation et apprentissage de termes et de relations à partir de comptes rendus de radiologie". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT298/document.

Testo completo
Abstract (sommario):
Dans le domaine médical, l'informatisation des professions de santé et le développement du dossier médical personnel (DMP) entraîne une progression rapide du volume d'information médicale numérique. Le besoin de convertir et de manipuler toute ces informations sous une forme structurée constitue un enjeu majeur. C'est le point de départ de la mise au point d'outils d'interrogation appropriés pour lesquels, les méthodes issues du traitement automatique du langage naturel (TALN) semblent bien adaptées. Les travaux de cette thèse s'inscrivent dans le domaine de l'analyse de documents médicaux et traitent de la problématique de la représentation de l'information biomédicale (en particulier du domaine radiologique) et de son accès. Nous proposons de construire une base de connaissance dédiée à la radiologie à l'intérieur d'une base de connaissance générale (réseau lexico-sémantique JeuxDeMots). Nous montrons l'intérêt de l'hypothèse de non séparation entre les différents types de connaissances dans le cadre d'une analyse de documents. Cette hypothèse est que l'utilisation de connaissances générales, en plus de celles de spécialités, permet d'améliorer significativement l'analyse de documents médicaux.Au niveau du réseau lexico-sémantique, l'ajout manuel et automatisé des méta-informations sur les annotations (informations fréquentielles, de pertinences, etc) est particulièrement utile. Ce réseau combine poids et annotations sur des relations typées entre des termes et des concepts ainsi qu'un mécanisme d'inférence dont l'objet est d'améliorer la qualité et la couverture du réseau. Nous décrivons comment à partir d'informations sémantiques présentes dans le réseau, il est possible de définir une augmentation des index bruts construits pour chaque comptes rendus afin d'améliorer la recherche documentaire. Nous présentons, ensuite, une méthode d'extraction de relations sémantiques entre des termes ou concepts. Cette extraction est réalisée à l'aide de patrons linguistiques auxquels nous avons rajouté des contraintes sémantiques.Les résultats des évaluations montrent que l'hypothèse de non séparation entre les différents types de connaissances améliorent la pertinence de l'indexation. L'augmentation d'index permet une amélioration du rappel alors que les contraintes sémantiques améliorent la précision de l'extraction de relations
In the medical field, the computerization of health professions and development of the personal medical file (DMP) results in a fast increase in the volume of medical digital information. The need to convert and manipulate all this information in a structured form is a major challenge. This is the starting point for the development of appropriate tools where the methods from the natural language processing (NLP) seem well suited.The work of this thesis are within the field of analysis of medical documents and address the issue of representation of biomedical information (especially the radiology area) and its access. We propose to build a knowledge base dedicated to radiology within a general knowledge base (lexical-semantic network JeuxDeMots). We show the interest of the hypothesis of no separation between different types of knowledge through a document analysis. This hypothesis is that the use of general knowledge, in addition to those specialties, significantly improves the analysis of medical documents.At the level of lexical-semantic network, manual and automated addition of meta information on annotations (frequency information, pertinence, etc.) is particularly useful. This network combines weight and annotations on typed relationships between terms and concepts as well as an inference mechanism which aims to improve quality and network coverage. We describe how from semantic information in the network, it is possible to define an increase in gross index built for each records to improve information retrieval. We present then a method of extracting semantic relationships between terms or concepts. This extraction is performed using lexical patterns to which we added semantic constraints.The results show that the hypothesis of no separation between different types of knowledge to improve the relevance of indexing. The index increase results in an improved return while semantic constraints improve the accuracy of the relationship extraction
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Vétil, Rebeca. "Artificial Intelligence Methods to Assist the Diagnosis of Pancreatic Diseases in Radiology". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAT014.

Testo completo
Abstract (sommario):
Avec l’augmentation de son incidence et son taux de survie à cinq ans (9%), le cancer du pancréas pourrait devenir la troisième cause de décès par cancer d’ici 2025.Ces chiffres sont notamment dus aux diagnostics tardifs, limitant les options thérapeutiques. Cette thèse vise à assister les radiologues dans le diagnostic du cancer du pancréas sur des images scanner grâce à des outils d’intelligence artificielle (IA) qui faciliteraient un diagnostic précoce. Pour atteindre ces objectifs, trois pistes de recherche ont été explorées. Premièrement, une méthode de segmentation automatique du pancréas a été développée. Le pancréas présentant une forme allongée et des extrémités subtiles, la méthode proposée utilise des informations géométriques pour ajuster localement la sensibilité de la segmentation. Deuxièmement, une méthode réalise la détection des lésions et de la dilatation du canal pancréatique principal (CPP), deux signes cruciaux du cancer du pancréas. La méthode proposée commence par segmenter le pancréas, les lésions et le CPP. Ensuite, des caractéristiques quantitatives sont extraites des segmentations prédites puis utilisées pour prédire la présence d’une lésion et la dilatation du CPP. La robustesse de la méthode est de montrer sur une base externe de 756 patients. Dernièrement, afin de permettre un diagnostic précoce, deux approches sont proposées pour détecter des signes secondaires. La première utilise un grand nombre de masques de segmentation de pancréas sains pour apprendre un modèle normatif des formes du pancréas. Ce modèle est ensuite exploité pour détecter des formes anormales, en utilisant des méthodes de détection d’anomalies avec peu ou pas d’exemples d’entraînement. La seconde approche s’appuie sur deux types de radiomiques : les radiomiques profonds (RP), extraits par des réseaux de neurones profonds, et les radiomiques manuels (RM), calculés à partir de formules prédéfinies. La méthode extrait des RP non redondants par rapport à un ensemble prédéterminé de RM afin de compléter l’information déjà contenue. Les résultats montrent que cette méthode détecte Efficacement quatre signes secondaires : la forme anormale, l’atrophie, l’infiltration de graisse et la sénilité. Pour élaborer ces méthodes, une base de données de 2800 examens a été constituée, ce qui en fait l’une des plus importantes pour la recherche en IA sur le cancer du pancréas
With its increasing incidence and its five- year survival rate (9%), pancreatic cancer could be- come the third leading cause of cancer-related deaths by 2025. These figures are primarily attributed to late diagnoses, which limit therapeutic options. This the- sis aims to assist radiologists in diagnosing pancrea- tic cancer through artificial intelligence (AI) tools that would facilitate early diagnosis. Several methods have been developed. First, a method for the automatic segmentation of the pancreas on portal CT scans was developed. To deal with the specific anatomy of the pancreas, which is characterized by an elonga- ted shape and subtle extremities easily missed, the proposed method relied on local sensitivity adjust- ments using geometrical priors. Then, the thesis tack- led the detection of pancreatic lesions and main pan- creatic duct (MPD) dilatation, both crucial indicators of pancreatic cancer. The proposed method started with the segmentation of the pancreas, the lesion and the MPD. Then, quantitative features were extracted from the segmentations and leveraged to predict the presence of a lesion and the dilatation of the MPD. The method was evaluated on an external test cohort comprising hundreds of patients. Continuing towards early diagnosis, two strategies were explored to de- tect secondary signs of pancreatic cancer. The first approach leveraged large databases of healthy pan- creases to learn a normative model of healthy pan- creatic shapes, facilitating the identification of anoma- lies. To this end, volumetric segmentation masks were embedded into a common probabilistic shape space, enabling zero-shot and few-shot abnormal shape de- tection. The second approach leveraged two types of radiomics: deep learning radiomics (DLR), extracted by deep neural networks, and hand-crafted radiomics (HCR), derived from predefined formulas. The propo- sed method sought to extract non-redundant DLR that would complement the information contained in the HCR. Results showed that this method effectively de- tected four secondary signs of pancreatic cancer: ab- normal shape, atrophy, senility, and fat replacement. To develop these methods, a database of 2800 exa- minations has been created, making it one of the lar- gest for AI research on pancreatic cancer
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Deshpande, Hrishikesh. "Dictionary learning for pattern classification in medical imaging". Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S032/document.

Testo completo
Abstract (sommario):
La plupart des signaux naturels peuvent être représentés par une combinaison linéaire de quelques atomes dans un dictionnaire. Ces représentations parcimonieuses et les méthodes d'apprentissage de dictionnaires (AD) ont suscité un vif intérêt au cours des dernières années. Bien que les méthodes d'AD classiques soient efficaces dans des applications telles que le débruitage d'images, plusieurs méthodes d'AD discriminatifs ont été proposées pour obtenir des dictionnaires mieux adaptés à la classification. Dans ce travail, nous avons montré que la taille des dictionnaires de chaque classe est un facteur crucial dans les applications de reconnaissance des formes lorsqu'il existe des différences de variabilité entre les classes, à la fois dans le cas des dictionnaires classiques et des dictionnaires discriminatifs. Nous avons validé la proposition d'utiliser différentes tailles de dictionnaires, dans une application de vision par ordinateur, la détection des lèvres dans des images de visages, ainsi que par une application médicale plus complexe, la classification des lésions de scléroses en plaques (SEP) dans des images IRM multimodales. Les dictionnaires spécifiques à chaque classe sont appris pour les lésions et les tissus cérébraux sains. La taille du dictionnaire pour chaque classe est adaptée en fonction de la complexité des données. L'algorithme est validé à l'aide de 52 séquences IRM multimodales de 13 patients atteints de SEP
Most natural signals can be approximated by a linear combination of a few atoms in a dictionary. Such sparse representations of signals and dictionary learning (DL) methods have received a special attention over the past few years. While standard DL approaches are effective in applications such as image denoising or compression, several discriminative DL methods have been proposed to achieve better image classification. In this thesis, we have shown that the dictionary size for each class is an important factor in the pattern recognition applications where there exist variability difference between classes, in the case of both the standard and discriminative DL methods. We validated the proposition of using different dictionary size based on complexity of the class data in a computer vision application such as lips detection in face images, followed by more complex medical imaging application such as classification of multiple sclerosis (MS) lesions using MR images. The class specific dictionaries are learned for the lesions and individual healthy brain tissues, and the size of the dictionary for each class is adapted according to the complexity of the underlying data. The algorithm is validated using 52 multi-sequence MR images acquired from 13 MS patients
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Rodriguez, Colmeiro Ramiro German. "Towards Reduced Dose Positron Emission Tomography Imaging Using Sparse Sampling and Machine Learning". Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0015.

Testo completo
Abstract (sommario):
Cette thèse étudie le problème de dose de radiation dans les études de Tomographie par Émission de Positons (PET). Trois aspects du PET-scan sont analysées. La première partie de cette thèse est dédiée à la technologie PET-scan. Deux techniques sont développées pour le PET-scan à faible dose : l’AR-PET. Une première stratégie de sélection et de placement de photomultiplicateurs est proposée, augmentant la résolution énergétique. Une technique de localisation d’impacts des photons gamma dans les cristaux solides de scintillation est développé. Cette technique est basée sur des réseaux de neurones artificiels et sur une acquisition unique de champ. Nous montrons qu’une augmentation de la sensibilité du détecteur est obtenue. Dans la deuxième partie de cette thèse, la reconstruction de l’image PET avec l’aide de maillages est étudiée. Un algorithme de reconstruction qui utilise une série de maillages 2D pour décrire la distribution 3D du radiotraceur est proposé, résultant en une diminution du nombre de points d’échantillonnage et rendant possible l’optimisation et la parallélisation des maillages. Enfin, la génération de l’image d’atténuation au moyen de réseaux de neurones artificiels profonds est explorée. L’apprentissage du réseau de neurones se fait à travers une transformation d’images PET FDG sans correction d’atténuation pour produire une image de tomodensitométrie (CT) synthétique. La conclusion des travaux de cette thèse pose la base pour l’usage de PET-scan à bas coût et a faible dose, via l’usage d’une image d’atténuation artificielle
This thesis explores the reduction of the patient radiation dose in screening Positron Emission Tomography (PET) studies. It analyses three aspects of PET imaging, which can reduce the patient dose: the data acquisition, the image reconstruction and the attenuation map generation. The first part of the thesis is dedicated to the PET scanner technology. Two optimization techniques are developed for a novel low-cost and low-dose scanner, the AR-PET scanner. First a photomultiplier selection and placement strategy is created, improving the energy resolution. The second work focuses on the localization of gamma events on solid scintillation crystals. The method is based on neural networks and a single flood acquisition, resulting in an increased detector’s sensitivity. In the second part, the PET image reconstruction on mesh support is studied. A mesh-based reconstruction algorithm is proposed which uses a series of 2D meshes to describe the 3D radiotracer distribution. It is shown that with this reconstruction strategy the number of sample points can be reduced without loosing accuracy and enabling parallel mesh optimization. Finally the attenuation map generation using deep neural networks is explored. A neural network is trained to learn the mapping from non attenuation corrected FDG PET images to a synthetic Computerized Tomography. With these approaches, this thesis lays a base for a low-cost and low-dose PET screening system, dispensing the need of a computed tomography image in exchange of an artificial attenuation map
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Martinez, Herrera Sergio Ernesto. "Imagerie multispectrale pour améliorer la détection des lésions précancéreuses en endoscopie digestive". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV055/document.

Testo completo
Abstract (sommario):
L'évolution de la gastrite et des lésions précancéreuses suit une cascade de plusieurs étapes. Les modifications des tissus pathologiques affichent de faibles variations par rapport à la muqueuse normale d'un point de vue macroscopique. Même si certaines variations pourraient être identifiées, cela reste fortement subjectif. Le diagnostic classique des maladies de l'estomac est divisé en deux procédures. Le premier est une gastroendoscopie où l'estomac est visuellement exploré sous une lumière blanche. Le second est la biopsie pour l'analyse histologique. Cette procédure a une forte probabilité d'établir le diagnostic correct mais il dépend fortement de la sélection correcte des échantillons de tissus endommagés. Ce travail porte sur l'étude de la muqueuse gastrique par imagerie multispectrale. La contribution principale est l'étude clinique de l'imagerie multispectrale afin de différencier les pathologies mal diagnostiquées ou qui ne peuvent être diagnostiquées que par l'analyse histologique. A cet effet, nous avons effectué (1) une étude ex-vivo dans un modèle de souris de l'infection de Helicobacter pylori dans le but d'identifier les longueurs d'onde qui pourraient être utilisées pour le diagnostic. (2) Nous proposons deux prototypes compatibles avec les gastroendoscopes actuels pour acquérir des images multispectrales du tissu gastrique : le premièr est basé sur une roue à filtres et le second sur une caméra multispectrale avec sept canaux. De plus, (3) nous présentons une méthodologie pour identifier les tissus pathologiques, qui est basé sur des caractéristiques statistiques extraites des spectres acquis, classées en fonction de leur pouvoir discriminants et une classification supervisée, où nous cherchons la meilleure performance de trois algorithmes de classification: le plus proche voisin, un réseaux de neurones et une Support Vector Machine avec une évaluation de la performance rigoureuse en utilisant une validation de type Leave One Patient Out Cross Validation. Les résultats démontrent la pertinence de l’imagerie multispectrale comme un outil supplémentaire pour un diagnostic objectif
The evolution of gastritis into precancerous lesions follows a cascade of multiplestages. The modifications of the pathological tissues display low variations with respect to normal mucosa from a macroscopical point of view. Even though some features could be identified, they remain strongly subjective. The current gold standard for diagnosis of gastric diseases is divided in two procedures. The first one is gastroendoscopy where the stomach is visually explored under white light. The second one is biopsy collection for histological analysis. This procedure has a high probability of establishing the correct diagnosis but it strongly depends on the accurate collection of samples from damaged tissues. This doctoral work focuses on the study of gastric mucosa by multispectral imaging. The main contribution is the clinical study of multispectral imaging to differentiate pathologies poorly diagnosed or that can only be diagnosed by histological analysis. For this purpose, we performed (1) ex vivo studies in a mice model of infection of Helicobacter pylori in order to identify the wavelengths which could be used for diagnosis. (2) We propose two prototypes compatible with current gastroendoscopes to acquire multispectral images from gastric tissue: the first one is based on a filter wheel and the second one on a multispectral camera with seven channels. Additionally, (3) we present a methodology to identify pathological tissues, which is based on statistical features extracted from the acquired spectra, ranked according to their discriminative power and a supervised classification, where we search for the best performance of three classification algorithms: Nearest Neighbor, Neural Networks and Support Vector Machine with a rigorous performance evaluation by using leave one patient out cross validation. The results demonstrate the relevance of multispectral imaging as an additional tool for an objective diagnosis
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Drago, Laetitia. "Analyse globale de la pompe à carbone biologique à partir de données en imagerie quantitative". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS562.

Testo completo
Abstract (sommario):
La pompe à carbone biologique (PCB) joue un rôle central dans le cycle global du carbone océanique, en transportant le carbone de la surface vers les profondeurs et en le séquestrant pendant de longues périodes. Ce travail vise à analyser deux acteurs clés de la PCB : le zooplancton et les particules. Pour cela, nous utilisons les données d'imagerie in situ de l'Underwater Vision Profiler (UVP5) pour étudier deux axes principaux : 1) la distribution globale de la biomasse du zooplancton et 2) l'exportation de carbone dans le contexte d'une efflorescence printanière dans l'Atlantique Nord. À l'aide de l'UVP5 et de l'apprentissage automatique par le biais de modèles d'habitat utilisant des arbres de régression boostés, nous étudions la distribution mondiale de la biomasse du zooplancton et ses implications écologiques. Les résultats montrent des valeurs maximales de biomasse autour de 60°N et 55°S et des valeurs minimales au niveau des gyres océaniques, avec une biomasse globale dominée par les crustacés et les rhizaires. En utilisant des techniques d'apprentissage automatique sur des données globalement homogènes, cette étude fournit des informations sur la distribution de 19 grands groupes de zooplancton (1-50 mm de diamètre sphérique équivalent). Ce premier protocole permet d'estimer la biomasse du zooplancton et la composition de la communauté à l'échelle globale à partir d'observations d'imagerie in situ d'organismes individuels. Dans le contexte unique de la campagne EXPORTS 2021, nous analysons les données UVP5 obtenues par le déploiement de trois instruments dans un tourbillon à forte rétention. Après avoir regroupé les 1 720 914 images à l'aide de Morphocluster, un logiciel de classification semi-autonome, nous nous intéressons aux caractéristiques des particules marines, en étudiant leur morphologie à travers un cadre oblique qui suit un panache de particules entre la surface et 800 m. Les résultats montrent que, contrairement aux attentes, les agrégats deviennent de manière inattendue plus grands, plus denses, plus circulaires et plus complexes avec la profondeur. En revanche, l'évolution des pelottes fécales est plus hétérogène et façonnée par l'activité du zooplancton. Ces résultats remettent en question les attentes antérieures et appellent à une réévaluation de notre vision des agrégats et des pelottes fécales. Nous avons également étudié la dynamique des concentrations et des flux de carbone à l'aide d'un cadre 1D plus traditionnel dans lequel nous explorons les trois éléments clés de l'estimation des flux à partir d'imagerie in situ en comparant les estimations de l'UVP5 et des pièges à sédiments: la gamme de tailles couvertes, la vitesse de sédimentation et le contenu en carbone. Selon la littérature, les pièges à sédiments à flottabilité neutre (NBST) et les pièges attachés à la surface (STT) couvrent généralement une gamme de tailles allant de 10 µm à environ 2 mm. Dans notre étude, nous avons constaté qu'en élargissant la gamme de tailles de l'UVP5 à 10 µm et en la limitant à 2 mm, une comparaison plus consistante peut être faite entre le flux issu de l'UVP5 et celui des pièges à sédiments (obtenus par des collègues). Toutefois, il reste une contribution importante du flux au-dessus de ce seuil de taille qui nécessite une étude plus approfondie de ses implications par l'utilisation d'approches complémentaires telles que des pièges à sédiments avec des ouvertures plus grandes. Ce manuscrit ne fait pas seulement progresser nos connaissances, mais il aborde également des défis critiques dans l'estimation de la biomasse du zooplancton et de la dynamique des particules pendant les événements d'export. Les résultats de cette étude ouvrent de nouvelles voies pour la recherche future sur la PCB et approfondissent notre compréhension des écosystèmes marins
The biological carbon pump (BCP) plays a central role in the global ocean carbon cycle, transporting carbon from the surface to the deep ocean and sequestering it for long periods. This work aims to analyse two key players of the BCP: zooplankton and particles. To this end, we use in situ imaging data from the Underwater Vision Profiler (UVP5) to investigate two primary axes: 1) the global distribution of zooplankton biomass and 2) carbon export in the context of a North Atlantic spring bloom. Our objectives includes a quantification of global zooplankton biomass, enhancing our comprehension of the BCP via morphological analysis of particles, and assessing and comparing the gravitational flux of detrital particles during a the North Atlantic spring bloom using high-resolution UVP5 data. With the help of UVP5 imagery and machine learning through habitat models using boosted regression trees, we investigate the global distribution of zooplankton biomass and its ecological implications. The results show maximum zooplankton biomass values around 60°N and 55°S and minimum values within the oceanic gyres, with a global biomass dominated by crustaceans and rhizarians. By employing machine learning techniques on globally homogeneous data, this study provides taxonomical insights into the distribution of 19 large zooplankton groups (1-50 mm equivalent spherical diameter). This first protocol estimates global, spatially resolved zooplankton biomass and community composition from in situ imaging observations of individual organisms. In addition, within the unique context of the EXPORTS 2021 campaign, we analyse UVP5 data obtained by deploying three instruments in a highly retentive eddy. After clustering the 1,720,914 images using Morphocluster, a semi-autonomous classification software, we delve into the characteristics of the marine particles, studying their morphology through an oblique framework that follows a plume of detrital particles between the surface and 800 m depth. The results of the plume following approach show that, contrary to expectations, aggregates become unexpectedly larger, denser, more circular and more complex with depth. In contrast, the evolution of fecal pellets is more heterogeneous and shaped by zooplankton activity. Such results challenge previous expectations and may require a reassessment of our view of sinking aggregates and fecal pellets. We also studied concentration and carbon flux dynamics using a more traditional 1D framework where we explore the three key elements in flux estimation from in situ imaging data by comparing UVP5 and sediment trap flux estimates: size range covered, sinking rate and carbon content. According to the current literature, neutrally buoyant sediment traps (NBST) and surface-tethered traps (STT) usually cover a size range from 10 µm to approximately 2 mm. In our study, we have found that by expanding the UVP size range to 10 µm and limiting it to 2 mm, a more consistent comparison can be made between UVP5-generated flux and sediment trap fluxes (obtained by colleagues). However, it is worth noting that there remains a large flux contribution above this size threshold, necessitating further investigation of its implications through the use of complementary approaches such as the use of sediment traps with larger openings. This manuscript not only advances our knowledge, but also addresses critical challenges in estimating zooplankton biomass and particle dynamics during export events. The findings of this study open up new avenues for future research on the biological carbon pump and deepen our understanding of marine ecosystems
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Alashkar, Taleb. "3D dynamic facial sequences analysis for face recognition and emotion detection". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10109/document.

Testo completo
Abstract (sommario):
L’étude menée dans le cadre de cette thèse vise l’étude du rôle de la dynamique de formes faciales 3D à révéler l’identité des personnes et leurs états émotionnels. Pour se faire, nous avons proposé un cadre géométrique pour l’étude des formes faciales 3D et leurs dynamiques dans le temps. Une séquence 3D est d’abord divisée en courtes sous-séquences, puis chacune des sous-séquences obtenues est représentée dans une variété de Grassmann (ensemble des sous-espaces linéaires de dimension fixe). Nous avons exploité la géométrie de ces variétés pour comparer des sous-séquences 3D, calculer des statistiques (telles que des moyennes) et quantifier la divergence entre des éléments d’une même variété Grassmannienne. Nous avons aussi proposé deux représentations possibles pour les deux applications cibles – (1) la première est basée sur les dictionnaires (de sous-espaces) associée à des techniques de Dictionary Learning Sparse Coding pour la reconnaissance d’identité et (2) le représentation par des trajectoires paramétrées par le temps sur les Grassmanniennes couplée avec une variante de l’algorithme de classification SVM, permettant un apprentissage avec des données partielles, pour la détection précoce des émotions spontanée. Les expérimentations réalisées sur les bases publiques BU-4DFE, Cam3D et BP4D-Spontaneous montrent à la fois l’intérêt du cadre géométrique proposé (en terme de temps de calcul et de robustesse au bruit et aux données manquantes) et les représentations adoptées (dictionnaires pour la reconnaissance d’identité et trajectoires pour la détection précoce des émotions spontanées)
In this thesis, we have investigated the problems of identity recognition and emotion detection from facial 3D shapes animations (called 4D faces). In particular, we have studied the role of facial (shapes) dynamics in revealing the human identity and their exhibited spontaneous emotion. To this end, we have adopted a comprehensive geometric framework for the purpose of analyzing 3D faces and their dynamics across time. That is, a sequence of 3D faces is first split to an indexed collection of short-term sub-sequences that are represented as matrix (subspace) which define a special matrix manifold called, Grassmann manifold (set of k-dimensional linear subspaces). The geometry of the underlying space is used to effectively compare the 3D sub-sequences, compute statistical summaries (e.g. sample mean, etc.) and quantify densely the divergence between subspaces. Two different representations have been proposed to address the problems of face recognition and emotion detection. They are respectively (1) a dictionary (of subspaces) representation associated to Dictionary Learning and Sparse Coding techniques and (2) a time-parameterized curve (trajectory) representation on the underlying space associated with the Structured-Output SVM classifier for early emotion detection. Experimental evaluations conducted on publicly available BU-4DFE, BU4D-Spontaneous and Cam3D Kinect datasets illustrate the effectiveness of these representations and the algorithmic solutions for identity recognition and emotion detection proposed in this thesis
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Slama, Rim. "Geometric approaches for 3D human motion analysis : application to action recognition and retrieval". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10078/document.

Testo completo
Abstract (sommario):
Dans le cadre de cette thèse, nous proposons des approches géométriques permettant d’analyser des mouvements humains à partir de données issues de capteurs 3D. Premièrement, nous abordons le problème de comparaison de poses et de mouvements dans des séquences contenant des modèles de corps humain en 3D. En introduisant un nouveau descripteur, appelé Extremal Human Curve (EHC), la forme du corps humain dans une pose donnée est décrite par une collection de courbes. Ces courbes extraites de la surface du maillage relient les points se situant aux extrémités du corps. Dans un formalisme Riemannien, chacune de ces courbes est considérée comme un point dans un espace de formes offrant la possibilité de les comparer. Par ailleurs, les actions sont modélisées par des trajectoires dans cet espace, où elles sont comparées en utilisant la déformation temporelle dynamique. Deuxièmement, nous proposons une approche de reconnaissance d’actions et de gestes à partir de vidéos produites par des capteurs de profondeur. A travers une modélisation géométrique, une séquence d’action est représentée par un système dynamique dont la matrice d’observabilité est caractérisée par un élément de la variété de Grassmann. Par conséquent, la reconnaissance d’actions est reformulée en un problème de classification de points sur cette variété. Ensuite, un nouvel algorithme d’apprentissage basé sur la notion d’espaces tangents est proposé afin d’améliorer le système de reconnaissance. Les résultats de notre approche, testés sur plusieurs bases de données, donnent des taux de reconnaissance de haute précision et de faible latence
In this thesis, we focus on the development of adequate geometric frameworks in order to model and compare accurately human motion acquired from 3D sensors. In the first framework, we address the problem of pose/motion retrieval in full 3D reconstructed sequences. The human shape representation is formulated using Extremal Human Curve (EHC) descriptor extracted from the body surface. It allows efficient shape to shape comparison taking benefits from Riemannian geometry in the open curve shape space. As each human pose represented by this descriptor is viewed as a point in the shape space, we propose to model the motion sequence by a trajectory on this space. Dynamic Time Warping in the feature vector space is then used to compare different motions. In the second framework, we propose a solution for action and gesture recognition from both skeleton and depth data acquired by low cost cameras such as Microsoft Kinect. The action sequence is represented by a dynamical system whose observability matrix is characterized as an element of a Grassmann manifold. Thus, recognition problem is reformulated as a point classification on this manifold. Here, a new learning algorithm based on the notion of tangent spaces is proposed to improve recognition task. Performances of our approach on several benchmarks show high recognition accuracy with low latency
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Zhu, Fei. "Kernel nonnegative matrix factorization : application to hyperspectral imagery". Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0024/document.

Testo completo
Abstract (sommario):
Cette thèse vise à proposer de nouveaux modèles pour la séparation de sources dans le cadre non linéaire des méthodes à noyaux en apprentissage statistique, et à développer des algorithmes associés. Le domaine d'application privilégié est le démélange en imagerie hyperspectrale. Tout d'abord, nous décrivons un modèle original de la factorisation en matrices non négatives (NMF), en se basant sur les méthodes à noyaux. Le modèle proposé surmonte la malédiction de préimage, un problème inverse hérité des méthodes à noyaux. Dans le même cadre proposé, plusieurs extensions sont développées pour intégrer les principales contraintes soulevées par les images hyperspectrales. Pour traiter des masses de données, des algorithmes de traitement en ligne sont développés afin d'assurer une complexité calculatoire fixée. Également, nous proposons une approche de factorisation bi-objective qui permet de combiner les modèles de démélange linéaire et non linéaire, où les décompositions de NMF conventionnelle et à noyaux sont réalisées simultanément. La dernière partie se concentre sur le démélange robuste aux bandes spectrales aberrantes. En décrivant le démélange selon le principe de la maximisation de la correntropie, deux problèmes de démélange robuste sont traités sous différentes contraintes soulevées par le problème de démélange hyperspectral. Des algorithmes de type directions alternées sont utilisés pour résoudre les problèmes d'optimisation associés
This thesis aims to propose new nonlinear unmixing models within the framework of kernel methods and to develop associated algorithms, in order to address the hyperspectral unmixing problem.First, we investigate a novel kernel-based nonnegative matrix factorization (NMF) model, that circumvents the pre-image problem inherited from the kernel machines. Within the proposed framework, several extensions are developed to incorporate common constraints raised in hypersepctral images analysis. In order to tackle large-scale and streaming data, we next extend the kernel-based NMF to an online fashion, by keeping a fixed and tractable complexity. Moreover, we propose a bi-objective NMF model as an attempt to combine the linear and nonlinear unmixing models. The decompositions of both the conventional NMF and the kernel-based NMF are performed simultaneously. The last part of this thesis studies a supervised unmixing model, based on the correntropy maximization principle. This model is shown robust to outlier bands. Two correntropy-based unmixing problems are addressed, considering different constraints in hyperspectral unmixing problem. The alternating direction method of multipliers (ADMM) is investigated to solve the related optimization problems
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Galibourg, Antoine. "Estimation de l'âge dentaire chez le sujet vivant : application des méthodes d'apprentissage machine chez les enfants et les jeunes adultes". Electronic Thesis or Diss., Toulouse 3, 2022. http://thesesups.ups-tlse.fr/5355/.

Testo completo
Abstract (sommario):
Exposé du problème : Chez l'individu vivant, l'estimation de l'âge dentaire est un paramètre utilisé en orthopédie ou en orthodontie dentofaciale, ou en pédiatrie pour situer l'individu sur sa courbe de croissance. En médecine légale l'estimation de l'âge dentaire permet d'inférer l'âge chronologique sous forme d'une régression ou d'une classification par rapport à un âge clé. Il existe des méthodes physiques et radiologiques. Si ces dernières sont plus précises, il n'existe pas de méthode universelle. Demirjian a créé il y a presque 50 ans la méthode radiologique la plus utilisée, mais elle est critiquée pour sa précision et pour l'utilisation de tables de références basées sur un échantillon de population franco-canadien. Objectif : L'intelligence artificielle et plus particulièrement l'apprentissage machine a permis le développement de différents outils ayant une capacité d'apprentissage sur une base de données annotées. L'objectif de cette thèse a été de comparer la performance de différents algorithmes d'apprentissage machine ; dans un premier temps par rapport à deux méthodes classiques d'estimation de l'âge dentaire, puis entre elles en ajoutant des prédicteurs supplémentaires. Matériel et méthode : Dans une première partie, les différentes méthodes d'estimation de l'âge dentaire sur des individus vivants enfants et jeunes adultes sont présentées. Les limites de ces méthodes sont exposées et les possibilités d'y répondre avec l'utilisation de l'apprentissage machine sont proposées. A partir d'une base de données de 3605 radiographies panoramiques d'individus âgés de 2 à 24 ans (1734 filles et 1871 garçons), différentes méthodes d'apprentissage machine ont été testées pour estimer l'âge dentaire. Les précisions de ces méthodes ont été comparées entre elles et par rapport à deux méthodes classiques de Demirjian et Willems. Ce travail a abouti à la parution d'un article dans l'International Journal of Legal Medicine. Dans une deuxième partie, les différentes méthodes d'apprentissage machine sont décrites et discutées. Puis les résultats obtenus dans l'article sont remis en perspective avec les publications sur le sujet en 2021. Enfin une mise en perspective des résultats des méthodes d'apprentissage machine par rapport à leur utilisation dans l'estimation de l'âge dentaire est réalisée. Résultats : Les résultats montrent que toutes les méthodes d'apprentissage machine présentent une meilleure précision que les méthodes classiques testées pour l'estimation de l'âge dentaire dans les conditions d'utilisation de ces dernières. Elles montrent également que l'utilisation du stade de maturation des troisièmes molaires sur une plage d'utilisation étendue à 24 ans ne permet pas l'estimation de l'âge dentaire pour une question légale. Conclusion : Les méthodes d'apprentissage machine s'intègrent dans le processus global d'automatisation de la détermination de l'âge dentaire. La partie spécifique d'apprentissage profond semble intéressante à investiguer pour des tâches de classification de l'âge dentaire
Statement of the problem: In the living individual, the estimation of dental age is a parameter used in orthopedics or dentofacial orthodontics or in pediatrics to locate the individual on its growth curve. In forensic medicine, the estimation of dental age allows to infer the chronological age for a regression or a classification task. There are physical and radiological methods. While the latter are more accurate, there is no universal method. Demirjian created the most widely used radiological method almost 50 years ago, but it is criticized for its accuracy and for using reference tables based on a French-Canadian population sample. Objective: Artificial intelligence, and more particularly machine learning, has allowed the development of various tools with a learning capacity on an annotated database. The objective of this thesis was to compare the performance of different machine learning algorithms first against two classical methods of dental age estimation, and then between them by adding additional predictors. Material and method: In a first part, the different methods of dental age estimation on living children and young adults are presented. The limitations of these methods are exposed and the possibilities to address them with the use of machine learning are proposed. Using a database of 3605 panoramic radiographs of individuals aged 2 to 24 years (1734 girls and 1871 boys), different machine learning methods were tested to estimate dental age. The accuracies of these methods were compared with each other and with two classical methods by Demirjian and Willems. This work resulted in an article published in the International Journal of Legal Medicine. In a second part, the different machine learning methods are described and discussed. Then, the results obtained in the article are put in perspective with the publications on the subject in 2021. Finally, a perspective of the results of the machine learning methods in relation to their use in dental age estimation is made. Results: The results show that all machine learning methods have better accuracy than the conventional methods tested for dental age estimation under the conditions of their use. They also show that the use of the maturation stage of third molars over an extended range of use to 24 years does not allow the estimation of dental age for a legal issue. Conclusion: Machine learning methods fit into the overall process of automating dental age determination. The specific part of deep learning seems interesting to investigate for dental age classification tasks
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia