Дисертації з теми "Imagerie intelligente"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Imagerie intelligente.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Imagerie intelligente".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Pincet, Lancelot. "Dynamic excitation systems for quantitative and super-resolved fluorescence microscopy." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La microscopie de localisation de molécule unique (SMLM) est une technique optique super-résolue permettant d'observer des échantillons biologiques marqués par des fluorophores avec une résolution bien inférieure à la limite de diffraction. La qualité de cette imagerie dépend fortement de la capacité à observer les molécules de manière individuelle, ce qui nécessite un contrôle précis de la photophysique des fluorophores pour qu'ils émettent de manière décalée dans l'espace et le temps. Jusqu'à présent, les méthodes d'excitation dynamique visaient à produire une illumination uniforme sur des champs larges (200 um x 200 um). Cependant, ces types d'illumination rencontrent des difficultés pour imager les échantillons biologiques denses, comme les neurones, où la diversité de la densité de fluorophores entrave la génération d'un régime de molécule unique de qualité uniforme sur toute la zone observée. Pour résoudre ce problème, je propose une nouvelle approche qui ajuste dynamiquement l'illumination en fonction de la densité de l'échantillon. Cette méthode combine un nouveau système optique d'excitation tri-dynamique avec une boucle de rétroaction basée sur l'analyse de densité, bénéficiant d'une étude approfondie de la photophysique des fluorophores. Le système d'imagerie intelligent, où le motif d'excitation varie dans le temps, intègre un système de balayage 2D, un système de zoom variable et un laser. Ceci permet de générer une variété de cartes d'éclairement dynamiques pour s'adapter à l'échantillon observé et à la densité de localisations détectées localement. Cette nouvelle approche a été validée sur différents échantillons biologiques. De plus, le système d’excitation dynamique a également permis d’explorer des modalités d'imagerie d'échantillons vivants, telles que le MSIM ou le FRAP
Single Molecule Localization Microscopy (SMLM) is a super-resolution optical technique enabling the observation of biological samples labeled with fluorescent dyes at resolutions well below the diffraction limit. The quality of this imaging heavily relies on the ability to observe molecules individually, requiring precise control of fluorescent dye photophysics for them to emit with a high sparsity in both space and time. Until now, dynamic excitation methods aimed to produce uniform illumination over large fields (200 um x 200 um). However, these types of illumination encounter difficulties in imaging dense biological samples, such as neurons, where the diversity in dye density prevented the generation of a uniform single molecule regime across the entire observed area. To address this issue, I propose a new approach that dynamically adjusts illumination based on sample density. This method combines a novel tri-dynamic optical excitation system with a feedback loop based on density analysis, benefiting from an in-depth study of fluorescent dye photophysics. The intelligent imaging system, where the excitation pattern varies over time, integrates a 2D scanning system, a variable zoom system, and a laser. This allows for the generation of a variety of dynamically changing illumination patterns to adapt to the observed sample and the density of locally detected localizations. This new approach has been validated on various biological samples. Additionally, the dynamic excitation system has also been explored for live samples imaging techniques, such as MSIM or FRAP
2

Filali, Wassim. "Détection temps réel de postures humaines par fusion d'images 3D." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3088/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est centrée sur un projet de recherche en vision. Il s'agit d'un projet qui permet à des caméras intelligentes de comprendre dans quelle posture se trouve la personne filmée. Cela permet de savoir si la personne se porte bien ou si elle est dans une situation critique ou de danger. Les caméras ne doivent pas être connectées à un ordinateur, mais avoir toute l'intelligence embarquée dans la caméra même. Ce travail s'appuie sur des technologies récentes comme le capteur Kinect de la console de jeu. Ce type de capteur est un capteur de profondeur, c'est-à-dire que la caméra peut estimer la distance qui la sépare de chaque point de la scène. Notre contribution consiste à combiner plusieurs de ces caméras pour avoir une meilleure reconstruction de la posture de la personne. Nous avons créé une base de données d'images qui a permis d'apprendre au programme comment reconnaître les postures. Nous avons ajusté les bons paramètres à notre programme et on l'a comparé au programme du Kinect
This thesis is based on a computer vision research project. It is a project that allows smart cameras to understand the posture of a person. It allows to know if the person is alright or if it is in a critical situation or in danger. The cameras should not be connected to a computer but embed all the intelligence in the camera itself. This work is based on the recent technologies like the Kinect sensor of the game console. This sensor is a depth sensor, which means that the camera can estimate the distance to every point in the scene. Our contribution consists on combining multiple of these cameras to have a better posture reconstruction of the person. We have created a dataset of images to teach the program how to recognize postures. We have adjusted the right parameters and compared our program to the one of the Kinect
3

Burbano, Andres. "Système de caméras intelligentes pour l’étude en temps-réel de personnes en mouvement." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS139/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons un système dedétection et de suivi des personnes enmouvement dans des grands espaces. Notresolution repose sur un réseau de camérasintelligentes pour l'extraction desinformations spatio-temporelles despersonnes. Les caméras sont composées d'uncapteur 3D, d'un système embarqué et decommunication. Nous avons montrél'efficacité du placement des capteurs 3D enposition zénithale par rapport auxoccultations et variations d’échelle.Nous garantissons l'exécution des traitementsen temps-réel (~20 fps), permettantde détecter des déplacements rapides avecune précision jusqu’à 99 %, et capable d’unfiltrage paramétrique des cibles non désiréescomme les enfants ou les caddies.Nous avons réalisé une étude sur la viabilitétechnologique des résultats pour de grandsespaces, rendant la solution industrialisable
We propose a detection and trackingsystem of people moving in large spacessystem. Our solution is based on a network ofsmart cameras capable of retrievingspatiotemporal information from the observedpeople. These smart cameras are composed bya 3d sensor, an onboard system and acommunication and power supply system. Weexposed the efficacy of the overhead positionto decreasing the occlusion and the scale'svariation.Finally, we carried out a study on the use ofspace, and a global trajectories analysis ofrecovered information by our and otherssystems, able to track people in large andcomplex spaces
4

Panaïotis, Thelma. "Distribution du plancton à diverses échelles : apport de l'intelligence artificielle pour l'écologie planctonique." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En tant que base des réseaux trophiques océaniques et élément clé de la pompe à carbone biologique, les organismes planctoniques jouent un rôle majeur dans les océans. Cependant, leur distribution à petite échelle, régie par les interactions biotiques entre organismes et les interactions avec les propriétés physico-chimiques des masses d'eau de leur environnement immédiat, est mal décrite in situ, en raison du manque d'outils d'observation adaptés. De nouveaux instruments d'imagerie in situ à haute résolution, combinés à des algorithmes d'apprentissage automatique pour traiter la grande quantité de données collectées, nous permettent aujourd'hui d'aborder ces échelles. La première partie de ce travail se concentre sur le développement méthodologique de deux pipelines automatisés basés sur l'intelligence artificielle. Ces pipelines ont permis de détecter efficacement les organismes planctoniques au sein des images brutes, et de les classer en catégories taxonomiques ou morphologiques. Dans une deuxième partie, des outils d'écologie numérique ont été appliqués pour étudier la distribution du plancton à différentes échelles, en utilisant trois jeux de données d'imagerie in situ. Tout d'abord, nous avons mis en évidence un lien entre les communautés planctoniques et les conditions environnementales à l'échelle globale. Ensuite, nous avons décrit la distribution du plancton et des particules à travers un front de méso-échelle, et mis en évidence des périodes contrastées pendant le bloom de printemps. Enfin, grâce aux données d'imagerie in situ à haute fréquence, nous avons étudié la distribution à fine échelle et la position préférentielle d’organismes appartement au groupe des Rhizaria, des protistes fragiles et peu étudiés, dont certains sont mixotrophes. Dans l’ensemble, ce travail démontre l'efficacité de l'imagerie in situ combinée à des approches d’intelligence artificielle pour comprendre les interactions biophysiques dans le plancton et les conséquences sur sa distribution à petite échelle
As the basis of oceanic food webs and a key component of the biological carbon pump, planktonic organisms play major roles in the oceans. However, their small-scale distribution − governed by biotic interactions between organisms and interactions with the physico-chemical properties of the water masses in their immediate environment − are poorly described in situ due to the lack of suitable observation tools. New instruments performing high resolution imaging in situ in combination with machine learning algorithms to process the large amount of collected data now allows us to address these scales. The first part of this work focuses on the methodological development of two automated pipelines based on artificial intelligence. These pipelines allowed to efficiently detect planktonic organisms within raw images, and classify them into taxonomical or morphological categories. Then, in a second part, numerical ecology tools have been applied to study plankton distribution at different scales, using three different in situ imaging datasets. First, we investigated the link between plankton community and environmental conditions at the global scale. Then, we resolved plankton and particle distribution across a mesoscale front, and highlighted contrasted periods during the spring bloom. Finally, leveraging high frequency in situ imaging data, we investigated the fine-scale distribution and preferential position of Rhizaria, a group of understudied, fragile protists, some of which are mixotrophic. Overall, these studies demonstrate the effectiveness of in situ imaging combined with artificial intelligence to understand biophysical interactions in plankton and distribution patterns at small-scale
5

Green, Steven Paul. "Intelligent Person Behaviour Analysis in Low Resolution Beach Video Imagery." Thesis, Griffith University, 2011. http://hdl.handle.net/10072/366650.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Object detection in complex scenes plays an important role in many real world applications, such as scene analysis, security, traffic violation detection, and medical research. The Object Detection and Behaviour Classification (ODBC) system created from this PhD research, is ground-breaking and concentrates solely on the domain of people and behaviour detection in low resolution beach scene imagery. The video source for this research was obtained from Coastalwatch beach webcams, which are located throughout Australia. Current object detection systems, overall, utilise a similar methodology, following four main image processing procedures; 1) remove unwanted noise, 2) background extraction from an image scene, 3) segmentation of the objects from the scene, and 4) object classification into different class types. To my knowledge, there is no other past or current research studying behaviour detection in low resolution beach imagery, and therefore, my research leads the way in this domain. Information from beach imagery can provide important data for tourism promotions and beach safety. Analysis of people behaviour could assist in making decisions about promotions and beach amenities. Automated beach systems may provide constant monitoring of a beach, by detecting people entering the ocean in a flagged or non-flagged area of a beach. This may also provide an early warning system to assist lifeguards in protecting swimmers in a beach area.
Thesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Information and Communication Technology
Science, Environment, Engineering and Technology
Full Text
6

Vétil, Rebeca. "Artificial Intelligence Methods to Assist the Diagnosis of Pancreatic Diseases in Radiology." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAT014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l’augmentation de son incidence et son taux de survie à cinq ans (9%), le cancer du pancréas pourrait devenir la troisième cause de décès par cancer d’ici 2025.Ces chiffres sont notamment dus aux diagnostics tardifs, limitant les options thérapeutiques. Cette thèse vise à assister les radiologues dans le diagnostic du cancer du pancréas sur des images scanner grâce à des outils d’intelligence artificielle (IA) qui faciliteraient un diagnostic précoce. Pour atteindre ces objectifs, trois pistes de recherche ont été explorées. Premièrement, une méthode de segmentation automatique du pancréas a été développée. Le pancréas présentant une forme allongée et des extrémités subtiles, la méthode proposée utilise des informations géométriques pour ajuster localement la sensibilité de la segmentation. Deuxièmement, une méthode réalise la détection des lésions et de la dilatation du canal pancréatique principal (CPP), deux signes cruciaux du cancer du pancréas. La méthode proposée commence par segmenter le pancréas, les lésions et le CPP. Ensuite, des caractéristiques quantitatives sont extraites des segmentations prédites puis utilisées pour prédire la présence d’une lésion et la dilatation du CPP. La robustesse de la méthode est de montrer sur une base externe de 756 patients. Dernièrement, afin de permettre un diagnostic précoce, deux approches sont proposées pour détecter des signes secondaires. La première utilise un grand nombre de masques de segmentation de pancréas sains pour apprendre un modèle normatif des formes du pancréas. Ce modèle est ensuite exploité pour détecter des formes anormales, en utilisant des méthodes de détection d’anomalies avec peu ou pas d’exemples d’entraînement. La seconde approche s’appuie sur deux types de radiomiques : les radiomiques profonds (RP), extraits par des réseaux de neurones profonds, et les radiomiques manuels (RM), calculés à partir de formules prédéfinies. La méthode extrait des RP non redondants par rapport à un ensemble prédéterminé de RM afin de compléter l’information déjà contenue. Les résultats montrent que cette méthode détecte Efficacement quatre signes secondaires : la forme anormale, l’atrophie, l’infiltration de graisse et la sénilité. Pour élaborer ces méthodes, une base de données de 2800 examens a été constituée, ce qui en fait l’une des plus importantes pour la recherche en IA sur le cancer du pancréas
With its increasing incidence and its five- year survival rate (9%), pancreatic cancer could be- come the third leading cause of cancer-related deaths by 2025. These figures are primarily attributed to late diagnoses, which limit therapeutic options. This the- sis aims to assist radiologists in diagnosing pancrea- tic cancer through artificial intelligence (AI) tools that would facilitate early diagnosis. Several methods have been developed. First, a method for the automatic segmentation of the pancreas on portal CT scans was developed. To deal with the specific anatomy of the pancreas, which is characterized by an elonga- ted shape and subtle extremities easily missed, the proposed method relied on local sensitivity adjust- ments using geometrical priors. Then, the thesis tack- led the detection of pancreatic lesions and main pan- creatic duct (MPD) dilatation, both crucial indicators of pancreatic cancer. The proposed method started with the segmentation of the pancreas, the lesion and the MPD. Then, quantitative features were extracted from the segmentations and leveraged to predict the presence of a lesion and the dilatation of the MPD. The method was evaluated on an external test cohort comprising hundreds of patients. Continuing towards early diagnosis, two strategies were explored to de- tect secondary signs of pancreatic cancer. The first approach leveraged large databases of healthy pan- creases to learn a normative model of healthy pan- creatic shapes, facilitating the identification of anoma- lies. To this end, volumetric segmentation masks were embedded into a common probabilistic shape space, enabling zero-shot and few-shot abnormal shape de- tection. The second approach leveraged two types of radiomics: deep learning radiomics (DLR), extracted by deep neural networks, and hand-crafted radiomics (HCR), derived from predefined formulas. The propo- sed method sought to extract non-redundant DLR that would complement the information contained in the HCR. Results showed that this method effectively de- tected four secondary signs of pancreatic cancer: ab- normal shape, atrophy, senility, and fat replacement. To develop these methods, a database of 2800 exa- minations has been created, making it one of the lar- gest for AI research on pancreatic cancer
7

Aberni, Yassir. "Algorithmes de reconnaissance biométrique multispectrale par l’empreinte et les veines palmaires." Electronic Thesis or Diss., Paris 8, 2021. http://www.theses.fr/2021PA080083.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La biométrie devient de plus en plus une technologie importante pour améliorer la sécurité et apporter des solutions aux services nécessitant une authentification et/ou une protection des données. De nombreux traits biométriques ont été étudiés et utilisés pour la reconnaissance biométrique et l’empreinte palmaire en est un exemple. Bien que de nombreuses méthodes de reconnaissance par l’empreinte palmaire aient été proposées et appliquées avec succès, la plupart n’utilise généralement que les images prises à la lumière naturelle. Il est difficile d’améliorer encore la précision de la reconnaissance sur la base de ces images palmaires en raison des limitations liées à la lumière naturelle, parmi ces limitations on peut citer la capacité des attaques par usurpation d’identité, la dégradation des empreintes palmaires avec le temps en raison de plusieurs facteurs tels que l’environnement, l’origine ethnique ou l’âge. L’imagerie multi-spectrale a donc été utilisée pour surmonter ces limitations. Dans cette thèse, nous proposons de nouveaux algorithmes de reconnaissance biométrique à base de modalités physiologiques non visibles à l’œil nu, appelées cachées, issues de l’imagerie multi-spectrale, en particulier les veines palmaires. À cet effet, nous avons élaboré de nouvelles méthodes de reconnaissance biométrique par l’empreinte et les veines palmaires basées sur le codage compétitif utilisant un modèle binaire local multi-échelles appliqué à des images extraites avec une technique d’optimisation par colonies de fourmis. De nouvelles approches d’appariement pour la décision à base des métriques de divergence et de distance, ont été proposées pour quantifier la similitude entre les images de caractéristiques. Nous avons aussi proposé une autre nouvelle méthode basée sur un réseau neuronal convolutif en adaptant l’architecture ZFNet. Les expérimentations réalisées et l’étude comparative avec l’état de l’art, montrent l’efficacité de nos différentes méthodes pour les modes identification et vérification
Biometrics is increasingly becoming an important technology to improve security and bring solutions to services requiring authentication and/or data protection. Several biometric traits have been studied and used for biometric recognition, such as palm prints. Although many recognition methods based on the palm print have been proposed and successfully applied; where most of them generally uses only the images acquired in natural light. It is difficult to further improve the accuracy of recognition based on these palm print images due to limitations related to natural light, including the ability of identity theft attacks, degradation of palm prints over time due to several factors such as environment, ethnicity or age. Multi-spectral imaging has therefore been used to overcome these limitations. In this thesis, we propose novel biometric recognition algorithms based on physiological modalities not visible to the naked eye, called hidden, from multi-spectral imaging such as palm veins. To this end, we have developed novel biometric recognition methods using palm print and palm veins based on competitive coding using a local multiscale binary model applied on images extracted with an an ant colony optimization technique. Novel matching approaches for decision based on divergence and distance metrics have been proposed to quantify the similarity between feature images. We also proposed another novel method based on a convolutional neural network by adapting the ZFNet architecture. The experiments carried out and the comparative study with the state-of-the art, show the effectiveness of our different proposed methods for the identification and verification modes
8

Alves, de Lima Danilo. "Sensor-based navigation applied to intelligent electric vehicles." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2191/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La navigation autonome des voitures robotisées est un domaine largement étudié avec plusieurs techniques et applications dans une démarche coopérative. Elle intègre du contrôle de bas niveau jusqu’à la navigation globale, en passant par la perception de l’environnement, localisation du robot, et autres aspects dans une approche référencée capteurs. Bien qu’il existe des travaux très avancés, ils présentent encore des problèmes et limitations liés aux capteurs utilisés et à l’environnement où la voiture est insérée.Ce travail aborde le problème de navigation des voitures robotisées en utilisant des capteurs à faible coût dans des milieux urbains. Dans cette thèse, nous avons traité le problème concernant le développement d’un système global de navigation autonome référencée capteur appliqué à un véhicule électrique intelligent, équipé avec des caméras et d’autres capteurs. La problématique traitée se décline en trois grands domaines de la navigation robotique : la perception de l’environnement, le contrôle de la navigation locale et la gestion de la navigation globale. Dans la perception de l’environnement, une approche de traitement d’image 2D et 3D a été proposé pour la segmentation de la route et des obstacles. Cette méthode est appliquée pour extraire aussi des caractéristiques visuelles, associées au milieu de la route, pour le contrôle de la navigation locale du véhicule. Avec les données perçues, une nouvelle méthode hybride de navigation référencée capteur et d’évitement d’obstacle a été appliquée pour le suivi de la route. Cette méthode est caractérisée par la validation d’une stratégie d’asservissement visuel (contrôleur délibératif) dans une nouvelle formulation de la méthode “fenêtre dynamique référencée image" (Dynamic Window Approach - DWA, en anglais) (contrôleur réactif). Pour assurer la navigation globale de la voiture, nous proposons l’association des données de cartes numériques afin de gérer la navigation locale dans les points critiques du chemin, comme les intersections de routes. Des essais dans les scénarios difficiles, avec une voiture expérimentale, et aussi en environnement simulé, montrent la viabilité de la méthode proposée
Autonomous navigation of car-like robots is a large domain with several techniques and applications working in cooperation. It ranges from low-level control to global navigation, passing by environment perception, robot localization, and many others in asensor-based approach. Although there are very advanced works, they still presenting problems and limitations related to the environment where the car is inserted and the sensors used. This work addresses the navigation problem of car-like robots based on low cost sensors in urban environments. For this purpose, an intelligent electric vehicle was equipped with vision cameras and other sensors to be applied in three big areas of robot navigation : the Environment Perception, Local Navigation Control, and Global Navigation Management. In the environment perception, a 2D and 3D image processing approach was proposed to segment the road area and detect the obstacles. This segmentation approach also provides some image features to local navigation control.Based on the previous detected information, a hybrid control approach for vision based navigation with obstacle avoidance was applied to road lane following. It is composed by the validation of a Visual Servoing methodology (deliberative controller) in a new Image-based Dynamic Window Approach (reactive controller). To assure the car’s global navigation, we proposed the association of the data from digital maps in order tomanage the local navigation at critical points, like road intersections. Experiments in a challenging scenario with both simulated and real experimental car show the viabilityof the proposed methodology
9

Rebaud, Louis. "Whole-body / total-body biomarkers in PET imaging." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse, réalisée en partenariat avec l'Institut Curie et Siemens Healthineers, explore l'utilisation de l'imagerie par tomographie par émission de positrons (TEP) pour le pronostic du cancer, en se concentrant sur les lymphomes non hodgkiniens, en particulier le lymphome folliculaire (FL) et le lymphome diffus à grandes cellules B (DLBCL). Partant de l'hypothèse que les biomarqueurs actuels calculés dans les images TEP sous-utilisent leur richesse en informations, ce travail se concentre sur la recherche de nouveaux biomarqueurs en imagerie TEP corps entier. Une première approche manuelle a permis de valider une caractéristique précédemment identifiée (fragmentation de la tumeur) et d'explorer l'importance pronostique de l'atteinte splénique dans les DLBCL, en constatant que le volume de l'atteinte splénique ne permet pas de stratifier davantage les patients présentant une telle atteinte. Pour dépasser les limites empiriques de la recherche manuelle, une méthode d'identification semi-automatique des caractéristiques a été mise au point. Elle consiste à extraire automatiquement des milliers de biomarqueurs candidats et à les tester à l'aide d'un pipeline de sélection conçu pour trouver des caractéristiques quantifiant de nouvelles informations pronostiques. Les biomarqueurs sélectionnés ont ensuite été analysés et recodés de manière plus simple et plus intuitive. Cette approche a permis d'identifier 22 nouveaux biomarqueurs basés sur l'image, qui reflètent des informations biologiques sur les tumeurs, mais aussi l'état de santé général du patient. Parmi eux, 10 caractéristiques se sont avérées pronostiques à la fois pour les patients atteints de FL que pour ceux souffrant de DLBCL. La thèse aborde également le défi que représente l'utilisation de ces caractéristiques dans la pratique clinique, en proposant le modèle ICARE (Individual Coefficient Approximation for Risk Estimation). Ce modèle d'apprentissage automatique, conçu pour réduire le surapprentissage et améliorer la généralisation, a démontré son efficacité dans le cadre du challenge HECKTOR 2022 visant à prédire le risque de rechute de patients atteints de cancer des voies aérodigestives supérieures à partir de leurs images TEP. Ce modèle s'est également avéré plus résistant au surapprentissage que d'autres méthodes d'apprentissage automatique lors d'une comparaison exhaustive sur un benchmark de 71 jeux de données médicales. Ces développements ont été implémentés dans une extension logicielle d'un prototype développé par Siemens Healthineers
This thesis in partnership with Institut Curie and Siemens Healthineers explores the use of Positron Emission Tomography (PET) for cancer prognosis, focusing on non-Hodgkin lymphomas, especially follicular lymphoma (FL) and diffuse large B cell lymphoma (DLBCL). Assuming that current biomarkers computed in PET images overlook significant information, this work focuses on the search for new biomarkers in whole-body PET imaging. An initial manual approach validated a previously identified feature (tumor fragmentation) and explored the prognostic significance of splenic involvement in DLBCL, finding that the volume of splenic involvement does not further stratify patients with such an involvement. To overcome the empirical limitations of the manual search, a semi-automatic feature identification method was developed. It consisted in the automatic extraction of thousands of candidate biomarkers and there subsequent testing by a selection pipeline design to identify features quantifying new prognostic information. The selected biomarkers were then analysed and re-encoded in simpler and more intuitive ways. Using this approach, 22 new image-based biomarkers were identified, reflecting biological information about the tumours, but also the overall health status of the patient. Among them, 10 features were found prognostic of both FL and DLBCL patient outcome. The thesis also addresses the challenge of using these features in clinical practice, proposing the Individual Coefficient Approximation for Risk Estimation (ICARE) model. This machine learning model, designed to reduce overfitting and improve generalizability, demonstrated effectiveness in the HECKTOR 2022 challenge for predicting outcomes from head and neck cancer patients [18F]-PET/CT scans. This model was also found to overfit less than other machine learning methods on an exhaustive comparison using a benchmark of 71 medical datasets. All these developments were implemented in a software extension of a prototype developed by Siemens Healthineers
10

Christie, Marc. "Spécification de trajectoires de caméra sous contraintes." Nantes, 2003. http://www.theses.fr/2003NANT2116.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Brown, Marlon F. "Joint Deployable Intelligence Support System (JDISS) communications and imagery application guide for new users." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 1997. http://handle.dtic.mil/100.2/ADA331705.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Thesis (M. S. in Systems Technology (Command, Control and Communications)) Naval Postgraduate School, June 1997.
Thesis advisors, Gary R. Porter and Tim L. Phillips. Includes bibliographical references (p. 27). Also available online.
12

Sementilli, Philip Joseph Jr 1958. "Linear feature delineation in digital imagery using neural networks." Thesis, The University of Arizona, 1991. http://hdl.handle.net/10150/278012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
A goal of many image analysis, image understanding and computer vision problems is the delineation of linear features. This thesis addresses the specific problem of operator guided road delineation in aerial photographs. Our solution to this problem applies the classical pattern recognition paradigm of feature extraction followed by pattern classification. The feature extraction process merges features extracted at different levels of a multi-resolution image pyramid to obtain a dichotomization of image coordinates into classes of road pixels and not road pixels. The road center line is estimated from this road pixel image using a generalized Hamming distance based decision scheme. An artificial neural network (ANN) architecture is developed which implements the generalized Hamming distance classifier. It is shown that the ANN implementation offers significant throughput improvements over sequential implementations. Results of applying the road delineation algorithm to digitized aerial photographs demonstrate delineation accuracy suitable for computer-aided cartography applications.
13

Guo, Xufeng. "Automated scene understanding from aerial imagery." Thesis, Queensland University of Technology, 2018. https://eprints.qut.edu.au/117973/8/Xufeng_Guo_Thesis.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis examines the development of vision-based aerial image understanding systems. The proposed systems investigate different abstraction levels of visual features in aerial image processing tasks and adopts UAV forced landing site detection as the main application to examine the feasibility and robustness of the proposed systems. This thesis also proposes an efficient and novel visual feature to improve single image depth prediction performance especially for the depth estimation of small objects in a scene.
14

Corbat, Lisa. "Fusion de segmentations complémentaires d'images médicales par Intelligence Artificielle et autres méthodes de gestion de conflits." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le néphroblastome est la tumeur du rein la plus fréquente chez l'enfant et son diagnostic est exclusivement basé sur l'imagerie. Ce travail qui fait l'objet de nos recherches s'inscrit dans le cadre d'un projet de plus grande envergure : le projet européen SAIAD (Segmentation Automatique de reins tumoraux chez l'enfant par Intelligence Artificielle Distribuée). L'objectif du projet est de parvenir à concevoir une plate-forme capable de réaliser différentes segmentations automatiques sur les images sources à partir de méthodes d'Intelligence Artificielle (IA), et ainsi obtenir une reconstruction fidèle en trois dimensions. Dans ce sens, des travaux réalisés dans une précédente thèse de l'équipe de recherche ont menés à la création d'une plate-forme de segmentation. Elle permet la segmentation de plusieurs structures individuellement, par des méthodes de type Deep Learning, et plus particulièrement les réseaux de neurones convolutifs (CNNs), ainsi que le Raisonnement à Partir de Cas (RàPC). Cependant, il est ensuite nécessaire de fusionner de manière automatique les segmentations de ces différentes structures afin d'obtenir une segmentation complète pertinente. Lors de l'agrégation de ces structures, des pixels contradictoires peuvent apparaître. Ces conflits peuvent être résolus par diverses méthodes basées ou non sur l'IA et font l'objet de nos recherches. Nous proposons tout d'abord une première approche de fusion non focalisée sur l'IA en utilisant la combinaison de six méthodes différentes, basées sur différents critères présents sur l'imagerie et les segmentations. En parallèle, deux autres méthodes de fusion sont proposées en utilisant, un CNN couplé au RàPC pour l'une, et un CNN utilisant une méthode d'apprentissage spécifique existante en segmentation pour l'autre. Ces différentes approches ont été testées sur un ensemble de 14 patients atteints de néphroblastome et démontrent leurs efficacités dans la résolution des pixels conflictuels et leurs capacités à améliorer les segmentations résultantes
Nephroblastoma is the most common kidney tumour in children and its diagnosis is based exclusively on imaging. This work, which is the subject of our research, is part of a larger project: the European project SAIAD (Automated Segmentation of Medical Images Using Distributed Artificial Intelligence). The aim of the project is to design a platform capable of performing different automatic segmentations from source images using Artificial Intelligence (AI) methods, and thus obtain a faithful three-dimensional reconstruction. In this sense, work carried out in a previous thesis of the research team led to the creation of a segmentation platform. It allows the segmentation of several structures individually, by methods such as Deep Learning, and more particularly Convolutional Neural Networks (CNNs), as well as Case Based Reasoning (CBR). However, it is then necessary to automatically fuse the segmentations of these different structures in order to obtain a complete relevant segmentation. When aggregating these structures, contradictory pixels may appear. These conflicts can be resolved by various methods based or not on AI and are the subject of our research. First, we propose a fusion approach not focused on AI using the combination of six different methods, based on different imaging and segmentation criteria. In parallel, two other fusion methods are proposed using, a CNN coupled to the CBR for one, and a CNN using a specific existing segmentation learning method for the other. These different approaches were tested on a set of 14 nephroblastoma patients and demonstrated their effectiveness in resolving conflicting pixels and their ability to improve the resulting segmentations
15

Wallis, David. "A study of machine learning and deep learning methods and their application to medical imaging." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPAST057.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous utilisons d'abord des réseaux neuronaux convolutifs (CNNs) pour automatiser la détection des ganglions lymphatiques médiastinaux dans les images TEP/TDM. Nous construisons un modèle entièrement automatisé pour passer directement des images TEP/TDM à la localisation des ganglions. Les résultats montrent une performance comparable à celle d'un médecin. Dans la seconde partie de la thèse, nous testons la performance, l'interprétabilité et la stabilité des modèles radiomiques et CNN sur trois ensembles de données (IRM cérébrale 2D, TDM pulmonaire 3D, TEP/TDM médiastinale 3D). Nous comparons la façon dont les modèles s'améliorent lorsque davantage de données sont disponibles et nous examinons s'il existe des tendances communess aux différents problèmes. Nous nous demandons si les méthodes actuelles d'interprétation des modèles sont satisfaisantes. Nous étudions également comment une segmentation précise affecte les performances des modèles. Nous utilisons d'abord des réseaux neuronaux convolutifs (CNNs) pour automatiser la détection des ganglions lymphatiques médiastinaux dans les images TEP/TDM. Nous construisons un modèle entièrement automatisé pour passer directement des images TEP/TDM à la localisation des ganglions. Les résultats montrent une performance comparable à celle d'un médecin. Dans la seconde partie de la thèse, nous testons la performance, l'interprétabilité et la stabilité des modèles radiomiques et CNN sur trois ensembles de données (IRM cérébrale 2D, TDM pulmonaire 3D, TEP/TDM médiastinale 3D). Nous comparons la façon dont les modèles s'améliorent lorsque davantage de données sont disponibles et nous examinons s'il existe des tendances communess aux différents problèmes. Nous nous demandons si les méthodes actuelles d'interprétation des modèles sont satisfaisantes. Nous étudions également comment une segmentation précise affecte les performances des modèles
We first use Convolutional Neural Networks (CNNs) to automate mediastinal lymph node detection using FDG-PET/CT scans. We build a fully automated model to go directly from whole-body FDG-PET/CT scans to node localisation. The results show a comparable performance to an experienced physician. In the second half of the thesis we experimentally test the performance, interpretability, and stability of radiomic and CNN models on three datasets (2D brain MRI scans, 3D CT lung scans, 3D FDG-PET/CT mediastinal scans). We compare how the models improve as more data is available and examine whether there are patterns common to the different problems. We question whether current methods for model interpretation are satisfactory. We also investigate how precise segmentation affects the performance of the models. We first use Convolutional Neural Networks (CNNs) to automate mediastinal lymph node detection using FDG-PET/CT scans. We build a fully automated model to go directly from whole-body FDG-PET/CT scans to node localisation. The results show a comparable performance to an experienced physician. In the second half of the thesis we experimentally test the performance, interpretability, and stability of radiomic and CNN models on three datasets (2D brain MRI scans, 3D CT lung scans, 3D FDG-PET/CT mediastinal scans). We compare how the models improve as more data is available and examine whether there are patterns common to the different problems. We question whether current methods for model interpretation are satisfactory. We also investigate how precise segmentation affects the performance of the models
16

Toony, Zahra. "Extracting structured models from raw scans of manufactured objects : a step towards embedded intelligent handheld 3D scanning." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26270.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La disponibilité de capteurs 3D rapides et précis a favorisé le développement de différentes applications dans les domaines de l’assemblage, de l’inspection, de la conception assistée par ordinateur (CAO), de l’ingénierie inverse, de la construction mécanique, de la médecine, et du divertissement, pour n’en citer que quelques-unes. Alors que les caméras 2D capturent des images 2D de la surface des objets, soit en noir-et-blanc, soit en couleur, les caméras 3D fournissent des informations sur la géométrie de la surface d’un objet. Aujourd’hui, les caméras 3D nouvellement introduites peuvent acquérir l’apparence et la géométrie des objets en même temps. La popularité et la disponibilité de ces modèles 3D a ouvert de nouveaux champs d’intérêts, comme segmentation de modèles 3D, la reconnaissance du modèles 3D, l’estimation des paramètres de modèles 3D et même la modélisation 3D. Dans ce projet, nous visons à faire une reconnaissance intelligente des différentes parties (primitives) d’un objet 3D. À cette fin, nous préparons d’abord une base de données de primitives de CAO 3D (i.e., plans, cylindres, cônes, sphères et tores). Ensuite, en utilisant les algorithmes de segmentation, les objets complexes sont décomposés en leurs primitives et, en utilisant des techniques de reconnaissance des formes, un descripteur est associé à chaque primitive et, enfin, un classificateur est formé pour apprendre les propriétés des primitives. Le manuscrit étudie différentes méthodes liées à ces défis. Une étape supplémentaire est également proposée dans ce projet, par l’estimation des paramètres des primitives et la génération de primitives de CAO, qui complète l’ensemble du processus d’ingénierie inverse.
The availability of fast and accurate 3D sensors has favored the development of different applications in assembly, inspection, Computer-Aided Design (CAD), reverse engineering, mechanical engineering, medicine, and entertainment, to list just a few. While 2D cameras capture 2D images of the surface of objects, either black-and-white or color, 3D cameras provide information on the geometry of an object surface. Today, newly introduced 3D cameras can acquire the appearance and geometry of objects concurrently. The popularity and availability of such these 3D models has opened new fields of interests, such as 3D model segmentation, 3D model recognition, estimation of 3D models’ parameters and even 3D modelling. In this project, we aim at recognizing different parts (primitives) of a 3D object, intelligently. For this purpose, we first prepare a database of 3D CAD primitives (i.g. planes, cylinders, cones, spheres and, tori). Then using segmentation algorithms, the complex objects are decomposed into their primitives and, by utilizing recognition techniques, a descriptor is extracted and associated to each primitive and, finally, a classifier is trained to learn the properties of primitives. The manuscript investigates different methods related to these challenges. An additional step is also proposed in this project which estimates the parameters of primitives and generate the CAD primitives that completes the whole process of reverse engineering.
17

Ponce, Jean. "Représentation des objets tridimensionnels." Paris 11, 1988. http://www.theses.fr/1988PA112369.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à la représentation géométrique des objets tridimensionnels dans le cadre de la vision par ordinateur. La thèse est divisée en trois parties indépendantes, consacrées respectivement aux cylindres généralisés et à leurs images, aux modèles géométriques de la CA0 (conception assistée par ordinateur), et aux images de profondeur mesurées à l'aide d'un télémètre laser. On étudie dans la première partie la géométrie différentielle des cylindres généralisés homogènes droits (CGHDs). Les résultats obtenus sont utilisés pour démontrer plusieurs théorèmes d'unicité nouveaux, caractériser la silhouette des CGHDs, et démontrer plusieurs propriétés des contours de ces objets qui sont indépendants de la position de la caméra qui les observe. Ces propriétés sont utilisées à leur tour en segmentation d'image. Un système complet de CAO est décrit dans la deuxième partie. Des solides complexes sont obtenus en combinant des CGHDs à l'aide des opérations booléennes d'union, d'intersection, et de différence. Une structure de données hiérarchique est utilisée pour calculer de manière efficace et robuste les opérations booléennes entre deux solides. Le système présenté comporte en outre des algorithmes de visualisation rapides et puissants et des outils permettant de construire et modifier facilement des primitives et des objets complexes. Dans la troisième partie, les images de profondeur sont représentées à différentes résolutions à l'aide de leurs courbures et directions principales. Une représentation analytique des discontinuités des images de profondeur est utilisée pour segmenter ces images. Un graphe des surfaces séparées par ces discontinuités est construit, et ces surfaces sont décrites à l'aide de leurs lignes de courbure, de régions planes et sphériques, et de certains types de cylindres généralisés
This thesis is concerned with the geometric representation of three-dimensional objects in the context of computer vision. The thesis is divided into three parts: generalized cylinders and their images, CAD (Computer Aided Design) models, range images measured with a laser rangefinder. In the first part, the differential geometry of straight homogeneous generalized cylinders (SHGC's) is studied. The results obtained are used to prove several new uniqueness results, to characterize the silhouette of SHGC's, and to prove several properties of the contours of these objects which are independent from the viewing direction. These properties are used in turn for image segmentation. A CAD system is described in the second part. Complex solids are obtained by combining SHGC's through set operations. A hierarchical data structure is used to compute the set operations in an efficient and robust manner. The system described includes fast and powerful rendering algorithms and tools for building and modifying easily primitives and complex objects. In the third part, range images are represented at different scales by their principal curvatures and directions. An analytical representation of range discontinuities is used to segment these images. A graph of smooth surfaces separated by these discontinuities is built, and these surfaces are described by their lines of curvature, by planar and spherical regions, and by certain types of generalized cylinders
18

Thomas, Vincent. "Modélisation 3D pour la réalité augmentée : une première expérimentation avec un téléphone intelligent." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27904/27904.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis leur introduction, les téléphones intelligents n’ont cessé d’évoluer. Ceux-ci intègrent généralement plusieurs composantes utiles (i.e. caméra numérique, récepteur GPS, accéléromètres, boussole numérique et plus récemment le gyroscope) pour des applications de Réalité Augmentée Mobile (RAM). Ce type d’application génère beaucoup d’intérêt auprès du grand public qui se voit offrir une nouvelle manière d’explorer son environnement. Afin d’obtenir une forte augmentation de la réalité en termes d’immersion de l’utilisateur et des interactions qui lui sont proposées, ces applications de RAM requièrent généralement un modèle 3D de l’environnement. Ce modèle 3D peut alors être exploité selon trois finalités différentes au sein de l’application de RAM qui sont : 1) gérer les occlusions; 2) aider au calcul de la pose (position/orientation) de la caméra de l’utilisateur; 3) supporter les interactions et l’augmentation de la réalité. Cependant, ces modèles 3D ne sont pas toujours disponibles à l’endroit où l’on souhaite augmenter la réalité ce qui nuit au déploiement des applications de RAM n’importe où et n’importe quand. Afin de surmonter cette contrainte, le présent projet de maîtrise a consisté à concevoir une chaîne de production de modèles 3D adaptée au contexte des applications de RAM dites fortement augmentées et facilement exploitable directement sur les lieux ciblés pour l’augmentation. La chaîne de production élaborée a été implantée sur la plateforme de l’iPhone 3G puis évaluée selon des critères d’exactitude, de rapidité, d’intuitivité et d’efficacité de l’augmentation résultante. Les résultats de cette évaluation ont permis de mettre en évidence la possibilité de modéliser en 3D un bâtiment simplement tout en atteignant une exactitude sous les 5 mètres en environ 3 minutes à l’aide d’un appareil de type téléphone intelligent.
Recently, a new genre of software applications has emerged allowing the general public to browse their immediate environment using their smartphone: Mobile Augmented Reality (MAR) applications. The growing popularity of this type of application is triggered by the fast evolution of smartphones. These ergonomic mobile platforms embed several pieces of equipment useful to deploy MAR (i.e. digital camera, GPS receiver, accelerometers, digital compass and now gyroscope). In order to achieve a strong augmentation of the reality in terms of user’s immersion and interactions, a 3D model of the real environment is generally required. The 3D model can be used for three different purposes in these MAR applications: 1) to manage the occlusions between real and virtual objects; 2) to provide accurate camera pose (position/orientation) calculation; 3) to support the augmentation and interactions. However, the availability of such 3D models is limited and therefore preventing MAR application to be used anywhere at anytime. In order to overcome such constraints, this proposed research thesis is aimed at devising a new approach adapted to the specific context of MAR applications and dedicated to the simple and fast production of 3D models. This approach was implemented on the iPhone 3G platform and evaluated according to precision, rapidity, simplicity and efficiency criteria. Results of the evaluation underlined the capacity of the proposed approach to provide, in about 3 minutes, a simple 3D model of a building using smartphone while achieving accuracy of 5 meters and higher.
19

Duran, Audrey. "Intelligence artificielle pour la caractérisation du cancer de la prostate par agressivité en IRM multiparamétrique." Thesis, Lyon, 2022. http://theses.insa-lyon.fr/publication/2022LYSEI008/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le cancer de la prostate (CaP) est le cancer le plus diagnostiqué dans plus de la moitié des pays du monde et le cinquième cancer le plus meurtrier chez les hommes en 2020. Le diagnostic du CaP inclut l'acquisition d'une imagerie par résonance magnétique multiparamétrique (IRM-mp) - qui combine une séquence T2-pondérée (T2-w), une imagerie pondérée en diffusion (DWI) et une séquence dynamique de contraste amélioré (DCE) - avant la réalisation de biopsies. L'analyse jointe de ces images multimodales est fastidieuse et chronophage, en particulier lorsque les séquences mènent à des conclusions différentes. En outre, la sensibilité de l'IRM reste faible pour les cancers peu agressifs et la variabilité inter-observateur élevée. De plus, l'analyse visuelle ne permet pas aujourd'hui de déterminer l'agressivité des cancers, caractérisée par le score de Gleason (GS). C'est pourquoi des systèmes d'aide au diagnostic (CAD) basés sur des modèles statistiques par apprentissage ont été proposés ces dernières années, pour d'assister les radiologues dans leur diagnostic. Toutefois, la majorité de ces systèmes se concentrent sur une tâche de détection binaire des lésions cliniquement significatives (CS). L'objectif de cette thèse est d'élaborer un système CAD pour détecter les CaP sur des IRM-mp, mais aussi de caractériser leur agressivité en prédisant le GS associé. Dans une première partie, nous présentons un système CAD supervisé permettant de segmenter le CaP par agressivité à partir des cartes T2-w et ADC. Ce réseau de neurones multiclasse segmente simultanément la prostate et les lésions par agressivité. Le modèle a été entraîné et évalué en validation croisée à 5 plis sur une base de données hétérogène de 219 examens IRM acquis avant prostatectomie. Pour la tâche de classification par GS, le kappa de Cohen quadratiquement pondéré (κ) est de 0.418 ± 0.138, ce qui représente le meilleur kappa par lésions pour une tâche de segmentation par GS à notre connaissance. Le modèle présente également des capacités de généralisation encourageantes sur le jeu de données public PROSTATEx-2. Dans une deuxième partie, nous nous penchons sur un modèle faiblement supervisé, permettant l'inclusion de données où les lésions sont identifiées par des points seulement, pour un gain de temps conséquent et l'inclusion de bases de données établies sur la biopsie. Concernant la tâche de classification par GS, les performances approchent celles obtenues avec le modèle totalement supervisé de référence, en n'ayant que 6% de voxels annotés pour l'entraînement. Dans une dernière partie, nous étudions l'apport de l'imagerie DCE, séquence souvent omise en entrée des modèles profonds, pour la détection et la caractérisation du CaP. Plusieurs stratégies d'encodage de la perfusion dans une architecture U-Net sont étudiées. Nous montrons que les cartes paramétriques dérivées des examens IRM DCE ont un impact positif sur les performances de segmentation et de classification du CaP
Prostate cancer (PCa) is the most frequently diagnosed cancer in men in more than half the countries in the world and the fifth leading cause of cancer death among men in 2020. Diagnosis of PCa includes multiparametric magnetic resonance imaging acquisition (mp-MRI) - which combines T2 weighted (T2-w), diffusion weighted imaging (DWI) and dynamic contrast enhanced (DCE) sequences - prior to any biopsy. The joint analysis of these multimodal images is time demanding and challenging, especially when individual MR sequences yield conflicting findings. In addition, the sensitivity of MRI is low for less aggressive cancers and inter-reader reproducibility remains moderate at best. Moreover, visual analysis does not currently allow to determine the cancer aggressiveness, characterized by the Gleason score (GS). This is why computer-aided diagnosis (CAD) systems based on statistical learning models have been proposed in recent years, to assist radiologists in their diagnostic task, but the vast majority of these models focus on the binary detection of clinically significant (CS) lesions. The objective of this thesis is to develop a CAD system to detect and segment PCa on mp-MRI images but also to characterize their aggressiveness, by predicting the associated GS. In a first part, we present a supervised CAD system to segment PCa by aggressiveness from T2-w and ADC maps. This end-to-end multi-class neural network jointly segments the prostate gland and cancer lesions with GS group grading. The model was trained and validated with a 5-fold cross-validation on a heterogeneous series of 219 MRI exams acquired on three different scanners prior prostatectomy. Regarding the automatic GS group grading, Cohen’s quadratic weighted kappa coefficient (κ) is 0.418 ± 0.138, which is the best reported lesion-wise kappa for GS segmentation to our knowledge. The model has also encouraging generalization capacities on the PROSTATEx-2 public dataset. In a second part, we focus on a weakly supervised model that allows the inclusion of partly annotated data, where the lesions are identified by points only, for a consequent saving of time and the inclusion of biopsy-based databases. Regarding the automatic GS group grading on our private dataset, we show that we can approach performance achieved with the baseline fully supervised model while considering 6% of annotated voxels only for training. In the last part, we study the contribution of DCE MRI, a sequence often omitted as input to deep models, for the detection and characterization of PCa. We evaluate several ways to encode the perfusion from the DCE MRI information in a U-Net like architecture. Parametric maps derived from DCE MR exams are shown to positively impact segmentation and grading performance of PCa lesions
20

Dalsasso, Emanuele. "Deep learning for SAR imagery : from denoising to scene understanding." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Radar à Synthèse d’Ouverture (RSO, aussi appelé SAR en anglais) permet d’acquérir des données pour l’observation de la Terre de jour comme de nuit, quelles que soient les conditions météorologiques. Grâce notamment au programme Copernicus de l’Agence Spatiale Européenne nous disposons aujourd’hui d’un grand nombre de données distribuées librement. Cependant, l’exploitation de données satellitaires radar est limitée par la présence de très fortes fluctuations du signal rétrodiffusé par la scène imagée. En effet, les images SAR sont entachées par un phénomène intrinsèque aux systèmes d’imagerie cohérente : le chatoiement, communément appelé speckle. Dans cette thèse, nous visons à faciliter l’interprétation des images SAR grâce au développement de techniques de réduction de speckle. Les approches existantes reposent sur le modèle de Goodman, décrivant le speckle comme un bruit multiplicatif et spatialement non corrélé. Dans le domaine de la vision par ordinateur, les méthodes de débruitage s’appuyant sur un réseau neuronal convolutif (approches d’apprentissage profond) ont permis des grandes avancées et représentent aujourd’hui l’état de l’art. Nous proposons donc d’utiliser les techniques de débruitage basées sur les algorithmes d’apprentissage profond pour la réduction de speckle dans les images SAR (méthodes de despeckling). Premièrement, nous étudions l’adaptation des techniques dites supervisées, c.à.d. visant à minimiser l’écart, selon un certain critère, entre l’estimation fournie par le réseau et une image de référence, dite vérité terrain. Nous proposons la création d’une base de données d’images de référence en moyennant des piles d’images multi-temporelles acquises sur la même zone. Des paires d’images pour entraîner un réseau peuvent être générées en synthétisant du speckle selon le modèle de Goodman. Cependant, dans les images réelles le speckle est spatialement corrélé. La corrélation peut être typiquement réduite par un sous-échantillonnage d’un facteur 2, mais cela engendre une perte de résolution. Au vu des limites des approches supervisées, inspirés par la méthode auto-supervisée noise2noise, nous proposons d’apprendre un réseau directement sur des données réelles. Le principe des méthodes de débruitage auto-supervisées est le suivant : si un signal contient une composante déterministe et une composante aléatoire, un réseau entraîné à prédire une nouvelle réalisation de ce signal à partir d’une première réalisation indépendante ne pourra prédire que la composante déterministe, c.à.d. la scène sous-jacente, supprimant ainsi le speckle. Dans la méthode que nous développons, SAR2SAR, nous utilisons des séries multi-temporelles sous hypothèse de speckle temporellement décorrélé pour obtenir des réalisations indépendantes. Les changements sont compensés en recourant à une stratégie d’entraînement itérative. Le réseau SAR2SAR est donc entraîné sur des images dont le speckle est corrélé spatialement et peut être par conséquent appliqué directement sur les images radar, donnant des performances de très bonne qualité en termes de préservation de la résolution spatiale. L’apprentissage de SAR2SAR reste cependant lourd : la stratégie se déroule en plusieurs étapes pour compenser les changements et un jeu de données contenant des piles d’images doit être constitué. Avec l’approche MERLIN, nous relâchons ces contraintes en proposant une méthode d’apprentissage auto-supervisée mono-image. En effet dans les images SAR complexes, les partie réelles et imaginaires sont mutuellement indépendantes et elles peuvent être naturellement utilisées pour apprendre un réseau de manière auto-supervisée. Nous montrons la simplicité de mise en œuvre d’un tel cadre en entraînant un réseau pour trois modalités d’acquisitions, présentant des différences en termes de résolution spatiale, de textures et de corrélation spatiale du speckle. Dans un souci de science ouverte, le code associé aux méthodes développées est disponible en accès libre
Synthetic Aperture Radars (SARs) can collect data for Earth Observation purposes regardless of the daylight or cloud cover. Nowadays, thanks to the Copernicus program of the European Space Agency, a huge amount of SAR data is freely available. However, the exploitation of satellite SAR images is limited by the presence of strong fluctuations in the backscattered signal. Indeed, SAR images are corrupted by speckle, a phenomenon inherent to coherent imaging systems. In this Ph.D thesis, we aim to improve the interpretation of SAR images by resorting to speckle reduction techniques. Existing approaches are based on Goodman’s model, which describes the speckle component as a spatially uncorrelated multiplicative noise. In the computer vision field, denoising methods relying on Convolutional Neural Networks (deep learning approaches) have led to great improvements and provide nowadays state-of-the-art results. We propose to use deep learning-based denoising techniques to reduce speckle from SAR images (despeckling methods). At first, we study the adaptation of supervised techniques that minimize a certain distance between the estimation provided by the CNN and a reference image, also called “groundtruth”. We propose to create a dataset of reference images by averaging multi-temporal images acquired over the same area. Pairs of reference and corrupted images can be generated by synthetizing speckle following Goodman’s model. However, in real images the speckle component is spatially correlated which typically requires subsampling these images by a factor 2 to reduce the spatial correlations, which also degrades the spatial resolution. Given the limits of supervised approaches and inspired by noise2noise, a self-supervised denoising method, we propose to train our networks directly on actual SAR images. The principle of self-supervised denoising methods is the following: if a signal contains a deterministic component and a random component, then a network trained to predict a new signal realization from a first independent signal realization will only predict the deterministic component, i.e., the underlying scene, thereby suppressing the speckle. In the method we have developed, SAR2SAR, we leverage multi-temporal SAR series to obtain independent realizations of the same scene, under the hypothesis of temporally decorrelated speckle. Changes are compensated by devising an iterative training strategy. SAR2SAR is thus trained directly on images with spatially correlated speckle and can readily be applied on SAR images without subsampling, providing high-quality results. The training of SAR2SAR is quite heavy: it is articulated in several steps to compensate changes and a dataset comprising stacks of images must be built. With our approach “MERLIN”, we alleviate the training by proposing a single-image learning strategy. Indeed, in single-look-complex SAR images, real and imaginary parts are mutually independent and can benaturally exploited to train CNNs with self-supervision. We show the potential of this training framework for three imaging modalities, different in terms of spatial resolution, textures, and speckle spatial correlation. For the sake of open science, the code associated to each algorithm developed is made freely available
21

Charest, Jonathan. "Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positrons." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11628.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent. Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal. Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET. Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.
22

Workman, Scott. "Leveraging Overhead Imagery for Localization, Mapping, and Understanding." UKnowledge, 2018. https://uknowledge.uky.edu/cs_etds/64.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ground-level and overhead images provide complementary viewpoints of the world. This thesis proposes methods which leverage dense overhead imagery, in addition to sparsely distributed ground-level imagery, to advance traditional computer vision problems, such as ground-level image localization and fine-grained urban mapping. Our work focuses on three primary research areas: learning a joint feature representation between ground-level and overhead imagery to enable direct comparison for the task of image geolocalization, incorporating unlabeled overhead images by inferring labels from nearby ground-level images to improve image-driven mapping, and fusing ground-level imagery with overhead imagery to enhance understanding. The ultimate contribution of this thesis is a general framework for estimating geospatial functions, such as land cover or land use, which integrates visual evidence from both ground-level and overhead image viewpoints.
23

Richard, Jean-Alexandre. "Synthèse de sondes luminescentes utilisant un bras réactif auto-immolable : application à la détection de peptidases." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’imagerie optique est actuellement en train de révolutionner le diagnostic pré-clinique et le développement des médicaments. Dans ce contexte, la société QUIDD développe des sondes intelligentes capables de mettre en évidence des processus biologiques impliqués dans les maladies. Ainsi, cette thèse a pour objectif le développement d’une méthode générale pour la synthèse de sondes luminescentes visant la détection de peptidases. Pour cela, des sondes composées d’un substrat peptidique et d’une espèce luminescente phénolique reliés entre eux par un bras réactif auto-immolables ont été développées. Deux approches ont été envisagées : une stratégie utilisant des pro-fluorophores à phénol dont l’émission de fluorescence est éteinte lorsque leur fonction phénol est substituée. Une autre stratégie a consisté en l’utilisation de 1,2-dioxétanes dont la libération dans le milieu engendre une émission spontanée de lumière. Cette thèse présente tout d’abord la validation de cette stratégie, notamment pour la détection de la caspase-3, une enzyme fortement impliquée dans le processus apoptotique. La deuxième partie de ce travail relate les efforts effectués afin de permettre l’utilisation de ces sondes en imagerie in vivo
Optical imaging is currently revolutionizing pre-clinic diagnosis and drug development. In that context, QUIDD develops smart probes able to follow biological events involved in biological disorders. The aim of this PhD work was to provide a general method for the synthesis of luminescent probes able to detect proteases. For that purpose, probes composed of a peptide substrate and a phenolic luminescent moiety connected by a self-immolative linker were developed. Two strategies were investigated: a first strategy involved phenolic pro-fluorophores, whose fluorescence is quenched when their phenol functionality is substituted. A second strategy took advantage of 1,2-dioxetanes whose liberation in the medium results in a spontaneous light emission. The first objective of this work was to provide a proof of concept of these strategies, especially for the detection of caspase-3, a key enzyme involved in the apoptotic process. The second part of this work was devoted to the extension of the strategy to in vivo imaging
24

Chambe, Mathieu. "Improving image quality using high dynamic range and aesthetics assessment." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour traiter la grande quantité de données visuelles disponible, il est important de concevoir des algorithmes qui peuvent trier, améliorer, compresser ou stocker des images et des vidéos. Dans cette thèse, nous proposons deux approches différentes pour améliorer la qualité d'images. Tout d'abord, nous proposons une étude des méthodes d'évaluation automatique de l'esthétique. Ces algorithmes sont basés sur des réseaux de neurones supervisés. Nous avons récolté des images de différents types, puis nous avons utilisé ces images pour tester des modèles. Notre étude montre que les caractéristiques nécessaires pour évaluer précisément les esthétiques de photographies professionnelles ou compétitives sont différentes, mais qu'elles peuvent être apprises par un seul et unique réseau. Enfin, nous proposons de travailler sur les images à grande gamme dynamique (High Dynamic Range, HDR en anglais). Nous présentons ici un nouvel opérateur pour augmenter la gamme dynamique d'images standards, appelé HDR-LFNet. Cet opérateur fusionne la sortie de plusieurs algorithmes pré-existants, ce qui permet d'avoir un réseau plus léger et plus rapide. Nous évaluons les performances de la méthode proposée grâce à des métriques objectives, ainsi qu'une évaluation subjective. Nous prouvons que notre méthode atteint des résultats similaires à l'état de l'art en utilisant moins de ressources
To cope with the increasing amount of visual content available, it is important to devise automatic processes that can sort, improve, compress or store images and videos. In this thesis, we propose two different approaches to software-based image improvement. First, we propose a study on existing aesthetics assessment algorithms. These algorithms are based on supervised neural networks. We have collected several datasets of images, and we have tested different models using these images. We report here the performances of such networks, as well as an idea to improve the already trained networks. Our study shows that the features needed to accurately predict the aesthetics of competitive and professional are different but can be learned simultaneously by a single network. In a second time, we propose to work with High Dynamic Range (HDR) images. We present here a new operator to increase the dynamic range of images called HDR-LFNet, that merges the output of existing operators and therefore, consists in far fewer parameters. Besides, we evaluate our method through objective metrics and a user study. We show that our method is on-par with the state-of-the-art according to objective metrics, but is preferred by observers during the user study, while using less resources overall
25

Khatir, Leyla. "Recherche d'algorithmes de localisation de routes dans les images haute resolution : application a l'imagerie spot." Toulouse 3, 1988. http://www.theses.fr/1988TOU30080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Deux niveaux de traitement sont possibles: 1) extraction de lignes par une methode travaillant autour de chaque pixel; chaque element est assimile a une composante connexe; 2) utilisation des connaissances a priori
26

Moussa, Richard. "SEGMENTATION MULTI-AGENTS EN IMAGERIE BIOLOGIQUE ET MÉDICALE : APPLICATION AUX IRM 3D." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00652445.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La segmentation d'images est une opération cruciale pour le traitement d'images. Elle est toujours le point de départ des processus d'analyse de formes, de détection de mouvement, de visualisation, des estimations quantitatives de distances linéaires, de surfaces et de volumes. À ces fins, la segmentation consiste à catégoriser les voxels en des classes basées sur leurs intensités locales, leur localisation spatiale et leurs caractéristiques de forme ou de voisinage. La difficulté de la stabilité des résultats des méthodes de segmentation pour les images médicales provient des différents types de bruit présents. Dans ces images, le bruit prend deux formes : un bruit physique dû au système d'acquisition, dans notre cas l'IRM (Imagerie par Résonance Magnétique), et le bruit physiologique dû au patient. Ces bruits doivent être pris en compte pour toutes les méthodes de segmentation d'images. Durant cette thèse, nous nous sommes focalisés sur des modèles Multi-Agents basés sur les comportements biologiques des araignées et des fourmis pour effectuer la tâche de segmentation. Pour les araignées, nous avons proposé une approche semi-automatique utilisant l'histogramme de l'image pour déterminer le nombre d'objets à détecter. Tandis que pour les fourmis, nous avons proposé deux approches : la première dite classique qui utilise le gradient de l'image et la deuxième, plus originale, qui utilise une partition intervoxel de l'image. Nous avons également proposé un moyen pour accélérer le processus de segmentation grâce à l'utilisation des GPU (Graphics Processing Unit). Finalement, ces deux méthodes ont été évaluées sur des images d'IRM de cerveau et elles ont été comparées aux méthodes classiques de segmentation : croissance de régions et Otsu pour le modèle des araignées et le gradient de Sobel pour les fourmis.
27

Grandclaude, Virgile. "Synthèse de sondes chémiluminescentes et profluorescentes pour des applications en imagerie in vivo." Thesis, Rouen, INSA, 2011. http://www.theses.fr/2011ISAM0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’imagerie moléculaire optique joue maintenant un rôle essentiel dans le diagnostic pré-clinique et le développement de médicaments. En effet, c’est un outil précieux dans la détection et le suivi de cellules vivantes que ce soit en utilisant de simples agents de marquage ou des sondes plus développées, dites « intelligentes » et activées uniquement par une interaction spécifique avec le bio-analyte ciblé. Ce travail de thèse a consisté à développer des outils synthétiques innovants afin d’optimiser les paramètres physico-chimiques et les propriétés optiques des sondes luminescentes. Ceci dans le but de répondre à la problématique complexe de l’imagerie dans le contexte in vivo. Nous avons notamment travaillé sur des aspects de pro-fluorescence et de chémiluminescence. De nouveaux pro-fluorophores à phénol basés sur une architecture originale de type bis-coumarinique ont été développés. De plus, nous avons mis en place une méthode d’hydrosolubilisation généralisable aux fluorophores à phénol de type coumarine et xanthène. Nos recherches en chémiluminescence ont permis la synthèse de nouveaux chémiluminophores couplés à des fluorophores organiques afin d‘augmenter l’efficacité d’émission de chémiluminescence dans le rouge. Enfin, nos travaux ont permis de mettre en place les premières « cassettes » chémiluminescentes basées sur une architecture de type 1,2-dioxétane
Optical molecular imaging is now playing a pivotal role both in pre-clinical diagnosis and drug development. Indeed, this is a valuable tool for the real time detection and monitoring of living cells either through the use of structurally simple labels or more recently by means of sophisticated fluorescent probes, called “smart” probes and only activatable upon specific interaction with the targeted bio-analyte. The aim of this PhD work was the design of new synthetic tools aimed at optimizing physico-chemical and optical properties of fluorescent probes intended for challenging in vivo imaging applications. We have focused on the pro-fluorescence and chemiluminescence approaches. New phenol-based pro-fluorophores have been developed by using an original bis-coumarinic scaffold. In the context of the chemistry of fluorophores, we have also investigated a general method for the water-solubilisation of phenol-based fluorophore belonging to the coumarin and xanthene families. Our research in chemiluminescence has led the synthesis of new chemiluminophores covalently linked to fluorescent organic dyes aimed at increasing the emission efficiency in the red region of such chemiluminophores. Thus, the first chemiluminescent “energy transfer cassettes” based on a 1,2-dioxetane scaffold have been obtained
28

Dercle, Laurent. "Radiomics : Artificial Intelligence Driven Extraction of Information from Medical Images to Guide Clinical Decision in Cancer Patients Treated with Immunotherapy." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS435.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les immunothérapies ciblant les voies du récepteur de la mort cellulaire programmée 1 et de son ligand (anti-PD(L)1) se sont révélées être un traitement efficace pour de nombreux cancers. Le traitement par anti-PD(L)1 constitue un changement de paradigme en oncologie puisque son activité repose sur la restauration d'une réponse efficace des cellules T antitumorales. Deux raisons principales expliquent la nécessité d’identifier des biomarqueurs permettant de prédire la survie et l'efficacité anticancéreuse des anti-PD(L)1. Premièrement, un excès de décès a été observé dans le groupe expérimental d’essais de phase III randomisés comparant les immunothérapies anti-PD(L)1 à la chimiothérapie. Parmi les hypothèses controversées pouvant expliquer cette observation, le manque d'efficacité de l'anti-PD(L)1 chez les patients atteints d'une maladie à croissance rapide (appelés "progresseurs rapides") par rapport à un effet paradoxal de l'accélération de la maladie sous immunothérapie (dits "hyperprogresseurs") sont souvent mentionnés. Deuxièmement, les critères de réponse en imagerie jouent un rôle essentiel dans la prise en charge des patients cancéreux et définissent une "stratégie attentiste" pour les patients avec une maladie évolutive en imagerie. Le mécanisme d’action distinct des anti-PD(L)1, qui restaurent la capacité anti-tumorale du système immunitaire, conduisent à la survenue de profils de réponse non conventionnels tels que la pseudoprogression, l’hyperprogression, l’effet abscopal et les toxicités liées au système immunitaire. Nous avons tiré parti de l’apprentissage automatique pour confronter différents facteurs pronostiques / prédictifs et identifier les biomarqueurs d'imagerie associés à la mort prématurée sous immunothérapie anti-PD(L)1. Nous avons exploité des données transcriptomiques pour déterminer les voies biologiques liées à ces facteurs pronostiques / prédictifs. Nos résultats démontrent qu'un sous-ensemble limité de biomarqueurs d'imagerie peut prévoir la survie globale des patients. La classification de ces biomarqueurs d'imagerie en caractéristiques distinctives fournit une structure conceptuelle et une cohérence logique délimitant les interconnexions entre eux. Ces caractéristiques distinctives peuvent être comprises comme des circuits physiologiques distincts perturbées par le cancer et liés à une survie plus courte : organotropisme hépatique, charge tumorale élevée, hétérogénéité importante dans la vascularisation ou le métabolisme de la tumeur, infiltration le long des bordures de la tumeur, irrégularité de la forme tumorale, forte consommation de glucose, sarcopénie, et métabolisme élevé de la moelle osseuse. En utilisant l’apprentissage automatique, nous avons démontré que l’augmentation de la lactate déshydrogénase sérique et la présence de métastases hépatiques au scanner étaient deux facteurs indépendants de décès prématuré après l’initiation du traitement anti-PD(L)1. L'analyse transcriptomique a identifié des voies de signalisations susceptibles de donner lieu à de nouveaux traitements, et d'améliorer l'efficacité des anti-PD(L)1. Dans une perspective plus large, cela démontre la nécessité de continuer à développer une technologie d'imagerie de pointe pour améliorer la surveillance des patients atteints de cancer traités avec des immunothérapeutiques. Cela implique l'analyse et la liaison des données en pathologie, en oncologie, en radiologie et en médecine nucléaire, ainsi que la capacité de travailler avec de larges ensembles de données. Par conséquent, il est nécessaire de développer des programmes de radiomique pour développer des outils prédictifs utiles au diagnostic, à l'évaluation et à la gestion de tous les types de patients cancéreux. En conclusion, les approches de médecine de précision axées sur la radiomique pourraient améliorer la vie des patients cancéreux traités par immunothérapie anticancéreuse
Immunotherapies targeting the programmed cell death receptor-1 and ligand-1 pathways (anti-PD(L)1) have emerged as an effective treatment for a variety of cancers. Anti-PD(L)1 is a paradigm shift in the treatment of cancers since its activity relies on restoring an efficient anti-tumor T-cell response. Two main reasons explain the need to investigate biomarkers forecasting survival and predicting the anti-cancer efficacy of anti-PD(L)1. First, an excess of death has been observed in the experimental arm of randomized phase III trials comparing anti-PD(L)1 immunotherapies to chemotherapy for multiple cancers. Among the controversial hypotheses that would explain this observation are frequently mentioned the lack of effectiveness of anti-PD(L)1 in patients with a fast-growing disease (so-called "fast progressors") vs. a paradoxical effect of disease acceleration under immunotherapy (so-called "hyperprogressors"). Second, imaging response criteria play a pivotal role in guiding cancer patient management and define a "wait and see strategy" for patients treated with anti-PD(L)1 in monotherapy with progressive disease. The distinct mechanisms of anti-PD(L)1, which restore the immune system's anti-tumor capacity, leads to unconventional immune-related phenomena. From a medical imaging standpoint, it translates into pseudoprogression, hyperprogression, abscopal effect, and immune-related adverse events. We leveraged machine learning approaches to challenge the prognostic/predictive factors and identify which imaging biomarkers are associated with early death upon anti-PD(L)1 immunotherapy. We mined transcriptomic data to determine the biological pathways related to these prognostic/predictive factors. Our results demonstrate that a limited subset of imaging biomarkers can forecast overall survival. The classification of these imaging biomarkers into distinct hallmarks provides a conceptual structure and logical coherence delineating the interconnections between them. These hallmarks can be understood as distinct physiological circuits disrupted by cancer that are linked to shorter survival: liver organotropism, high tumor burden, high heterogeneity in tumor vascularity or metabolism, infiltration along tumor boundaries, irregularity in tumor shape, high glucose consumption, sarcopenia, and high bone marrow metabolism. Using machine-learning, we demonstrated that increased baseline serum lactate dehydrogenase and the presence of liver metastasis on CT-scan are two independent drivers of premature death after anti-PD(L)1 initiation. Transcriptomic analysis identified actionable pathways amenable to novel treatments, which could improve anti-PD(L)1 efficacy. From a broader perspective, this demonstrates the need to continue to develop advanced imaging technology to enhance the monitoring of cancer patients treated with immunotherapeutics. This involves analyzing and linking data in pathology, oncology, and radiology, and the ability to work with extensive datasets. Therefore, there is a need to develop comprehensive programs of radiomics for predictive tools that benefit diagnosis, assessment, and management of all types of cancer patients. In conclusion, radiomics driven precision medicine approaches could improve the lives of cancer patients treated with cancer immunotherapy
29

Galibourg, Antoine. "Estimation de l'âge dentaire chez le sujet vivant : application des méthodes d'apprentissage machine chez les enfants et les jeunes adultes." Electronic Thesis or Diss., Toulouse 3, 2022. http://thesesups.ups-tlse.fr/5355/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Exposé du problème : Chez l'individu vivant, l'estimation de l'âge dentaire est un paramètre utilisé en orthopédie ou en orthodontie dentofaciale, ou en pédiatrie pour situer l'individu sur sa courbe de croissance. En médecine légale l'estimation de l'âge dentaire permet d'inférer l'âge chronologique sous forme d'une régression ou d'une classification par rapport à un âge clé. Il existe des méthodes physiques et radiologiques. Si ces dernières sont plus précises, il n'existe pas de méthode universelle. Demirjian a créé il y a presque 50 ans la méthode radiologique la plus utilisée, mais elle est critiquée pour sa précision et pour l'utilisation de tables de références basées sur un échantillon de population franco-canadien. Objectif : L'intelligence artificielle et plus particulièrement l'apprentissage machine a permis le développement de différents outils ayant une capacité d'apprentissage sur une base de données annotées. L'objectif de cette thèse a été de comparer la performance de différents algorithmes d'apprentissage machine ; dans un premier temps par rapport à deux méthodes classiques d'estimation de l'âge dentaire, puis entre elles en ajoutant des prédicteurs supplémentaires. Matériel et méthode : Dans une première partie, les différentes méthodes d'estimation de l'âge dentaire sur des individus vivants enfants et jeunes adultes sont présentées. Les limites de ces méthodes sont exposées et les possibilités d'y répondre avec l'utilisation de l'apprentissage machine sont proposées. A partir d'une base de données de 3605 radiographies panoramiques d'individus âgés de 2 à 24 ans (1734 filles et 1871 garçons), différentes méthodes d'apprentissage machine ont été testées pour estimer l'âge dentaire. Les précisions de ces méthodes ont été comparées entre elles et par rapport à deux méthodes classiques de Demirjian et Willems. Ce travail a abouti à la parution d'un article dans l'International Journal of Legal Medicine. Dans une deuxième partie, les différentes méthodes d'apprentissage machine sont décrites et discutées. Puis les résultats obtenus dans l'article sont remis en perspective avec les publications sur le sujet en 2021. Enfin une mise en perspective des résultats des méthodes d'apprentissage machine par rapport à leur utilisation dans l'estimation de l'âge dentaire est réalisée. Résultats : Les résultats montrent que toutes les méthodes d'apprentissage machine présentent une meilleure précision que les méthodes classiques testées pour l'estimation de l'âge dentaire dans les conditions d'utilisation de ces dernières. Elles montrent également que l'utilisation du stade de maturation des troisièmes molaires sur une plage d'utilisation étendue à 24 ans ne permet pas l'estimation de l'âge dentaire pour une question légale. Conclusion : Les méthodes d'apprentissage machine s'intègrent dans le processus global d'automatisation de la détermination de l'âge dentaire. La partie spécifique d'apprentissage profond semble intéressante à investiguer pour des tâches de classification de l'âge dentaire
Statement of the problem: In the living individual, the estimation of dental age is a parameter used in orthopedics or dentofacial orthodontics or in pediatrics to locate the individual on its growth curve. In forensic medicine, the estimation of dental age allows to infer the chronological age for a regression or a classification task. There are physical and radiological methods. While the latter are more accurate, there is no universal method. Demirjian created the most widely used radiological method almost 50 years ago, but it is criticized for its accuracy and for using reference tables based on a French-Canadian population sample. Objective: Artificial intelligence, and more particularly machine learning, has allowed the development of various tools with a learning capacity on an annotated database. The objective of this thesis was to compare the performance of different machine learning algorithms first against two classical methods of dental age estimation, and then between them by adding additional predictors. Material and method: In a first part, the different methods of dental age estimation on living children and young adults are presented. The limitations of these methods are exposed and the possibilities to address them with the use of machine learning are proposed. Using a database of 3605 panoramic radiographs of individuals aged 2 to 24 years (1734 girls and 1871 boys), different machine learning methods were tested to estimate dental age. The accuracies of these methods were compared with each other and with two classical methods by Demirjian and Willems. This work resulted in an article published in the International Journal of Legal Medicine. In a second part, the different machine learning methods are described and discussed. Then, the results obtained in the article are put in perspective with the publications on the subject in 2021. Finally, a perspective of the results of the machine learning methods in relation to their use in dental age estimation is made. Results: The results show that all machine learning methods have better accuracy than the conventional methods tested for dental age estimation under the conditions of their use. They also show that the use of the maturation stage of third molars over an extended range of use to 24 years does not allow the estimation of dental age for a legal issue. Conclusion: Machine learning methods fit into the overall process of automating dental age determination. The specific part of deep learning seems interesting to investigate for dental age classification tasks
30

Chauvin, Thomas. "Développement d'agents de contraste intelligents pour l'Imagerie par Résonance Magnétique (IRM)." Thesis, Orléans, 2010. http://www.theses.fr/2010ORLE2011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’Imagerie par Résonance Magnétique est une des techniques de diagnostic les plus performantes. Parmi les perspectives d’avenir, les applications en imagerie moléculaire avec l’utilisation d’agents de contraste intelligents sensibles à divers paramètres physico-chimiques sont particulièrement attrayantes.Dans cette thèse, nous présentons la synthèse et la caractérisation physico-chimique de nouveaux complexes de lanthanide dans le but de développer des agents de contraste sensibles à l’activité enzymatique ou la présence d’ions calcium. Les premiers complexes sont basés sur le concept de coupler un substrat spécifique à une enzyme par l’intermédiaire d’un bras auto-immolable, à un chélate de lanthanide macrocyclique. Les modifications de structure qui suivent le clivage du substrat et l’autodestruction du bras sont sensées induire des variations de relaxivité ou des propriétés CEST des complexes. Même si nous n'avons pas pu créer des agents de GdIII avec une réponse T1, plusieurs complexes d’YbIII ou d’EuIII montrent un important changement de leurs propriétés CEST après réaction enzymatique. Certains d'entre eux portant un bras dérivé pyridinique peuvent également agir comme des sondes optiques émettant dans le visible ou le proche infrarouge.Nous avons également développé un agent sensible au calcium en combinant un chélate de lanthanide macrocyclique avec une unité d’iminodiacetate permettant la coordination du calcium. Les complexes d’EuIIIet d’YbIII montrent une importante diminution de l’effet CEST en présence de Ca2+. L’utilisation en parallèle des deux complexes permet une approche ratiométrique où la réponse IRM détectée est indépendante de la concentration de l’agent
Today, Magnetic Resonance Imaging is one of the most powerful diagnostic techniques in the clinics. Amongfuture perspectives, molecular imaging applications based on smart contrast agents which are responsive to various physico-chemical parameters, are particularly attractive. In this work, we present the synthesis and physico-chemical characterisation of novel lanthanide complexes with the aim of developing smart contrast agents for the detection of enzyme activity or calcium concentration.The complexes designed to give an MRI response to an enzyme are based on the original concept of coupling an enzyme-specific substrate to a macrocyclic LnIII chelate via a self-immolative linker. The structural changes following enzymatic cleavage of the substrate and destruction of the self-immolative armare expected to induce variation of the relaxivity or the CEST properties of the LnIII complexes. Though we failed creating GdIII agents with a T1 response upon enzymatic reaction, several YbIII or EuIII complexes were synthesized that provide an important change in their CEST properties. Some of them, bearing a pyridine-derivative arm which is an efficient sensitizer of lanthanide luminescence, act also as enzyme-responsive NIR or visible emitting optical probes.We have developed a Ca-responsive agent combining a DOTA-tetraamide LnIII chelator with animinodiacetate unit for calcium coordination. The EuIII and YbIII complexes show an important decrease in the CEST effect in response to Ca2+. The parallel application of the two complexes allows for ratiometric approaches where the detected MRI response is independent of the concentration of the agent
31

Kubler, Samuel. "Statistical methods for the robust extraction of objects’ spatio-temporal relations in bioimaging – Application to the functional analysis of neuronal networks in vivo." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS455.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le code neuronal, c'est-à-dire la manière dont les neurones interconnectés peuvent effectuer des opérations complexes, permettant l'adaptation rapide des animaux à leur environnement, reste une question ouverte et un champ de recherche intensif tant en neurosciences expérimentales qu'en neurosciences computationnelles. Les progrès de la biologie moléculaire et de la microscopie ont récemment permis de surveiller l'activité de neurones individuels chez un animal vivant et, dans le cas de petits animaux ne contenant que quelques milliers de neurones, de mesurer l'activité de l'ensemble du système nerveux. Cependant, le cadre mathématique qui permettrait de combler le fossé entre l'activité d'un seul neurone et les propriétés computationnelles émergentes des ensembles neuronaux fait défaut. Dans le manuscrit de thèse, nous présentons un pipeline de traitement statistique séquentiel qui permet d'extraire efficacement et de manière robuste des ensembles neuronaux à partir de l'imagerie calcique de l'activité neuronale. En particulier, nous développons un cadre d'inférence bayésienne basé sur un modèle biologiquement interprétable pour extraire des ensembles neuronaux caractérisés par du bruit, de l'asynchronisme et du recouvrement. L'outil fourni démontre qu'une procédure d'échantillonnage de Gibbs peut estimer efficacement les paramètres statistiques et les variables latentes pour extraire les ensembles neuronaux basés sur un modèle de synchronisation à la fois sur des données synthétiques et sur des données expérimentales allant de stimulations du cortex visuel de la souris et du poisson zèbre à l'activité spontanée de Hydra Vulgaris. La thèse développe également un cadre statistique de processus ponctuel pour quantifier la façon dont les ensembles neuronaux encodent les stimuli évoqués ou les comportements spontanés chez les animaux vivants. Cet outil polyvalent est également utilisé pour l'inférence de la connectivité fonctionnelle de l'activité neuronale ou la procédure de calibration automatique des algorithmes d'inférence de pics appliqués aux enregistrements calciques. Pour que les algorithmes fournis soient largement diffusés dans la communauté des neurobiologistes, les résultats doivent être étayés par des estimations biologiques interprétables, des preuves statistiques, des démonstrations mathématiques rigoureuses et des logiciels en libre accès. Notre implémentation contributive, qui va de l'intensité des pixels aux ensembles neuronaux estimés, identifie également, à partir des schémas d'activation synchrone des ensembles neuronaux, les neurones ayant des rôles spécifiques qui peuvent être utilisés pour prédire, améliorer ou modifier les comportements d'animaux vivants. Le cadre fourni permet de démontrer l'émergence de propriétés collectives à partir de l'enregistrement de signaux individuels extrêmement variables, qui rendent le code neuronal encore insaisissable
The neural code, i.e. how interconnected neurons can perform complex operations, allowing the quick adaptation of animals to their environment, remains an open question and an intensive field of research both in experimental and computational neurosciences. Advances in molecular biology and microscopy have recently made it possible to monitor the activity of individual neurons in living animals and, in the case of small animals containing only a few thousands of neurons, to measure the activity of the entire nervous system. However, the mathematical framework that would bridge the gap between single neuron activity and the emergent computational properties of neuronal ensembles is missing.In the thesis manuscript, we introduce a sequential statistical processing pipeline that efficiently and robustly extracts neuronal ensembles from calcium imagery of neuronal activity. In particular, we develop a Bayesian inference framework based on a biologically interpretable model to extract neuronal ensembles characterized by noise, asynchrony and overlapping. The provided tool demonstrates that a Gibbs sampling routine can efficiently estimate statistical parameters and hidden variables to uncover neuronal ensembles based on synchronization patterns both on synthetic data and on various experimental datasets from mice and zebrafish visual cortex to Hydra Vulgaris. The thesis equally develops a point process statistical framework to quantify how neuronal ensembles encode evoked stimuli or spontaneous behaviors in living animals. This versatile tool is also used for the inference of the functional connectivity of neuronal activity or the automatically calibration procedure of the spike inference algorithms applied to calcium recordings. For the providing algorithms to be largely spread in the neurobiologist community, results are supported by interpretable biological estimates, statistical evidence, rigorous mathematical proofs, and free-available software. Our contributive implementation, that goes from pixel intensity to estimated neuronal ensembles, equally identify from the synchronous firing patterns of neuronal ensembles, neurons with specific roles that can be used to predict, improve, or alter the behaviors of living animals. The provided framework unravels the emergence of collective properties from the recording of extremely varying individual signals that make the neural code still elusive
32

Dong, Min. "Development of an intelligent recommendation system to garment designers for designing new personalized products." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10025/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Durant mes travaux en thèse, nous avons imaginé et poser les briques d'un système de recommandation intelligent (DIRS) orienté vers les créateurs de vêtements afin de les aider à créer des nouveaux produits personnalisés. Pour développer ce système, nous avons dans un premier temps identifié les composants clés du processus de création, puis nous avons créé un ensemble de bases de données pour collecter les données pertinentes. Dans un deuxième temps, nous avons acquis des données anthropométriques, recueilli la perception du concepteur à partir de ces mêmes morphotypes en utilisant un body scanner 3D et une procédure d'évaluation sensorielle. A la suite, une expérience instrumentale est conduite pour capturer les paramètres techniques des matières, nécessaires à leur représentation virtuelle en lien avec les morphotypes. Enfin, cinq expériences sensorielles sont réalisées pour capitaliser les connaissances des créateurs. Les données acquises servent à classer les morphotypes, à modéliser les relations entre morphotypes et facteurs de la création. A partir de ces modèles, nous avons mis en place une base de connaissances de la création mettant en œuvre une ontologie. Cette base de connaissances est mise à jour par un apprentissage dynamique au travers de nouveaux cas présentés en création. Ce système est utilisé au sein d’un nouveau processus de création. Ce processus peut s’effectuer autant de fois que nécessaire jusqu'à la satisfaction du créateur. Le système de recommandation proposé a été validé à l'aide de plusieurs cas réels
In my PhD research project, we originally propose a Designer-oriented Intelligent Recommendation System (DIRS) for supporting the design of new personalized garment products. For developing this system, we first identify the key components of a garment design process, and then set up a number of relevant databases, from which each design scheme can be formed. Second, we acquire the anthropometric data and designer’s perception on body shapes by using a 3D body scanning system and a sensory evaluation procedure. Third, an instrumental experiment is conducted for measuring the technical parameters of fabrics, and five sensory experiments are carried out in order to acquire designers’ knowledge. The acquired data are used to classify body shapes and model the relations between human bodies and the design factors. From these models, we set up an ontology-based design knowledge base. This knowledge base can be updated by dynamically learning from new design cases. On this basis, we put forward the knowledge-based recommendation system. This system is used with a newly developed design process. This process can be performed repeatedly until the designer’s satisfaction. The proposed recommendation system has been validated through a number of successful real design cases
33

Richard, Jean-Alexandre. "Synthèse de sondes luminescentes utilisant un bras réactif auto-immolable : application à la détection de peptidases." Electronic Thesis or Diss., Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’imagerie optique est actuellement en train de révolutionner le diagnostic pré-clinique et le développement des médicaments. Dans ce contexte, la société QUIDD développe des sondes intelligentes capables de mettre en évidence des processus biologiques impliqués dans les maladies. Ainsi, cette thèse a pour objectif le développement d’une méthode générale pour la synthèse de sondes luminescentes visant la détection de peptidases. Pour cela, des sondes composées d’un substrat peptidique et d’une espèce luminescente phénolique reliés entre eux par un bras réactif auto-immolables ont été développées. Deux approches ont été envisagées : une stratégie utilisant des pro-fluorophores à phénol dont l’émission de fluorescence est éteinte lorsque leur fonction phénol est substituée. Une autre stratégie a consisté en l’utilisation de 1,2-dioxétanes dont la libération dans le milieu engendre une émission spontanée de lumière. Cette thèse présente tout d’abord la validation de cette stratégie, notamment pour la détection de la caspase-3, une enzyme fortement impliquée dans le processus apoptotique. La deuxième partie de ce travail relate les efforts effectués afin de permettre l’utilisation de ces sondes en imagerie in vivo
Optical imaging is currently revolutionizing pre-clinic diagnosis and drug development. In that context, QUIDD develops smart probes able to follow biological events involved in biological disorders. The aim of this PhD work was to provide a general method for the synthesis of luminescent probes able to detect proteases. For that purpose, probes composed of a peptide substrate and a phenolic luminescent moiety connected by a self-immolative linker were developed. Two strategies were investigated: a first strategy involved phenolic pro-fluorophores, whose fluorescence is quenched when their phenol functionality is substituted. A second strategy took advantage of 1,2-dioxetanes whose liberation in the medium results in a spontaneous light emission. The first objective of this work was to provide a proof of concept of these strategies, especially for the detection of caspase-3, a key enzyme involved in the apoptotic process. The second part of this work was devoted to the extension of the strategy to in vivo imaging
34

La, Barbera Giammarco. "Learning anatomical digital twins in pediatric 3D imaging for renal cancer surgery." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les cancers rénaux pédiatriques représentent 9% des cancers pédiatriques avec un taux de survie de 9/10 au prix de la perte d'un rein. La chirurgie d'épargne néphronique (NSS, ablation partielle du rein) est possible si le cancer répond à des critères précis (sur le volume et la localisation de la lésion). L'indication de la NSS repose sur l'imagerie préopératoire, en particulier la tomodensitométrie à rayons X (CT). Si l'évaluation de tous les critères sur des images 2D n'est pas toujours facile, les modèles 3D spécifiques au patient offrent une solution prometteuse. La construction de modèles 3D de l'anatomie rénale à partir de la segmentation est développée chez les adultes mais pas chez les enfants. Il existe un besoin de méthodes de traitement d'images dédiées aux patients pédiatriques en raison des spécificités de ces images, comme l'hétérogénéité de la forme et de la taille des structures. De plus, dans les images CT, l'injection d'un produit de contraste est souvent utilisée (ceCT) pour faciliter l'identification de l'interface entre les différents structures mais cela peut conduire à une hétérogénéité dans le contraste de certaines structures anatomiques, même parmi les patients acquis avec la même procédure. Le premier objectif de cette thèse est d'effectuer une segmentation des organes/tumeurs à partir d'images ceCT, à partir de laquelle un modèle 3D sera dérivé. Des approches d'apprentissage par transfert (des données d'adultes aux images d'enfants) sont proposées. La première question consiste à savoir si de telles méthodes sont réalisables, malgré la différence structurelle évidente entre les ensembles de données. Une deuxième question porte sur la possibilité de remplacer les techniques standard d’augmentation des données par des techniques d’homogénéisation des données utilisant des "Spatial Transformer Networks", améliorant ainsi le temps d’apprentissage, la mémoire requise et les performances. La segmentation de certaines structures anatomiques dans des images ceCT peut être difficile à cause de la variabilité de la diffusion du produit de contraste. L'utilisation combinée d'images CT sans contrast (CT) et ceCT atténue cette difficulté, mais au prix d'une exposition doublée aux rayonnements. Le remplacement d'une des acquisitions CT par des modèles génératifs permet de maintenir les performances de segmentation, en limitant les doses de rayons X. Un deuxième objectif de cette thèse est de synthétiser des images ceCT à partir de CT et vice-versa, à partir de bases d'apprentissage d'images non appariées, en utilisant une extension du "Cycle Generative Adversarial Network". Des contraintes anatomiques sont introduites en utilisant le score d'un "Self-Supervised Body Regressor", améliorant la sélection d'images anatomiquement appariées entre les deux domaines et renforçant la cohérence anatomique. Un troisième objectif de ce travail est de compléter le modèle 3D d'un patient atteint d'une tumeur rénale en incluant également les artères, les veines et les uretères. Une étude approfondie et une analyse comparative de la littérature sur la segmentation des structures tubulaires anatomique sont présentées. En outre, nous présentons pour la première fois l'utilisation de la fonction de ''vesselness'' comme fonction de perte pour l'entraînement d'un réseau de segmentation. Nous démontrons que la combinaison de l’information sur les valeurs propres avec les informations structurelles d’autres fonctions de perte permet d’améliorer les performances. Enfin, nous présentons un outil développé pour utiliser les méthodes proposées dans un cadre clinique réel ainsi qu'une étude clinique visant à évaluer les avantages de l'utilisation de modèles 3D dans la planification préopératoire. L'objectif à terme de cette recherche est de démontrer, par une évaluation rétrospective d'experts, comment les critères du NSS sont plus susceptibles d'être trouvés dans les images 3D que dans les images 2D. Cette étude est toujours en cours
Pediatric renal cancers account for 9% of pediatric cancers with a 9/10 survival rate at the expense of the loss of a kidney. Nephron-sparing surgery (NSS, partial removal of the kidney) is possible if the cancer meets specific criteria (regarding volume, location and extent of the lesion). Indication for NSS is relying on preoperative imaging, in particular X-ray Computerized Tomography (CT). While assessing all criteria in 2D images is not always easy nor even feasible, 3D patient-specific models offer a promising solution. Building 3D models of the renal tumor anatomy based on segmentation is widely developed in adults but not in children. There is a need of dedicated image processing methods for pediatric patients due to the specificities of the images with respect to adults and to heterogeneity in pose and size of the structures (subjects going from few days of age to 16 years). Moreover, in CT images, injection of contrast agent (contrast-enhanced CT, ceCT) is often used to facilitate the identification of the interface between different tissues and structures but this might lead to heterogeneity in contrast and brightness of some anatomical structures, even among patients of the same medical database (i.e., same acquisition procedure). This can complicate the following analyses, such as segmentation. The first objective of this thesis is to perform organ/tumor segmentation from abdominal-visceral ceCT images. An individual 3D patient model is then derived. Transfer learning approaches (from adult data to children images) are proposed to improve state-of-the-art performances. The first question we want to answer is if such methods are feasible, despite the obvious structural difference between the datasets, thanks to geometric domain adaptation. A second question is if the standard techniques of data augmentation can be replaced by data homogenization techniques using Spatial Transformer Networks (STN), improving training time, memory requirement and performances. In order to deal with variability in contrast medium diffusion, a second objective is to perform a cross-domain CT image translation from ceCT to contrast-free CT (CT) and vice-versa, using Cycle Generative Adversarial Network (CycleGAN). In fact, the combined use of ceCT and CT images can improve the segmentation performances on certain anatomical structures in ceCT, but at the cost of a double radiation exposure. To limit the radiation dose, generative models could be used to synthesize one modality, instead of acquiring it. We present an extension of CycleGAN to generate such images, from unpaired databases. Anatomical constraints are introduced by automatically selecting the region of interest and by using the score of a Self-Supervised Body Regressor, improving the selection of anatomically-paired images between the two domains (CT and ceCT) and enforcing anatomical consistency. A third objective of this work is to complete the 3D model of patient affected by renal tumor including also arteries, veins and collecting system (i.e. ureters). An extensive study and benchmarking of the literature on anatomic tubular structure segmentation is presented. Modifications to state-of-the-art methods for our specific application are also proposed. Moreover, we present for the first time the use of the so-called vesselness function as loss function for training a segmentation network. We demonstrate that combining eigenvalue information with structural and voxel-wise information of other loss functions results in an improvement in performance. Eventually, a tool developed for using the proposed methods in a real clinical setting is shown as well as a clinical study to further evaluate the benefits of using 3D models in pre-operative planning. The intent of this research is to demonstrate through a retrospective evaluation of experts how criteria for NSS are more likely to be found in 3D compared to 2D images. This study is still ongoing
35

Li, Songlin. "Modélisation d'un implant médical intelligent dans son environnement pour le monitorage fonctionnel de la moelle épinière." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS478.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La moelle épinière (ME) fait partie du système nerveux central. Elle prend naissance dans le cerveau et est responsable de fonctions importantes, telles que la transmission d'informations nerveuses entre le cerveau et la périphérie, ainsi que les réflexes du tronc et des extrémités. Un traumatisme de la ME peut entraîner une perte de sensation et de contrôle d'une partie du corps dans les cas mineurs, ou une paralysie totale dans les cas graves. Le monitorage en temps réel de l'état fonctionnel de la ME au cours d'une chirurgie rachidienne, telle que la chirurgie de la scoliose, est essentiel pour éviter les conséquences graves d'un dommage involontaire à la ME lors de l’acte opératoire. Cependant, il n’existe pas à l'heure actuelle de méthode permettant d'obtenir des informations suffisantes sur les évolutions de la fonction de la ME avant qu'elle ne soit atteinte. L’emploi de l’Imagerie Optique Diffuse (IOD) multi-longueurs d'onde semble être une alternative prometteuse pour répondre à ce besoin. Elle permet en effet de monitorer en temps réel les caractéristiques hémodynamiques de tissus biologiques, qui sont des indicateurs importants pour évaluer leur état fonctionnel. Dans le cadre de cette thèse, on se propose de mettre en œuvre cette technique à travers la modélisation, la réalisation et le test de dispositifs spécifiques. Tout d'abord, la modélisation du système de monitorage en interaction avec l'environnement biologique de la ME est réalisée en SystemC et SystemC-AMS. Cela permet d’estimer les performances du système en cours de développement et de les optimiser, mais aussi d’étudier certaines caractéristiques physiologiques de la ME. Cette approche de modélisation multi-domaines (e.g., optique, biologie, électronique) présente les avantages d'être flexible, facile à modifier et adaptable pour tout d’autre type d'application. Deuxièmement, le prototypage du système de monitorage est réalisé. Basé sur les résultats de la simulation et des données expérimentales, un module de transmission sans-fil de dernière génération est mis en œuvre pour gagner en ergonomie par rapport à l’application visée. Enfin, des données des expérimentations sur modèle porcin sont traitées, afin d’extraire des informations physiologiques pertinentes, ce qui fournit une référence pour un processus de traitement des signaux de la ME. Ces trois parties se complètent pour aboutir à une proposition de dispositif médical qui pourrait être employé dans le futur sur l’homme pour aider les médecins à déterminer l'état fonctionnel de la ME en temps réel et éviter certains traumatismes irréversibles lors d'une intervention chirurgicale du rachis et de sa périphérie
The spinal cord (SC) is part of the central nervous system. It originates in the brain and is responsible for important functions, such as the transmission of nerve information between the brain and the periphery, as well as reflexes in the trunk and extremities. Trauma to the SC can result in loss of sensation and control of a body part in minor cases, or total paralysis in severe cases. Real-time monitoring of the functional status of the ME during spinal surgery, such as scoliosis surgery, is essential to avoid the serious consequences of unintentional damage to the SC during the surgical procedure. However, there is currently no method to obtain sufficient information about the changes in the function of the SC, before it is affected. The use of multi-wavelength Diffuse Optical Imaging (DOI) seems to be a promising alternative to meet this need. Indeed, it allows real-time monitoring of the hemodynamic characteristics of the SC, which are important indicators for assessing its functional status. In this thesis, we propose to implement this technique through the modeling, realization and testing of a specific device. First of all, the modeling of the monitoring system in interaction with the biological environment of the SC is carried out in SystemC and SystemC-AMS. This allows us to estimate the performances of the system and to optimize them, but also to study the main physiological characteristics of the SC. This multi-domain modeling approach (e.g., optics, biology, electronics) has the advantages of being flexible, easy to modify, and adaptable to any other type of application. Secondly, the prototyping of the monitoring system is realized. Based on the results of the simulation and the experimental data, a wireless transmission module of the last generation is implemented to gain in ergonomics compared to the targeted application. Finally, data from the experiments on the porcine model are processed to extract relevant physiological information, which provides a reference for a signal processing process of the SC. These three parts complement each other to lead to a proposal for a medical device that could be used in the future on human patients to help doctors determine the functional status of the SC in real-time and avoid some irreversible trauma during surgery of the spine and its periphery
36

Oukhatar, Fatima. "Design, synthesis and characterization of neurotransmitter responsive probes for magnetic resonance and optical imaging." Thesis, Orléans, 2012. http://www.theses.fr/2012ORLE2076/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Malgré le rôle primordial des neurotransmetteurs (NTs) dans le système nerveux central, leur détection non-invasive in vivo reste un défi majeur. L’imagerie par résonance magnétique (IRM), grâce à son excellente résolution spatiale et temporelle, est parmi les techniques de diagnostic les plus performantes. Elle est au centre des développements récents en imagerie moléculaire. En particulier, l’utilisation des agents d’imagerie intelligents qui sont capables de visualiser le statut physico-chimique des tissus commence à avoir une place importante en neuroscience.Cette étude a pour objectif de concevoir, synthétiser et caractériser in vitro des sondes intelligentes à base de cations lanthanide pour la détection in vivo des NTs. La conception de nos sondes est basée sur des interactions doubles avec des neurotransmetteurs zwitterioniques: d’une part entre le complexes de Ln3+ positivement chargé et le carboxylate du NT et d’autre part entre un ether couronne lié au complexe et la fonction amine du NT. Plusieurs des sondes synthétisées présentent des relaxivités élevées et ont une réponse relaxometrique remarquable aux NTs, bien que leur sélectivité vis-à-vis de l’ion bicarbonate ne soit pas suffisante. Afin de développer des sondes pour une approche bimodale IRM /optique, nous avons également intégré dans les complexes une benzophenone qui joue le rôle de chromophore pour sensibiliser la luminescence des ions Ln3+ émettant dans le proche infra-rouge. Le complexe d’Yb3+ correspondant a des propriétés de luminescence très intéressantes avec une forte réponse aux NTs
In spite of the key role of neurotransmitters (NTs) in signal transduction, their non-invasive in vivo monitoring remains an important challenge. Magnetic resonance imaging (MRI) has recently been demonstrated as a promising technique to non-invasively visualize physiological events with excellent temporal and spatial resolution. In particular, smart MRI contrast agents that are able to report on the physico-chemical status of the tissues, start to have a strong impact in neuroscience. The objective of this work was the design, synthesis and in vitro characterization of a series of lanthanide-based probes responsive to NTs with the aim to track in vivo concentration changes of NTs using MR or optical imaging. The design of our imaging probes relies on a dual binding approach of zwitterionic NTs to the Ln3+ complexes, involving interactions (i) between a positively charged Ln3+ chelate and the carboxylate function of the NTs and (ii) between an azacrown ether appended on the chelate and the amine group of the neurotransmitters. Some of the novel contrast agents were found to exhibit high relaxivities and a remarkable relaxivity response towards NTs, though little selectivity against bicarbonate. In order to apply a bimodal MRI/optical imaging approach, we have also incorporated a benzophenone moiety into the chelate to sensitize the near-infrared emitting Ln3+ ions. The Yb3+ analogue proved to be highly sensitive to NTs
37

Pourchot, Aloïs. "Improving Radiographic Diagnosis with Deep Learning in Clinical Settings." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS421.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les succès impressionnants de l'apprentissage profond au cours de la dernière décennie ont renforcé son statut de norme pour résoudre les problèmes difficiles d'apprentissage automatique, et ont permis sa diffusion rapide dans de nombreux domaines d'application. L'un de ces domaines, qui est au cœur de ce doctorat, est l'imagerie médicale. L'apprentissage profond a fait de la perspective exaltante de soulager les experts médicaux d'une fraction de leur charge de travail grâce au diagnostic automatisé une réalité. Au cours de cette thèse, nous avons été amenés à considérer deux problèmes médicaux : la tâche de détection des fractures, et la tâche d'évaluation de l'âge osseux. Pour chacune de ces deux tâches, nous avons cherché à explorer les possibilités d'amélioration des outils d'apprentissage profond visant à faciliter leur diagnostic. Avec cet objectif en tête, nous avons exploré deux stratégies différentes. La première, ambitieuse mais arrogante, nous a conduit à étudier le paradigme de la recherche d'architecture neuronale, une succession logique de l'apprentissage profond qui vise à apprendre la structure même du modèle de réseau neuronal utilisé pour résoudre une tâche. Dans une seconde stratégie, plus simple mais aussi plus sage, nous avons tenté d'améliorer un modèle par l'analyse méticuleuse des sources de données à disposition. Dans les deux cas, un soin particulier a été apporté à la pertinence clinique de nos différentes contributions, car nous pensons que l'ancrage pratique de nos différents résultats est tout aussi important que leur obtention théorique
The impressive successes of deep learning over the course of the past decade have reinforced its establishment as the standard modus operandi to solve difficult machine learning problems, as well as enabled its swift spread to manifold domains of application. One such domain, which is at the heart of this PhD, is medical imaging. Deep learning has made the thrilling perspective of relieving medical experts from a fraction of their burden through automated diagnosis a reality. Over the course of this thesis, we were led to consider two medical problems: the task of fracture detection, and the task of bone age assessment. For both of them, we strove to explore possibilities to improve deep learning tools aimed at facilitating their diagnosis. With this objective in mind, we have explored two different strategies. The first one, ambitious yet arrogant, has led us to investigate the paradigm of neural architecture search, a logical succession to deep learning which aims at learning the very structure of the neural network model used to solve a task. In a second, bleaker but wiser strategy, we have tried to improve a model through the meticulous analysis of the data sources at hands. In both scenarios, a particular care was given to the clinical relevance of our different results and contributions, as we believed that the practical anchoring of our different contrivances was just as important as their theoretical design
38

Wassermann, Demian. "Automated in vivo dissection of white matter structures from diffusion magnetic resonance imaging." Nice, 2010. http://www.theses.fr/2010NICE4066.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le cerveau est organisé tel un réseau reliant différentes régions. Ce réseau est important pour le développement de fonctions comme le langage. Certains troubles cognitifs peuvent être expliqués par des problèmes de connexion entre régions plus qu’à des dommages de ces dernières. Malgré plusieurs décennies de travail sur ces réseaux, nos connaissances sur le sujet n’ont pas beaucoup évoluées depuis le début du siècle dernier. Récemment, un développement spectaculaire des techniques de l’imagerie par résonance magnétique (IRM) a permis l’étude vivant du cerveau humain. Une technique permettant l’exploration des faisceaux de la matière blanche (MB) in vivo est l’IRM de diffusion (IRMd). En particulier, la trajectographie à partir de l’IRMd facilite le traçage des faisceaux de la MB. C’est donc une technique prometteuse afin d’explorer l’aspect cognitif de l’anatomie humaine ainsi que de ses troubles. La motivation de cette thèse est la dissection in vivo de la MB. Cette procédure permet d’isoler les faisceaux de la MB, qui jouent un rôle particulier dans le fonctionnement du cerveau, de façon à pouvoir les analyser. L’exécution manuelle de cette tache requiert une grande connaissance du cerveau et demande plusieurs heurs de travail. Le développement d’une technique automatique est donc de la plus grande importance. Cette thèse contient plusieurs contributions : nous développons des moyens d’automatiser la dissection de la MB, c’est-à-dire le cadre mathématique nécessaire à sa compréhension. Ces outils nous permettent ensuite de développer des techniques d’analyse de la moelle épinière et de recherche de différences dans la MB entre des individus sains et schizophrènes
The brain is organized in networks that are made up of tracks connecting different regions. These networks are important for the development of brain functions such as language. Lesions and cognitive disorders are sometimes better explained by disconnection mechanisms between cerebral regions than by damage of those regions. Despite several decades of tracing these networks in the brain, our knowledge of cerebral connections has progressed very little since the beginning of the last century. Recently, we have seen a spectacular development of magnetic resonance imaging (MRI) techniques for the study of the living human brain. One technique for exploring white matter (WM) tissue characteristics and pathway in vivo is diffusion MRI (dMRI). Particulary, dMRI tractography facilitates the tracing the WM tracts in vivo. DMRI is a promising technique to explore the anatomical basis of human cognition and its disorders. The motivation of this thesis is the in vivo dissection of the WM. This procedure isolates the WM tracts that play a role in a particular function or disorder of the brain so they can be analysed. Manually performing this task requires a great knowledge of brain anatomy and several hours of work. Hence, the development of a technique to automatically perform the identification of WM structures is of utmost importance. This thesis has several contributions : we develop means for the automatic dissection of WM tracts from dMRI, this is based on a mathematical framework for the WM and its tracts ; using these tools, we develop techniques to analyse the spinal chord and to find group differences in the WM particulary between healthy and schizophrenic subjects
39

Vassilo, Kyle. "Single Image Super Resolution with Infrared Imagery and Multi-Step Reinforcement Learning." University of Dayton / OhioLINK, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=dayton1606146042238906.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Antoine, Mathieu. "Les techniques algorithmiques du codage Octree appliquées à l'analyse de volumes tridimensionnels de données numériques." Grenoble 1, 1988. http://www.theses.fr/1988GRE10042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les principales techniques d'exploitation des donnees numeriques sur ordinateur sont introduites. Une methodologie d'analyse par synthese d'image et ses differentes mises en oeuvre algorithmiques sont decrites. Dans une deuxieme partie, il est presente l'etude d'un codage particulier des donnees : le codage octree. Son adaptation a la manipulation de volumes numeriques est discutee
41

Depersin-Venon, Yvonne. "Relations entre image mentale et pensée opératoire : une étude comparative entre un échantillon d'enfants de classes primaires et un échantillon d'enfants en difficulté scolaire." Paris 5, 1990. http://www.theses.fr/1990PA05H042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'hypothèse piagetienne d'une subordination du développement des capacités de représentation imagée des transformations à celui des opérations logico-mathématiques a été testée en comparant deux groupes d'enfants, l'un présentant un retard de développement intellectuel et l'autre non. Si cette hypothèse est correcte, un retard de développement des opérations l. M. Implique un retard du développement de la représentation imagée. Une relation différente serait dénaturé à réfuter l'hypothèse de subordination. Les performances de deux échantillons de 42 enfants de 9 à 12 ans, l'un constitué d'élèves de classe primaires (du CE2 au CM2) et l'autre d'enfants issus de classes de perfectionnement, ont été évaluées sur sept variables opératoires, d'imagerie et d'imitation. L'analyse comparative n'a pas permis de réfuter l'hypothèse piagetienne : les résultats montrent en effet un retard homogène des enfants "déficients" par rapport aux enfants du primaire, mais ce résultat est compatible avec d'autres hypothèses qui sont discutées. Sur la question de l'origine de l'image mentale, les résultats ne reflètent pas la relation attendue, dans le cadre de la théorie piagetienne, entre image et imitation. L'analyse de la structure des relations entre les épreuves, qui s'appuie sur l'analyse de régression, montre que cette structure n'est pas la même au sein de chacun des deux groupes. Il semble que chez les enfants déficients, l'image intervienne comme mode de traitement de l'information dans tous les types de tâches, y compris celles sensées relever de procédures logiques. Les implications possibles de tels résultats dans la recherche sur l'image sont discutées en conclusion
The piagetion hypothesis about mental imagery asserts that the development of imaginal representation of transformations abilities is subordinated to "mathematico-logical" operations. This hypothesis has been tested by comparing two groups of children. In one of thems children are mentally deficient, not in the other. If the piagetian hypothesis were true, then a retard in the "mathematico-logical" operations development should imply a developmental retard in the mental imagery. Any other kind of relation would disprove the subordination hypothesis. Two groups of 42 children from 9 to 12 have been examined over seven tasks : operational imagery and imitation tasks. One of these groups is composed of primary school children (from third to fifth grade), the other group includes children from special education. The comparative analysis findings din't disprove the piagetian hypthesis : results show an homogeneous retard in the mentally deficient children abilities in comparison with the primary school children. This finding is consistent with other hypothesis which are discussed. About the mental imagery origin, results don't show a relation between imitation an imagery as asserted in the piagetian hypothesis. The analysis of the relations structure between the different tasks, by the regression analysis, show that this structure is not the same in the two groups of children. It seems that mentally deficient children use imagery as a mode of processing in every kind of task, even in the "logical" tasks. The results extensions are discussed in conclusion
42

Ambroise, Corentin. "Structure-aware neural networks in the study of multi-modal population cohorts : an application to mental health." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est actuellement reconnu que le fait de s'appuyer uniquement sur des stratégies de classification conventionnelles à partir d'une seule source de données n'est pas efficace pour comprendre, diagnostiquer ou pronostiquer les syndromes psychiatriques. Les objectifs de classification reposent simplement sur les étiquettes des cliniciens qui, à elles seules, n'expriment pas une très grande variabilité. En 2009, le Research Domain Criteria (RDoC) a recommandé une approche plus complète pour étudier les troubles psychiatriques en incorporant divers types de données qui couvrent différents niveaux d'organisation de la vie (par exemple, l'imagerie, la génétique, les symptômes). La proposition suggère qu'une description complète d'une pathologie nécessite la prise en compte de dimensions multiples, qui peuvent être partagées entre différents syndromes psychiatriques et même contribuer à la variabilité non pathologique. Des cadres efficaces pour l'apprentissage non supervisé, spécifiquement conçus pour des approches multivariées et multimodales, devraient offrir des méthodologies pour traiter et intégrer le type d'ensembles de données préconisé par le RDoC. L'apprentissage profond nous permet d'apprendre dans des environnements multimodaux avec une structure spécifique à la modalité et une structure de corrélation intermodale.Pour modéliser la structure intra-modalité, nous utilisons des réseaux de neurones convolutionels spécifiques, qui permettent d'apprendre à partir de mesures cérébrales corticales réparties sur un maillage sphérique et ainsi de révéler des biomarqueurs originaux. Dans ce contexte, nous proposons 5 augmentations de données et les appliquons dans l'un des nombreux nouveaux schémas d'apprentissage auto-supervisé reposant principalement sur l'augmentation de données. Ce travail permet à l'apprentissage par représentation profonde d'initialiser correctement le réseau sur d'énormes cohortes de patients sains, puis de le transférer pour étudier la pathologie clinique d'intérêt dans des cohortes plus petites.D'autre part, nous avons identifié les auto-encodeurs variationnels multi-vues comme de bons candidats pour intégrer des modalités multiples. En outre, nous remettons en question l'hypothèse courante selon laquelle les réseaux neuronaux ne sont pas interprétables. Nous utilisons une procédure d'avatar numérique comme module d'interprétabilité capable de rendre compte des relations inter-vues apprises au sein d'un auto-encodeur multi-vues. En particulier, nous intégrons cette procédure dans une nouvelle méthode qui combine plusieurs de ces modèles et interprétations, encapsulée dans une procédure de sélection par stabilité pour identifier des associations significatives et reproductibles entre les modalités d'imagerie cérébrale et le comportement. Nous appliquons cette méthode pour mettre en évidence des associations cerveau-comportement spécifiques présentes dans la cohorte transdiagnostique Healthy Brain Network (HBN). Les associations cerveau-comportement identifiées établissent des connexions entre les caractéristiques corticales régionales issues de l'imagerie par résonance magnétique structurelle et les dossiers cliniques électroniques évaluant les symptômes psychiatriques. Nous montrons que cette méthode est capable de trouver des associations pertinentes et stables
It is currently acknowledged that relying solely on conventional classification strategies from a single data source is not effective to understand, diagnose or prognose psychiatric syndromes. The classification targets simply rely on clinician labels that alone do not express a very large variability. In 2009, the Research Domain Criteria (RDoC) recommended a more comprehensive approach to study psychiatric disorders by incorporating diverse data types that cover various levels of life organization (e.g., imaging, genetic, symptoms). The proposal suggests that a thorough description of a pathology requires consideration of multiple dimensions, which may be shared across different psychiatric syndromes and even contribute to non-pathological variability. Efficient frameworks for unsupervised learning, specifically designed for multivariate and multimodal approaches, are anticipated to offer methodologies for handling and integrating the kind of datasets advocated by the RDoC. Deep learning allows us to learn in multimodal settings with modality-specific structure and intermodality correlation structure.To model intra-modality structure, we use specific convolutional neural networks that enable to learn from cortical brain measures distributed across a spherical mesh and thus reveal original biomarkers. In this context, we propose 5 data augmentations and apply them in one of the many novel self-supervised learning schemes relying moslty on data augmentation. This work allows deep representation learning to properly initialize network on huge healthy patient cohorts and then transfer them to study clinical pathology of interest in smaller cohorts.On the other hand, we have identified multi-view variational auto encoders as good candidates to integrate multiple modalities. Moreover, we challenge the common assumption that neural networks are not interpretable. We use a digital avatar procedure as an interpretability module capable of reporting the inter-view relationships learned within a multi-view autoencoder. In particular, we integrate this procedure into a novel framework that combines multiple interpretations and utilizes stability selection to identify meaningful and reproducible associations between brain-imaging modalities and behaviour. We apply this framework to exhibit specific brain-behaviour associations present in the transdiagnostic cohort Healthy Brain Network (HBN). The identified brain-behaviour associations establish connections between regional cortical features from structural magnetic resonance imaging and electronic clinical record forms assessing psychiatric symptoms. We show this framework is able to find relevant and stable associations
43

Mekkaoui, Mourad. "Outil de base en vue d'une approche de description d'informations en vision par ordinateur : Application aux tâches opératoires." Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/0f570e9a-ec9a-4b93-a893-f529cfd94c26.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La volonté de concevoir des machines ou des robots intelligents capables, à l'image d'un opérateur humain, d'accomplir des taches de plus en plus complexes et non routinières, s'est vite heurtée à plusieurs difficultés. D'une part, l'importance de la masse d'informations véhiculées par une image qu'ils doivent représenter et traiter ; et d'autre part, l'accès aux informations pertinentes (parmi la masse d'informations) servant à valider une prise de décision. L'objectif de ce travail est de concevoir un outil de description d'informations en vision artificielle, sur lequel s'appuie une démarche, à la fois descriptive des objets à manipuler, et constructive des informations pertinentes pour chacune des opérations à appliquer à un objet. Cet outil est basé sur les modèles componentiel et fonctionnel. Le modèle componentiel induit un mécanisme d'abstraction basé sur l'agrégation componentielle. Son objectif est de formaliser un processus de raffinement qui permet d'exprimer tout objet structuré en terme d'un agrégat de sous-objets atomiques. Le lien entre la classe d'objet composite et les classes de sous-objets s'exprime à l'aide de constructeurs de classes. Quant au modèle fonctionnel, il développe l'idée suivante: à un certain niveau d'abstraction, lorsqu'une fonction est appliquée à un objet (représenté par un agrégat de sous-objets), toutes les propriétés des sous-objets le composant n'ont pas le même poids informatif: certaines sont très pertinentes, d'autres pas. Il s'agit de structurer l'information en modules de données implantes sous forme de mémoires actives. Dans ces mémoires sont regroupées l'ensemble des informations se rapportant à une classe particulière d'opérations. L'accès à ces informations ne procède donc pas d'une recherche souvent très couteuse en temps de traitement par filtrage: la classe d'opérations servant de filtre d'accès
44

Dadi, Kamalaker. "Machine Learning on Population Imaging for Mental Health." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les troubles mentaux présentent une grande hétérogénéité entre les individus. Une difficulté fondamentale pour étudier leurs manifestations ou leurs facteurs de risque est que le diagnostic des conditions mentales pathologiques est rarement disponible dans les grandes cohortes de santé publique. Ici, nous cherchons à développer des biomarqueurs, signatures cérébrales de troubles mentaux. Pour cela, nous utilisons l'apprentissage automatique pour prédire les résultats de santé mentale grâce à l'imagerie de population, en se basant sur l’imagerie cérébrale (imagerie par résonance magnétique (IRM)). Compte tenu des évaluations comportementales ou cliniques, l'imagerie de population peut relier les caractéristiques uniques des variations cérébrales à ces mesures autodéclarées non cérébrales basées sur des questionnaires. Ces mesures non cérébrales fournissent une description unique des différences psychologiques de chaque individu qui peuvent être liées à la psychopathologie à l'aide de méthodes statistiques. Cette thèse de doctorat examine le potentiel d'apprentissage de tels résultats basés sur l'imagerie pour analyser la santé mentale. En utilisant des méthodes d'apprentissage automatique, nous effectuons une évaluation, à la fois complète et robuste, des mesures de population pour guider des prévisions de haute qualité des résultats pour la santé. Cette thèse est organisée en trois parties principales: premièrement, nous présentons une étude approfondie des biomarqueurs du connectome, deuxièmement, nous proposons une réduction significative des données qui facilite les études d'imagerie de population à grande échelle, et enfin nous introduisons des mesures indirectes pour la santé mentale. Nous avons d'abord mis en place une étude approfondie des connectomes d'imagerie afin de prédire les phénotypes cliniques. Avec l'augmentation des images cérébrales de haute qualité acquises en l’absence de tâche explicite, il y a une demande croissante d'évaluation des modèles prédictifs existants. Nous avons effectué des comparaisons systématiques reliant ces images aux évaluations cliniques dans de nombreuses cohortes pour évaluer la robustesse des méthodes d'imagerie des populations pour la santé mentale. Nos résultats soulignent la nécessité de fondations solides dans la construction de réseaux cérébraux entre les individus. Ils décrivent des choix méthodologiques clairs. Ensuite, nous contribuons à une nouvelle génération d'atlas fonctionnels du cerveau pour faciliter des prédictions de haute qualité pour la santé mentale. Les atlas fonctionnels du cerveau sont en effet le principal goulot d'étranglement pour la qualité de la prédiction. Ces atlas sont construits en analysant des volumes cérébraux fonctionnels à grande échelle à l'aide d'un algorithme statistique évolutif, afin d'avoir une meilleure base pour la prédiction des résultats. Après les avoir comparés avec des méthodes de pointe, nous montrons leur utilité pour atténuer les problèmes de traitement des données à grande échelle. La dernière contribution principale est d'étudier les mesures de substitution potentielles pour les résultats pour la santé. Nous considérons des comparaisons de modèles à grande échelle utilisant des mesures du cerveau avec des évaluations comportementales dans une cohorte épidémiologique d'imagerie, le UK Biobank. Dans cet ensemble de données complexe, le défi consiste à trouver les covariables appropriées et à les relier à des cibles bien choisies. Cela est difficile, car il y a très peu de cibles pathologiques fiables. Après une sélection et une évaluation minutieuses du modèle, nous identifions des mesures indirectes qui sont en corrélation avec des conditions non pathologiques comme l'état de sommeil, la consommation d'alcool et l'activité physique. Ceux-ci peuvent être indirectement utiles pour l'étude épidémiologique de la santé mentale
Mental disorders display a vast heterogeneity across individuals. A fundamental challenge to studying their manifestations or risk factors is that the diagnosis of mental pathological conditions are seldom available in large public health cohorts. Here, we seek to develop brain signatures, biomarkers, of mental disorders. For this, we use ma-chine learning to predict mental-health outcomes through population imaging i. e. with brain imaging (Magnetic Resonance Imaging ( MRI )).Given behavioral or clinical assessments, population imaging can relate unique features of the brain variations to these non-brain self-reported measures based on questionnaires. These non-brain measurements carry a unique description of each individual’s psychological differences which can be linked to psychopathology using statistical methods. This PhD thesis investigates the potential of learning such imaging-based outcomes to analyze mental health. Using machine-learning methods, we conduct an evaluation, both a comprehensive and robust, of population measures to guide high-quality predictions of health outcomes. This thesis is organized into three main parts: first, we present an in-depth study of connectome biomarkers, second, we propose a meaningful data reduction which facilitates large-scale population imaging studies, and finally we introduce proxy measures for mental health. We first set up a thorough benchmark for imaging-connectomes to predict clinical phenotypes. With the rise in the high-quality brain images acquired without tasks, there is an increasing demand in evaluation of existing models for predictions. We performed systematic comparisons relating these images to clinical assessments across many cohorts to evaluate the robustness of population imaging methods for mental health. Our benchmarks emphasize the need for solid foundations in building brain networks across individuals. They outline clear methodological choices. Then, we contribute a new generation of brain functional atlases to facilitate high-quality predictions for mental health. Brain functional atlases are indeed the main bottleneck for prediction. These atlases are built by analyzing large-scale functional brain volumes using scalable statistical algorithm, to have better grounding for outcome prediction. After comparing them with state-of-the-art methods, we show their usefulness to mitigate large-scale data handling problems. The last main contribution is to investigate the potential surrogate measures for health outcomes. We consider large-scale model comparisons using brain measurements with behavioral assessments in an imaging epidemiological cohort, the United Kingdom ( UK ) Biobank. On this complex dataset, the challenge lies in finding the appropriate covariates and relating them to well-chosen outcomes. This is challenging, as there are very few available pathological outcomes. After careful model selection and evaluation, we identify proxy measures that display distinct links to socio-demographics and may correlate with non-pathological conditions like the condition of sleep, alcohol consumption and physical fitness activity. These can be indirectly useful for the epidemiological study of mental health
45

Sambra-Petre, Raluca-Diana. "2D/3D knowledge inference for intelligent access to enriched visual content." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la catégorisation d'objets vidéo. L'objectif est d'associer des étiquettes sémantiques à des objets 2D présents dans les images/vidéos. L'approche proposée consiste à exploiter des bases d'objets 3D classifiés afin d'identifier des objets 2D inconnus. Nous proposons un schéma de reconnaissance d'objet, conçu pour fonctionner pour des applications en temps réel. La similitude entre des modèles 3D et des contenus 2D inconnu est évaluée à l'aide de la description 2D/3D. Une procédure de vote est ensuite utilisée afin de déterminer les catégories les plus probables de l'objet 2D. Nous proposons aussi une stratégie pour la sélection des vues les plus représentatives d'un objet 3D et un nouveau descripteur de contour (nommé AH). L'évaluation expérimentale a montré que, en employant la sélection intelligente de vues, le nombre de projections peut être diminué de manière significative (jusqu'à 5 fois) tout en obtenant des performances similaires. Les résultats ont également montré la supériorité de l'AH par rapport aux autres descripteurs adoptés. Une évaluation objective de la variabilité intra et inter classe des bases de données 3D impliqués dans ce travail est également proposé, ainsi qu'une étude comparative des approches d'indexations retenues. Une approche de segmentation interactive est également introduite. La méthode proposée est spécifiquement conçu pour surmonter les artefacts de compression tels que ceux mis en place par la compression JPEG. Enfin, nous présentons une plate-forme Web pour l'indexation/la recherche/la classification, qui intègre les différentes méthodologies utilisées dans cette thèse
This Ph.D. thesis tackles the issue of sill and video object categorization. The objective is to associate semantic labels to 2D objects present in natural images/videos. The principle of the proposed approach consists of exploiting categorized 3D model repositories in order to identify unknown 2D objects based on 2D/3D matching techniques. We propose here an object recognition framework, designed to work for real time applications. The similarity between classified 3D models and unknown 2D content is evaluated with the help of the 2D/3D description. A voting procedure is further employed in order to determine the most probable categories of the 2D object. A representative viewing angle selection strategy and a new contour based descriptor (so-called AH), are proposed. The experimental evaluation proved that, by employing the intelligent selection of views, the number of projections can be decreased significantly (up to 5 times) while obtaining similar performance. The results have also shown the superiority of AH with respect to other state of the art descriptors. An objective evaluation of the intra and inter class variability of the 3D model repositories involved in this work is also proposed, together with a comparative study of the retained indexing approaches . An interactive, scribble-based segmentation approach is also introduced. The proposed method is specifically designed to overcome compression artefacts such as those introduced by JPEG compression. We finally present an indexing/retrieval/classification Web platform, so-called Diana, which integrates the various methodologies employed in this thesis
46

Skjermo, Jo. "Case-based reasoning in medical image diagnosis." Thesis, Norwegian University of Science and Technology, Department of Computer and Information Science, 2001. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-262.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:

In the last several years, there has been an increased focus on connecting image processing and artificial intelligence. Especially in the field of medical image diagnostics the benefits for such integration is apparent. In this paper we present use of the Common Object Request Broker Architecture (CORBA), as the mean for connecting existing systems for image processing and artificial intelligence. To visualize this, we will use CORBA for connecting Dynamic Imager and JavaCreek. Dynamic Imager is an image processing software, that is especially suitable for setting up and test customized sequences of image processing operations. JavaCreek is an artificial intelligence software based on the Case-Based Reasoning (CBR) theory.

After connecting the two systems with CORBA, we proceed develop the specific image processing methods for data gathering, and a knowledge base for diagnosis in the artificial intelligence system. The image processing methods and the knowledge base are produced for one special knowledge domain, for visualizing how the proposed system can help in medical image diagnostics.

The task we use to visualize our approach, is detecting malignancy in breast tumors, from magnetic resonance (MR) images taken over time as contrast agents is injected. This is from a reasonably new method for deciding if a tumor is malignant or benign. All image processing methods and the knowledge base is produced to let the two systems cooperate to find and diagnose tumors.

The image processing methods, the knowledge model, and the selected software with CORBA connection, was the basis for our system implementation. The implementation was tested with data gathered during the development of the clinical method for determining if a tumor is malignant, from the MR images. In all 127 patient cases was available, where 77 has malignant tumors in the gathered images. The results was then compared with diagnosis methods based on manual detection, and on other image processing methods. Although the found results were promising, there was also found several areas for future work.

47

Kunda, Maithilee. "Visual problem solving in autism, psychometrics, and AI: the case of the Raven's Progressive Matrices intelligence test." Diss., Georgia Institute of Technology, 2013. http://hdl.handle.net/1853/47639.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Much of cognitive science research and almost all of AI research into problem solving has focused on the use of verbal or propositional representations. However, there is significant evidence that humans solve problems using different representational modalities, including visual or iconic ones. In this dissertation, I investigate visual problem solving from the perspectives of autism, psychometrics, and AI. Studies of individuals on the autism spectrum show that they often use atypical patterns of cognition, and anecdotal reports have frequently mentioned a tendency to "think visually." I examined one precise characterization of visual thinking in terms of iconic representations. I then conducted a comprehensive review of data on several cognitive tasks from the autism literature and found numerous instances indicating that some individuals with autism may have a disposition towards visual thinking. One task, the Raven's Progressive Matrices test, is of particular interest to the field of psychometrics, as it represents one of the single best measures of general intelligence that has yet been developed. Typically developing individuals are thought to solve the Raven's test using largely verbal strategies, especially on the more difficult subsets of test problems. In line with this view, computational models of information processing on the Raven's test have focused exclusively on propositional representations. However, behavioral and fMRI studies of individuals with autism suggest that these individuals may use instead a predominantly visual strategy across most or all test problems. To examine visual problem solving on the Raven's test, I first constructed a computational model, called the Affine and Set Transformation Induction (ASTI) model, which uses a combination of affine transformations and set operations to solve Raven's problems using purely pixel-based representations of problem inputs, without any propositional encoding. I then performed four analyses using this model. First, I tested the model against three versions of the Raven's test, to determine the sufficiency of visual representations for solving this type of problem. The ASTI model successfully solves 50 of the 60 problems on the Standard Progressive Matrices (SPM) test, comparable in performance to the best computational models that use propositional representations. Second, I evaluated model robustness in the face of changes to the representation of pixels and visual similarity. I found that varying these low-level representational commitments causes only small changes in overall performance. Third, I performed successive ablations of the model to create a new classification of problem types, based on which transformations are necessary and sufficient for finding the correct answer. Fourth, I examined if patterns of errors made on the SPM can provide a window into whether a visual or verbal strategy is being used. While many of the observed error patterns were predicted by considering aspects of the model and of human behavior, I found that overall error patterns do not seem to provide a clear indicator of strategy type. The main contributions of this dissertation include: (1) a rigorous definition and examination of a disposition towards visual thinking in autism; (2) a sufficiency proof, through the construction of a novel computational model, that visual representations can successfully solve many Raven's problems; (3) a new, data-based classification of problem types on the SPM; (4) a new classification of conceptual error types on the SPM; and (5) a methodology for analyzing, and an analysis of, error patterns made by humans and computational models on the SPM. More broadly, this dissertation contributes significantly to our understanding of visual problem solving.
48

Grand-Brochier, Manuel. "Descripteurs 2D et 2D+t de points d'intérêt pour des appariements robustes." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours les méthodes de vision par ordinateur sont utilisées dans de nombreuses applications telles que la vidéo-surveillance, l'aide à la conduite ou la reconstruction 3D par exemple. Ces différentes applications s'appuient généralement sur des procédés de reconnaissance de formes ou de suivi. Pour ce faire, l'image est analysée afin d'en extraire des amers ou des primitives (contours, fonctions d'intensité ou modèles morphologiques). Les méthodes les plus courantes s'appuient sur l'utilisation de points d'intérêt représentant une discontinuité des niveaux de gris caractérisant un coin dans une image. Afin de mettre en correspondance un ensemble de points d'une image à une autre, une description locale est utilisée. Elle permet d'extraire l'information du voisinage de chaque point (valeurs des pixels, des intensités lumineuses, des gradients). Dans le cas d'applications telles que la vidéo-surveillance ou les caméras embarquées, l'ajout d'une information temporelle est fortement recommandé. Cette généralisation est utilisée au sein du laboratoire pour des projets de type véhicules intelligents (CyCab : véhicule intelligent, VELAC : VEhicule du Lasmea pour l'Aide à la Conduite). Les travaux de recherche présentés dans ce mémoire ont pour objectif de mettre en oeuvre différents outils de détection, description et mise en correspondance de points d'intérêt. Un certain nombre de contraintes a été établi, notamment l'utilisation d'images en niveaux de gris, la robustesse et l'aspect générique de la méthode. Dans un premier temps, nous proposons une analyse bibliographique des méthodes existantes. Cette dernière permet en effet d'en déduire les paramètres de mise en oeuvre ainsi que les principaux avantages et inconvénients. Nous détaillons par la suite la méthode proposée. La détection des primitives repose sur l'utilisation du détecteur fast-hessien que nous optimisons. L'utilisation d'une description locale basée sur des histogrammes de gradients orientés (HOG) est très répandue et procure de très bons résultats. Nous proposons de compléter son utilisation par un recalage et une mise à l'échelle d'un masque d'analyse elliptique créant ainsi une nouvelle forme de description locale (E-HOG). La mise en correspondance des points d'intérêt se base quant à elle sur une approche par corrélation à laquelle nous ajoutons un coefficient de sélection ainsi qu'une étape de suppression des doublons. Les différents résultats validant notre approche s'appuient sur l'utilisation de transformations synthétiques (vérité terrain) ou réelles. Nous proposons également une généralisation de notre approche au domaine spatiotemporel, permettant ainsi d'élargir son domaine d'utilisation. Le masque d'analyse précédemment cité est modifié et s'appuie donc sur l'utilisation d'ellipsoïdes. Les tests de validation reposent d'une part sur des séquences vidéo ayant subi des transformations synthétiques et d'autre part sur des séquences réelles issues de la plate-forme PAVIN (Plate-forme d'Auvergne pour Véhicules Intelligents).
49

Naffouti, Seif Eddine. "Reconnaissance et correspondance de formes 3D pour des systèmes intelligents de vision par ordinateur." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCK033/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la reconnaissance et l’appariement de formes 3D pour des systèmes intelligents de vision par ordinateur. Elle décrit deux contributions principales à ce domaine. La première contribution est une implémentation d'un nouveau descripteur de formes construit à la base de la géométrie spectrale de l'opérateur de Laplace-Beltrami ; nous proposons une signature de point globale avancée (AGPS). Ce descripteur exploite la structure intrinsèque de l'objet et organise ses informations de manière efficace. De plus, AGPS est extrêmement compact puisque seulement quelques paires propres étaient nécessaires pour obtenir une description de forme précise. La seconde contribution est une amélioration de la signature du noyau d'onde ; nous proposons une signature du noyau d'onde optimisée (OWKS). La perfectionnement est avec un algorithme heuristique d'optimisation par essaim de particules modifié pour mieux rapprocher une requête aux autres formes appartenant à la même classe dans la base de données. L'approche proposée améliore de manière significative la capacité discriminante de la signature. Pour évaluer la performance de l'approche proposée pour la récupération de forme 3D non rigide, nous comparons le descripteur global d'une requête aux descripteurs globaux du reste des formes de l'ensemble de données en utilisant une mesure de dissimilarité et trouvons la forme la plus proche. Les résultats expérimentaux sur différentes bases de données de formes 3D standards démontrent l'efficacité des approches d'appariement et de récupération proposées par rapport aux autres méthodes de l'état de l'art
This thesis concerns recognition and matching of 3D shapes for intelligent computer vision systems. It describes two main contributions to this domain. The first contribution is an implementation of a new shape descriptor built on the basis of the spectral geometry of the Laplace-Beltrami operator; we propose an Advanced Global Point Signature (AGPS). This descriptor exploits the intrinsic structure of the object and organizes its information in an efficient way. In addition, AGPS is extremely compact since only a few eigenpairs were necessary to obtain an accurate shape description. The second contribution is an improvement of the wave kernel signature; we propose an optimized wave kernel signature (OWKS). The refinement is with a modified particle swarm optimization heuristic algorithm to better match a query to other shapes belonging to the same class in the database. The proposed approach significantly improves the discriminant capacity of the signature. To assess the performance of the proposed approach for nonrigid 3D shape retrieval, we compare the global descriptor of a query to the global descriptors of the rest of shapes in the dataset using a dissimilarity measure and find the closest shape. Experimental results on different standard 3D shape benchmarks demonstrate the effectiveness of the proposed matching and retrieval approaches in comparison with other state-of-the-art methods
50

Delcourt, Alexandre. "Amélioration des détecteurs CdZnTe pour l'imagerie gamma par apprentissage." Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALM056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation généralisée des détecteurs à base de CZT dans l’imagerie gamma depuis certaines années pousse à l’optimisation de leurs performances afin de rester compétitif au niveau industriel. Néanmoins la présence de défauts structurels dans la maille cristalline du CZT dégrade la qualité de signaux de sortie et freine le développement de détecteurs à plus grand volume. L’objectif de cette thèse est d’utiliser des algorithmes d’optimisation et d’intelligence artificielle en s’aidant de simulations réalistes afin d’outrepasser les effets de ces défauts et d’améliorer les performances de localisation des interactions gamma dans le détecteur. Nous allons nous baser sur une méthode mathématique en 3 étapes alternative aux méthodes de caractérisation et de correction usuelles. D’abord le développement de simulations de détecteurs CZT en 3 dimensions avec possibilité d’implémenter des défauts de différentes natures pour observer leur impact sur les signaux sortants. Puis nous allons construire un réseau de neurones simple adaptable dans l’électronique afin de localiser les interactions dans le détecteur d’après des résultats de simulation. Un second réseau basé sur une méthode d’optimisation par calcul de gradient va permettre de déterminer le champ électrique et les performances de collecte d’un détecteur.La concaténation de ces 3 étapes va permettre d’apprendre par simulation les paramètres internes d’un détecteur étudié tel que le champ électrique, simulation qui va servir afin d’entraîner le réseau de neurones simple, pour finalement être utilisé sur les données expérimentales dans le but d’améliorer les performances de localisation du détecteur.Le développement de cette approche mathématique va permettre d’un côté la meilleure compréhension de la structure interne du cristal CZT et la possibilité de reproduire son comportement en simulation. Egalement les meilleures performances du détecteur pourraient se retrouver dans l’utilisation de doses de radio traceurs inférieures en imagerie, ou un temps d’exposition réduit pour les opérateurs en centrale nucléaire
Since a few years, the wide spread use of CZT-based detectors in gamma imaging drives their performance optimization to stay competitive at the industrial level. However, the presence of structural defect in the CZT crystal deteriorates the output signals quality and holds back the higher volume detectors development.The purpose of this thesis is the use of optimization and artificial intelligence algorithms using realistic simulations to override the impact of the defects and improve the localization performances of gamma interactions in the detector. We will develop a mathematical-based method in three steps as an alternative to common characterization and correction methods.First, we develop 3D CZT detector simulations enabling to implement defects with different natures to observe their impact on output signals. Then we build a simple neural network, which can be introduced in the electronics to localize the gamma interactions in the detector from simulation results. A second network based on a gradient computation method will allow determining the electric field and collection performance of a detector.The addition of these three steps will be used to learn through simulation the intern parameters of a determined detector such as the electric field. This simulation will serve to train the simple neural network and finally be used on experimental data to improve the localization performance of the detector.The development of this mathematical approach will help us having a better understanding of the intern structure of a CZT crystal being able to reproduce its behavior in simulation. In addition, the better performance of the detector might be sufficient to decrease the radiotracer dose for medical imaging or limit the exposition time of operators in a nuclear power plant

До бібліографії