Auswahl der wissenschaftlichen Literatur zum Thema „Imagerie computationnelle“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Imagerie computationnelle" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Imagerie computationnelle"

1

Sun, R., E. J. Limkin, L. Dercle, S. Reuzé, E. I. Zacharaki, C. Chargari, A. Schernberg et al. „Imagerie médicale computationnelle (radiomique) et potentiel en immuno-oncologie“. Cancer/Radiothérapie 21, Nr. 6-7 (Oktober 2017): 648–54. http://dx.doi.org/10.1016/j.canrad.2017.07.035.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

EFTHIMIADOU, Euphrosyne. „Imagerie cérébrale vs imagerie computationnelle : intégrer les neurosciences dans la numérisation de l’éducation“. Analele Universității din Craiova, seria Psihologie-Pedagogie/Annals of the University of Craiova, Series Psychology- Pedagogy 45, Nr. 2 supplement (20.02.2024): 7–20. http://dx.doi.org/10.52846/aucpp.2023.2suppl.01.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Sun, R., und E. Deutsch. „Imagerie médicale computationnelle (radiomique) : principes et potentiel en onco-pneumologie“. Revue des Maladies Respiratoires Actualités 12, Nr. 2 (Oktober 2020): 2S307–2S313. http://dx.doi.org/10.1016/s1877-1203(20)30111-7.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Imagerie computationnelle"

1

Debarnot, Valentin. „Microscopie computationnelle“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30156.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés de cette thèse visent à proposer des outils numériques et théoriques pour la résolution de problèmes inverses en imagerie. Nous nous intéressons particulièrement au cas où l'opérateur d'observation (e.g. flou) n'est pas connu. Les résultats principaux de cette thèse s'articulent autour de l'estimation et l'identification de cet opérateur d'observation. Une approche plébiscitée pour estimer un opérateur de dégradation consiste à observer un échantillon contenant des sources ponctuelles (microbilles en microscopie, étoiles en astronomie). Une telle acquisition fournit une mesure de la réponse impulsionnelle de l'opérateur en plusieurs points du champ de vue. Le traitement de cette observation requiert des outils robustes pouvant utiliser rapidement les données rencontrées en pratique. Nous proposons une boîte à outils qui estime un opérateur de dégradation à partir d'une image contenant des sources ponctuelles. L'opérateur estimé à la propriété qu'en tout point du champ de vue, sa réponse impulsionnelle s'exprime comme une combinaison linéaire de fonctions élémentaires. Cela permet d'estimer des opérateurs invariants (convolutions) et variants (développement en convolution-produit) spatialement. Une spécificité importante de cette boîte à outils est son caractère automatique : seul un nombre réduit de paramètres facilement accessibles permettent de couvrir une grande majorité des cas pratiques. La taille de la source ponctuelle (e.g. bille), le fond et le bruit sont également pris en compte dans l'estimation. Cet outil se présente sous la forme d'un module appelé PSF-Estimator pour le logiciel Fiji, et repose sur une implémentation parallélisée en C++. En réalité, les opérateurs modélisant un système optique varient d'une expérience à une autre, ce qui, dans l'idéal, nécessite une calibration du système avant chaque acquisition. Pour pallier à cela, nous proposons de représenter un système optique non pas par un unique opérateur de dégradation, mais par un sous-espace d'opérateurs. Cet ensemble doit permettre de représenter chaque opérateur généré par un microscope. Nous introduisons une méthode d'estimation d'un tel sous-espace à partir d'une collection d'opérateurs de faible rang (comme ceux estimés par la boîte à outils PSF-Estimator). Nous montrons que sous des hypothèses raisonnables, ce sous-espace est de faible dimension et est constitué d'éléments de faible rang. Dans un second temps, nous appliquons ce procédé en microscopie sur de grands champs de vue et avec des opérateurs variant spatialement. Cette mise en œuvre est possible grâce à l'utilisation de méthodes complémentaires pour traiter des images réelles (e.g. le fond, le bruit, la discrétisation de l'observation). La construction d'un sous-espace d'opérateurs n'est qu'une étape dans l'étalonnage de systèmes optiques et la résolution de problèmes inverses. [...]
The contributions of this thesis are numerical and theoretical tools for the resolution of blind inverse problems in imaging. We first focus in the case where the observation operator is unknown (e.g. microscopy, astronomy, photography). A very popular approach consists in estimating this operator from an image containing point sources (microbeads or fluorescent proteins in microscopy, stars in astronomy). Such an observation provides a measure of the impulse response of the degradation operator at several points in the field of view. Processing this observation requires robust tools that can rapidly use the data. We propose a toolbox that estimates a degradation operator from an image containing point sources. The estimated operator has the property that at any location in the field of view, its impulse response is expressed as a linear combination of elementary estimated functions. This makes it possible to estimate spatially invariant (convolution) and variant (product-convolution expansion) operators. An important specificity of this toolbox is its high level of automation: only a small number of easily accessible parameters allows to cover a large majority of practical cases. The size of the point source (e.g. bead), the background and the noise are also taken in consideration in the estimation. This tool, coined PSF-estimator, comes in the form of a module for the Fiji software, and is based on a parallelized implementation in C++. The operators generated by an optical system are usually changing for each experiment, which ideally requires a calibration of the system before each acquisition. To overcome this, we propose to represent an optical system not by a single operator (e.g. convolution blur with a fixed kernel for different experiments), but by subspace of operators. This set allows to represent all the possible states of a microscope. We introduce a method for estimating such a subspace from a collection of low rank operators (such as those estimated by the toolbox PSF-Estimator). We show that under reasonable assumptions, this subspace is low-dimensional and consists of low rank elements. In a second step, we apply this process in microscopy on large fields of view and with spatially varying operators. This implementation is possible thanks to the use of additional methods to process real images (e.g. background, noise, discretization of the observation).The construction of an operator subspace is only one step in the resolution of blind inverse problems. It is then necessary to identify the degradation operator in this set from a single observed image. In this thesis, we provide a mathematical framework to this operator identification problem in the case where the original image is constituted of point sources. Theoretical conditions arise from this work, allowing a better understanding of the conditions under which this problem can be solved. We illustrate how this formal study allows the resolution of a blind deblurring problem on a microscopy example.[...]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Pizzolato, Marco. „IRM computationnelle de diffusion et de perfusion en imagerie cérébrale“. Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4017/document.

Der volle Inhalt der Quelle
Annotation:
Les techniques d'imagerie par résonance magnétique de Diffusion (IRMd) et de Perfusion (IRMp) permettent la détection de divers aspects importants et complémentaires en imagerie cérébrale. Le travail effectué dans cette thèse présente des contributions théoriques et méthodologiques sur les modalités d'IRM basées sur des images pondérées en diffusion, et sur des images de perfusion par injection de produit de contraste. Pour chacune des deux modalités, les contributions de la thèse sont liées au développement de nouvelles méthodes pour améliorer la qualité, le traitement et l'exploitation des signaux acquis. En IRM de diffusion, la nature complexe du signal est étudiée avec un accent sur l'information de phase. Le signal complexe est ensuite exploité pour corriger le biais induit par le bruit d'acquisition des images, améliorant ainsi l'estimation de certaines métriques structurelles. En IRM de perfusion, le traitement du signal est revisité afin de tenir compte du biais dû à la dispersion du bolus. On montre comment ce phénomène, qui peut empêcher la correcte estimation des métriques de perfusion, peut aussi donner des informations importantes sur l'état pathologique du tissu cérébral. Les contributions apportées dans cette thèse sont présentées dans un cadre théorique et méthodologique validé sur de nombreuses données synthétiques et réelles
Diffusion and Perfusion Magnetic Resonance Imaging (dMRI & pMRI) represent two modalities that allow sensing important and different but complementary aspects of brain imaging. This thesis presents a theoretical and methodological investigation on the MRI modalities based on diffusion-weighted (DW) and dynamic susceptibility contrast (DSC) images. For both modalities, the contributions of the thesis are related to the development of new methods to improve and better exploit the quality of the obtained signals. With respect to contributions in diffusion MRI, the nature of the complex DW signal is investigated to explore a new potential contrast related to tissue microstructure. In addition, the complex signal is exploited to correct a bias induced by acquisition noise of DW images, thus improving the estimation of structural scalar metrics. With respect to contributions in perfusion MRI, the DSC signal processing is revisited in order to account for the bias due to bolus dispersion. This phenomenon prevents the correct estimation of perfusion metrics but, at the same time, can give important insights about the pathological condition of the brain tissue. The contributions of the thesis are presented within a theoretical and methodological framework, validated on both synthetical and real images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Tondo, Yoya Ariel Christopher. „Imagerie computationnelle active et passive à l’aide d’une cavité chaotique micro-ondes“. Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S130/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans cette thèse portent sur l’imagerie computationnelle active et passive en micro-ondes. L’utilisation d’une cavité chaotique comme composants compressif est étudiée tant théoriquement (modèle mathématique, résolution algorithmique du problème inverse) et expérimentalement. L’idée sous-jacente est de remplacer un réseau d’antennes par une unique cavité réverbérante dont un réseau d’ouvertures sur la face avant permet de coder l’information spatiale d’une scène dans la réponse temporelle de la cavité. La réverbération des ondes électromagnétique à l’intérieur de la cavité fournit les degrés de liberté nécessaires à la reconstruction d’une image de la scène. Ainsi il est possible de réaliser en temps réel une image haute-résolution d’une scène à partir d’une unique réponse impulsionnelle. Les applications concernent la sécurité ou l’imagerie à travers les murs. Dans ce travail, la conception et la caractérisation d’une cavité chaotique ouverte sont effectuées. L’utilisation de ce dispositif pour réaliser en actif des images de cibles de diverses formes est démontrée. Le nombre de degrés de liberté est ensuite amélioré en modifiant les conditions aux limites grâce à l’ajout lampes fluorescentes. L’interaction des ondes avec ces éléments plasma permet de créer de nouvelles configurations de la cavité, améliorant ainsi la résolution des images. L’imagerie compressive est ensuite appliquée à la détection et localisation passive du rayonnement thermique naturel de sources de bruit, à partir de la corrélation des signaux reçus sur deux voies. Enfin, une méthode novatrice d’imagerie interférométrique de cibles est présentée. Elle est basée sur la reconstruction de la réponse impulsionnelle entre deux antennes à partir du bruit thermique micro-ondes émis par un réseau de néons. Ces travaux constituent une avancée vers les systèmes d’imagerie futurs
The broad topic of the presented Ph.D focuses on active and passive microwave computational imaging. The use of a chaotic cavity as a compressive component is studied both theoretically (mathematical model, algorithmic resolution of the inverse problem) and experimentally. The underlying idea is to replace an array of antennas with a single reverberant cavity with an array of openings on the front panel that encodes the spatial information of a scene in the temporal response of the cavity. The reverberation of electromagnetic waves inside the cavity provides the degrees of freedom necessary to reconstruct an image of the scene. Thus it is possible to create a high-resolution image of a scene in real time from a single impulse response. Applications include security or imaging through walls. In this work, the design and characterization of an open chaotic cavity is performed. Using this device, active computational imaging is demonstrated to produce images of targets of various shapes. The number of degrees of freedom is further improved by changing the boundary conditions with the addition of commercial fluorescent lamps. The interaction of the waves with these plasma elements allows new cavity configurations to be created, thus improving image resolution. Compressive imaging is next applied to the passive detection and localization of natural thermal radiation from noise sources, based on the correlation of signals received over two channels. Finally, an innovative method of interferometric target imaging is presented. It is based on the reconstruction of the impulse response between two antennas from the microwave thermal noise emitted by a network of neon lamps. This work constitutes a step towards for future imaging systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Filipis, Luiza. „Etude optique et computationnelle de la fonction des canaux ioniques neuronaux“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAY078.

Der volle Inhalt der Quelle
Annotation:
La physiologie des canaux ioniques est un sujet d’intérêt majeur dans les neurosciences modernes puisque le fonctionnement de ces molécules est la base biophysique du comportement électrique et chimique des neurones. Les canaux ioniques sont des protéines membranaires diverses qui permettent le passage sélectif des ions à travers la couche lipidique des cellules. Ils sont impliqués dans une variété de processus physiologiques fondamentaux, à partir de l’intégration des signaux électriques, la génération et la propagation de potentiel d’action jusqu’à la croissance cellulaire et même à l’apoptose, tandis que leur dysfonctionnement est la cause de plusieurs maladies. Les canaux ioniques ont été largement étudiés à l’aide de méthodes basés sur les électrodes, en particulier la technique du patch-clamp, mais ces approches sont limitées pour étudier les canaux natifs pendant l’activité physiologique in situ. En particulier, les électrodes fournissent des informations spatiales limitées alors qu’il est reconnu que la contribution des canaux dans tous les différents processus est fonction non seulement de leurs propriétés biophysiques discrètes, mais aussi de leur distribution dans la surface des neurones et des différents compartiments. Les techniques optiques, en particulier celles impliquant l’imagerie par fluorescence, peuvent surmonter les limites intrinsèques des techniques d’électrode car elles permettent d’enregistrer des signaux électriques et ioniques avec une résolution spatiale et temporelle élevée. Enfin, la capacité des techniques optiques combinées à la modélisation neuronale peut potentiellement fournir des informations essentielles permettant de mieux comprendre le fonctionnement des neurones. L’objectif ambitieux de ma thèse était de progresser dans cette direction en développant de nouvelles approches pour combiner des techniques d’imagerie de pointe avec la modélisation pour extraire les courants ioniques et la cinétique des canaux dans des régions neuronales spécifiques. Le corps de ce travail a été divisé en trois morceaux méthodologiques, chacun d’eux décrit dans un chapitre dédié
The physiology of ion channels is a major topic of interest in modern neuroscience since the functioning of these molecules is the biophysical ground of electrical and chemical behaviour of neurons. Ion channels are diverse membrane proteins that allow the selective passage of ions across the lipid bilayer of cells. They are involved in a variety of fundamental physiological processes from electrical signal integration, action potential generation and propagation to cell growth and even apoptosis, while their dysfunction is the cause of several diseases. Ion channels have extensively studied using electrode methods, in particular the patch-clamp technique, but these approaches are limited in studying native channels during physiological activity in situ. In particular, electrodes give limited spatial information while it is recognised that the contribution of channels in all different processes is a function not only of their discrete biophysical properties but also of their distribution across the neurons surface at the different compartments. Optical techniques, in particular those involving fluorescence imaging, can overcome intrinsic limitations of electrode techniques as they allow to record electrical and ionic signals with high spatial and temporal resolution. Finally, the ability of optical techniques combined with neuronal modelling can potentially give pivotal information significantly advancing our understanding on how neurons work.The ambitious goal of my thesis was to progress in this direction by developing novel approaches to combine cutting-edge imaging techniques with modelling to extract ion currents and channel kinetics in specific neuronal regions. The body of this work was divided in three methodological pieces, each of them described in a dedicated chapter
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Skitioui, Salah. „Développement de radars millimétriques innovants“. Electronic Thesis or Diss., Limoges, 2024. http://www.theses.fr/2024LIMO0017.

Der volle Inhalt der Quelle
Annotation:
Ces travaux portent sur la combinaison de dispositifs à diversité fréquentielle avec une architecture FMCW pour l’imagerie corporelle courte portée, dans le but de réduire la complexité et le coût liés à l’architecture et à la redondance des chaînes d’émission-réception. Une première étude a été menée pour comparer deux approches de multiplexage analogique : la cavité réverbérante à fuite et l’antenne à balayage fréquentiel. Cette comparaison a conclu que la première solution était la mieux adaptée au contexte de ces travaux. Un prototype a donc été développé et intégré dans un démonstrateur d’imagerie en champ proche en bande W, basé sur l’utilisation de chaînes d’émission-réception FMCW. Une preuve de concept est présentée, démontrant la capacité à reconstruire des images en bande W en utilisant une seule chaîne d’émission-réception, à partir d’un signal ayant des fréquences de l’ordre du MHz, grâce à un algorithme novateur permettant d’atteindre des taux de rafraîchissement d’image considéré comme temps réel
This research is part of a CIFRE thesis aimed at developing technologies to simplify and reduce costs associated with a body scanners dedicated to security applications, while improving the refresh rate of reconstructed images. The fundamental objective is to devise an affordable real-time imaging system. Research efforts are focused on leveraging analog multiplexing techniques based on frequency diversity, integrated into an FMCW architecture, to overcome temporal limitations inherent in existing approaches. To this end, a prototype of a leaky reverberation cavity has been conceptualized, subjected to laboratory testing, and subsequently integrated into an industrial measurement bench. This accomplishment represents a significant advancement in the evolution of a real-time imaging system utilizing an analog multiplexing device
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Duan, Liuyun. „Modélisation géométrique de scènes urbaines par imagerie satellitaire“. Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4025.

Der volle Inhalt der Quelle
Annotation:
La modélisation automatique de villes à partir d’images satellites est l'un des principaux défis en lien avec la reconstruction urbaine. Son objectif est de représenter des villes en 3D de manière suffisamment compacte et précise. Elle trouve son application dans divers domaines, qui vont de la planification urbaine aux télécommunications, en passant par la gestion des catastrophes. L'imagerie satellite offre plusieurs avantages sur l'imagerie aérienne classique, tels qu'un faible coût d'acquisition, une couverture mondiale et une bonne fréquence de passage au-dessus des sites visités. Elle impose toutefois un certain nombre de contraintes techniques. Les méthodes existantes ne permettent que la synthèse de DSM (Digital Surface Models), dont la précision est parfois inégale. Cette dissertation décrit une méthode entièrement automatique pour la production de modèles 3D compacts, précis et répondant à une sémantique particulière, à partir de deux images satellites en stéréo. Cette méthode repose sur deux grands concepts. D'une part, la description géométrique des objets et leur assimilation à des catégories génériques sont effectuées simultanément, conférant ainsi une certaine robustesse face aux occlusions partielles ainsi qu'à la faible qualité des images. D'autre part, la méthode opère à une échelle géométrique très basse, ce qui permet la préservation de la forme des objets, avec finalement, une plus grande efficacité et un meilleur passage à l'échelle. Pour générer des régions élémentaires, un algorithme de partitionnement de l'image en polygones convexes est présenté
Automatic city modeling from satellite imagery is one of the biggest challenges in urban reconstruction. The ultimate goal is to produce compact and accurate 3D city models that benefit many application fields such as urban planning, telecommunications and disaster management. Compared with aerial acquisition, satellite imagery provides appealing advantages such as low acquisition cost, worldwide coverage and high collection frequency. However, satellite context also imposes a set of technical constraints as a lower pixel resolution and a wider that challenge 3D city reconstruction. In this PhD thesis, we present a set of methodological tools for generating compact, semantically-aware and geometrically accurate 3D city models from stereo pairs of satellite images. The proposed pipeline relies on two key ingredients. First, geometry and semantics are retrieved simultaneously providing robust handling of occlusion areas and low image quality. Second, it operates at the scale of geometric atomic regions which allows the shape of urban objects to be well preserved, with a gain in scalability and efficiency. Images are first decomposed into convex polygons that capture geometric details via Voronoi diagram. Semantic classes, elevations, and 3D geometric shapes are then retrieved in a joint classification and reconstruction process operating on polygons. Experimental results on various cities around the world show the robustness, scalability and efficiency of the proposed approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Domenech, Philippe. „Une approche neuro-computationnelle de la prise de décision et de sa régulation contextuelle“. Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00847494.

Der volle Inhalt der Quelle
Annotation:
Décider, c'est sélectionner une alternative parmi l'ensemble des options possibles en accord avec nos buts. Les décisions perceptuelles, correspondant à la sélection d'une action sur la base d'une perception, résultent de l'accumulation progressive d'information sensorielle jusqu'à un seuil de décision. Aux niveaux comportemental et cérébral, ce processus est bien capturé par les modèles de décision par échantillonnage séquentiel. L'étude neurobiologique des processus de décision, guidée par l'usage de modèles computationnels, a permis d'établir un lien clair entre cette accumulation d'information sensorielle et un réseau cortical incluant le sillon intra-pariétal et le cortex dorso-latéral préfrontal. L'architecture des réseaux biologiques impliqués dans la prise de décision, la nature des algorithmes qu'ils implémentent et surtout, l'étude des relations entre structure biologique et computation est au cœur des questionnements actuels en neurosciences cognitives et constitue le fil conducteur de cette thèse. Dans un premier temps, nous nous sommes intéressés aux mécanismes neuraux et computationnels permettant l'ajustement du processus de décision perceptuelle à son contexte. Nous avons montré que l'information a priori disponible pour prédire nos choix diminue la distance au seuil de décision, régulant ainsi dynamiquement la quantité d'information sensorielle nécessaire pour sélectionner une action. Pendant la prise de décision perceptuelle, le cortex cingulaire antérieur ajuste le seuil de décision proportionnellement à la quantité d'information prédictive disponible et le cortex dorso-latéral préfrontal implémente l'accumulation progressive d'information sensorielle. Dans un deuxième temps, nous avons abordé la question de l'unicité, au travers des domaines cognitifs, des mécanismes neuro-computationnels implémentant la prise de décision. Nous avons montré qu'un modèle de décision par échantillonnage séquentiel utilisant la valeur subjective espérée de chaque option prédisait avec précision le comportement de sujets lors de choix économiques risqués. Pendant la décision, la portion médiale du cortex orbito-frontal code la différence entre les valeurs subjectives des options considérées, exprimées sur une échelle de valeur commune. Ce signal orbito-frontal médian sert d'entrée à un processus de décision par échantillonnage séquentiel implémenté dans le cortex dorso-latéral préfrontal. Pris ensemble, nos travaux précisent les contours d'une architecture fonctionnelle de la prise de décision dans le cortex préfrontal humain en établissant une cartographie des modules computationnels qu'il implémente, mais aussi en caractérisant la façon dont l'intégration fonctionnelle de ces régions cérébrales permet l'émergence de la capacité à prendre des décisions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Feydy, Jean. „Analyse de données géométriques, au delà des convolutions“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN017.

Der volle Inhalt der Quelle
Annotation:
Analyse de données géométriques, au delà des convolutionsPour modéliser des interactions entre points, une méthode simple est de se reposer sur des sommes pondérées communément appelées "convolutions". Au cours de la dernière décennie, cette opération est devenue la brique de construction essentielle à la révolution du "deep learning". Le produit de convolution est, toutefois, loin d'être l'alpha et l'oméga des mathématiques appliquées.Pour permettre aux chercheurs d'explorer de nouvelles directions, nous présentons des implémentations robustes et efficaces de trois opérations souvent sous-estimées:1. Les manipulations de tenseurs semi-symboliques, comme les matrices de distances ou de noyaux.2. Le transport optimal, qui généralise la notion de "tri" aux espaces de dimension D > 1.3. Le tir géodésique sur une variété Riemannienne, qui se substitue à l'interpolation linéaire sur des espaces de données où aucune structure vectorielle ne peut être correctement définie.Nos routines PyTorch/NumPy sont compatibles avec la différentiation automatique, et s'exécutent en quelques secondes sur des nuages de plusieurs millions de points. Elle sont de 10 à 1,000 fois plus performantes que des implémentations GPU standards et conservent une empreinte mémoire linéaire. Ces nouveaux outils sont empaquetés dans les bibliothèques "KeOps" et "GeomLoss", avec des applications qui vont de l'apprentissage automatique à l'imagerie médicale. Notre documentation est accessible aux adresses www.kernel-operations.io/keops et /geomloss
Geometric data analysis, beyond convolutionsTo model interactions between points, a simple option is to rely on weighted sums known as convolutions. Over the last decade, this operation has become a building block for deep learning architectures with an impact on many applied fields. We should not forget, however, that the convolution product is far from being the be-all and end-all of computational mathematics.To let researchers explore new directions, we present robust, efficient and principled implementations of three underrated operations: 1. Generic manipulations of distance-like matrices, including kernel matrix-vector products and nearest-neighbor searches.2. Optimal transport, which generalizes sorting to spaces of dimension D > 1.3. Hamiltonian geodesic shooting, which replaces linear interpolation when no relevant algebraic structure can be defined on a metric space of features.Our PyTorch/NumPy routines fully support automatic differentiation and scale up to millions of samples in seconds. They generally outperform baseline GPU implementations with x10 to x1,000 speed-ups and keep linear instead of quadratic memory footprints. These new tools are packaged in the KeOps (kernel methods) and GeomLoss (optimal transport) libraries, with applications that range from machine learning to medical imaging. Documentation is available at: www.kernel-operations.io/keops and /geomloss
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Örsvuran, Rıdvan. „Vers des modèles anisotropes et anélastiques de la Terre globale : Observables et la paramétrisation de l'inversion des formes d'ondes complètes“. Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4015.

Der volle Inhalt der Quelle
Annotation:
Les ondes sismiques constituent le principal outil pour scanner l’intérieur de la Terre et en déduire des informations sur sa structure, son état thermique et ses propriétés chimiques. La tomographie sismique, de manière analogue à la tomographie médicale, construit des images en trois dimensions de l’intérieur de la Terre à partir des ondes sismiques déclenchées par des sources naturelles (tremblements de terre, bruit ambiant) ou contrôlées (explosions, ...).La méthode de l’état adjoint permet une implémentation efficace de l’inversion des formes d’ondes complètes (FWI : Full Waveform Inversion), une méthode d’imagerie qui exploite potentiellement toute la complexité du champ d’onde en trois dimensions pour construire des images haute résolution de l’intérieur de la Terre.Dans cette thèse, je propose de nouveaux observables fondés sur des doubles différences des temps de trajet et des formes d’ondes pour appliquer la FWI à l’échelle globale. Par ailleurs, je teste différentes paramétrisations du problème inverse pour extraire les propriétés physiques de la Terre comme l’anisotropie azimuthale et l’atténuation dans le manteau.Mes résultats suggèrent que les doubles différences utilisés avec des dispositifs denses de stations accélèrent la convergence de la FWI, améliore la résolution de l’imagerie sous le dispositif et réduisent les artefacts générés par la couverture hétérogène de la Terre par les données sismologiques.Il est connu que la composition et la déformation de la lithosphère et du manteau supérieur génèrent de l’anisotropie lors de la propagation des ondes. En partant du modèle de Terre globale GLAD-M25 développé par tomographie adjointe, le successeur du modèle GLAD-M15 et en) et en paramétrant l’inversion avec une anisotropie transverse, j’ai construit un premier modèle global du manteau supérieur anisotrope. J’ai effectué 10 itérations de la FWI adjointe en sélectionnant par fenêtrage les temps de trajet des ondes de surface combinés avec des doubles différences formés par des paires de stations. Les résultats révèlent l’empreinte au premier ordre de l’anisotropie et une résolution accrue dans les régions bénéficiant d’une forte couverture comme en Amérique du Nord et en Europe.L’atténuation est un autre paramètre physique clef pour identifier de la fusion partielle, la présence d’eau et cartographier des variations thermiques dans le manteau. Dans le dernier chapitre, j’effectue une première évaluation de la tomographie adjointe anélastique dans la perspective de construire un modèle d’atténuation du manteau par inversion conjointe des paramètres élastiques et anélastiques à partir de la phase et de l’amplitude des signaux. J’étudie les couplages entre les différentes classes de paramètres avec des tests synthétiques 2D afin de définir la meilleure stratégie pour la FWI anélastique à l’échelle globale. J’évalue également différents observables pour la reconstruction simultanée ou alternée des paramètres élastiques/anélastiques. Les tests 2D suggèrent qu’une fonction coût fondée sur l’enveloppe des signaux fournit les meilleurs résultats lors des premières itérations en réduisant la non linéarité de la FWI. Après avoir évalué l’empreinte de différents modèles d’atténuation sur les formes d’onde avec des simulations numériques dans différents modèles élastiques/anélastiques 1D/3D, j’ai conclu que la reconstruction conjointe des paramètres élastiques et anélastiques était nécessaire car l’atténuation affecte non seulement l’amplitude mais génère aussi une dispersion significative, notamment des ondes de surface. J’ai effectué une itération de la tomographie adjointe élastique/anélastique à l’échelle globale en partant du modèle élastique GLAD-M25 et du modèle anélastique 1D QRF12 et en utilisant 253 tremblements de terre. Les résultats préliminaires sont prometteurs et révèlent par exemple des zones de forte et faible atténuation sur les côtes ouest et est de l’Amérique du Nord
Seismic waves are our primary tools to see the Earth’s interior and draw inferences on its structural, thermal and chemical properties. Seismic tomography, similar to medical tomography, is a powerful technique to obtain 3D computed tomography scan (CT scan) images of the Earth’s interior using seismic waves generated by seismic sources such as earthquakes, ambient noise or controlled explosions. It is crucial to improve the resolution of tomographic images to better understand the internal dynamics of our planet driven by the mantle convection, that directly control surface processes, such as plate tectonics. To this end, at the current resolution of seismic tomography, full physics of (an)elastic wave propagation must be taken into account.The adjoint method is an efficient full-waveform inversion (FWI) technique to take 3D seismic wave propagation into account in tomography to construct high-resolution seismic images. In this thesis, I develop and demonstrate new measurements for global-scale adjoint inversions such as the implementation of double-difference traveltime and waveform misfits. Furthermore, I investigate different parameterizations to better capture Earth’s physics in the inverse problem, such as addressing the azimuthal anisotropy and anelasticity in the Earth’s mantle.My results suggest that double-difference misfits applied to dense seismic networks speed up the convergence of FWI and help increase the resolution underneath station clusters. I further observe that double-difference measurements can also help reduce the bias in data coverage towards the cluster of stations.Earth’s lithosphere and upper mantle show significant evidence of anisotropy as a result of its composition and deformation. Starting from the recent global adjoint tomography model GLAD-M25, which is the successor of GLAD-M15 and transversely isotropic in the upper mantle, my goal is to construct an azimuthally anisotropic global model of the upper mantle. I performed 10 iterations using the multitaper traveltimes combined with double difference measurements made on paired stations of minor- and major-arc surface waves. The results after 10 iterations, in general, show the global anisotropic pattern consistent with plate motions and achieve higher resolution in areas with dense seismic coverage such as in North America and Europe.Attenuation is also another key parameter for determining the partial melt, water content and thermal variations in the mantle. In the last chapter, I investigate anelastic adjoint inversions to ultimately construct a global attenuation mantle model by the simultaneous inversion of elastic and anelastic parameters assimilating both the phase and amplitude information, which will lead to exact FWI at the global scale. I investigate the trade-off between elastic and anelastic parameters based on 2D synthetic tests to define a strategy for 3D global FWIs. I also explore the effect of different measurements for simultaneously and sequentially inverted elastic and anelastic parameters. The 2D test results suggest that the envelope misfit performs best at earlier iterations by reducing the nonlinearity of the FWI. After analyzing the effect of different radially-symmetric attenuation models on seismic waveforms by performing forward simulations in various 1D and 3D elastic/anelastic models, the results suggest the necessity of simultaneous elastic/anelastic inversions to also improve the elastic structure as attenuation cause not only amplitude anomalies but also significant physical dispersion, particularly on surface waves. I performed one global simultaneous iteration of elastic and anelastic parameters using GLAD-M25 and its 1D anelastic model QRF12 as the starting models with a dataset of 253 earthquakes. The preliminary results are promising depicting, for instance, the high and low attenuation in the West and East coasts of North America
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Cuingnet, Rémi. „Contributions à l'apprentissage automatique pour l'analyse d'images cérébrales anatomiques“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00602032.

Der volle Inhalt der Quelle
Annotation:
L'analyse automatique de différences anatomiques en neuroimagerie a de nombreuses applications pour la compréhension et l'aide au diagnostic de pathologies neurologiques. Récemment, il y a eu un intérêt croissant pour les méthodes de classification telles que les machines à vecteurs supports pour dépasser les limites des méthodes univariées traditionnelles. Cette thèse a pour thème l'apprentissage automatique pour l'analyse de populations et la classification de patients en neuroimagerie. Nous avons tout d'abord comparé les performances de différentes stratégies de classification, dans le cadre de la maladie d'Alzheimer à partir d'images IRM anatomiques de 509 sujets de la base de données ADNI. Ces différentes stratégies prennent insuffisamment en compte la distribution spatiale des \textit{features}. C'est pourquoi nous proposons un cadre original de régularisation spatiale et anatomique des machines à vecteurs supports pour des données de neuroimagerie volumiques ou surfaciques, dans le formalisme de la régularisation laplacienne. Cette méthode a été appliquée à deux problématiques cliniques: la maladie d'Alzheimer et les accidents vasculaires cérébraux. L'évaluation montre que la méthode permet d'obtenir des résultats cohérents anatomiquement et donc plus facilement interprétables, tout en maintenant des taux de classification élevés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Imagerie computationnelle"

1

DUCROS, Nicolas. „Une introduction à l’imagerie computationnelle monodétecteur“. In Imageries optiques non conventionnelles pour la biologie, 247–74. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9132.ch8.

Der volle Inhalt der Quelle
Annotation:
L’imagerie computationnelle monodétecteur permet d’acquérir une image au moyen d’un détecteur ponctuel, ce qui en fait une méthode de choix pour l’imagerie spectrale dans le visible ou l’infrarouge. Ce chapitre donne un aperçu de l’évolution de cette approche au cours des dernières décennies, notamment en ce qui concerne les algorithmes de reconstruction.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Imagerie computationnelle"

1

Lefort, Claire, Mathieu Chalvidal, Alexis Parenté, Véronique BLANQUET, Henri Massias, Laetitia MAGNOL und Emilie Chouzenoux. „Imagerie 3D par microscopie multiphotonique appliquée aux sciences du vivant : la chaine instrumentale et computationnelle FAMOUS“. In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.221.

Der volle Inhalt der Quelle
Annotation:
Nous présentons une nouvelle stratégie instrumentale et computationnelle appelée FAMOUS (pour fast algorithm for three-dimensional (3D) multiphoton microscopy of biomedical structures) basée sur une approche de microscopie multiphotonique assistée par calcul. Le but est l’amélioration visuelle des images d'échantillons biologiques épais offrant ainsi un nouveau point de vue sur les structures biologiques. L'approche de post-traitement repose sur un algorithme de restauration d'image régularisé, alimenté par une estimation 3D précise de la fonction d'étalement du point (Point Spread Function en anglais, PSF) de l'instrument sur toute la profondeur des structures. Cette dernière étape revient à mesurer, grâce à un algorithme d'ajustement de modèle avancé, les distorsions variant en profondeur de l'image résultant de la combinaison entre la contribution instrumentale et les hétérogénéités du milieu. Les performances du pipeline FAMOUS sont évaluées pour un milieu hétérogène constitué d’un muscle entier de souris. La génération de seconde harmonique (SHG), émise par l'assemblage des chaines de myosine du muscle est enregistrée. Les artefacts optiques issus de la chaîne d'acquisition incluant des hétérogénéités dans les 3 dimensions sont estimés avec les spécificités propres à l’échantillon puis retirées numériquement. Des images brutes et restaurées sur 5 µm de l’ultrastructure fine du muscle illustrent la robustesse du pipeline FAMOUS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie