Academic literature on the topic 'Méthode d’imagerie'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Méthode d’imagerie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Méthode d’imagerie"

1

Boué, Pierre, and Anne Paul. "Imagerie sismique par corrélation de bruit ambiant : du laboratoire à l’échelle globale." Reflets de la physique, no. 64 (January 2020): 12–16. http://dx.doi.org/10.1051/refdp/202064012.

Full text
Abstract:
L’énergie sismique libérée par une source naturelle ou artificielle est habituellement utilisée pour éclairer la structure interne de la Terre. Aujourd’hui, de nouvelles méthodes permettent de se passer de ces sources conventionnelles via l'utilisation du bruit sismique ambiant qui, après corrélation de longs enregistrements, transforme virtuellement chaque récepteur en source. Cette méthode d’imagerie du sous-sol est également répétable dans le temps, donnant ainsi accès à une multitude d’applications pour la surveillance des structures géologiques. Cet article présente le principe de l’interférométrie sismique par corrélation du bruit ambiant à travers différents exemples, de l’échelle du laboratoire à l’échelle globale.
APA, Harvard, Vancouver, ISO, and other styles
2

Laporte, Marine H., Éloïse Bertiaux, Virginie Hamel, and Paul Guichard. "L’organisation native de la cellule révélée grâce à la cryo-microscopie à expansion." médecine/sciences 39, no. 4 (April 2023): 351–58. http://dx.doi.org/10.1051/medsci/2023052.

Full text
Abstract:
La plupart des techniques d’imagerie cellulaire, telles que la microscopie photonique ou la microscopie électronique, nécessitent que l’échantillon biologique soit préalablement fixé par des agents chimiques, une étape qui est connue pour endommager l’organisation sub-cellulaire. Pour pallier à ce problème, la cryo-fixation, inventée il y a plus de 40 ans, consiste à vitrifier les échantillons biologiques afin de préserver leur état natif. Cette méthode n’avait cependant été que très peu utilisée en microscopie photonique. Dans cette revue, nous présentons en détail la microscopie d’expansion, une technique de super-résolution développée récemment et qui, couplée à la cryo-fixation, permet de visualiser l’architecture cellulaire au plus près de son état natif.
APA, Harvard, Vancouver, ISO, and other styles
3

Brignol, Arnaud, Farida Cheriet, and Catherine Laporte. "Extraction automatique de repères vertébraux à partir d’échographies." médecine/sciences 37 (November 2021): 22–24. http://dx.doi.org/10.1051/medsci/2021186.

Full text
Abstract:
Certaines formes de myopathies telles que la dystrophie musculaire de Duchenne entraînent une dégénérescence progressive des muscles chez le patient. Ceci se traduit par l’apparition d’une scoliose dont la gravité augmente au cours du temps. La norme clinique pour le suivi de la scoliose consiste à réaliser un examen radiographique. Malheureusement, l’exposition répétée aux rayons X est nocive pour la santé du patient. L’échographie est une technique d’imagerie médicale non irradiante qui utilise des ondes ultrasonores (US). Cependant, l’interprétation des échographies de vertèbres est souvent difficile en raison de la qualité variable des images. En réponse à ce défi, nous présentons une méthode pour localiser automatiquement les vertèbres sur les échographies. La validation de cette approche reproductible laisse à penser qu’il serait possible, à terme, de remplacer une partie des examens radiographiques standards par l’échographie.
APA, Harvard, Vancouver, ISO, and other styles
4

Vabre, Alexandre, Samuel Legoupil, Erwan Manach, Olivier Gal, Stéphane Colin, Sandrine Geoffroy, and Anne-Marie Gué. "Evaluation d’une méthode d’imagerie X en microfluidique : cas du remplissage de microcanaux en forme de « T »." La Houille Blanche, no. 5 (October 2006): 33–39. http://dx.doi.org/10.1051/lhb:2006082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Thibon, E., X. Bobbia, B. Blanchard, T. Masia, L. Palmier, L. Tendron, J. E. de La Coussaye, and P. G. Claret. "Association entre mortalité et attente aux urgences chez les adultes à hospitaliser pour étiologies médicales." Annales françaises de médecine d’urgence 9, no. 4 (April 21, 2019): 229–34. http://dx.doi.org/10.3166/afmu-2019-0151.

Full text
Abstract:
Introduction: Notre objectif principal est de comparer, dans un centre hospitalier universitaire (CHU) français et chez les patients hospitalisés pour étiologies médicales à partir de la structure des urgences (SU), le taux de mortalité intrahospitalière entre ceux qui n’attendent pas faute de place en service et ceux en attente (boarding).Méthode: Il s’agit d’une étude quasi expérimentale, monocentrique, observationnelle, rétrospective, par recueil d’informations à partir des dossiers patients informatisés. Nous avons appliqué un score de propension pour ajuster les critères de jugement aux variables mesurées dans les deux groupes, c’est-à-dire les données : 1) démographiques (âge et sexe) ; 2) médicales (niveau de triage) ; 3) biologiques (numération leucocytaire, hémoglobinémie, natrémie, kaliémie, taux sérique de CRP, créatininémie) ; 4) d’imageries (réalisation ou non de radiographie, d’échographie, d’imagerie par résonance magnétique, de tomodensitométrie).Résultats: En 2017, la SU du CHU a admis 60 062 patients adultes. Sur les 15 496 patients hospitalisés après admission en SU, 6 997 l’ont été pour une étiologie médicale, dont 2 546 (36 %) sans attente et 4 451 (64 %) après une attente. Après pondération, le taux de mortalité intrahospitalière était plus important dans le groupe en attente : 7,8 vs 6,3 % ;p< 0,05. De même, la durée médiane d’hospitalisation était plus importante dans le groupe en attente : 7,6 [4,7– 12,0] vs 7,1 j [4,3–11,5] ;p< 0,01.Discussion: Les taux de mortalité et de la durée de séjour intrahospitaliers sont plus importants chez les patients étudiés qui attendent en SU faute de place en service. Nos résultats sont concordants avec la littérature internationale. Il est nécessaire de trouver des solutions pour réduire cette surmortalité.
APA, Harvard, Vancouver, ISO, and other styles
6

Sevestre-Pietri, M. A. "Les stratégies d’imagerie. Méthodes de mesure de la sténose carotidienne par écho-Doppler, IRM et angioscanner. Quelle est la méthode la plus fiable ?" Journal des Maladies Vasculaires 41, no. 2 (March 2016): 106. http://dx.doi.org/10.1016/j.jmv.2015.12.061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ceneno, Jorge Antonio Silva, Regina Tiemy Kishi, and Edson Aparecido Mitishita. "Detection of areas for rainwater harvesting using airborne laser scanner and aerial imagery." Revue Française de Photogrammétrie et de Télédétection, no. 198-199 (April 21, 2014): 25–29. http://dx.doi.org/10.52638/rfpt.2012.68.

Full text
Abstract:
Cet article présente une méthode d’identification des toits pour la récupération des eaux pluviales, basée sur l’utilisation des données d’un laser à balayage et d’imagerie visible et proche infrarouge. La discrimination automatique des surfaces couvertes de végétation et de toits s’avère difficile lorsque seule la hauteur des pixels est utilisée ; la procédure s’améliore lorsque la variation locale de l’altitude, c’est-à-dire la texture, est analysée. L’image obtenue par balayage laser est d’abord seuillée en fonction de la hauteur. La morphologie mathématique est également utilisée pour sélectionner les plus grandes surfaces, plus propices à la récupération des eaux pluviales. Lorsque la densité du nuage de points est trop faible, l’analyse conjointe des données laser et des photographies aériennes permet une meilleurediscrimination de la végétation et des toits. L'étude démontre la viabilité d’une utilisation conjointe du laser à balayage et de la photographie aérienne pour une telle application et la puissance de l’analyse texturale pour la discrimination.
APA, Harvard, Vancouver, ISO, and other styles
8

Tauber, Marie, Raïssa Houmadi, Manon Scholaert, Jérémy Martin, Nadine Serhan, Manuelle Viguier, Cristina Bulai Livideanu, et al. "Développement d’une méthode d’imagerie multiplexée de la peau : application aux lésions cutanées contemporaines de la COVID-19." Annales de Dermatologie et de Vénéréologie - FMC 1, no. 8 (December 2021): A111. http://dx.doi.org/10.1016/j.fander.2021.09.531.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Beau, Aurélien, Denis Bossard, and Sarah Gebeile-Chauty. "Les appareils orthodontiques collés doivent-ils être déposés systématiquement avant un examen d’imagerie par résonance magnétique (IRM) ?" L'Orthodontie Française 88, no. 2 (June 2017): 131–38. http://dx.doi.org/10.1051/orthodfr/2017004.

Full text
Abstract:
Objectifs : Les appareils orthodontiques sont souvent déposés avant les examens d’imagerie par résonance magnétique (IRM) car ils sont réputés pour produire des artefacts. Le but de cette étude était de trouver les indications exactes de dépose de différents types d’appareils fixes lors de la visualisation de quatre zones spécifiques de la tête et du cou. Matériel et méthode : 60 patients nécessitant un examen IRM de la tête pour raisons médicales se sont portés volontaires pour cette étude. Un appareil fixe parmi quatre types d’appareils (boîtiers en acier inoxydable, boîtiers en titane, boîtiers en céramique à gorge métallique et fils de contention en acier inoxydable) a été assigné à chaque patient. Chaque patient a subi deux examens à 1,5 T : avec un «échantillon de cire vide» et avec un échantillon de cire contenant l’appareil. Les arcs n’ont pas été étudiés car leur dépose avant un examen est aisée. Deux radiologues ont évalué les images de chaque patient pour chacune des zones anatomiques étudiées : sinus maxillaire, cavité buccale, articulations temporo-mandibulaires et fosse cérébrale postérieure. Résultats : Les boîtiers en acier inoxydable ont rendu la totalité des images ininterprétables (100 %). Les boîtiers en titane, les boîtiers en céramique à gorge métallique et les fils de contention en acier inoxydable ont causé des artefacts seulement au niveau de la cavité buccale (pour 20 %, 16,65 % et 86,65 % des sujets). Conclusion : Ces résultats montrent que les boîtiers en céramique à gorge métallique et les boîtiers en titane ne doivent pas toujours être déposés avant un examen d’IRM de la tête et du cou, selon la zone anatomique étudiée. Les fils de contention métalliques ne devraient être déposés que si la cavité buccale est étudiée. Les boîtiers en acier inoxydable devraient être systématiquement déposés avant un examen d’IRM de la tête et du cou.
APA, Harvard, Vancouver, ISO, and other styles
10

Palie, O., P. Michel, C. Rousseau, M. E. Meyer, S. Bardet, P. Olivier, E. Itti, C. Houzard, and P. Vera. "Détermination de la valeur prédictive de la TEP-FDG en cours de RCT pour cancer de l’œsophage par une méthode d’imagerie paramétrique." Médecine Nucléaire 37, no. 5 (May 2013): 136–37. http://dx.doi.org/10.1016/j.mednuc.2013.03.010.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Méthode d’imagerie"

1

Thouin, Emmanuelle. "L’étude de performances d’une nouvelle technique d’imagerie flash laser : l’imagerie flash laser mosaïque." Thesis, Toulouse, ISAE, 2015. http://www.theses.fr/2015ESAE0017/document.

Full text
Abstract:
Une nouvelle architecture d’Imagerie Flash Laser, appelée imagerie flash laser mosaïque (IFLM) consistant àvisualiser une scène par acquisition rapide de petites zones ou imagettes a été développée à l’ONERA. Par rapport àl’imagerie Flash laser traditionnelle qui acquiert en une seule fois toute la scène, cette technique permet d’augmenterle niveau de l’éclairement sur chaque imagette mais nécessite de couvrir l’ensemble de la scène d’étude avec unehaute cadence d’échantillonnage spatiale. Cette thèse a pour but d’évaluer les performances de ce nouveau conceptpuis de les comparer à l’imagerie flash laser classique. Dans une première étape, un simulateur complet d’IFLM (Modèle de formation d’image incluant les algorithmes de reconstruction de la scène) a été développé afin de synthétiser tous les phénomènes intervenant dans la formation des images acquises par la caméra puis de réaliser les traitements de restauration nécessaires afin de s’affranchir des artefacts introduits par cette technique. La simulation des images en entrée instrument prend en compte la formedu faisceau de la source, le type de balayage, le canal de propagation (transmission atmosphérique et turbulence) etenfin des bruits instrumentaux. Afin de reconstituer une image complète de la scène à partir des imagettes, trois méthodesde restauration ont été comparées montrant l’apport de notre méthode d’optimisation avec contrainte RL1L2.Dans une seconde étape, ce simulateur bout-en-bout a été utilisé afin de sélectionner le balayage optimal dufaisceau laser pour obtenir la meilleure qualité d’image. Nous avons montré qu’un balayage en quinconce était préférableà un balayage en ligne. Dans une troisième étape, les performances en termes de rapport signal-à-bruit et de contraste ont été évaluées et comparées à des images acquises par imagerie flash laser classique. Les résultats obtenus sur des images synthétiquesont montré que les performances entre ces deux techniques étaient comparables. Enfin, une analyse est menée sur l’étude des performances d’un tel système en tenant compte des technologies disponibles. Compte tenu des caractéristiques actuelles des sources laser et détecteurs, l’imagerie flash laser mosaïque montre son intérêt lorsqu’il faut couvrir un large champ de la scène présentant de faibles évolutions temporelles
Flash active imaging can be used for surveillance or target identification at long range and Iow visibility conditions. Its principle is based on the illumination of a scene With a pulsed laser which is then backscattered to the sensor. The signal to noise ratio and contrast of the object over the background are increased in comparison With passive imaging. Even though, range and field of view (FOV) are limited for a given laser power. The new active imaging system presented here aims at vercoming this limitation. It acquires the entire scene With a high-speed scanning laser illumination focused on a limited region, whereas at each scan the full frame active image is acquired. The whole image is then reconstructed by mosaicking Il these successive images. A evaluation of the performance of this system is conducted by using a direct physical model of his so-called « mosaic active imaging ». This End to End model, realistic in terms of turbulence effects (scintillation, beam andering.. gives us a sequence of images a synthetic scenes. After describing this model, the reconstruction method will be described. It is based on a total-variation minimization scheme. Finally, the performances of this new concept are ompared to those of a conventional flash active camera by using usual metrics (Johnston's criteria, SNR, ...). For va rious mean laser powers, we quantify the gains expected in terms of range and field of view of this new concept
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Folgoc Loïc. "Apprentissage statistique pour la personnalisation de modèles cardiaques à partir de données d’imagerie." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4098/document.

Full text
Abstract:
Cette thèse porte sur un problème de calibration d'un modèle électromécanique de cœur, personnalisé à partir de données d'imagerie médicale 3D+t ; et sur celui - en amont - de suivi du mouvement cardiaque. A cette fin, nous adoptons une méthodologie fondée sur l'apprentissage statistique. Pour la calibration du modèle mécanique, nous introduisons une méthode efficace mêlant apprentissage automatique et une description statistique originale du mouvement cardiaque utilisant la représentation des courants 3D+t. Notre approche repose sur la construction d'un modèle statistique réduit reliant l'espace des paramètres mécaniques à celui du mouvement cardiaque. L'extraction du mouvement à partir d'images médicales avec quantification d'incertitude apparaît essentielle pour cette calibration, et constitue l'objet de la seconde partie de cette thèse. Plus généralement, nous développons un modèle bayésien parcimonieux pour le problème de recalage d'images médicales. Notre contribution est triple et porte sur un modèle étendu de similarité entre images, sur l'ajustement automatique des paramètres du recalage et sur la quantification de l'incertitude. Nous proposons une technique rapide d'inférence gloutonne, applicable à des données cliniques 4D. Enfin, nous nous intéressons de plus près à la qualité des estimations d'incertitude fournies par le modèle. Nous comparons les prédictions du schéma d'inférence gloutonne avec celles données par une procédure d'inférence fidèle au modèle, que nous développons sur la base de techniques MCMC. Nous approfondissons les propriétés théoriques et empiriques du modèle bayésien parcimonieux et des deux schémas d'inférence
This thesis focuses on the calibration of an electromechanical model of the heart from patient-specific, image-based data; and on the related task of extracting the cardiac motion from 4D images. Long-term perspectives for personalized computer simulation of the cardiac function include aid to the diagnosis, aid to the planning of therapy and prevention of risks. To this end, we explore tools and possibilities offered by statistical learning. To personalize cardiac mechanics, we introduce an efficient framework coupling machine learning and an original statistical representation of shape & motion based on 3D+t currents. The method relies on a reduced mapping between the space of mechanical parameters and the space of cardiac motion. The second focus of the thesis is on cardiac motion tracking, a key processing step in the calibration pipeline, with an emphasis on quantification of uncertainty. We develop a generic sparse Bayesian model of image registration with three main contributions: an extended image similarity term, the automated tuning of registration parameters and uncertainty quantification. We propose an approximate inference scheme that is tractable on 4D clinical data. Finally, we wish to evaluate the quality of uncertainty estimates returned by the approximate inference scheme. We compare the predictions of the approximate scheme with those of an inference scheme developed on the grounds of reversible jump MCMC. We provide more insight into the theoretical properties of the sparse structured Bayesian model and into the empirical behaviour of both inference schemes
APA, Harvard, Vancouver, ISO, and other styles
3

Garrigoux, Tania. "Étude des emissions diffuses avec l'expérience H.E.S.S." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066178/document.

Full text
Abstract:
High Energy Stereoscopic System (H.E.S.S.) est un réseau de cinq télescopes à imagerie Cherenkov atmosphérique, localisé dans l’hémisphère sud, ayant pour but principal l’étude de rayons cosmiques couvrant une gamme d’énergie de 30 GeV à plusieurs dizaines de TeV. La technique de détection Cerenkov ainsi que les spécificités de la méthode de reconstruction employée par H.E.S.S. I (première phase de l’expérience H.E.S.S.), sont décrites dans cette thèse. Après plus de dix ans d’activité, l’expérience H.E.S.S. a enregistré une quantité de données importante. En plus des régions d’intérêts sondées par ces détecteurs, où des sources astrophysiques ont déjà été dévoilées, l’étude d’événements collectés permet d’améliorer la compréhension de leur environnement sous-jacent. En effet, des émissions diffuses encore non-comprises se superposent aux rayonnements provenant de sources actives. Elles sont pourtant d’un intérêt significatif en astrophysique, physique des particules, cosmologie et même dans certains domaines de physique au-delà des modèles standards, tel que la recherche de matière noire. Les émissions diffuses et leurs précédentes études sont présentées dans cette thèse, ainsi que leurs possibles origines, depuis les mécanismes d’accélération de rayons cosmiques jusqu’à la production de rayon gamma dans les sources actives ou encore par des processus secondaires impliquant les interactions de rayons cosmiques avec le milieu interstellaire. Dans ce travail, des outils pour étudier les émissions diffuses ont été développés. L’approche choisie permet de distinguer les différentes composantes dans les données étudiées et extraire une estimation de leur poids dans le spectre. Elle prend en compte deux aspects, expliqués séparément dans cette thèse. Dans un premier temps, la morphologie de la source active présente dans le champ de vue est utilisée pour la modéliser et obtenir son spectre. Ensuite, pour distinguer les différentes contributions du fond, la méthode se base sur des fonctions de densité de probabilité construites à partir de variables discriminantes. L’étude et manipulation préliminaires nécessaires des variables discriminantes sont également détaillées. Des sources astrophysiques connues sont utilisées comme référence pour l’analyse. Les spectres résultants pour la source active, les électrons et hadrons diffus sont présentés et discutés, ainsi qu’une limite supérieure sur le flux de l’émission diffuse gamma extragalactique. Les erreurs systématiques associées ont été estimées. Une technique de "unfolding" a été mise en place et utilisée pour vérifier les résultats pour les émissions diffuses
The High Energy Stereoscopic System (H.E.S.S.) is an array of five Imaging Atmospheric \v{C}erenkov Telescopes (IACT) located in the Southern Hemisphere, whose primary goal is the study of cosmic gamma-rays in the 30 GeV - few tens of TeV energy range. The detection technique used by IACT as well as the specificities of the reconstruction method of H.E.S.S. I (first phase of the H.E.S.S. experiment) are fully described in this thesis. After more than ten years of activity the H.E.S.S. experiment has registered a large amount of data. In addition to the regions of interest that its detectors probe and where astrophysical sources were unveiled, many events collected provide useful information on their surrounding environment. Indeed, acting as a background to the active sources, one can find the diffuse emissions, which are not well understood and yet are of significant interest for astrophysics, particle physics, cosmology and even physics beyond standard models, such as the search for dark matter. The diffuse emissions and their previous studies are presented in this thesis, as well as their possible origin, starting from the acceleration of cosmic-rays mechanism and the gamma-ray production in the active sources or from secondary process involving cosmic-rays interactions in the interstellar medium.In this work, tools to investigate the diffuse emissions were developed. The approach aims at disentangling the different components of the studied data so as to extract an estimation of their weight in the spectrum. It takes into account two aspects, explained separately in this thesis. On the one hand, the morphology of the active source in the studied field of view is used to modelize it and obtain its spectrum. Then, to disentangle the different contributions in the background, the method is based on probability density functions (PDF) built with discriminant variables. The necessary preliminary study and manipulation of the discriminant variables is also detailed. Well known astrophysical sources are used as benchmarks for the analysis. The resulting spectra for the active source, diffuse electrons and hadrons are presented and discussed, in addition to an upper limit on the extragalactic diffuse gamma-ray emission flux. The associated systematic errors were estimated
APA, Harvard, Vancouver, ISO, and other styles
4

Acuña, Paz y. Miño Jairo. "Application des méthodes d’imagerie au rayonnement dans les scènes urbaines." Thesis, Pau, 2020. http://www.theses.fr/2020PAUU3023.

Full text
Abstract:
Ce travail repose sur les techniques d’imagerie photographique et thermographique qui permettent de mieux comprendre les échanges radiatifs d’une scène urbaine en donnant des résultats visuels et quantitatifs. Deux types d’image sont construits et exploités : des panoramas sphériques, couvrant un angle solide de 4π stéradians, et des perspectives urbaines.Les études de scènes urbaines effectuées dans des conditions différentes, Bayonne en hiver et Cordoue en été, sont présentées à travers deux applications. La première est centrée sur le confort thermique urbain et la seconde sur les échanges thermiques entre les surfaces d’une rue.Dans la première application, l’étude se concentre sur le rayonnement incident en un point provenant de toutes les directions. Le rayonnement est mesuré dans les spectres visible et infrarouge, puis extrapolé à l’ensemble du spectre. L'image 4π qui en résulte représente la distribution spatiale du rayonnement et sert à calculer la température moyenne de rayonnement. Ce résultat est validé par des comparaisons avec les mesures utilisant le globe noir, considéré comme la méthode de référence. La méthode 4π offre une mesure rapide, indépendante des effets de convection, avec une discrimination spectrale en deux bandes. Elle sert à jauger une ville à partir de peu de points de mesure, mais aussi à obtenir des informations spatialisées précises. Ainsi, l'étude réalisée à Cordoue montre que la rugosité du sol dans deux scènes analysées dans des conditions similaires influence le confort thermique du piéton.Pour la deuxième application, l'étude est concentrée sur les températures de surface. Un modèle 3D simplifié est combiné à du lancer de rayons pour corriger la thermographie en filtrant les flux parasites. Le résultat est validé sur une rue en perspective par comparaison avec le résultat de plusieurs thermomètres de contact. Cette comparaison, qui ne peut être que ponctuelle et limitée à certaines surfaces, donne des résultats satisfaisants qui permettent d'étendre la correction à l'ensemble de l'image.Les thermographies corrigées révèlent des phénomènes qui n'étaient pas visibles auparavant, les écarts de température des fenêtres étant les plus remarquables. En effet, le verre, matériau à haute transmittance thermique, met en évidence d’importantes pertes d'énergie lors de sa traversée. Ces pertes sont particulièrement visibles lors d'une froide journée d'hiver, lorsque le chauffage est en fonctionnement. Dans une rue de type canyon, l'étude qualitative du rayonnement séparément dans deux bandes spectrales montre l'intérêt d'en inclure une troisième pour mieux comprendre le passage de la réflexion diffuse à la réflexion spéculaire. Cette bande serait celle de l'infrarouge proche. Les deux applications apportent des connaissances fondamentales sur le paysage radiatif de la ville et montrent bien la relation entre la géométrie et le rayonnement. Ce n'est qu'à travers cette relation qu'il est possible d'identifier les phénomènes physiques qui doivent être pris en compte pour la simulation thermique urbaine
This work relies on imagery, photographic and thermographic, allowing a better understanding of the radiative exchanges of an urban scene by giving both visual and quantitative results. Two types of images are constructed and exploited: spherical panoramas, referred to as 4π as they cover a solid angle of 4π steradians, and urban perspectives.The study of urban scenes in different places and conditions, Bayonne in winter and Cordoba in summer, are presented through two applications. The first focuses on urban thermal comfort and the second on heat exchanges between the surfaces of a street.In the first application, the study focuses on the incident radiation coming from all directions at a single point. The radiation is measured in both the visible and infrared range and then extrapolated to the whole spectrum. The resulting image 4π represents the radiative spatial distribution and is used to calculate the mean radiant temperature. This result is validated by comparisons with measurements performed using the black globe, accepted as the reference method. The 4π method offers a fast, convection-independent measurement with spectral discrimination in two bands. It serves to evaluate a city from few measurement points, but also to obtain precise spatialized information. The study carried out in Cordoba shows that the roughness of the ground in two scenes evaluated under similar conditions influences the thermal comfort of the pedestrian.For the second application, the study focuses on surface temperatures. We use a simplified 3D model combined with ray tracing to correct the thermography by filtering parasitic fluxes. The result is validated on a perspective street by comparison with the result of several contact thermometers. This comparison, which can only be punctual and limited to certain surfaces, gives satisfactory results that allow us to extend the correction to the entire image.A corrected thermogram reveals phenomena that were formerly not visible, the temperature difference of the windows being the most remarkable. Indeed, glass, a material with high heat transmission, exhibits the heat loss that occurs through its surface. This is particularly noticeable on a cold winter's day when the heating is in operation. In a canyon-type street, the qualitative study of the radiation discriminated in two spectral bands shows the interest of including a third one, that of the near infrared, to better understand the passage from diffuse to specular reflection. These two applications provide fundamental knowledge on the radiative landscape of the city and show the relationship between geometry and radiation. Only through this relationship is it possible to identify the physical phenomena that must be accounted in an urban thermal simulation
Este trabajo se basa en el uso de la imagen: fotográfica y termográfica. Esta permite una mejor comprensión de los intercambios radiativos de la escena urbana al proporcionar un resultado tanto visual como cuantitativo mediante la construcción y manipulación de dos tipos de imágenes: las panorámicas esféricas, llamadas 4π porque cubren un ángulo sólido de 4π estereorradianes, y las perspectivas urbanas.El estudio de escenas urbanas bajo diferentes condiciones ambientales, Bayona en invierno y Córdoba en verano, se presenta a través de dos aplicaciones. La primera se centra en el confort térmico urbano y la segunda en los intercambios térmicos entre las superficies de una calle.En la primera aplicación, el estudio se enfoca en la radiación incidente en un punto proveniente de todas las direcciones. La radiación se mide en dos rangos del espectro, el visible y el infrarrojo, y se extrapola a todo el espectro. La imagen 4π resultante representa la distribución espacial de la radiación y se utiliza para calcular la temperatura media radiante. Este resultado se valida mediante comparaciones con mediciones utilizando el globo negro, considerado como método de referencia. El método 4π ofrece una medición rápida e independiente de la convección con una discriminación espectral en dos bandas. Ésta sirve para evaluar una ciudad a partir de pocos puntos de medición, pero también para obtener información espacializada precisa. El estudio realizado en Córdoba muestra que la rugosidad del suelo en dos escenas evaluadas en condiciones similares influye en el confort térmico del peatón.En la segunda aplicación, el estudio se concentra en las temperaturas de la superficie. Nos servimos de un modelo 3D simplificado en combinación con el trazado de rayos para corregir la termografía filtrando los flujos parásitos. El resultado se valida en la perspectiva de una calle comparándolo con el resultado de varios termómetros de contacto. Esta comparación, que sólo puede ser puntual y limitada a ciertas superficies, da resultados satisfactorios que permiten extender la corrección a toda la imagen.Una termografía corregida revela fenómenos que antes no eran visibles, destacándose la diferencia de temperatura de las ventanas. Efectivamente, el vidrio, un material con una alta transmitancia térmica, pone en evidencia la energía que se pierde a través de su superficie. Esto es particularmente visible en un día frío de invierno, cuando la calefacción está en funcionamiento. En el caso de una calle tipo cañón, el estudio cualitativo de la radiación discriminada en dos bandas espectrales muestra el interés de incluir una tercera para comprender mejor el paso de la reflexión difusa a la especular, la del infrarrojo cercano. Las dos aplicaciones proporcionan conocimientos fundamentales sobre el paisaje radiativo de la ciudad y muestran el vínculo entre la geometría y la radiación. Es sólo a través de esta relación que es posible identificar los fenómenos físicos que deben ser tenidos en cuenta para una simulación térmica urbana
APA, Harvard, Vancouver, ISO, and other styles
5

Tozlu, Ceren. "Classification et modélisation statistique intégrant des données cliniques et d’imagerie par résonance magnétique conventionnelle et avancée." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1043/document.

Full text
Abstract:
L'accident vasculaire cérébral et la sclérose en plaques figurent parmi les maladies neurologiques les plus destructrices du système nerveux central. L'accident vasculaire cérébral est la deuxième cause de décès et la principale cause de handicap chez l'adulte dans le monde alors que la sclérose en plaques est la maladie neurologique non traumatique la plus fréquente chez l'adulte jeune. L'imagerie par résonance magnétique est un outil important pour distinguer le tissu cérébral sain du tissu pathologique à des fins de diagnostic, de suivi de la maladie, et de prise de décision pour un traitement personnalisé des patients atteints d'accident vasculaire cérébral ou de sclérose en plaques. La prédiction de l'évolution individuelle de la maladie chez les patients atteints d'accident vasculaire cérébral ou de sclérose en plaques constitue un défi pour les cliniciens avant de donner un traitement individuel approprié. Cette prédiction est possible avec des approches statistiques appropriées basées sur des informations cliniques et d'imagerie. Toutefois, l'étiologie, la physiopathologie, les symptômes et l'évolution dans l'accident vasculaire cérébral et la sclérose en plaques sont très différents. Par conséquent, dans cette thèse, les méthodes statistiques utilisées pour ces deux maladies neurologiques sont différentes. Le premier objectif était l'identification du tissu à risque d'infarctus chez les patients atteints d'accident vasculaire cérébral. Pour cet objectif, les méthodes de classification (dont les méthodes de machine learning) ont été utilisées sur des données d'imagerie mesurées à l'admission pour prédire le risque d'infarctus à un mois. Les performances des méthodes de classification ont été ensuite comparées dans un contexte d'identification de tissu à haut risque d'infarctus à partir de données humaines codées voxel par voxel. Le deuxième objectif était de regrouper les patients atteints de sclérose en plaques avec une méthode non supervisée basée sur des trajectoires individuelles cliniques et d'imagerie tracées sur cinq ans. Les groupes de trajectoires aideraient à identifier les patients menacés d'importantes progressions et donc à leur donner des médicaments plus efficaces. Le troisième et dernier objectif de la thèse était de développer un modèle prédictif pour l'évolution du handicap individuel des patients atteints de sclérose en plaques sur la base de données démographiques, cliniques et d'imagerie obtenues a l'inclusion. L'hétérogénéité des évolutions du handicap chez les patients atteints de sclérose en plaques est un important défi pour les cliniciens qui cherchent à prévoir l'évolution individuelle du handicap. Le modèle mixte linéaire à classes latentes a été utilisé donc pour prendre en compte la variabilité individuelle et la variabilité inobservée entre sous-groupes de sclérose en plaques
Stroke and multiple sclerosis are two of the most destructive neurological diseases of the central nervous system. Stroke is the second most common cause of death and the major cause of disability worldwide whereas multiple sclerosis is the most common non-traumatic disabling neurological disease of adulthood. Magnetic resonance imaging is an important tool to distinguish healthy from pathological brain tissue in diagnosis, monitoring disease evolution, and decision-making in personalized treatment of patients with stroke or multiple sclerosis.Predicting disease evolution in patients with stroke or multiple sclerosis is a challenge for clinicians that are about to decide on an appropriate individual treatment. The etiology, pathophysiology, symptoms, and evolution of stroke and multiple sclerosis are highly different. Therefore, in this thesis, the statistical methods used for the study of the two neurological diseases are different.The first aim was the identification of the tissue at risk of infarction in patients with stroke. For this purpose, the classification methods (including machine learning methods) have been used on voxel-based imaging data. The data measured at hospital admission is performed to predict the infarction risk at one month. Next, the performances of the classification methods in identifying the tissue at a high risk of infarction were compared. The second aim was to cluster patients with multiple sclerosis using an unsupervised method based on individual clinical and imaging trajectories plotted over five 5 years. Clusters of trajectories would help identifying patients who may have an important progression; thus, to treat them with more effective drugs irrespective of the clinical subtypes. The third and final aim of this thesis was to develop a predictive model for individual evolution of patients with multiple sclerosis based on demographic, clinical, and imaging data taken at study onset. The heterogeneity of disease evolution in patients with multiple sclerosis is an important challenge for the clinicians who seek to predict the disease evolution and decide on an appropriate individual treatment. For this purpose, the latent class linear mixed model was used to predict disease evolution considering individual and unobserved subgroup' variability in multiple sclerosis
APA, Harvard, Vancouver, ISO, and other styles
6

Vernet, Kinson. "Imagerie densitométrique 3D des volcans par muographie." Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2022. http://www.theses.fr/2022UCFAC112.

Full text
Abstract:
La muographie est une technique d’imagerie en physique des particules où les muons atmosphériques traversant une cible sont utilisés pour déterminer des informations de l’intérieur de la cible : distribution de la densité ou composition chimique via le numéro atomique. En fonction de l’énergie des muons et de la quantité de matière à traverser, il y en a qui vont survivre et d’autres qui vont être arrêtés par la cible. Et, la diffusion des muons dépend, en première approximation, de leur impulsion et du numéro atomique moyen le long de leur parcours de vol. La muographie propose, à partir de la mesure de la transmission et/ou de la diffusion des muons à travers la cible, de fournir des informations sur son intérieur.Il existe actuellement deux types de muographie : la muographie par transmission où le flux transmis des muons à travers la cible est mesuré pour inférer la distribution de densité de la cible et la muographie par diffusion où la diffusion des muons à travers la cible est utilisée pour déterminer la distribution du numéro atomique de la cible. Cette thèse traite de la muographie par transmission pour radiographier les volcans.Dans le cas de la muographie par transmission, un télescope à muons est utilisé pour mesurer le flux transmis des muons atmosphériques à travers la cible. Ce flux est, en première approximation, une fonction bijective de la quantité de matière rencontrée par les muons. L’idée est d’inverser le nombre de muons mesurés en une estimation de la densité de la cible.Il existe d’autres méthodes d’imagerie en géophysique permettant de reconstruire la densité d’une cible. C’est le cas, par exemple, de la gravimétrie et de l’imagerie par sismicité. Ces méthodes dites conventionnelles présentent des faiblesses. Pour ces méthodes, le problème d’inversion est soit mal posé, c’est-à-dire il n’existe pas de solution unique ou la solution présente de grandes variations pour de petites variations des paramètres dont elle dépend. Un ensemble de contraintes supplémentaires sont alors ajoutées pour enlever la non-unicité.En muographie par contre, le problème d’inversion est bien posé et la solution est unique. Les méthodes conventionnelles en géophysique ne permettent pas, à elles seules, de déterminer la densité de la cible. Jointes avec la muographie, elles présentent de gros potentiel, soit en fournissant d’autres informations sur la roche et/ou sur la nature de l’eau, soit en améliorant la précision sur la reconstruction de la densité de la cible.Plusieurs expériences utilisent l’approximation CSDA (Continuous Slowing Down Approximation) pour estimer la probabilité de survie des muons à travers une cible. Le fait d’utiliser cette approximation, donc de négliger le caractère stochastique de l’interaction des muons avec la matière, sous-estime la probabilité de survie des muons et par conséquent induit des effets systématiques sur la reconstruction de la densité. Dans les kilomètres de roche standard l’effet est de 3% - 8% en fonction de la modélisation de l’interaction des muons de hautes énergies avec la matière. En outre, une mauvaise estimation du bruit de fond des muons de basse impulsion qui affectent la mesure du signal résulte en une sous-estimation de la densité de la cible par rapport à la gravimétrie. Cela vient probablement de l’utilisation de l’approximation analytique pour simuler la propagation des muons à travers la cible et de la difficulté de rejeter dans la mesure ceux de basse impulsion. Pour ces raisons, dans l’expérience MIM (Muon IMaging) (où cette thèse a été réalisée), nous utilisons un traitement Monte Carlo pour simuler le transport des muons à travers la cible. Dans ce cas, nous pouvons estimer précisément l’effet de ces muons de basse impulsion sur la reconstruction de la densité. (...)
Muography is an imaging technique in particle physics where atmospheric muons passing through a target are used to determine information about the interior of the target : density distribution or chemical composition via the atomic number. Depending on the energy of the muons and the amount of matter they have to cross, some of them will survive and others will be stopped by the target. And, the diffusion of the muons depends, to a first approximation, on their momentum and the average atomic number along their flight path. Muography proposes, from the measurement of the transmission and/or diffusion of muons through a target, to provide information about its interior.There are currently two types of muography : transmission muography, where the transmitted flux of muons through the target is measured to infer the density distribution of that target, and diffusion muography, where the diffusion of muons through the target is used to determine the distribution of the atomic number of the target. This thesis discusses transmission muography in order to radiography volcanoes.In the case of transmission muography, a muon telescope is used to measure the transmitted flux of atmospheric muons through the target. This flux is, to a first approximation, a bijective function of the amount of matter encountered by the muons. The idea is to invert the measured number of muons into a density estimation of the target.There are other imaging methods in geophysics that can be used to reconstruct the density of a target. This is the case, for example, of gravimetry and seismic imaging. These so-called conventional methods have weaknesses. For these methods, the inversion problem is either ill-posed, i.e. there is no unique solution, or the solution presents large variations for small variations of the parameters on which it depends. A set of additional constraints are then added to remove the non-uniqueness.In muography however, the inversion problem is well posed and the solution is unique. Conventional geophysical methods alone cannot determine the density of a target. Combined with muography, they have great potential, either by providing other information on the rock and/or on the nature of the water, or by improving the accuracy of the target density reconstruction.Several experiments use the CSDA (Continuous Slowing Down Approximation) approximation to estimate the survival probability of muons through a target. Using this approximation, thus neglecting the stochastic character of the interaction of muons with matter, underestimates the muon survival probability and therefore induces systematic effects on the density reconstruction. In standard rock kilometers the effect is 3% - 8% depending on the modeling of the interaction of high energy muons with matter. In addition, a bad estimation of the background of the low momentum muons affecting the measurement of the signal results in an underestimation of the density of the target with respect to the gravimetry. This probably comes from the use of the analytical approximation to simulate the propagation of the muons through the target and the difficulty of rejecting in the measurement those with low momentum. For these reasons, in the Muon IMaging (MIM) experiment (where this thesis was conducted), we use a Monte Carlo treatment to simulate the muon transport through the target. In this case, we can accurately estimate the effet of these low momentum muons on the density reconstruction. One of the techniques used in our experiment, to make the low momentum muons scatter so that they can be statistically rejected, is to insert a thickness of lead between the telescope detection planes. (...)
APA, Harvard, Vancouver, ISO, and other styles
7

Luquel, Jérôme. "Imagerie de milieux complexes par équations d’ondes élastiques." Thesis, Pau, 2015. http://www.theses.fr/2015PAUU3004.

Full text
Abstract:
L’industrie pétrolière s’intéresse désormais à des régions de la terre de plus en plus difficiles d’accès et il est essentiel de proposer des techniques permettant de garantir l’efficaité d’un forage. Parmi ces techniques, la Reverse Time Migration (RTM) est connue pour sa précision. Elle utilise les ondes réfléchies pour reconstruire une carte du sous-sol représentant les interfaces géophysiques. Elle peut être décrite en trois étapes : (i) propager le champs émis par les sources durant la campagne d’acquisition; (ii) pour chaque source, propager le champ enregistré par les récepteurs; (iii) obtenir une image du sous-sol en appliquant une condition d’imagerie à chaque pas de temps et pour chaque source. Cette technique requiert de très grosses capacités de calcul et il est encore difficile d’imager des milieux réalistes 3D, même avec l’aide du calcul haute performance. Nous avons choisi la méthode de Galerkine discontinue pour modéliser la partie propagation car elle permet d’obtenir des solutions précises et est adaptable au calcul parallèle. La quantité d’information à sauvegarder pour faire une corrélation étant importante, on se doit de trouver un algorithme de calcul d’images du sous-sol réduisant ce coût. Nous avons utilisé l’algorithme de Griewank, appelé “Optimal Checkpointing”. Ce problème de coût étant réglé, on se doit de considérer l’efficacité des ondes élastiques incluant des champs multiples pour améliorer la précision de l’image. La condition traditionnelle de J. Claerbout ne prend pas en compte les conversions d’ondes, et n’est alors surtout utile que dans le cas acoustique. De plus, les ondes P et S interagissant entre elles, il est intéressant de trouver une condition d’imagerie utilisant ce fait. Cela a été abordé dans le cadre de la méthode de l’état adjoint dans les travaux de A. Tarantola et J. Tromp et ce travail en propose utilisation dans le cadre de la RTM. Nous proposons une nouvelle condition d’imagerie prenant en compte les paramètres élastiques du milieu considéré et permettant de supprimer les artefacts numériques. Nous illustrons les images sur des cas industriels
Since a large number of sedimentary basins have been explored, oil exploration is now interested in investigating regions of the Earth which are hostile. Among existing methods for seismic imaging, Reverse Time Migration (RTM) is a technique known by industry to be efficient. The RTM uses reflected waves and is able to construct a map of the subsurface which is depicted by the interfaces limiting the geophysical layers. The algorithm of RTM can be described as a three-step procedure: (i) compute the wavefields emitted by the sources used during the seismic acquisition campaign; (ii) for each source, compute the so-called “backpropagated wavefield”, which is the wavefield obtained by using as sources the signals recorded at the receivers during the acquisition campaign and by reversing the time; (iii) get an image of the subsurface by applying an imaging condition combining the propagated and the backpropagated wavefields at each time step of the numerical scheme and for each source. This technique is computationnaly intensive and it is still difficult to image realistic 3D elastic media, even with the help of HPC. We have thus chosen to consider high-order Discontinuous Galerkin Methods which are known to be well-adapted to provide accurate solutions based upon parallel computing. As we need to correlate a lot of wavefields, we need to find an algorithm reducing the CPU time and the storage : this is the Griewank’s algorithm, so-called “Optimal Checkpointing”. The traditional imaging condition, proposed by J. Claerbout, does not take wave conversions into account and since P-wave and S-wave interact with each other, it might be relevant to use an imaging condition including these interactions. In fact, this has been done successfully by A. Tarantola and J. Tromp for seismology applications based upon the inversion of the global Earth. In this work, we propose a new imaging condition using the elastic parameters which attenuates numerical artifacts. We illustrate the properties of the new imaging condition on industrial benchmarks like the Marmousi model. In particular, we compare the new imaging condition with other imaging conditions by using as criteria the quality of the image
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Méthode d’imagerie"

1

Coqueugniot, Hélène. "Paléo-imagerie par rayons X : une méthode d’exploration transdisciplinaire, de l’archéologie à la chirurgie Hélène." In Regards croisés: quand les sciences archéologiques rencontrent l'innovation, 139–56. Editions des archives contemporaines, 2017. http://dx.doi.org/10.17184/eac.3794.

Full text
Abstract:
L’imagerie par rayons X, bi- et tridimensionnelle, est devenue une méthodologie incontournable dans de nombreux champs disciplinaires dont celui des sciences archéologiques. Contrairement aux autres méthodes d’imagerie permettant seulement des acquisitions de surface (photographie et photogrammétrie, scanner laser), le rayonnement X permet également des acquisitions de volume, ce qui s’avère être un avantage fondamental dans les indications nécessitant de visualiser du contenu sans toucher au contenant. Cette propriété physique du rayonnement X de traverser la matière et de révéler l’intérieur des objets sur des images projetées en 2 dimensions a été appliquée très tôt au domaine archéologique, dès l’invention même de la radiologie en 1895, en parallèle avec son développement fulgurant dans le domaine médical. Les applications « archéométriques » des rayons X ont fait émerger le terme de paléoradiologie, qui définit l’application du rayonnement X à l’étude de matériaux bio-archéologiques. Un siècle après, les méthodes d’acquisition par rayons X se sont considérablement développées (radiologie numérique, tomodensitométrie, microtomographie RX) et le traitement des images a ouvert l’accès, grâce à la révolution numérique, à une nouvelle dimension. L’introduction de cette troisième dimension pour l’imagerie radiologique a permis de nombreuses avancées en recherches fondamentale et appliquée dans le domaine archéologique, tout en renouvelant considérablement les possibilités de conservation et de valorisation du patrimoine. En constituant un réseau interdisciplinaire, nous avons développé, à partir de la tomodensitométrie, une chaîne complète d’imagerie tridimensionnelle, initiée pour l’anthropologie biologique et qui trouve ses applications dans le domaine de l’archéologie et plus récemment dans celui de la chirurgie reconstructrice. En parallèle avec l’utilisation des rayons X, d’autres méthodes d’acquisitions d’images apportent également leurs contributions à l’archéologie. Leur intégration dans une approche transdisciplinaire utilisant l’ensemble des modalités non-destructives d’acquisition d’images et de leur représentation (multimodale et multidimensionnelle) a été nommée paléo-imagerie. La paléo-imagerie s’exprime à la fois sur le terrain et en laboratoire, fonctionne de manière diachronique (sans focus chronologique, de la préhistoire aux périodes contemporaines) et holistique en contextualisant l’objet dans son environnement archéologique. Dans cette optique, la paléo-imagerie a toute sa place au sein des méthodes de l’archéométrie
APA, Harvard, Vancouver, ISO, and other styles
2

CORBIN, Nadège, Sylvain MIRAUX, Valéry OZENNE, Émeline RIBOT, and Aurélien TROTIER. "Imagerie rapide et techniques d’accélération." In Les enjeux de l’IRM, 57–81. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9113.ch3.

Full text
Abstract:
Les séquences d’imagerie rapides, cartésiennes et non-cartésiennes ainsi que les méthodes standards d’accélération et reconstruction sont décrites. Les champs d’application requérant ces techniques sont également présentés.
APA, Harvard, Vancouver, ISO, and other styles
3

"Méthodes d’examen et d’imagerie scientifique." In Physico-chimie des matériaux archéologiques et culturels, 43–68. Editions des archives contemporaines, 2016. http://dx.doi.org/10.17184/eac.4060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

"Chapitre 5 Principales méthodes d’imagerie RMN." In Imagerie de résonance magnétique, 315–450. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0922-6-006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

"Chapitre 5 Principales méthodes d’imagerie RMN." In Imagerie de résonance magnétique, 315–450. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0922-6.c006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Allaire-Duquette, Geneviève, Grégoire Borst, and Arnaud Cachia. "La méta-analyse de données d’imagerie par résonance magnétique fonctionnelle." In Méthodes de recherche en neuroéducation, 133–82. Presses de l'Université du Québec, 2018. http://dx.doi.org/10.2307/j.ctvggx359.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

COLAS, Maggy, Patrick SIMON, Michel MERMOUX, and Ganesh D. SOCKALINGUM. "Infrarouge et Raman : de la spectroscopie à l’imagerie." In Spectroscopies vibrationnelles, 197–220. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.4201.

Full text
Abstract:
Les spectroscopies infrarouge et Raman décrites en détails dans les chapitres précédents permettent donc de caractériser finement les objets sondés. Si ces objets sont hétérogènes, cette caractérisation sera différente en fonction de l'endroit sondé. Plusieurs mesures ponctuelles permettront d'affiner la réponse, mais souvent, cette description restera incomplète. L'hétérogénéité peut être de différentes origines: échantillons constitués de différentes phases, différentes compositions moléculaires, gradients de concentration, variations locales de propriétés (contraintes mécaniques, indices optiques, température, etc.). Les spectroscopistes ont alors développé des techniques d’imagerie, qui trouveront naturellement leur intérêt dès lors que les hétérogénéités de compositions ou de propriétés ont des dimensions comparables aux résolutions spatiales de ces méthodes.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Méthode d’imagerie"

1

Catros, S., S. Ziane, C. Lalande, I. Arnault, B. Rousseau, S. Miraux, O. Chassande, F. Guillemot, and JC Fricain. "Méthodes d’imagerie in vivo sur le petit animal : intérêt en ingénierie tissulaire osseuse." In 56ème Congrès de la SFMBCB. Les Ulis, France: EDP Sciences, 2011. http://dx.doi.org/10.1051/sfmbcb/20115603014.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Méthode d’imagerie"

1

Corkum, Eleanor, Tiffanie Perrault, and Erin C. Strumpf. Améliorer les parcours de diagnostic du cancer du sein au Québec. CIRANO, October 2023. http://dx.doi.org/10.54932/tlak9928.

Full text
Abstract:
Les retards de diagnostic du cancer du sein peuvent aggraver la maladie et renforcer les inégalités. Fondé sur des renseignements tirés de la littérature scientifique sur les soins du cancer, de rapports gouvernementaux et d’entretiens avec des experts, ce rapport analyse les capacités et performances du Québec en matière de diagnostic. La première section décrit les types de données sur le cancer du sein recueillies par le Québec et l’impact de la disponibilité de ces données sur la mesure des indicateurs de performance. La deuxième section explique en quoi les facteurs socioéconomiques et le manque de clarté des normes de prise en charge des patientes et patients hors programme de dépistage organisé au Québec entravent le diagnostic. Nous examinons également dans quelle mesure l’absence de soins standardisés et intégrés, ainsi que l’obsolescence du Registre du cancer du Québec contribuent à accroître les délais et les inefficacités. La dernière section du rapport compare les innovations en matière de diagnostic du cancer du sein au Québec à celles de l’Alberta et de l’Ontario, où les délais de diagnostic sont plus courts. Il ressort de cette comparaison que le Québec devrait inclure les personnes à risque élevé dans son programme de dépistage, émettre des recommandations de dépistage personnalisées, moderniser les technologies d’imagerie et de tests génétiques disponibles, ainsi qu’améliorer les méthodes de communication. Nous discutons également des études et initiatives pertinentes pour accroître l’adhésion au dépistage au sein des groupes dont les taux de dépistage sont faibles. Dans l’ensemble, ce document présente des stratégies tangibles pour raccourcir l’intervalle diagnostique du cancer du sein et rationaliser le processus, et dirige le lecteur vers des ressources clés pour des recherches plus approfondies.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography