Littérature scientifique sur le sujet « Traitement de larges images »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Traitement de larges images ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Traitement de larges images"

1

Adeline, Karine R. M., Arnaud Le Bris, Fabien Coubard, Xavier Briottet, Nicolas Paparoditis, Françoise Viallefond, Nicolas Rivière et al. « Description de la campagne aéroportée UMBRA : étude de l'impact anthropique sur les écosystèmes urbains et naturels avec des images THR multispectrales et hyperspectrales ». Revue Française de Photogrammétrie et de Télédétection, no 202 (16 avril 2014) : 79–92. http://dx.doi.org/10.52638/rfpt.2013.53.

Texte intégral
Résumé :
Durant ces dernières décennies, l'imagerie par télédétection aéroportée des milieux urbains reste un enjeu scientifique majeur. L'arrivée d'une nouvelle génération de caméras aéroportées permettant d'effectuer des acquisitions à très haute résolution spatiale et possédant un meilleur rapport signal sur bruit ouvre de nouvelles perspectives pour extraire l'information de ces environnements. En effet, la principale limitation de la plupart des méthodes de traitement des images dans ces milieux est due à la grande variété des matériaux qui les compose et à la géométrie dense et complexe qui les caractérise et peut induire de larges zones d'ombre. La campagne (UMBRA) a pour but d'acquérir un nouveau jeu de données de référence représentatif de deux villes françaises distinctes en vue de développer de nouvelles méthodes de correction atmosphérique au soleil et à l'ombre, de concevoir de futures caméras superspectrales dédiées à des applications de télédétection urbaine, et d'étudier des applications pour ``ré-éclairer'' des scènes à partir d'images urbaines terrestres. Ce papier détaille cette campagne ainsi que les prétraitements qui ont été effectués sur les différentes données acquises. De premiers résultats sont également présentés.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Vendeville, B., V. Mathieu, J. Jacquet, P. Wong, L. Steinmüller, M. Tutin, P. L. Coulet et D. Mainard. « Traitement arthroscopique des lésions kystiques du dôme talien par curetage et comblement au ciment phosphocalcique : à propos d’un cas et revue de la littérature ». Médecine et Chirurgie du Pied 38, no 2 (juin 2022) : 36–44. http://dx.doi.org/10.3166/mcp-2022-0085.

Texte intégral
Résumé :
Le traitement chirurgical des lésions ostéochondrales du dôme astragalien (LODA) kystiques de grands volumes consiste en un curetage puis comblement de la cavité géodique. La littérature actuelle propose principalement des techniques impliquant de larges voies d’abord avec ostéotomies malléolaires et autogreffes iliaques pourvoyeuses de complications et de morbidités non négligeables. Le choix d’un traitement moins invasif sous contrôle arthroscopique antérieur a été décrit par quelques auteurs. Nous rapportons ici le cas d’un patient de 22 ans présentant une LODA kystique postérolatérale de grand volume post-traumatique symptomatique. Le patient a bénéficié sous contrôle arthroscopique postérieur, d’un curetage et comblement extra-articulaire de la lésion par ciment phosphocalcique. À deux ans postopératoires, le patient n’a aucune doléance clinique avec une stabilité de la lésion au bilan d’imagerie.
Styles APA, Harvard, Vancouver, ISO, etc.
3

SAMI, Soraya. « Biphosphonates in the treatment of early breast cancer ». Batna Journal of Medical Sciences (BJMS) 8, no 2 (28 décembre 2021) : 140–44. http://dx.doi.org/10.48087/bjmsra.2021.8210.

Texte intégral
Résumé :
Les biphosphonates sont utilisés en situation adjuvante en association aux inhibiteurs de l’aromatase, afin de prévenir la perte osseuse. Des études précliniques ont également démontré leur effet antitumoral. En effet, de larges essais randomisés de phase III ont confirmé que les biphosphonates permettent d’améliorer la survie des patientes ménopausées atteintes d’un cancer du sein au stade précoce. Actuellement, le clodronate et l’acide zoledronique sont recommandés dans cette indication. Les risques et les avantages du traitement doivent être discutés avec les patients.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bonnet, Cédrick. « Contrôle postural de patients parkinsoniens lors d’observations libres de larges images ». Neurophysiologie Clinique 47, no 5-6 (décembre 2017) : 350–51. http://dx.doi.org/10.1016/j.neucli.2017.10.037.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Chaillou, Élisabeth. « Psychothérapie mère-bébé avec un bébé de 5 mois présentant un évitement relationnel ». Cahiers de l'enfance et de l'adolescence 10, no 2 (12 février 2024) : 77–93. http://dx.doi.org/10.3917/cead.010.0077.

Texte intégral
Résumé :
L’auteure exprime le pas-à-pas de la construction d’une psychothérapie mère-bébé issue d’une clinique de la non-demande. L’évitement du regard majeur de ce bébé de 5 mois pose des questions diagnostiques neuropédiatriques et pédopsychiatriques. Penser les relations entre ce bébé et cette mère en termes de dysharmonie interactive est un appui pour les consultations et la psychothérapie qui s’engage ensuite. Les variations de la symptomatologie de ce bébé, au cours de ce traitement de onze mois, et la transformation des affects post-traumatiques de sa mère illustrent la pertinence de la notion d’évitement relationnel et de son ouverture sur des perspectives évolutives très larges.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bondiau, P. Y., G. Malandain, S. Chanalet, P. Y. Marcy, C. Foa et N. Ayache. « Traitement des images et radiothérapie ». Cancer/Radiothérapie 8, no 2 (avril 2004) : 120–29. http://dx.doi.org/10.1016/j.canrad.2003.10.002.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

BLAZY, V., G. HEURTEBIZE, D. GILLES, G. TESNIERE et G. FLEURY. « Solutions de monitoring au service d’audit de stations d’épuration des eaux usées ». Techniques Sciences Méthodes, no 6 (22 juin 2020) : 33–43. http://dx.doi.org/10.36904/tsm/202006033.

Texte intégral
Résumé :
L’audit de stations de traitement des eaux usées est un exercice complexe, car transdisciplinaire (génie des procédés, génie biologique, électromécanique, chimie, chimie analytique, hydraulique…), et dont le périmètre couvre de larges aspects relatifs à la sécurité, au process, à la maintenance, à l’économie et à l’organisation… Traditionnellement, cette démarche se décompose en trois phases distinctes visant : i) un recueil d’informations, ii) un relevé sur site et iii) un compte rendu. Les développements récents en matière de métrologie et d’instrumentation ont permis d’augmenter le niveau d’automatisation et de contrôle des usines de traitement des eaux. Les processus épuratoires, mis en oeuvre à travers des procédés plus ou moins complexes, sont ainsi suivis plus finement, assurant une réactivité opérationnelle immédiate et une fiabilisation des qualités d’eau à atteindre. Dans un même temps, la compilation de données au sein d’un automate programmable industriel et leur organisation/ traitement à travers une solution de supervision/hypervision amènent un suivi et une rationalisation de l’exploitation ouvrant la porte à des perspectives d’optimisation. Pour autant, les gains apportés par le monitoring sont rarement mis au profit des moyens d’investigations nécessaires à la phase de relevé sur site d’audit. Cet article présente plusieurs retours d’expériences à travers trois cas d’étude. Il intègre aussi bien des préoccupations d’ordres méthodologique, technique que des exemples de retour sur investissement dans la conduite et la restitution d’audit d’installations de traitement des eaux usées.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Robert, Yohann, Alban Todesco, Laurent Selek, Christian Piolat et Philippe Chaffanjon. « Bases anatomiques de l’innervation des muscles larges dans le traitement des aplasies de coupole diaphragmatique ». Morphologie 99, no 326 (septembre 2015) : 78. http://dx.doi.org/10.1016/j.morpho.2015.07.015.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Clarençon, F., A. Biondi, N. Sourour, F. Bonneville, C. Accardo et J. Chiras. « Anevrysmes larges et geants de l’artere carotide interne : traitement endovasculaire et suivi a long terme ». Journal de Radiologie 87, no 10 (octobre 2006) : 1265. http://dx.doi.org/10.1016/s0221-0363(06)86923-4.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Krichene, J., A. Trigui, Y. Mejdoub, M. Ben Yahya, H. Berjab, M. Frikha, M. Ben Amar, J. Dammak, R. Mzali et J. Jdidi. « Les kystes hydatiques du foie compliqués de larges fistules kysto biliaires traitées par un traitement conservateur ». Médecine et Maladies Infectieuses 49, no 4 (juin 2019) : S122. http://dx.doi.org/10.1016/j.medmal.2019.04.293.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Traitement de larges images"

1

González, Obando Daniel Felipe. « From digital to computational pathology for biomarker discovery ». Electronic Thesis or Diss., Université Paris Cité, 2019. http://www.theses.fr/2019UNIP5185.

Texte intégral
Résumé :
L'histopathologie a pour objectif d'analyser des images de tissus biologiques pour évaluer l’état pathologique d'un organe et établir un diagnostic. L'apparition des scanners de lames a haute résolution a ouvert la voie a des nouvelles possibilités d'acquisition de très grandes images (whole slide imaging), de multiplexage de marquages, d'extraction exhaustive d'informations visuelles et d'annotations multiples a large échelle. Cette thèse propose un ensemble de méthodes algorithmiques visant a faciliter et optimiser ces différents aspects. Dans un premier temps, nous proposons une méthode de recalage multiculturelle d'images histologiques multi-marquées reposant sur les propriétés des B-splines pour modéliser, de fawn continue, une image discrète. Nous proposons ensuite de nouvelles approches d'analyse morphologique sur des polygones faiblement simples, généralisés par des graphes a segments droits. Elles reposent sur le formalisme des squelettes droits (une approximation de squelettes courbes définis par des segments droits), construits a l'aide de graphes de motocyclettes. Cette structure permet de réaliser des opérations de morphologie mathématiques sur des polygones avec une complexité réduite. La précision des opérations sur des polygones bruites est obtenue en raffinant la construction des squelettes droits par ajout adaptatif de sommets. Nous avons aussi propose un algorithme de détection de l'axe médian et montre qu'il est possible de reconstruire la forme d'origine avec une approximation arbitraire. Enfin, nous avons explore les squelettes droits pondérés qui permettent des opérations morphologiques directionnelles. Ces approches d'analyse morphologique offrent un support consistant pour améliorer la segmentation des objets grâce a l'information contextuelle et réaliser des études liées a l'analyse spatiale des interactions entre les différentes structures d’intérêt au sein du tissu. Tous les algorithmes proposes sont optimises pour le traitement d'images gigapixels et garantissent une reproductibilité des analyses, notamment grâce a la création du plugin Icytomine, interface entre Icy et Cytomine
Histopathology aims to analyze images of biological tissues to assess the pathologi¬cal condition of an organ and to provide a diagnosis. The advent of high-resolution slide scanners has opened the door to new possibilities for acquiring very large im¬ages (whole slide imaging), multiplexing stainings, exhaustive extraction of visual information and large scale annotations. This thesis proposes a set of algorith¬mic methods aimed at facilitating and optimizing these different aspects. First, we propose a multi-scale registration method of multi-labeled histological images based on the properties of B-splines to model, in a continuous way, a discrete image. We then propose new approaches to perform morphological analysis on weakly simple polygons generalized by straight-line graphs. They are based on the formalism of straight skeletons (an approximation of curved skeletons defined by straight segments), built with the help of motorcycle graphs. This structure makes it possible to perform mathematical morphological operations on polygons. The precision of operations on noisy polygons is obtained by refining the construction of straight skeletons. We also propose an algorithm for computing the medial axis from straight skeletons, showing it is possible to approximate the original polygonal shape. Finally, we explore weighted straight skeletons that allow directional mor¬phological operations. These morphological analysis approaches provide consistent support for improving the segmentation of objects through contextual information and performing studies related to the spatial analysis of interactions between dif¬ferent structures of interest within the tissue. All the proposed algorithms are optimized to handle gigapixel images while assuring analysis reproducibility, in particular thanks to the creation of the Icytomine plugin, an interface between Icy and Cytomine
Styles APA, Harvard, Vancouver, ISO, etc.
2

Paulin, Mattis. « De l'apprentissage de représentations visuelles robustes aux invariances pour la classification et la recherche d'images ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM007/document.

Texte intégral
Résumé :
Ce mémoire de thèse porte sur l’élaboration de systèmes de reconnaissance d’image qui sont robustes à la variabilité géométrique. La compréhension d’une image est un problème difficile, de par le fait qu’elles sont des projections en deux dimensions d’objets 3D. Par ailleurs, des représentations qui doivent appartenir à la même catégorie, par exemple des objets de la même classe en classification, peuvent être visuellement très différentes. Notre but est de rendre ces systèmes robustes à la juste quantité de déformations, celle-ci étant automatiquement déterminée à partir des données. Nos deux contributions sont les suivantes. Nous montrons tout d’abord comment utiliser des exemples virtuels pour rendre les systèmes de classification d’images robustes et nous proposons ensuite une méthodologie pour apprendre des descripteurs de bas niveau robustes, pour la recherche d’image.Nous étudions tout d’abord les exemples virtuels, en tant que transformations de vrais exemples. En représentant une image en tant que sac de descripteurs transformés, nous montrons que l’augmentation de données, c’est-à-dire le fait de les considérer comme de nouveaux exemples iid, est la meilleure manière de les utiliser, pourvu qu’une étape de vote avec les descripteurs transformés soit opérée lors du test. Du fait que les transformations apportent différents niveaux d’information, peuvent être redondants, voire nuire à la performance, nous pro-posons un nouvel algorithme capable de sélectionner un petit nombre d’entre elles,en maximisant la justesse de classification. Nous montrons par ailleurs comment remplacer de vrais exemples par des virtuels, pour alléger les couts d’annotation.Nous rapportons de bons résultats sur des bancs d’essai de classification.Notre seconde contribution vise à améliorer les descripteurs de régions locales utilisés en recherche d’image, et en particulier nous proposons une alternative au populaire descripteur SIFT. Nous proposons un nouveau descripteur, appelé patch-CKN, appris sans supervision. Nous introduisons un nouvel ensemble de données liant les images et les imagettes, construit à partir de reconstruction3D automatique d’images récupérées sur Internet. Nous définissons une méthode pour tester précisément la performance des descripteurs locaux au niveau de l’imagette et de l’image. Notre approche dépasse SIFT et les autres approches à base d’architectures convolutionnelles sur notre banc d’essai, et d’autres couramment utilisés dans la littérature
This dissertation focuses on designing image recognition systems which are robust to geometric variability. Image understanding is a difficult problem, as images are two-dimensional projections of 3D objects, and representations that must fall into the same category, for instance objects of the same class in classification can display significant differences. Our goal is to make systems robust to the right amount of deformations, this amount being automatically determined from data. Our contributions are twofolds. We show how to use virtual examples to enforce robustness in image classification systems and we propose a framework to learn robust low-level descriptors for image retrieval. We first focus on virtual examples, as transformation of real ones. One image generates a set of descriptors –one for each transformation– and we show that data augmentation, ie considering them all as iid samples, is the best performing method to use them, provided a voting stage with the transformed descriptors is conducted at test time. Because transformations have various levels of information, can be redundant, and can even be harmful to performance, we propose a new algorithm able to select a set of transformations, while maximizing classification accuracy. We show that a small amount of transformations is enough to considerably improve performance for this task. We also show how virtual examples can replace real ones for a reduced annotation cost. We report good performance on standard fine-grained classification datasets. In a second part, we aim at improving the local region descriptors used in image retrieval and in particular to propose an alternative to the popular SIFT descriptor. We propose new convolutional descriptors, called patch-CKN, which are learned without supervision. We introduce a linked patch- and image-retrieval dataset based on structure from motion of web-crawled images, and design a method to accurately test the performance of local descriptors at patch and image levels. Our approach outperforms both SIFT and all tested approaches with convolutional architectures on our patch and image benchmarks, as well as several styate-of-theart datasets
Styles APA, Harvard, Vancouver, ISO, etc.
3

Villéger, Emmanuel. « Constance de largeur et désocclusion dans les images digitales ». Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00011229.

Texte intégral
Résumé :
L'école Gestaltiste s'intéresse à la vision, leur point de vue est que
nous regroupons des points lumineux et/ou des objets selon certaines
règles pour former des objets plus gros, des Gestalts.

La première partie de cette thèse est consacrée à la constance de
largeur. La Gestalt constance de largeur regroupe des points situés
entre deux bords qui restent parallèles. Nous cherchons donc dans les
images des courbes ``parallèles.'' Nous voulons faire une détection
a contrario, nous proposons donc une quantification du ``non
parallélisme'' de deux courbes par trois méthodes. La première méthode
utilise un modèle de génération de courbes régulières et nous
calculons une probabilité. La deuxième méthode est une méthode de
simulation de type Monte-Carlo pour estimer cette probabilité. Enfin
la troisième méthode correspond à un développement limité de la
première en faisant tendre un paramètre vers 0 sous certaines
contraintes. Ceci conduit à une équation aux dérivées partielles
(EDP). Parmi ces trois méthodes la méthode de type Monte-Carlo est
plus robuste et plus rapide.

L'EDP obtenue est très similaire à celles utilisées pour la
désocclusion d'images. C'est pourquoi dans la deuxième partie de cette
thèse nous nous intéressons au problème de la désocclusion. Nous
présentons les méthodes existantes puis une nouvelle méthode basée sur
un système de deux EDPs dont l'une est inspirée de celle de la
première partie. Nous introduisons la probabilité de l'orientation du
gradient de l'image. Nous prenons ainsi en compte l'incertitude sur
l'orientation calculée du gradient de l'image. Cette incertitude est
quantifiée en relation avec la norme du gradient.

Avec la quantification du non parallélisme de deux courbes, l'étape
suivante est la détection de la constance de largeur dans
les images. Il faut alors définir un seuil pour sélectionner les
bonnes réponses du détecteur et surtout parmi les réponses définir
des réponses ``maximales.'' Le système d'EDPs pour
la désocclusion dépend de beaucoup de paramètres, il faut trouver une
méthode de calibration des paramètres pour obtenir de bons résultats
adaptés à chaque image.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Soltani, Mariem. « Partitionnement des images hyperspectrales de grande dimension spatiale par propagation d'affinité ». Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S099/document.

Texte intégral
Résumé :
Les images hyperspectrales suscitent un intérêt croissant depuis une quinzaine d'années. Elles fournissent une information plus détaillée d'une scène et permettent une discrimination plus précise des objets que les images couleur RVB ou multi-spectrales. Bien que les potentialités de la technologie hyperspectrale apparaissent relativement grandes, l'analyse et l'exploitation de ces données restent une tâche difficile et présentent aujourd'hui un défi. Les travaux de cette thèse s'inscrivent dans le cadre de la réduction et de partitionnement des images hyperspectrales de grande dimension spatiale. L'approche proposée se compose de deux étapes : calcul d'attributs et classification des pixels. Une nouvelle approche d'extraction d'attributs à partir des matrices de tri-occurrences définies sur des voisinages cubiques est proposée en tenant compte de l'information spatiale et spectrale. Une étude comparative a été menée afin de tester le pouvoir discriminant de ces nouveaux attributs par rapport aux attributs classiques. Les attributs proposés montrent un large écart discriminant par rapport à ces derniers et par rapport aux signatures spectrales. Concernant la classification, nous nous intéressons ici au partitionnement des images par une approche de classification non supervisée et non paramétrique car elle présente plusieurs avantages: aucune connaissance a priori, partitionnement des images quel que soit le domaine applicatif, adaptabilité au contenu informationnel des images. Une étude comparative des principaux classifieurs semi-supervisés (connaissance du nombre de classes) et non supervisés (C-moyennes, FCM, ISODATA, AP) a montré la supériorité de la méthode de propagation d'affinité (AP). Mais malgré un meilleur taux de classification, cette méthode présente deux inconvénients majeurs: une surestimation du nombre de classes dans sa version non supervisée, et l'impossibilité de l'appliquer sur des images de grande taille (complexité de calcul quadratique). Nous avons proposé une approche qui apporte des solutions à ces deux problèmes. Elle consiste tout d'abord à réduire le nombre d'individus à classer avant l'application de l'AP en agrégeant les pixels à très forte similarité. Pour estimer le nombre de classes, la méthode AP utilise de manière implicite un paramètre de préférence p dont la valeur initiale correspond à la médiane des valeurs de la matrice de similarité. Cette valeur conduisant souvent à une sur-segmentation des images, nous avons introduit une étape permettant d'optimiser ce paramètre en maximisant un critère lié à la variance interclasse. L'approche proposée a été testée avec succès sur des images synthétiques, mono et multi-composantes. Elle a été également appliquée et comparée sur des images hyperspectrales de grande taille spatiale (1000 × 1000 pixels × 62 bandes) avec succès dans le cadre d'une application réelle pour la détection des plantes invasives
The interest in hyperspectral image data has been constantly increasing during the last years. Indeed, hyperspectral images provide more detailed information about the spectral properties of a scene and allow a more precise discrimination of objects than traditional color images or even multispectral images. High spatial and spectral resolutions of hyperspectral images enable to precisely characterize the information pixel content. Though the potentialities of hyperspectral technology appear to be relatively wide, the analysis and the treatment of these data remain complex. In fact, exploiting such large data sets presents a great challenge. In this thesis, we are mainly interested in the reduction and partitioning of hyperspectral images of high spatial dimension. The proposed approach consists essentially of two steps: features extraction and classification of pixels of an image. A new approach for features extraction based on spatial and spectral tri-occurrences matrices defined on cubic neighborhoods is proposed. A comparative study shows the discrimination power of these new features over conventional ones as well as spectral signatures. Concerning the classification step, we are mainly interested in this thesis to the unsupervised and non-parametric classification approach because it has several advantages: no a priori knowledge, image partitioning for any application domain, and adaptability to the image information content. A comparative study of the most well-known semi-supervised (knowledge of number of classes) and unsupervised non-parametric methods (K-means, FCM, ISODATA, AP) showed the superiority of affinity propagation (AP). Despite its high correct classification rate, affinity propagation has two major drawbacks. Firstly, the number of classes is over-estimated when the preference parameter p value is initialized as the median value of the similarity matrix. Secondly, the partitioning of large size hyperspectral images is hampered by its quadratic computational complexity. Therefore, its application to this data type remains impossible. To overcome these two drawbacks, we propose an approach which consists of reducing the number of pixels to be classified before the application of AP by automatically grouping data points with high similarity. We also introduce a step to optimize the preference parameter value by maximizing a criterion related to the interclass variance, in order to correctly estimate the number of classes. The proposed approach was successfully applied on synthetic images, mono-component and multi-component and showed a consistent discrimination of obtained classes. It was also successfully applied and compared on hyperspectral images of high spatial dimension (1000 × 1000 pixels × 62 bands) in the context of a real application for the detection of invasive and non-invasive vegetation species
Styles APA, Harvard, Vancouver, ISO, etc.
5

Assadzadeh, Djafar. « Traitement des images échographiques ». Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37595555x.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Assadzadeh, Djafar. « Traitement des images échographiques ». Paris 13, 1986. http://www.theses.fr/1986PA132013.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Fdida, Nicolas. « Développement d'un système de granulométrie par imagerie : application aux sprays larges et hétérogènes ». Rouen, 2008. http://www.theses.fr/2008ROUES050.

Texte intégral
Résumé :
L'optimisation de l'injection du carburant dans un moteur automobile sous la forme d'un spray consiste à augmenter la surface d'échange entre le carburant et l'air, essentiels à la combustion. La mesure de la granulométrie d'un spray permet de caractériser le comportement des sprays. Certains systèmes font l'hypothèse que les gouttes sont sphériques, ce qui n'est pas toujours le cas. Un sytème de mesure par imagerie a été développé dans cette étude, qui permet de s'affranchir de la connaissance de la forme de la goutte. Une procédure d'étalonnage du système a été mise en place à partir d'un modèle d'imagerie développé au laboratoire. Celui-ci tient compte des paramètres de l'image de la goutte pour calculer sa taille et estimer son défaut de mise au point. L'étalonnage permet de définir rigoureusement un volume de mesure du système d'imagerie. La quantification de la forme des gouttes est réalisée par la détermination de paramètres morphologiques sur les images de gouttes. Des modèles d'objets de forme proche de celles que l'on peut rencontrer lors du processus de rupture du liquide sont utilisés, de façon à associer des régions dans l'espace des paramètres de forme aux familles de formes particulières d'éléments liquides (ligaments, sphères, ovoïdes. . . ) La vitesse des gouttelettes est aussi mesurée à partir des images. La méthode utilisée est le suivi de particules, qui consiste à apparier deux champs de particules aux instants t et t+dt. Le système ainsi développé est appliqué à la caractérisation de sprays d'injecteurs essence haute et basse pression. Les mesures du système d'imagerie sont comparées avec celles obtenues par un granulomètre par diffraction et un Analyseur de Particules Phase Doppler. Une attention particulière a été portée sur les volumes de mesure de chaque technique pour comparer la granulométrie de chaque échantillon de gouttes. Un bon accord est obtenu entre les trois techniques. La caractérisation morphologique permet de compléter l'analyse granulométrique et ainsi d'étudier les processus de rupture rencontrés dans ces sprays
In many industrial applications, a given mass of a liquid is sprayed by an injector in a carrier gas in order to optimize the combustion by increasing the liquid-gas interface area. The characteristics of a spray are often given by the measurement of the drop size distribution. The underlying hypothesis is that all liquid elements are spherical. Of course, this case is not the rule and could only occur at end of the evolution of the spray. We develop in this study a shadow imaging system to measure the drop size independently from the drop shapes. A calibration procedure is described, based on an imaging model developed in our laboratory. This model takes into account image parameters of the drop to measure his size and to estimate his level of defocus. The goal of this calibration procedure is to define the measurement volume of the imaging system. A tool based on the characterization of the shape of the drops is proposed. Morphological criteria are defined to classify droplets, which belong to different kind of shape families such as spherical, elliptical and Cassini oval families. The introduction of the Cassini oval family shows a better description of liquid elements during the atomization process. This original approach underlines a segmentation of the shapes between ligaments, spherical droplets or ovoids. The velocity of the droplets is also investigated with this imaging system. For that purpose, a method of Particle Tracking Velocimetry (PTV) has been developed. It consists in matching pairs of droplets in a couple of images recorded at two successive times. The imaging system have been used to characterize gasoline sprays produced gasoline injectors of indirect and direct injection types. The drop size is compared with those given by two other drop sizing techniques : a phase Doppler anemometer and a laser diffraction granulometer. Attention was paid on the differences in the measurement volumes of the different techniques in order to compare the drop sizes given by each technique
Styles APA, Harvard, Vancouver, ISO, etc.
8

Vitter, Maxime. « Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES011/document.

Texte intégral
Résumé :
Depuis une quinzaine d’années, l’émergence des données de télédétection à Très Haute Résolution Spatiale (THRS) et la démocratisation des Systèmes d’Information Géographique (SIG) aident à répondre aux nouveaux besoins croissants d’informations spatialisées. Le développement de nouvelles méthodes de cartographie offre une opportunité pour comprendre et anticiper les mutations des surfaces terrestres aux grandes échelles, jusqu’ici mal connues. En France, l’emploi de bases de données spatialisées sur l’occupation du sol à grande échelle (BD Ocsol GE) est devenu incontournable dans les opérations courantes de planification et de suivi des territoires. Pourtant, l’acquisition de ce type de bases de données spatialisées est encore un besoin difficile à satisfaire car les demandes portent sur des productions cartographiques sur-mesure, adaptées aux problématiques locales des territoires. Face à cette demande croissante, les prestataires réguliers de ce type de données cherchent à optimiser les procédés de fabrication avec des techniques récentes de traitements d’image. Cependant, la Photo-Interprétation Assistée par Ordinateur (PIAO) reste la méthode privilégiée des prestataires. En raison de sa grande souplesse, elle répond toujours au besoin de cartographie aux grandes échelles, malgré son coût important. La substitution de la PIAO par des méthodes de production entièrement automatisées est rarement envisagée. Toutefois, les développements récents en matière de segmentation d’images peuvent contribuer à l’optimisation de la pratique de la photo-interprétation. Cette thèse présente ainsi une série d’outils (ou modules) qui participent à l’élaboration d’une assistance à la digitalisation pour l’exercice de photo-interprétation d’une BD Ocsol GE. L’assistance se traduit par la réalisation d’un prédécoupage du paysage à partir d’une segmentation menée sur une image THRS. L’originalité des outils présentés est leur intégration dans un contexte de production fortement contraint. La construction des modules est conduite à travers trois prestations cartographiques à grande échelle commandités par des entités publiques. L’apport de ces outils d’automatisation est analysé à travers une analyse comparative entre deux procédures de cartographie : l’une basée sur une démarche de photo-interprétation entièrement manuelle et la seconde basée sur une photo-interprétation assistée en amont par une segmentation numérique. Les gains de productivité apportés par la segmentation sont, évalués à l’aide d’indices quantitatifs et qualitatifs, sur des configurations paysagères différentes. À des degrés divers, il apparaît que quelque soit le type de paysage cartographié, les gains liés à la cartographie assistée sont substantiels. Ces gains sont discutés, à la fois, d’un point de vue technique et d’un point de vue thématique dans une perspective commerciale
Over the last fifteen years, the emergence of remote sensing data at Very High Spatial Resolution (VHRS) and the democratization of Geographic Information Systems (GIS) have helped to meet the new and growing needs for spatial information. The development of new mapping methods offers an opportunity to understand and anticipate land cover change at large scales, still poorly known. In France, spatial databases about land cover and land use at large scale have become an essential part of current planning and monitoring of territories. However, the acquisition of this type of database is still a difficult need to satisfy because the demands concern tailor-made cartographic productions, adapted to the local problems of the territories. Faced with this growing demand, regular service providers of this type of data seek to optimize manufacturing processes with recent image-processing techniques. However, photo interpretation remains the favoured method of providers. Due to its great flexibility, it still meets the need for mapping at large scale, despite its high cost. Using fully automated production methods to substitute for photo interpretation is rarely considered. Nevertheless, recent developments in image segmentation can contribute to the optimization of photo-interpretation practice. This thesis presents a series of tools that participate in the development of digitalization assistance for the photo-interpretation exercise. The assistance results in the realization of a pre-cutting of the landscape from a segmentation carried out on a VHRS image. Tools development is carried out through three large-scale cartographic services, each with different production instructions, and commissioned by public entities. The contribution of these automation tools is analysed through a comparative analysis between two mapping procedures: manual photo interpretation versus digitally assisted segmentation. The productivity gains brought by segmentation are evaluated using quantitative and qualitative indices on different landscape configurations. To varying degrees, it appears that whatever type of landscape is mapped, the gains associated with assisted mapping are substantial. These gains are discussed both technically and thematically from a commercial perspective
Styles APA, Harvard, Vancouver, ISO, etc.
9

Atnafu, Besufekad Solomon. « Modélisation et traitement de requêtes images complexes ». Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0032/these.pdf.

Texte intégral
Résumé :
La recherche d'images par le contenu est d'une importance croissante dans de nombreux domaines d'application. Pour cette raison, il existe des numerus recherche dans les deux domaines : DBMS et reconnaissance de formes. Mais, la plupart des systèmes existants ont, en particulier, le défaut de n'offrir aucun cadre formel pour les requêtes dites hybrides. Or, disposer d'un cadre formel bien fondé est très important pour traiter efficacement de telles requêtes. Dans cette thèse, nous présenterons un modèle de représentation de données images à même de permettre de formuler des requêtes multicritères. Fondés sur ce modèle, on a développé une algèbre fondée sur le continue des images et présenté les propriétés des opérateurs. Des heuristiques d'optimisation de requêtes seront ensuite étudiées. Afin de valider expérimentalement la faisabilité et la pertinence des concepts et techniques introduits, nous avons implémenté un prototype de système de gestion d'images médicales appelé EMIMS
Querying images by their contents is of increasing importance in many application domains. For this reason, many researches are conducted in the two fields: DBMS and pattern recognition. But, the majority of the existing systems do not offer any formal framework to integrate the techniques in the two fields for effective multi-criteria queries on images. However, having a formal framework is necessary if one intends to treat such types of image queries effectively. In this thesis, we present image data repository models that allow to formulate multi-criteria queries. Then, based on this model, we introduced a similarity-based algebra that enables to formulate similarity-based queries and multi-criteria queries effectively and presented properties of the operators. We also presented techniques for similarity-based query optimization. We then developed a prototype called EMIMS (Extended Medical Image Management System) to show that our proposals in practical applications
Styles APA, Harvard, Vancouver, ISO, etc.
10

Duclos, Pierre. « Étude du parallélisme en traitement des images ». Nice, 1988. http://www.theses.fr/1988NICE4209.

Texte intégral
Résumé :
Validation du démonstrateur de calculateur vectoriel parallèle OPSILA pour les algorithmes de traitement des images. OPSILA a la particularité d'être dynamiquement reconfigurable suivant les deux modes de fonctionnement : parallélisme synchrone et parallélisme asynchrone à couplage fort
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Traitement de larges images"

1

Bergounioux, Maïtine. Introduction au traitement mathématique des images - méthodes déterministes. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ecole d'été de physique théorique (58th 1992 Les Houches, France). Les progrès du traitement des images = : Progress in picture processing. Amsterdam : Elsevier, 1996.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ecole d'été de physique théorique (Les Houches, Haute-Savoie, France) (58th 1992). Les progrès du traitement des images = : Progress in picture processing. Amsterdam : Elsevier, 1996.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Préparer des images numériques : Numériser, optimiser, contrôler. Paris : Eyrolles, 2009.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Breton-Schreiner, Cédric. L'essentiel de la PAO : Mise en pages, logiciels, polices, images. Paris : Eyrolles, 2009.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Séminaire du GDR 36 (1991). Traitement des images satellitaires : Séminaire du GDR 36, journée du 26 février 1991. [Besançon] : Université de Besançon, 1992.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Philippe, Lier, Valorge Christophe et Briottet Xavier, dir. Imagerie spatiale : Des principes d'acquisition au traitement des images optiques pour l'observation de la terre. Toulouse, France : Cépaduès, 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Philippe, Lier, Valorge Christophe et Briottet Xavier, dir. Imagerie spatiale : Des principes d'acquisition au traitement des images optiques pour l'observation de la terre. Toulouse, France : Cépaduès, 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Philippe, Lier, Valorge Christophe et Briottet Xavier, dir. Imagerie spatiale : Des principes d'acquisition au traitement des images optiques pour l'observation de la terre. Toulouse, France : Cépaduès, 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Karine, Warbesson, dir. Photoshop CS2 : [créez vos images pour un rendu exceptionnel. Paris : Micro application, 2005.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Traitement de larges images"

1

Bergounioux, Maïtine. « Traitement ponctuel des images numériques ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 25–30. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_2.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bergounioux, Maïtine. « Introduction ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 1–24. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_1.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bergounioux, Maïtine. « Débruitage par filtrage linéaire ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 31–62. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_3.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bergounioux, Maïtine. « Débruitage par méthodes non linéaires ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 63–95. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_4.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bergounioux, Maïtine. « Segmentation ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 97–136. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_5.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bergounioux, Maïtine. « Morphologie mathématique ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 137–56. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_6.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bergounioux, Maïtine. « Applications ». Dans Introduction au traitement mathématique des images - méthodes déterministes, 157–76. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-46539-4_7.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Whaites, Eric, et Nicholas Drage. « Traitement des images ». Dans Radiographie et Radiologie Dentaires, 45–56. Elsevier, 2019. http://dx.doi.org/10.1016/b978-2-294-74352-8.00005-8.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

« SPC information-traitement ». Dans La conscience en images, 132–33. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2156-3-079.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

« SPC information-traitement ». Dans La conscience en images, 132–33. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2156-3.c079.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Traitement de larges images"

1

PLUQUET, Fabrice, Philippe BRYÈRE, Nicolas CHINI et Pauline BRANDT. « Estimation de la turbidité à partir du traitement des images satellitaires : illustration de l’évaluation de l’état initial au large de Dunkerque ». Dans Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2022. http://dx.doi.org/10.5150/jngcgc.2022.049.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros et D. Tardivo. « Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Texte intégral
Résumé :
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
Styles APA, Harvard, Vancouver, ISO, etc.
3

FERRANDON, Erwan, Mathis COURANT, Camélia POPESCU, Yann LAUNAY, Sophie ALAIN et Claire LEFORT. « Un pipeline instrumental et computationnel pour visualiser des particules virales de SARS-CoV-2 en suspension ». Dans Les journées de l'interdisciplinarité 2022. Limoges : Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.684.

Texte intégral
Résumé :
La compréhension des modes d’actions biologiques des virus dans une cellule hôte est un sujet complexe pour lequel nous pensons que les solutions optiques pourraient apporter des éléments de réponse nouveaux. Cependant, les dimensions des particules virales sont environ 3 fois plus petites que la résolution d’un microscope optique. Nous proposons de tester une nouvelle stratégie instrumentale et computationnelle, reposant sur la microscopie multiphotonique, pour visualiser des objets dont les dimensions sont de l’ordre de quelques centaines de nanomètres. Cette stratégie repose sur la prise en compte de la réponse impulsionnelle de l’instrument (PSF pour Point Spread Function) in situ, modélisée mathématiquement. A partir de ce modèle qui prend en compte les distorsions optiques locales, un post-traitement numérique des images est appliqué en vue d’optimiser la qualité visuelle des images. Nous faisons des tests sur deux populations de virus : les Cytomégalovirus (CMV) et le SARS-CoV-2.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Benzina, Ouafae. « Du lexique de l'eau dans Mont-Oriol et Pierre et Jean de Guy de Maupassant ». Dans XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia : Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3081.

Texte intégral
Résumé :
Notre travail s’articule autour du thème de l’eau dans Pierre et Jean et Mont-Oriol de Guy de Maupassant. En effet, ces deux œuvres romanesques regorgent d’eau dans toutes ses formes. Dans Pierre et Jean, le lexique de la mer est fort abondant. Le thème de la mer revient sans cesse dans le roman. Il y apparaît en ouverture et en conclusion, évoquant longuement les bateaux et la pêche. Dans Mont-Oriol, l’élément aquatique détermine son espace romanesque et constitue à lui seul le cadre du roman. Il est présent sous plusieurs aspects : eau, source, lac, station, ruisseau. Les images de l’eau dans ces deux œuvres romanesques reflètent l’amour de l’auteur normand pour cet élément naturel. Afin d’analyser ce jaillissement du lexique de l’eau dans ces deux œuvres, nous exploiterons la fonction Contexte et celle du vocabulaire spécifique du logiciel Hyperbase, un logiciel d'exploitation statistique documentaire et de traitement quantitatif des grands corpus, élaboré par Étienne Brunet. En effet, Notre démarche pour le traitement de notre corpus par ce logiciel avait abouti à une base de données que nous avons appelée MAUPASSA.EXE. Dans la présentation du vocabulaire spécifique de chaque œuvre, il s’agit de signaler les unités dont la fréquence manifeste un excédent ou un déficit significatif. Pour déterminer le vocabulaire spécifique d’un corpus, le logiciel Hyperbase calcule l’écart réduit de chaque forme dans chacune des parties du corpus. La mise en œuvre du bouton CONTEXTE, permet de voir l’occurrence que l’on cherche dans le contexte du paragraphe. Si l’on clique sur l’un des passages affichés, on a la possibilité de voir la page entière où le mot apparaît. Nous allons donc nous baser sur cette fonction qui fait gagner aux chercheurs un temps considérable en vue de déterminer le sens que Maupassant donne à l’eau dans toutes ses formes. DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3081
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lefort, Claire, Mathieu Chalvidal, Alexis Parenté, Véronique BLANQUET, Henri Massias, Laetitia MAGNOL et Emilie Chouzenoux. « Imagerie 3D par microscopie multiphotonique appliquée aux sciences du vivant : la chaine instrumentale et computationnelle FAMOUS ». Dans Les journées de l'interdisciplinarité 2022. Limoges : Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.221.

Texte intégral
Résumé :
Nous présentons une nouvelle stratégie instrumentale et computationnelle appelée FAMOUS (pour fast algorithm for three-dimensional (3D) multiphoton microscopy of biomedical structures) basée sur une approche de microscopie multiphotonique assistée par calcul. Le but est l’amélioration visuelle des images d'échantillons biologiques épais offrant ainsi un nouveau point de vue sur les structures biologiques. L'approche de post-traitement repose sur un algorithme de restauration d'image régularisé, alimenté par une estimation 3D précise de la fonction d'étalement du point (Point Spread Function en anglais, PSF) de l'instrument sur toute la profondeur des structures. Cette dernière étape revient à mesurer, grâce à un algorithme d'ajustement de modèle avancé, les distorsions variant en profondeur de l'image résultant de la combinaison entre la contribution instrumentale et les hétérogénéités du milieu. Les performances du pipeline FAMOUS sont évaluées pour un milieu hétérogène constitué d’un muscle entier de souris. La génération de seconde harmonique (SHG), émise par l'assemblage des chaines de myosine du muscle est enregistrée. Les artefacts optiques issus de la chaîne d'acquisition incluant des hétérogénéités dans les 3 dimensions sont estimés avec les spécificités propres à l’échantillon puis retirées numériquement. Des images brutes et restaurées sur 5 µm de l’ultrastructure fine du muscle illustrent la robustesse du pipeline FAMOUS.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Gossiome, C., F. Rufino, G. Herve, M. Benassarou, P. Goudot, V. Descroix et G. Lescaille. « Découverte fortuite d’une lésion mandibulaire, un cas de kyste anévrismal ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603020.

Texte intégral
Résumé :
Introduction : Les kystes et tumeurs des maxillaires représentent une multitude d’entités pour lesquelles le diagnostic est parfois difficile. L’examen anatomopathologique permet dans la majorité des cas de donner un diagnostic de certitude mais il est parfois nécessaire de confronter ces résultats à l’imagerie voir de réaliser des marquages d’immunohistochimie pour mieux caractériser la lésion. Le diagnostic différentiel apparaît comme primordial devant certaines entités dont l’évolution guide une prise en charge très différente. Cas clinique : Il s’agissait d’une jeune patiente de 25 ans sans antécédent médical, adressée par son chirurgien-dentiste à la suite de la découverte fortuite d’une lésion osseuse au niveau de l’angle mandibulaire droit. Une exploration radiographique de type CBCT ainsi qu’une biopsie osseuse ont été réalisées. La confrontation de l’imagerie et du diagnostic histologique ne permettait pas de dissocier deux diagnostics possibles, la lésion pouvant correspondre à une tumeur à cellules géantes (TCG) ou à un kyste osseux anévrismal (KOA). Devant cette incertitude, un marquage par immunohistochimie de la protéine p63 ainsi qu’une imagerie par résonance magnétique ont été demandés. Un marquage négatif à la p63 ainsi que l’analyse de l’ensemble des images radiologiques nous a permis de poser le diagnostic de kyste anévrismal. Devant le caractère asymptomatique de la lésion et de l’absence d’évolution à 9 mois, une attitude de surveillance a été décidée. Discussion : Les deux entités que sont le KOA et la TCG sont des lésions dont le diagnostic différentiel est complexe mais impératif du fait de leurs évolutions très différentes. Le KOA correspond à une dystrophie osseuse bénigne qui forme une lésion cavitaire constituée d’un réseau riche en fibroblastes et cellules géantes plurinucléés parfois bordées par un endothélium. Cette lésion est bénigne d’évolution lente. Le traitement consiste le plus souvent en un curetage de la cavité kystique lorsque la lésion entraîne déformation et/ou symptomatologie. La TCG présente de nombreuses caractéristiques histologiques en commun avec le kyste osseux anévrismal, avec un nombre de cellules géantes plus important. Toutefois la TCG présente un risque de récidive de l’ordre de 50% ainsi qu’un risque de transformation maligne (sarcome) de 10 à 20 %. Son évolution peut également être rapide. Le traitement doit être radical et consiste en une exérèse chirurgicale avec marges. Il a été montré par plusieurs auteurs que le marquage de p63, une protéine nucléaire de la famille du gène suppresseur p53, retrouvée dans différents tissus permettait de distinguer ces deux entités dans plusieurs localisations. Conclusion : Le marquage de la protéine p63 peut apparaît donc très utile dans le diagnostic différentiel de ces lésions dont les pronostics sont très différents lorsque l’imagerie et le marquage en HES ne sont pas suffisants.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Ben Amor, Syrine. « Pour une lecture croisée des représentations de l'onde dans Bruges-la-Morte de Georges Rodenbach ». Dans XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia : Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3068.

Texte intégral
Résumé :
« Et cette eau elle-même, malgré tant de reflets : coins de ciel bleu, tuiles des toits, neige des cygnes voguant, verdure des peupliers du bord, s’unifie en chemins de silence incolores. » Georges Rodenbach L’eau constitue l’une des thématiques axiales de l’œuvre de Georges Rodenbach. Thématique commune à sa production scripturale dans son étendue, l’eau irrigue l’imaginaire poétique de l’écrivain. Pourquoi Bruges-la-Morte ? Bruges-la-Morte est le roman d’un veuf éploré qui a choisi Bruges, ville d’eau et de canaux, non pour y vivre mais pour y mourir, pour y dissoudre sa peine. Et, c’est à Bruges, la Venise Flamande, que Hugues Viane s’acharne à chercher le visage de sa femme « sur d’autres visages ». Précisons que l’élément aquatique se présente comme la véritable substance aussi bien du paysage que du travail analogique entrepris dans le roman. Récurrentes et labiles sont les particularités des images poétique et poétisante de l’eau. Plus intéressante nous semble le traitement des représentations de l’eau. Sujette à la modulation, à une distribution-redistribution sans cesse renouvelée, les images et les métaphores de l’onde fusent dans le roman. On se propose de faire découvrir comment la thématique de l’onde fait l’objet d’une configuration paradoxale. Elle est le réceptacle de la vie et de la mort (comme espace paradoxal, l’eau se présente comme la matérialisation d’un état de présence-absence). Nous analyserons comment l’eau, l’œil, le miroir et la photographie deviennent interchangeables. Ces mêmes surfaces, aux propriétés réfléchissantes et enchâssantes font l’objet de maintes associations analogiques. Nous verrons comment l’eau rodenbachienne est tantôt lascive et foncièrement féminine, tantôt inquiétante et violente. La dernière partie de la présentation constitue une réflexion métalinguistique portant sur le rapport eau / mots. L’eau comme espace de l’imaginaire et le roman comme espace de l’illusion.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3068
Styles APA, Harvard, Vancouver, ISO, etc.
8

Oujdad, S., S. Zafad, H. El Attar et I. Ben Yahya. « Histiocytose langerhansienne de l’adulte : à propos d’un cas ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603013.

Texte intégral
Résumé :
L’histiocytose langerhansienne est une maladie rare causée par la prolifération et l’infiltration d’un ou plusieurs organes, par des cellules dendritiques de type Langerhans. Elle s’exprime par des manifestations cliniques extrêmement polymorphes et peut toucher l’os, la peau, l’hypophyse, les poumons, le système nerveux central, et plus rarement le foie et le système digestif. Elle a été initialement décrite chez les enfants. L’histiocytose langerhansienne de l’adulte présente une entité particulière tant par ses manifestations cliniques que par sa prise en charge. Le cas présenté est celui d’un patient âgé de 53ans, en bon état de santé apparent et non fumeur, qui s’est présenté à la consultation pour des lésions nécrotiques et douloureuses des muqueuses gingivales mandibulaires et maxillaires, associées à des mobilités dentaires sévères. L’examen exobuccal ne révélait aucune asymétrie faciale ni adénopathies. L’examen endobuccal confirmait la présence de lésions nécrotiques gingivales et une parodontite sévère au niveau mandibulaire antérieur et maxillaire postérieur. Le secteur maxillaire antérieur présentait un parodonte sain. L’examen radiologique panoramique et Cone Beam CT , révélaient des lyses osseuses moyennes à terminales s’étendant de la 44 à la 38 et au niveau des molaires maxillaires droites et gauches. Les dents antérieures ne présentaient quant à elles pas de lyse. Par ailleurs des images lacunaires à l’emporte pièce siégeaient au niveau du secteur mandibulaire édenté. Ces manifestations évoquaient un lymphome ou une manifestation orale d’une infection virale type VIH. L’examen biologique révélait une légère hyperleucocytose et une augmentation de la vitesse de sédimentation à la première heure. L’examen anatomopathologique des lésions muqueuses, a rapporté la présence d’éléments histiocytaires se regroupant en nodules, concluant en une histiocytose langerhasienne de l’adulte. Le bilan d’extension ne révélait aucune atteinte associée, concluant en une histiocytose localisée. L’étude moléculaire a montré la présence d’une mutation V600E du gène BRAF (Facchetti et al, European journal of pathology, 471(4); 2017). Ce dernier est situé sur le chromosome 7, et il est impliqué dans l’envoi des signaux qui déterminent la croissance cellulaire. L’évolution et le pronostic de cette maladie sont étroitement liés à l’âge et aux organes atteints. Les régressions spontanées ont été rapportées, et peuvent être induites par un curetage ou par une simple biopsie. (Goncalves et al, Biomedical research notes,9(19); 2016) Pour notre cas, les extractions des dents mobiles avec curetage des lésions ont permis une cicatrisation complète. La thérapeutique médicamenteuse peut comprendre une corticothérapie locale ou systémique, des bisphosphonates, voire même une radiothérapie. Par ailleurs la confirmation de la mutation BRAF permet d’oser un traitement spécifique par inhibition de l’enzyme produite par ce gène. (Martıénez et al, Revisita Odontologica Mexicana, 16(2 ); 2012)
Styles APA, Harvard, Vancouver, ISO, etc.
9

Elmoutawakkil, N., S. Bouzoubaa, S. Bellemkhannate et I. Benyahya. « Flux de travail du guidage tridimensionnel en chirurgie orale ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602005.

Texte intégral
Résumé :
L’implantologie assistée par ordinateur permet de sécuriser le geste, de prévoir les potentielles complications, d’anticiper la séquence de forage et le choix de l’implant et donne la possibilité d’avoir une transition entre la simulation et la chirurgie à l’aide d’un guide chirurgical, elle est utilisée pour faciliter l’établissement d’un diagnostic précis et du plan de traitement idéal[1]. Dès que les images radiologiques (sous format DICOM) sont acquises suite à la réalisation d’une tomodensitométrie ou d’un cône-beam, elles sont transférées dans un logiciel de planification qui permettra la transformation des vues bidimensionnelles en une vision tridimensionnelle, pour évaluer la quantité et la qualité du volume osseux disponible et réaliser une représentation colorée et tridimensionnelle des éléments anatomiques présents sur les coupes dans le but de réaliser une simulation implantaire, Une fois placé, l’implant est visualisé immédiatement dans les trois plans de lespace, ensuite le praticien peut anticiper les caractéristiques du pilier, l’axe prothétique, et simuler l’épaisseur de la gencive. Ainsi un guide chirurgical à appui dentaire, muqueux ou osseux est conçu, à sa réception du guide, le fabricant fournit une feuille de route correspondant au système implantaire et à la trousse chirurgicale utilisée. Elle contient toutes les informations pour chaque implant et peut être complété par des cuillères et des porte-implants individualisés.Les résultats montrent que les écarts entre la réalité clinique et la planification émanent du type d’appui du guide. Un bio-modèle peut être imprimé en 3D, il servira comme outil pédagogique pour expliquer au patient le déroulement du projet et permettra également de réaliser une chirurgie « sèche » en amont de la pose d’implant ; et dans le cas de régénération osseuse guidée utilisant des grilles en titane il servira de support pour les préformer dans l’asepsie totale [2]. Les prothèses provisoires immédiates sont également réalisées au besoin, grâce à la superposition de la conception tridimensionnelle implantaire au modèle du patient scanné optiquement éviteant les erreurs de conception des prothèses immédiates. En oncologie buccale, la planification assistée permettra en segmentant la tumeur, de visualiser ses marges et sa taille, de réaliser un guide de résection et de customiser les plaques et les treillis imprimés en 3D. L’avènement de la conception et de la fabrication assistée par ordinateur a permis de révolutionner la chirurgie orale et de supprimer les erreurs opérateur dépendant en codifiant les actes, le travail présenté vise à décrire les différentes étapes du flux de travail optimal à adopter en chirurgie orale, permettant la réalisation de chirurgie totalement assistée, la conception et la fabrication de différents guides de forage et de résection osseuse ainsi que des prothèses provisoires immédiates [3].
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie