To see the other types of publications on this topic, follow the link: Génération d'images.

Dissertations / Theses on the topic 'Génération d'images'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Génération d'images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bonnard, Jennifer. "Génération d'images 3D HDR." Thesis, Reims, 2015. http://www.theses.fr/2015REIMS014/document.

Full text
Abstract:
L’imagerie HDR et l’imagerie 3D sont deux domaines dont l’évolution simultanée mais indépendante n’a cessé de croître ces dernières années. D’une part, l’imagerie HDR (High Dynamic Range) permet d’étendre la gamme dynamique de couleur des images conventionnelles dites LDR (Low Dynamic Range). D’autre part, l’imagerie 3D propose une immersion dans le film projeté avec cette impression de faire partie de la scène tournée. Depuis peu, ces deux domaines sont conjugués pour proposer des images ou vidéos 3D HDR mais peu de solutions viables existent et aucune n’est accessible au grand public. Dans ce travail de thèse, nous proposons une méthode de génération d’images 3D HDR pour une visualisation sur écrans autostéréoscopiques en adaptant une caméra multi-points de vue à l’acquisition d’expositions multiples. Pour cela, des filtres à densité neutre sont fixés sur les objectifs de la caméra. Ensuite, un appareillement des pixels homologues permet l’agrégation des pixels représentant le même point dans la scène acquise. Finalement, l’attribution d’une valeur de radiance est calculée pour chaque pixel du jeud’images considéré par moyenne pondérée des valeurs LDR des pixels homologues. Une étape supplémentaire est nécessaire car certains pixels ont une radiance erronée. Nous proposons une méthode basée surla couleur des pixels voisins puis deux méthodes basées sur la correction de la disparité des pixels dontla radiance est erronée. La première est basée sur la disparité des pixels du voisinage et la seconde sur la disparité calculée indépendamment sur chaque composante couleur. Ce pipeline permet la générationd’une image HDR par point de vue. Un algorithme de tone-mapping est ensuite appliqué à chacune d’elles afin qu’elles puissent être composées avec les filtres correspondants à l’écran autostéréoscopique considéré pour permettre la visualisation de l’image 3D HDR
HDR imaging and 3D imaging are two areas in which the simultaneous but separate development has been growing in recent years. On the one hand, HDR (High Dynamic Range) imaging allows to extend the dynamic range of traditionnal images called LDR (Low Dynamic Range). On the other hand, 3Dimaging offers immersion in the shown film with the feeling to be part of the acquired scene. Recently, these two areas have been combined to provide 3D HDR images or videos but few viable solutions existand none of them is available to the public. In this thesis, we propose a method to generate 3D HDR images for autostereoscopic displays by adapting a multi-viewpoints camera to several exposures acquisition.To do that, neutral density filters are fixed on the objectives of the camera. Then, pixel matchingis applied to aggregate pixels that represent the same point in the acquired scene. Finally, radiance is calculated for each pixel of the set of images by using a weighted average of LDR values. An additiona lstep is necessary because some pixels have wrong radiance. We proposed a method based on the color of adjacent pixels and two methods based on the correction of the disparity of those pixels. The first method is based on the disparity of pixels of the neighborhood and the second method on the disparity independently calculated on each color channel. This pipeline allows the generation of 3D HDR image son each viewpoint. A tone-mapping algorithm is then applied on each of these images. Their composition with filters corresponding to the autostereoscopic screen used allows the visualization of the generated 3DHDR image
APA, Harvard, Vancouver, ISO, and other styles
2

Chevrier, Christine. "Génération de séquences composées d'images de synthèse et d'images vidéo." Nancy 1, 1996. http://www.theses.fr/1996NAN10121.

Full text
Abstract:
Les études d'impact en architecture sont réalisées jusqu'à présent sur la base de dessins, de photographies retouchées, de maquettes ou plus récemment encore d'images de synthèse. Mais ces techniques sont coûteuses et peu réalistes. La synthèse d'image seule nécessite une modélisation tridimensionnelle non seulement de la future construction mais aussi de son environnement (immeubles, rues, ouvrages d'art, végétation, etc). Cette façon de procéder s'avère longue et fournit des images peu réalistes eu égard à la complexité du monde réel et à l'impossibilité d'en modéliser tous les détails. La composition d'images de synthèse et de photographies peut être un autre moyen de représentation plus fiable et plus rapide. L'incrustation d'images de synthèse de projets dans leur site réel que l'on a préalablement photographié est une technique prometteuse à la fois du point de vue temps car elle ne nécessite pas de modélisation détaillée de l'environnement existant, et du point de vue réalisme car celui-ci est garanti par la photographie même. Une telle technique où la réalité est «augmentée» par l'addition d'images d'objets qui ne sont encore que virtuels (puisqu'à l'état de projet) pose néanmoins de nombreux problèmes qu'il convient de résoudre pour obtenir une cohérence au niveau de l'image, à la fois du point de vue géométrique et du point de vue photométrique. Pour ce faire, la conception et la mise en oeuvre de modèles d'analyse et de synthèse d'images sont nécessaires. Appliquée dans le cadre du calcul d'une séquence d'images (ou film vidéo) et non plus dans celui d'une seule image, cette technique peut augmenter le réalisme d'une simulation de façon spectaculaire. L’objectif de ce travail était la mise au point, le test et l'intégration de diverses méthodes d'analyse et de synthèse pour la composition réaliste d'images de synthèse et d'images vidéo dans le cadre de la simulation de projets d'architecture et de projets urbains. Ce mémoire présente les différentes étapes nécessaires à l'incrustation réaliste d'objets virtuels dans un environnement réel. Pour chacune de ces étapes, diverses méthodes ont été proposées, mises en oeuvre et testées afin de sélectionner la ou les solutions les plus adaptées et de les intégrer dans la plate-forme de développement de l'équipe. L'application de cette étude a été la simulation du projet d'éclairage du Pont Neuf à Paris dans une séquence vidéo. Parallèlement à ce travail d'intégration, je me suis plus particulièrement intéressée au problème posé par la génération de séquences d'images de synthèse afin d'accélérer le processus d'incrustation de ces images dans des films vidéo. Une nouvelle technique d'interpolation d'images de synthèse est ainsi présentée (dans le cas où un observateur se déplace dans une scène statique). Cette méthode est générale (non limitée aux environnements parfaitement diffus) et ne requiert aucune approximation du mouvement de la caméra. De plus, cette méthode permet d'interpoler des images entrelacées comme le sont les images vidéo, dans le but d'un meilleur résultat visuel
The visual impact assessment of architectural projects in urban environments is usually based on manual drawings, paintings on photographs, scale models or computer-generated images. These techniques are either too expensive or not realistic enough. Strictly using computer images means requiring an accurate 3D model of the environment. Computing such a model takes a long time and the results lack of visual accuracy. Our technique of overlaying computer generated images onto photographs of the environment is considerably more effective and reliable. This method is a promising solution regarding computation time (no accurate 3D model of the environment) as weIl as visual realism (provided by the photograph itself). Such a solution requires nevertheless to solve lots of problems in order to get geometrical and photometrical coherence in the resulting image. To this end, image analysis and image synthesis methods have to be designed and developed. The method is generalized to produce an animated film, and can furthermore greatly increase the realism of the simulation. My Ph. D. Work was to test and integrate various image analysis and synthesis techniques for the composition of computer generated images with pictures or video film. This report explains the steps required for a realistic encrustation. For each of these steps, various techniques were tested in order to be able to choose the most suitable solutions according to the state of the most recent researches and to the applications we were dealing with (architectural and urban projects). The application of this work was the simulation of the Paris Bridges illumination projects. Concurrently to this work, I present a new method for the interpolation of computer images for the generation of a sequence of images. This method requires no approximation of the camera motion. Since video images are interlaced, sequences of computer images need to be interleaved too. The interpolation technique we propose is capable of doing this
APA, Harvard, Vancouver, ISO, and other styles
3

Smadja, Laurent. "Génération d'environnements 3D denses à partir d'images panoramiques cylindriques." Paris 6, 2003. http://www.theses.fr/2003PA066488.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Chailloux, Cyril. "Recalage d'images sonar par appariemment de régions : application à la génération d'une mosaïque." Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0044.

Full text
Abstract:
Le positionnement en milieu sous marin est un problème récurrent, auquel l'acquisition d'images de sonar latéral, ou la navigation d'un AUV, par exemple, sont confrontées. Le recalage des images sonar est donc primordial afin de compenser les erreurs de navigation. Cependant les artefacts inhérents aux images sonar comme les variations de luminosité, les ombres ou les occlusions rendent délicat le recalage. Ce travail est par conséquent consacré au développement d'une méthode robuste de recalage d'images sonar par appariement de régions. Parmi les relations de dépendance du second ordre, linéaire, fonctionnelle ou de dépendance en loi existantes entre les intensités des pixels des images, nous étudions les relations les mieux adaptées au contexte de l'imagerie sonar et définissons parmi les mesures de similarité associées, les plus appropriées. Il ressort que les critères de dépendance en loi présentent les meilleures performances de recalage. Ainsi l'information mutuelle et le rapport de corrélation sont retenus comme critères de similarité pour notre étude. Dans le cadre d'une approche multi-résolutions, il apparaît que le couplage du rapport de corrélation avec l'information mutuelle, forme un outil robuste de recalage. Ce nouveau critère de similarité opère par appariement de blocs centrés sur des points de saillance ou des points de courbure. La modélisation statistique des données est réalisée par un estimateur de Parzen. Les méthodes de régularisation, quant à elles, reposent sur des critères de cohérence établis à différents niveaux de résolution. L'évaluation des performances des mesures de similarité ainsi que les algorithmes de recalage sont éprouvés sur des jeux de données réelles. Ces algorithmes sont validés sur l'application de la génération d'une mosaïque d'images sonar
Underwater positioning is a recurrent issue, which side-scan sonar imaging or AUV navigation are faced to. Sonar image matching is an essential task to compensate errors of navigation, nevertheless inherent characteristics to sonar image as brightness variations or shadows or occlusions, make this task difficult. This work is consequently devoted to define a robust block matching algorithm. The different relationships between image intensity can be characterized by a stationary relation, a linear, a functional, or a statistic one. We study the best appropriated relation and define the associated similarity measure. Statistic criterions perform better than others, with especially mutual information and correlation ratio. In the frame of a multi-resolution process, coupling both mutual information and correlation ration returns a robust similarity measure. This measure is applied in a block matching approach, where each block is centering on a maximum of saliency point. A Parzen windowing is used to model data. Regularization methods consist in filtering vector fields with a coherence constraint. Real data set are used to validate algorithms and similarity measure results. These algorithms allow to define a georeferenced mosaic
APA, Harvard, Vancouver, ISO, and other styles
5

Moreau, Patrick. "Modélisation et génération de dégradés dans le plan discret." Bordeaux 1, 1995. http://www.theses.fr/1995BOR10640.

Full text
Abstract:
La modelisation 2d de degrades de couleurs peut se faire en dissociant la forme du degrade de sa couleur. Sa forme, encore appelee support, est definie par une fonction d'index qui a tout point d'un domaine discret associe une valeur entiere: l'index. A un meme support peuvent etre associees differentes colorations ; une coloration est definie par une fonction de coloration dont le role est d'affecter a chaque index une couleur. Dans ce travail, nous presentons l'interet et les limitations de ce modele dans le cadre de la modelisation de degrades. Nous montrons que la generation de degrades passe alors essentiellement par la generation d'une fonction d'index 1-lipschitz encore appelee fonction d'index homogene. Nous decrivons ensuite quelques approches nouvelles de modelisation de supports homogenes en montrant leur interet dans le cadre de la construction de degrades de couleur 2d: une methode basee sur les transformations de distance generalisees dans des domaines concaves, une methode d'extrapolation appelee methode de l'horizon moyen, un ensemble de methodes de generation de supports homogenes par composition de supports
APA, Harvard, Vancouver, ISO, and other styles
6

Osselin, Jean-François. "Génération automatique d'armures de grand rapport. Algorithme génétique." Mulhouse, 2001. http://www.theses.fr/2001MULH0668.

Full text
Abstract:
Cette thèse a un double objectif. Tout d'abord, il s'agit de formaliser mathématiquement le processus de tissage ainsi que les méthodes de construction des armures, jusqu'alors traitées uniquement empiriquement. Dans un second temps, on envisage de générer automatiquement des armures de grandes dimensions présentant l'aspect très particulier- du crêpe, en développant un algorithme génétique, dédié à codage non binaire. Le premier chapitre de cet ouvrage propose une formalisation des différents processus de transformation fréquemment appliqués à une ou plusieurs armures. Après avoir présenté quelques opérateurs, nous explicitons formellement ce que sont l'intercalation, le rayonnement on encore la transposition. Certaines des notions introduites concernant le tissage, les armures et leur lien avec les algèbres de Boole sont regroupées en annexe. Le chapitre deux présente quelques notions relatives aux problèmes de satisfaction de contraintes, pins traduit le problème de génération d'armures dans ce contexte. Le chapitre trois expose brièvement fondant sur un ce qu'est un algorithme génétique, dans sa version la plus classique en se fondant sur un exemple. Le chapitre quatre est entièrement consacré à l'analyse d'images, et plus particulièrement à l'analyse de l'aspect crêpé d'une armure. Dans le cinquième et dernier- chapitre sont exposés les processus et opérateurs génétiques propres à la résolution notre problème. On y trouve également une optimisation de l'algorithme. Suivie d'une très brève, analyse de son comportement en fonction de différents paramètres. Enfin, nous concluons sur ce travail et envisageons quelques extensions de nos travaux.
APA, Harvard, Vancouver, ISO, and other styles
7

Nshare, Abdallah. "Définition et conception d'une nouvelle génération de rétines programmables." Paris 11, 2002. http://www.theses.fr/2002PA112155.

Full text
Abstract:
Dans ce manuscrit, nous présentons une nouvelle approche d'architecture de traitement d'image. L'analyse de circuits de vision, en particulier les rétines artificielles, montre une mauvaise répartition des opérateurs de traitement d'images bas niveau. Malgré une vingtaine d'année de recherche dans ce domaine, cet aspect a conduit à des circuits de faible résolution intégrant des opérateurs figés et très peu programmables. Il nous a paru indispensable de trouver un nouveau compromis entre versatilité et parallélisme. Nous avons donc proposé une nouvelle architecture de rétine artificielle destinée à rééquilibrer les performances des circuits de vision. Notre approche consiste à déplacer l'ensemble des fonctions généralement intégrées autour du capteur à l'extérieur de la matrice d'acquisition. Ainsi, ils sont désormais partagés par un ensemble de pixels, et les traitements sont alors effectués séquentiellement. Cette architecture se traduit par une matrice de capteurs associée à une colonne de processeurs mixte analogique-numérique. Pour cela, nous avons conçu un processeur mixte original. Il devient ainsi possible d'exécuter in situ une large classe d'algorithmes de traitement d'image. Pour valider cette approche, nous avons réalisé en technologie CMOS 0. 6[mu]m une rétine artificielle comprenant une matrice de 16x16 pixels associé à une colonne de 16 processeurs. Ce premier circuit a permis de valider l'architecture et les cellules analogiques. Des traitements tels que la détection de mouvement ou de contours ont été programmés. La vitesse de traitement obtenue permet d'envisager des applications temps réel pour des rétines de haute résolution (256x256). Pour étendre le champ d'algorithmes réalisable, nous avons apporté des modifications à l'architecture de base. Ces modifications ont permis d'augmenter la précision des calculs analogiques, la vitesse de traitement et de réduire la surface du pixel. Nous conçu un deuxième circuit qui intègre ces modifications
In this manuscript, we present a new approach of architecture for image processing. The analysis of vision chips, in particular the artificial retinas, shows a bad distribution of the operators of low level images processing. In spite of about twenty year of researches in this domain, this aspect led to circuits of poor resolution integrating operators that have a low flexibility and a very poor programmability. It seemed to us indispensable to find a new compromise between versatility and parallelism. We so proposed a new architecture of artificial retina intended to improve the balance between the computing speed and the flexibilty of vision chips. Our approach consists in moving the set of functions that are generally integrated nearby the sensor, outside of the array of sensors. So, in our approach, the operators are henceforth shared by a set of pixels, and processing is then sequentially performed. This architecture is implemented by an array of sensors associated to a column of processors operating in an malogue-digital mixed mode. For it, we conceived an original mixed processor. It becomes if possible to perform sequences of calculations implementing in situ a wide class of image processing algorithms. To validate this approach, we realized an artificial retina in a 0. 6 [mu]m CMOS technology. This circuit comprises an array of 16x16 pixels associated to a column of 16 processors. This first circuit allowed to validate the architecture and the analogue cells. Processings such as the motion detection or edges detection were programmed. The obtained speed of processing allows to envisage real-time applications for retinas of high resolution (256x256). To widen the practicable field of algorithms, we brought modifications to the basic architecture. These modifications allowed to increase the preciseness of analogue calculations, the speed of processing and to reduce the area of the pixel. We conceived a second circuit which integrates these modifications
APA, Harvard, Vancouver, ISO, and other styles
8

Brangoulo, Sébastien. "Codage d'images fixes et de vidéos par ondelette de seconde génération : théorie et applications." Rennes 1, 2005. http://www.theses.fr/2005REN1S003.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous sommes intéressés au problème d'adaptation des ondelettes de seconde génération (ou ondelettes géométriques),afin d'analyser les images et les vidéos numériques. Nous exposons dans un premier temps une introduction ainsi que la problématique que nous nous sommes fixée dans cette thèse. Nous présentons ensuite quelques éléments sur les ondelettes de première génération afin de motiver nos recherches et d'en montrer les limites. Nous exposons ensuite les différents travaux théoriques des ondelettes de seconde génération et des maillages. Après l'étude relative aux différents états de l'art issus des deux types d'ondelettes, nous proposons d'introduire différents codecs vidéos usant des caractéristiques ondelettes et blocs. Ces analyses nous permettent d'introduire une version hybride du codec H264 comprenant une brique de compression JPEG2000 afin de coder les images d'erreur. Considérant ceci, nous élaborons une chaîne complète d'encodage (mise en forme de l'information, analyse des données pertinentes, quantification et compression, création du flux scalable ) et de décodage par ondelettes de seconde génération pour les images fixes. Cette étude est suivie par une analyse fine des différentes caractéristiques intrinsèques aux ondelettes afin de choisir efficacement un type d'ondelettes donné en fonction des régions d'intérêts des images à encoder. Nous traitons enfin de l'intégration de notre processus dans un schéma de codage H. 264 et d'une étude comparative des performances de notre encodeur face aux standards actuels. Des outils permettant de meilleures performances sont proposés, et certains d'entre eux sont testés. Enfin, nous concluons et exposons les perspectives pour des travaux futurs.
APA, Harvard, Vancouver, ISO, and other styles
9

Petit, Josselin. "Génération, visualisation et évaluation d'images HDR : application à la simulation de conduite nocturne." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00707723.

Full text
Abstract:
Cette thèse se situe à l'interface de deux des sujets de recherche du LEPSi8S, la perception et la réalité virtuelle, appliqués aux transports routiers. L'objectif de la thèse est d'améliorer l'état de l'art concernant le rendu des images de synthèse pour les simulateurs de conduite. L'axe privilégié est le réalisme perceptif des images. L'approche retenue propose un mode de rendu High Dynamic Range, qui permet de générer une image en luminance. La technique proposée permet de réutiliser des environnements virtuels classiques, avec un minimum d'informations supplémentaires concernant les sources lumineuses. Les textures et matériaux existants sont utilisés pour un rendu aussi proche physiquement de la réalité que possible. Ensuite, l'image est traitée avec un opérateur de reproduction de tons, qui compresse la dynamique pour tenir compte des limites liées au dispositif d'affichage, tout en respectant autant que possible un réalisme perceptif du rendu. L'opérateur a été choisi de façon à ce qu'il soit adapté à la simulation de conduite, notamment pour les cas extrêmes (nuit, éblouissement, soleil rasant). Une simulation de l'éblouissement a également été implémentée. L'ensemble du rendu est temps réel, et a été intégré dans la boucle visuelle les simulateurs de conduite du LEPSiS. Enfin, des comparaisons réel-virtuel ont permis de montrer la qualité du rendu HDR obtenu. Des expérimentations avec sujets, sur des photographies (avec une référence réelle) et sur des vidéos, ont de plus montré les meilleures performances d'un opérateur doté d'un modèle visuel humain pour la simulation de conduite, notamment par sa capacité à s'adapter temporellement aux variations de luminance.
APA, Harvard, Vancouver, ISO, and other styles
10

Combaz, Jean. "Utilisation de phénomènes de croissance pour la génération de formes en synthèse d'images." Phd thesis, Université Joseph Fourier (Grenoble), 2004. http://tel.archives-ouvertes.fr/tel-00528689.

Full text
Abstract:
La modélisation des formes naturelles reste un enjeu majeur pour le réalisme en synthèse d'images. Ces formes sont souvent complexes et leur modélisation avec les outils classiques nécessitent généralement une masse de travail considérable pour le graphiste. Les phénomènes de croissance sont très courants dans la nature. Ils engendrent souvent des formes complexes, même quand le mécanisme mis en jeu reste simple. Recréer de telles formes par des simulations physiques n'est pas toujours très pratique, du fait du manque de contrôle sur le résultat. Nous proposons dans cette thèse un nouveau genre de modeleur, basé sur la croissance d'une surface, qui permet de recréer des formes de croissance. Le modeleur présente des contrôles supplémentaires par rapport à un simulateur physique, et il n'est pas uniquement limité à la simulation de phénomènes naturels : il permet de rajouter interactivement des détails à une surface, tel que des plis des cloques, et même des branches.
APA, Harvard, Vancouver, ISO, and other styles
11

Barroso, Nicolas. "Génération d'images intermédiaires pour la création d'animations 2D stylisées à base de marques." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES083.

Full text
Abstract:
Dans le cadre de ma thèse, je m'intéresse à la problématique de la création d'animations 2D traditionnelles, où toutes les images sont réalisées à la main. Je cherche à explorer comment l'ordinateur peut aider les artistes à produire de manière plus efficace sans pour autant empiéter sur le spectre de la création artistique. Pour répondre à ce problème, mes travaux se placent dans le domaine des méthodes automatiques, où l'animateur travaille de manière itérative avec l'ordinateur. Je propose une méthode qui, à partir de deux images clés et d'une série de champs vectoriels 2D décrivant le mouvement dans l'espace image de l'animation, génère des images intermédiaires et reproduit le style donné en exemple. Ma méthode se situe à l'intersection de deux techniques manuelles d'animation : l'animation pose à pose et l'animation sous la caméra, et assure un contrôle fort en permettant d'éditer n'importe quelle image générée de la même manière que celles données en exemple. Mes travaux englobent plusieurs domaines, notamment l'analyse du mouvement, le contrôle de courbe 2D, le rendu à base de marques et la simulation de la peinture
As part of my thesis, I am interested in the issue of creating traditional 2D animations, where all the images are handcrafted. Specifically, I explore how computers can assist artists in producing animations efficiently without reducing the artistic creative process. To address this problem, my work falls within the scope of automatic methods, where the animator collaborates iteratively with the computer. I propose a method that takes two keyframe images and a series of 2D vector fields describing the motion in image space of the animation, and generates intermediate images while preserving the given style as an example. My method combines two manual animation techniques: pose-to-pose and frame-by-frame animation, providing strong control by allowing any generated image to be edited in the same way as the example images provided. My research covers several domains: motion analysis, 2D curve control, mark-based rendering, and paint simulation
APA, Harvard, Vancouver, ISO, and other styles
12

Chen, Yong. "Analyse et interprétation d'images à l'usage des personnes non-voyantes : application à la génération automatique d'images en relief à partir d'équipements banalisés." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080046/document.

Full text
Abstract:
L’information visuelle est une source d’information très riche à laquelle les non-voyants et mal voyants (ou Personnes Aveugles et Malvoyantes : PAM) n’ont pas toujours accès. La présence des images constitue un réel handicap pour les PAM. Une transcription de ces images en relief peut augmenter leur accessibilité aux PAM. En prenant en compte les aspects de la cognition tactile chez les non-voyants, les règles, et les recommandations de la conception d’une image en relief, nous avons orienté notre travail sur les analyses et les comparaisons des techniques de traitement d’image numérique pour trouver les méthodes adaptées afin de créer une procédure automatique de création d’images en relief. A la fin de ce travail, nous avons testé les images en relief créées avec des non-voyants. Deux points importants ont été évalués :  Le taux de compréhension d’une image en relief ; Le temps d’exploration nécessaire.Les résultats suggèrent que les images faites par ce système sont accessibles pour les non-voyants braillistes. Le système implémenté peut être considéré comme un outil efficace de création d’image en relief :  Le système propose une possibilité de généraliser et formaliser la procédure de création d'image en relief ;  Le système donne une solution très rapide et facile.Le système peut traiter des images pédagogiques avec du contenu sémantique simplifié. Il peut donc être utilisé dans de nombreux cas d’utilisation. Par exemple, il peut être utilisé comme un outil pratique pour rendre accessible les images numériques. Il permet aussi la coopération avec d’autres modalités de présentation d’image au non-voyant, par exemple avec une carte interactive classique
Visual information is a very rich source of information to which blind and visually impaired people (BVI) not always have access. The presence of images is a real handicap for the BVI. The transcription into an embossed image may increase the accessibility of an image to BVI. Our work takes into account the aspects of tactile cognition, the rules and the recommendations for the design of an embossed image. We focused our work on the analysis and comparison of digital image processing techniques in order to find the suitable methods to create an automatic procedure for embossing images. At the end of this research, we tested the embossed images created by our system with users with blindness. In the tests, two important points were evaluated:  The degree of understanding of an embossed image; The time required for exploration.The results suggest that the images made by this system are accessible to blind users who know braille. The implemented system can be regarded as an effective tool for the creation of an embossed image. The system offers an opportunity to generalize and formalize the procedure for creating an embossed image. The system gives a very quick and easy solution.The system can process pedagogical images with simplified semantic contents. It can be used as a practical tool for making digital images accessible. It also offers the possibility of cooperation with other modalities of presentation of the image to blind people, for example a traditional interactive map
APA, Harvard, Vancouver, ISO, and other styles
13

François, Michaël. "Génération de nombres pseudo-aléatoires basée sur des systèmes multi-physiques exotiques et chiffrement d'images." Troyes, 2012. http://www.theses.fr/2012TROY0023.

Full text
Abstract:
L'utilisation des nombres (pseudo)-aléatoires a pris une dimension importante ces dernières décennies. De nombreuses applications dans le domaine des télécommunications, de la cryptographie, des simulations numériques ou encore des jeux de hasard, ont contribué au développement et à l'usage de ces nombres. Les méthodes utilisées pour la génération des nombres (pseudo)-aléatoires proviennent de deux types de processus : physique et algorithmique. Dans cette thèse, deux classes de générateurs basés sur des principes de mesures physiques et des processus mathématiques sont présentées. Pour chaque classe deux générateurs sont présentés. La première classe de générateurs exploite la réponse d'un système physique qui sert de source pour la génération des séquences aléatoires. Cette classe utilise aussi bien des résultats de simulation que des résultats de mesures interférométriques pour produire des séquences de nombres aléatoires. La seconde classe de générateurs est basée sur deux types de fonctions chaotiques et utilise les sorties de ces fonctions comme indice de permutation sur un vecteur initial. Cette thèse s'intéresse également aux systèmes de chiffrement pour la protection des données. Deux algorithmes de chiffrement d'images utilisant des fonctions chaotiques sont proposés. Ces Algorithmes utilisent un processus de permutation-substitution sur les bits de l'image originale. Une analyse approfondie basée sur des tests statistiques confirme la pertinence des cryptosystèmes développés dans cette thèse
The use of (pseudo)-random numbers has taken an important dimension in recent decades. Many applications in the field of telecommunications, cryptography, numerical simulations or gambling, have contributed to the development and the use of these numbers. The methods used for the generation of (pseudo)- random numbers are based on two types of processes: physical and algorithmic. In this PhD thesis, two classes of generators based on the principles of physical measurements and mathematical processes are presented. For each class two generators are presented. The first class of generators operates the response of a physical system that serves as a source for the generation of random sequences. This class uses both simulation results and the results of interferometric measurements to produce sequences of random numbers. The second class of generators is based on two types of chaotic functions and uses the outputs of these functions as an index permutation on an initial vector. This PhD thesis also focuses on encryption systems for data protection. Two encryption algorithms using chaotic functions are proposed. These algorithms use a permutation-substitution process on the bits of the original image. A thorough analysis based on statistical tests confirms the relevance of the developped cryptosystems in this PhD thesis manuscript
APA, Harvard, Vancouver, ISO, and other styles
14

Dischler, Jean-Michel. "La génération de textures 3D et de textures a microstructure complexe pour la synthese d'images." Université Louis Pasteur (Strasbourg) (1971-2008), 1996. http://www.theses.fr/1996STR13015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Lathuilière, Alexandra. "Génération de mires colorées pour la reconstruction 3D couleur par système stéréoscopique de vision active." Dijon, 2007. http://www.theses.fr/2007DIJOS033.

Full text
Abstract:
La finalité de ce projet est la reconstruction tridimensionnelle d’objets couleur. Pour cela, le principe d’un scanner tridimensionnel est basé sur la stéréovision active. Le calcul des coordonnées tridimensionnelles est fait à partir de deux points de vue, une caméra et un vidéoprojecteur. La triangulation est calculée entre les deux ensembles d’informations. L’intérêt de ces travaux est d’apporter de l’intelligence dans le scanning. Ce projet s’oriente vers un éclairage structuré codé couleur pour pouvoir déterminer les informations tridimensionnelles et couleur en même temps, sans perte d’information et en limitant les erreurs dues à la disparition de certains points d’intérêt dans les reliefs trop importants de l’objet étudié. Le calibrage géométrique et couleur est une étape incontournable. Le système présenté évolue vers un concept de scanner tridimensionnel multispectral pour améliorer la mise en correspondance et l’acquisition de la couleur de l’objet étudié
The main purpose of this project is the three-dimensional reconstruction of color objects. For that, the principle of a three-dimensional scanner is used: the active stereovision. The calculation of the three-dimensional coordinates is made starting from two points of view, a camera and a LCD projector. The triangulation is calculated between the two sets of information. The work interest is to bring intelligence in the scanning. This project is directed towards a color coded structured light to be able to determine three-dimensional information and color in the same time without loss information and with limiting the errors due to the disappearance of certain points of interest in the too important relief of the studied object. Geometrical calibration and color one are an important stage. The system presented evolves to a concept of multispectral three-dimensional scanner: to improve the mapping and acquisition of the color of the studied object
APA, Harvard, Vancouver, ISO, and other styles
16

Bidal, Samuel. "Reconstruction tridimensionnelle d'éléments anatomiques et génération automatique de maillages éléments finis optimisés." Aix-Marseille 2, 2003. http://www.theses.fr/2003AIX20673.

Full text
Abstract:
Ce travail a été motivé par la volonté d'obtenir rapidement des modèles fidèles du corps humain. Nous avons créé et implémenté un ensemble de méthodes permettant de générer des maillages éléments finis en se basant sur une imagerie sériée (coupes anatomiques, scanner, IRM). La génération de maillages a été décomposée en trois grandes parties : extraction de contours, reconstruction 3D et maillage surfacique ou volumique. Les méthodes de détection de contours ont été choisies afin d'être applicables sur tout type d'imagerie sériée dans le but d'être d'un emploi le plus large possible. Les méthodes de reconstruction 3D et de maillage sont originales et basées sur une décomposition octaédrique de l'espace. Elles génèrent directement des éléments quads et hexas. La validation de la chaîne de traitement et des modèles obtenus a été effectuée sur le segment céphalique. Divers autres segments ont aussi été étudiés même si leur étude n'est ici abordée qu'en guise d'illustration
The aim of this work is to quickly generate good quality models of the human body. We created a method package which generates finite element meshes from pictures of serial slices (taken from anatomic slices, X-ray sanner or MRI). The mesh generation is divided into three main steps : contours detection, 3D reconstruction and meshing. Contour detection methods were chosen to be applicable on a wide range of pictures. 3D reconstruction and meshing methods are new and based on an octahedral lattice. They allow to generate quadrangular or hexahedral elements. The heads organs were chosen to validate the package. We studied other organs too but these work are just given here as examples
APA, Harvard, Vancouver, ISO, and other styles
17

Morlans, Richard. "Génération des trajectoires d'un robot d'exploration planétaire utilisant un modèle numérique de terrain issu d'images prises par satellite." Montpellier 2, 1992. http://www.theses.fr/1992MON20119.

Full text
Abstract:
Ce memoire de these decrit un systeme de generation de trajectoires pour robot mobile d'exploration de la planete mars a partir de modeles numeriques du terrain (m. N. T. ) issus d'images supposees prises par un orbiteur. Le m. N. T. Est d'abord filtre pour supprimer le bruit specifique au modele. Des points (cols) et lignes (talwegs) privilegies pour le deplacement du robot sont extraits automatiquement du m. N. T. Les cols sont detectes par une analyse de chaque point du m. N. T. Et de son voisinage. Les talwegs sont ensuite construits a partir de ces cols par application de regles heuristiques de comportement. Le resultat est un reseau connexe de segments de talwegs, stocke dans une base de donnees de type relationnelle. Une topologie du terrain en est deduite a partir des informations disponibles. Un graphe de recherche est ensuite construit a partir de ce reseau, en ponderant les arcs par une fonction de cout representative de l'effort et du risque necessaires a la traversee d'un segment du reseau par le vehicule. Un parcours de ce graphe par un algorithme heuristique nous fournit une premiere trajectoire. Une partition du terrain en regions de cout de navigation homogene est ensuite effectuee. Celle-ci nous permet de rechercher des raccourcis a l'interieur de regions, ameliorant ainsi des portions du chemin localement sous-optimales
APA, Harvard, Vancouver, ISO, and other styles
18

Zhao, Jiaxin. "Génération de maillage à partir d'images 3D en utilisant l'adaptation de maillage anisotrope et une équation de réinitialisation." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM004/document.

Full text
Abstract:
Ces dernières années, les techniques d'imagerie ont fait l'objet de beaucoup d'améliorations. Elles permettent de fournir des images numériques 2D ou 3D précises de zones parfois invisibles à l’œil nu. Ces techniques s'appliquent dans de nombreux domaines comme l'industrie cinématographique, la photographie ou l'imagerie médicale... Dans cette thèse, l'imagerie sera utilisée pour effectuer des simulations numériques en la couplant avec un solveur éléments finis. Nous présenterons, en premier lieu, la morphologie mathématique et la méthode d'immersion d'image. Elles permettront l'extraction d'informations permettant la transformation d'une image dans un maillage exploitable. Puis, une méthode itérative d'adaptation de maillage basée sur un estimateur d'erreur sera utilisée afin de construire un maillage optimal. Ainsi, un maillage sera construit uniquement avec les données d'une image. Nous proposerons également une nouvelle méthodologie pour construire une fonction régulière a l'aide d'une méthode de réinitialisation de la distance signée. Deux avantages sont à noter : l'utilisation de la fonction régularisée permet une bonne adaptation de maillage. De plus, elle est directement utilisable par le solveur éléments finis. Les simulations numériques sont donc réalisées en couplant éléments finis stabilisés, adaptation de maillage anisotrope et réinitialisation. L'objectif de cette thèse est donc de simplifier le calcul numérique à partir d'image, d'améliorer la précision numérique, la construction d'un maillage automatique et de réaliser des calculs numériques parallèles efficaces. Les applications envisagées peuvent être dans le domaine médical, de la physique des matériaux ou du design industriel
Imaging techniques have well improved in the last decades. They may accurately provide numerical descriptions from 2D or 3D images, opening perspectives towards inner information, not seen otherwise, with applications in different fields, like medicine studies, material science or urban environments. In this work, a technique to build a numerical description under the mesh format has been implemented and used in numerical simulations when coupled to finite element solvers. Firstly, mathematical morphology techniques have been introduced to handle image information, providing the specific features of interest for the simulation. The immersed image method was then proposed to interpolate the image information on a mesh. Then, an iterative anisotropic mesh adaptation operator was developed to construct the optimal mesh, based on the estimated error concerning the image interpolation. The mesh is thus directly constructed from the image information. We have also proposed a new methodology to build a regularized phase function, corresponding to the objects we wish to distinguish from the image, using a redistancing method. Two main advantages of having such function are: the gradient of the regularized function performs better for mesh adaptation; the regularized function may be directly used for the finite element solver. Stabilized finite element flow and advection solvers were coupled to the constructed anisotropic mesh and the redistancing function, allowing its application to multiphase flow numerical simulations. All these developments have been extended in a massively parallel context. An important objective of this work is the simplification of the image based computations, through a modified way to segment the image and by coupling all to an automatic way to construct the mesh used in the finite element simulations
APA, Harvard, Vancouver, ISO, and other styles
19

Youssef, Stéphanie. "Aide au concepteur pour la génération de masques analogiques, réutilisables et optimisés, en technologie CMOS nanométrique." Paris 6, 2012. http://www.theses.fr/2012PA066645.

Full text
Abstract:
Électronique et semi-conducteurs évoluent rapidement. Des nouvelles technologies sont introduites pour adapter la structure CMOS à la gravure nanométrique. La réduction des délais de mise sur le marché nécessite un flot de conception analogique fiable. La génération automatique du dessin des masques est un élément clé de ce flot dont les défis augmentent à mesure que la finesse de gravure augmente. La thèse propose un flot réutilisable et optimisé pour faire face aux défis de conception de masques de circuits alogiques. Il fait partie du projet CHAMS développé en LIP6. Tout d'abord, nous avons conçu une bibliothèque de primitives analogiques qui sont paramétrés, réutilisables, avec différents styles de Layout. Un langage de description a été introduit pour faciliter la migration technologique et le calcul des paramètres induits par le Layout. Ensuite, nous avons développé des algorithmes pour placer les circuits complexes en utilisant la bibliothèque de primitives, les fichiers de technologie et les contraintes géométriques du concepteur. Une représentation topologique du plan de masse et des contraintes telle que l´ appariemenent, la symétrie et la proximité ont été introduites. Enfin, nous avons créé un environnement logiciel pour optimiser le Layout suivant différents facteur de forme afin de minimiser la surface et le routage. La génération des masques documente directement la netlist par les paramètres parasites dépendants du Layout. Ce travail offre une solution fiable pour permettre une génération rapide, optimisée en quantifiant les parasites du layout de circuits analogiques complexes
Electronics and semiconductor are evolving at an ever-increasing rate. New technologies are also introduced to extend CMOS into nano/molecular scale MOSFET structures. Tighter time-to-market needs are pressing the need for an automated reliable analog design flow. Automatic layout generation is a key ingredient of such flow whose design challenges are drastically exacerbated when more complex circuits and newer technologies must be hosted. The thesis presents a designer-assisted, reusable and optimized analog layout generation flow that addresses the challenges facing the automation of analog circuits. It is part of CHAMS project developed in LIP6. It has been developed in 3 phases. Firstly, we designed a library of analog Smart Devices that are parameterized, reusable, and with different layout styles. A generic language was used to describe these Devices to ease the technology migration and the layout-induced parameters calculation. Secondly, we developed the tools to generate the layout of complex circuits using the library of Smart Devices, the technology files and the designer's geometrical placement constraints needed to guarantee a certain performance. An intelligent topological representation was used to efficiently place the circuit modules given the designer's set of constraints. Thirdly, we created algorithms to optimize the layouts for different aspect ratios to minimize the area and the routing parasitic. In parallel the algorithm directly calculates and back-annotates the layout-dependent parasitic parameters. This work provides a reliable and efficient solution to allow a fast, optimized and parasitic effects-aware layout generation of complex analog circuits
APA, Harvard, Vancouver, ISO, and other styles
20

Bandon, David. "Maria : une optimisation adaptative d'un archivage d'images médicales par transfert anticipé." Compiègne, 1996. http://www.theses.fr/1996COMPD961.

Full text
Abstract:
Dans cette thèse, nous proposons le système MARIA (systèMe d'Anticipation de la Récupération des Images par Apprentissage) permettant la restitution rapide des examens radiologiques gérés dans un système hospitalier de communication et d'archivage des images (PACS). La technique employée est celle du transfert anticipe qui consiste à anticiper le besoin du clinicien pour sa prochaine consultation. Ainsi, les images significatives du passe radiologique du patient sont copiées par avance sur les disques de la station de consultation. La caractéristique essentielle de MARIA est qu'il repose sur un apprentissage à long terme de la méthode de travail des cliniciens. La sélection des images se fait, ainsi, par l'application successive, jusqu'a l'obtention d'une solution, de trois méthodes dont deux sont évolutives dans le temps. La première méthode, s'appuyant sur des raisonnements à base de cas et de règles, mémorise, puis réutilise les sessions de consultations passées pour proposer une nouvelle sélection d'images. La seconde méthode repose sur la formulation par les cliniciens de jugements de pertinence sur les examens. Ces jugements sont utilisés pour constituer un dossier résumé d'images. Le contenu de ce dossier sera transféré lors d'une anticipation. La troisième méthode sélectionne, par défaut, un nombre pré défini d'examens. Cette stratégie de sélection est intégrée dans un cycle complet d'anticipation décrivant la détection de venue d'un patient, la sélection des images, leur transfert sur les supports de stockage de la station de consultation, la tenue de la séance de consultation et, enfin, l'apprentissage des résultats.
APA, Harvard, Vancouver, ISO, and other styles
21

Peschoud, Cécile. "Etude de la complémentarité et de la fusion des images qui seront fournies par les futurs capteurs satellitaires OLCI/Sentinel 3 et FCI/Meteosat Troisième Génération." Thesis, Toulon, 2016. http://www.theses.fr/2016TOUL0012/document.

Full text
Abstract:
L’objectif de cette thèse était de proposer, valider et comparer des méthodes de fusion d’images provenant d’un capteur héliosynchrone multispectral et d’un capteur géostationnaire multispectral, pour produire des cartes de composition de l’eau détaillées spatialement et les mieux rafraîchies possibles. Notre méthodologie a été appliquée au capteur héliosynchrone OLCI sur Sentinel-3 et au capteur géostationnaire FCI sur Météosat Troisième Génération. Dans un premier temps, la sensibilité des deux capteurs à la couleur de l’eau a été analysée. Les images des capteurs OLCI et FCI n’étant pas encore disponibles, ont donc été simulées sur le Golfe du Lion, grâce à des cartes d’hydrosols (chlorophylle, matières en suspension et matières organiques dissoutes) et à des modèles de transfert radiatifs (Hydrolight et Modtran). Deux méthodes de fusion ont ensuite été adaptées puis testées à partir des images simulées : la méthode SSTF (Spatial, Spectral, Temporal Fusion) inspirée de la fusion de (Vanhellemont et al., 2014) et la méthode STARFM (Spatial Temporal Adaptative Reflectance Fusion Model) de (Gao et al., 2006). Les résultats de fusion ont alors été validés avec des images de référence simulées et les cartes d’hydrosols estimées à partir de ces images ont été comparées aux cartes utilisées en entrée des simulations. Pour améliorer le SNR des images FCI, un filtrage temporel a été proposé. Enfin, comme le but est d’obtenir des indicateurs de qualité de l’eau, nous avons testé les méthodes de fusion sur les cartes d’hydrosols estimées à partir des images FCI et OLCI simulées
The objective of this thesis was to propose, validate and compare fusion methods of images provided by a Low Earth Orbit multispectral sensor and a geostationary multispectral sensor in order to obtain water composition maps with spatial details and high temporal resolution. Our methodology was applied to OLCI Low Earth Orbit sensor on Sentinel-3 and FCI Geostationary Earth Orbit (GEO) sensor on Meteosat Third Generation. Firstly, the sensor sensivity, regarding the water color, was analyzed. As the images from both sensors were not available, they were simulated on the Golf of Lion, thanks to hydrosol maps (chl, SPM and CDOM) and radiative transfer models (Hydrolight and Modtran). Two fusion methods were then adapted and tested with the simulated images: the SSTF (Spatial, Spectral, Temporal Fusion) method inspired from the method developed by (Vanhellemont et al., 2014)) and the STARFM (Spatial Temporal Adaptative Reflectance Fusion Model) method from (Gao et al., 2006)). The fusion results were then validated with the simulated reference images and by estimating the hydrosol maps from the fusion images and comparing them with the input maps of the simulation process. To improve FCI SNR, a temporal filtering was proposed. Finally, as the aim is to obtain a water quality indicator, the fusion methods were adapted and tested on the hydrosol maps estimated with the FCI and OLCI simulated images
APA, Harvard, Vancouver, ISO, and other styles
22

Lapray, Pierre-Jean. "Nouvelle génération de systèmes de vision temps réel à grande dynamique." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00947744.

Full text
Abstract:
Cette thèse s'intègre dans le cadre du projet européen EUREKA "High Dynamic Range - Low NoiseCMOS imagers", qui a pour but de développer de nouvelles approches de fabrication de capteursd'images CMOS à haute performance. L'objectif de la thèse est la conception d'un système de visiontemps réel à grande gamme dynamique (HDR). L'axe principal sera la reconstruction, en temps réelet à la cadence du capteur (60 images/sec), d'une vidéo à grande dynamique sur une architecturede calcul embarquée.La plupart des capteurs actuels produisent une image numérique qui n'est pas capable de reproduireles vraies échelles d'intensités lumineuses du monde réel. De la même manière, les écrans, impri-mantes et afficheurs courants ne permettent pas la restitution effective d'une gamme tonale étendue.L'approche envisagée dans cette thèse est la capture multiple d'images acquises avec des tempsd'exposition différents permettant de palier les limites des dispositifs actuels.Afin de concevoir un système capable de s'adapter temporellement aux conditions lumineuses,l'étude d'algorithmes dédiés à la grande dynamique, tels que les techniques d'auto exposition, dereproduction de tons, en passant par la génération de cartes de radiances est réalisée. Le nouveausystème matériel de type "smart caméra" est capable de capturer, générer et restituer du contenu àgrande dynamique dans un contexte de parallélisation et de traitement des flux vidéos en temps réel
APA, Harvard, Vancouver, ISO, and other styles
23

MOSSET, Alexis. "Étude expérimentale des fluctuations d'origine quantique en amplification paramétrique d'images." Phd thesis, Université de Franche-Comté, 2004. http://tel.archives-ouvertes.fr/tel-00009322.

Full text
Abstract:
Ce mémoire présente une étude expérimentale des fluctuations spatiales d'origine quantique de l'intensité dans des images en amplification paramétrique optique (OPA). Dans un premier temps nous avons caractérisé la réponse d'une caméra CCD lors de la mesure du bruit de photons dans le plan transverse de l'image. Pour cela, nous avons montré la pleine aptitude des capteurs silicium pour le domaine visible (527 nm) et leur mauvaise réponse dans le proche IR (1055 nm). Puis nous avons calibré le capteur sur toute sa dynamique afin d'éliminer l'inhomogénéité de réponse des pixels et ainsi mesurer le bruit de photons dans des images faibles ou intenses. D'autre part, nous avons étudié les aspects quantiques des OPA. L'amplification à l'aide d'un cristal de BBO de type I d'images (527 nm) dominées par le bruit quantique à l'aide d'une pompe UV (264nm) s'est imposée comme le meilleur compromis expérimental. Nous avons mis au point un montage et un protocole de mesure permettant la comparaison entre l'amplification sensible à la phase (PSA) et l'amplification insensible à la phase (PIA). Dans le cas d'une PIA, nous avons mis en évidence la dégradation du rapport signal à bruit. Pour la configuration PSA, nous avons réalisé la première amplification paramétrique d'images sans bruit spatial. Pour ces deux cas, les valeurs expérimentales sont en accord avec la figure de bruit attendue. De plus, nous avons étudié la distribution des fluctuations spatiales de la fluorescence paramétrique. L'emploi d'impulsions brèves et un fort filtrage des longueurs d'onde ont permis la caractérisation directe de la distribution de Bose-Einstein pure.
APA, Harvard, Vancouver, ISO, and other styles
24

Belloulata, Kamel. "Compression d'images par fractale : études sur la mesure et le domaine de recherche de l'autosimilarité (spatial ou transforme) et sur l'accélération de la génération du modèle fractal." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0013.

Full text
Abstract:
L'objectif de ce travail est le développement d'une méthodologie optimisée de compression des images fondée sur la théorie des fractales. La compression par fractale est basée sur la détection, la meure et le codage de l'auto-similarité présente dans les scènes naturelles se manifestant en termes de ressemblance entre des structures locales à différentes échelles, orientations et dispositions spatiales. Après un partitionnement adapté de l'image, chaque partie élémentaire est mise en correspondance avec une autre partie d'échelle différente recherchée dans toute l'image. Chaque correspondance est modélisée par une transformation affine locale et l'union de ces transformations appelée Local Iterated Funcion Systems (LIFS) forme le code fractal. En ce qui concerne le schéma de base, des améliorations sont apportée s à différents niveaux. L'influence du choix de la norme utilisée dans la mesure de l'auto-similarité est étudiée et une nouvelle méthode de codage basé sur la norme L͚ est proposée et comparée à celle basée sur a norme Lα. Afin de réduire la complexité du codage par fractale des images pleine résolution, une classification paramétrique des blocs source et destination est faite en utilisant la variance ou la dimension fractales des blocs cible. En ce qui concerne les schémas hybrides (fractale/TCD et fractale / sous bandes), une synthèse complète de l'état de l'art est effectuée. Un e méthode originale de codage par fractale intra-sou s bandes adaptatif est proposée, méthode qui permet de profiter des avantages des deux théories (ondelettes et fractale) pour augmenter les performances de l'algorithme de codage en termes de minimisation de la distorsion et du temps de calcul. En ce qui concerne l'accélération du codage par fractale, un nouvel algorithme de compression hybride fractale/QV/sous-bandes avec une approche non-itérative de classification des blocs source est développé et comparé aux algorithmes d'accélération existants en termes de complexité d'algorithme et temps de codage
The goal of this work is to develop an optimize method to the image compression based on fractal theory. The fractal coding is based on the detection, the measure and a coding of the self-similarity presented in the natural pictures. It is well known that the quality of decoded images depends directly on the efficiency of the measurement of the self-similarity between objects of the original image. We present two coding schemes based on L͚ and Lα metrics. The performance of these schemes is compared with various standard images in terms •of PPSNR and maximum local distortion. Concerning the hybrid schemes, we propose a new image compression scheme based on fractal coding of the coefficients of a wavelet transform, in order to take into account the advantages of the two theories (wavelet and fractal) and the self-similarity observed in each sub band. Concerning the acceleration of the fractal coding, a new approach using a hybrid fractal/QV / sub band coding scheme is developed and compared. This approach uses a fast non-iterative algorithm for black clustering in order to code a wavelet • transform coefficients. Our fast non-iterative algorithm is compared with other algorithm in terms of rate improvement obtained
APA, Harvard, Vancouver, ISO, and other styles
25

Kieu, Van Cuong. "Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Full text
Abstract:
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training
APA, Harvard, Vancouver, ISO, and other styles
26

Callahan, Michael. "Analyse de la cinétique de transformation et des instabilités de déformation dans des aciers TRIP "Moyen Manganèse" de 3ème génération." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC065/document.

Full text
Abstract:
Cette thèse caractérise un acier Moyen Mn à 0.2C-5Mn-2.5Al qui montre un écrouissage très fort au cours de la déformation plastique dû à l’effet TRIP. Pendant TRIP, l’austénite résiduelle paramagnétique se transforme en martensite ferromagnétique sous déformation plastique, ce qui conduit à un fort écrouissage. Le taux de cet écrouissage dépend des paramètres de fabrication et surtout la température de recuit intercritique. Ces aciers ont aussi des fois le tendance de se déformer de façon hétérogène par des bandes de Lüders ou PLC.Dans cette thèse, une méthode de caractérisation de la cinétique de transformation de phase est développée sur la base des mesures de l’aimantation saturée de l’acier. La méthode magnétique est unique dans son implémentation in-situ sans aucun effet sur l’essai de traction. Une correction pour les effets de la contrainte appliquée sur l’aimantation est aussi introduite pour la première fois avec une base physique. Les résultats des mesures magnétiques ont été comparés contre des caractérisations des bandes de déformation pour montrer que la transformation de phase coïncide avec le passage des bandes de déformation. La sensibilité à la vitesse de déformation est analysée et une caractérisation de la présence et type de bande PLC est présentée en fonction de la cinétique de transformation de phase
This thesis studies the mechanical behavior of a 0.2C-5Mn-2.5Al Medium Mn steel that exhibits a very high degree of work hardening due to transformation-induced plasticity (TRIP) during plastic deformation. During TRIP, paramagnetic retained austenite is transformed to ferromagnetic martensite with the application of plastic strain and generates a significant amount of work hardening. The rate of work hardening is seen to vary greatly depending on processing parameters—notably the intercritical annealing temperature. These steels also often deform heterogeneously through the propagation of Lüders or PLC strain bands.This research develops a method to characterize the kinetics of the TRIP effect through measurements of the samples magnetic properties. The method is novel in that it is performed in-situ with no effect on the tensile test and is able to correct for the effects of the applied stress on the magnetic properties. The results of these experiments were compared to characterizations of the strain bands to demonstrate that TRIP coincides with the passage of a Lüders or PLC band. The strain rate sensitivity of the steels is analyzed and the presence and type of PLC bands are characterized with respect to the transformation kinetics
APA, Harvard, Vancouver, ISO, and other styles
27

Bijar, Ahmad. "Recalages non-linéaires pour la génération automatique de modèles biomécaniques patients-spécifiques à partir d'imagerie médicale." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS010.

Full text
Abstract:
Les techniques de chirurgie assistée par ordinateur suscitent depuis quelques années un vif intérêt, depuis l’aide au diagnostic jusqu’à l’intervention chirurgicale elle-même, en passant pas les prises de décision. Dans ce but, l’Analyse par Éléments Finis (AEF) du comportement de modèles biomécaniques tridimensionnels est une des méthodes numériques les plus utilisées et les plus efficaces. Cependant, la fiabilité des solutions de l’AEF dépend fortement de la qualité et de la finesse de la représentation des organes sous la forme de maillages d'éléments finis (MEF). Or la génération de tels maillages peut être extrêmement longue et exigeante en ressources computationnelles, car il est nécessaire de procéder à l’extraction précise de la géométrie de l’organe-cible à partir d’images médicales avant de recourir à des algorithmes sophistiqués de maillage. Confrontés à ces enjeux, certains travaux se sont attachés à éviter la procédure de maillage en exploitant des méthodes fondées pour chaque patient sur la déformation géométrique d’un maillage défini sur un sujet de référence, dit « Atlas ». Mais ces méthodes nécessitent toujours une description géométrique précise de l’organe-cible du patient, sous la forme de contours, de modèles surfaciques tridimensionnels ou d’un ensemble de points de référence. Dans ce contexte, le but de la thèse est de développer une méthodologie de conception automatique de maillages « patient-spécifiques », basée sur un Atlas, mais évitant cette étape de segmentation de la géométrie de l’organe-cible du patient. Dans une première partie de la thèse, nous proposons une méthode automatique qui, dans une première phase, procède au recalage volumétrique de l'image anatomique de l’Atlas sur celle du patient, afin d’extraire la transformation géométrique permettant de passer de l’Atlas au patient, puis, dans une seconde phase, déforme le maillage de l’Atlas et l’adapte au patient en lui appliquant cette transformation. Le processus de recalage est conçu de telle manière que la transformation géométrique préserve la régularité et la haute qualité du maillage. L’évaluation de notre méthode, à savoir l'exactitude du processus de recalage inter-sujets, s’est faite en deux étapes. Nous avons d’abord utilisé un ensemble d’images CT de la cage thoracique, en accès libre. Puis nous avons exploité des données IRM de la langue que nous avons recueillies pour deux sujets sains et deux patients souffrant de cancer de la langue, en condition pré- et post-opératoire.Dans une seconde partie, nous développons une nouvelle méthode, toujours basée sur un Atlas, qui exploite à la fois l'information fournie par les images anatomiques et celle relative à la disposition des fibres musculaires telles qu’elle est décrite par imagerie par résonance magnétique du tenseur de diffusion (RM-DT). Cette nouvelle démarche s’appuie ainsi, d’abord sur le recalage anatomique proposé dans notre première méthode, puis sur l’identification et le recalage d’un ensemble de faisceaux de fibres musculaires qui seront ensuite intégrés aux maillages « patient-spécifiques ». Contrairement aux techniques usuelles de recalage d’images RM-DT, qui impliquent pour chaque image la réorientation des tenseurs de diffusion soit au cours de l'estimation de la transformation géométrique, soit après celle-ci, notre technique ne nécessite pas cette réorientation et recale directement les faisceaux de fibres de l’Atlas sur ceux du patient. Notre démarche est très importante, car la détermination et l’identification précises de toutes les sous-structures musculaires nécessiteraient une intervention manuelle pour analyser des milliers, voire des millions, de fibres, qui sont grandement influencées par les limitations et aux distorsions inhérentes aux images RM-DT et aux techniques de tractographie des fibres. L’efficacité de notre méthodologie est démontrée par son évaluation sur un ensemble d’images IRM et RM-DT de la langue d’un sujet
During the last years, there has been considerable interest in using computer-aided medical design, diagnosis, and decision-making techniques that are rapidly entering the treatment mainstreams. Finite Element Analysis (FEA) of 3D models is one of the most popular and efficient numerical methods that can be utilized for solving complex problems like deformation of soft tissues or orthopedic implant designs/configurations. However, the accuracy of solutions highly depends upon the quality and accuracy of designed Finite Element Meshes (FEMs). The generation of such high-quality subject/patient-specific meshes can be extremely time consuming and labor intensive as the process includes geometry extraction of the target organ and meshing algorithms. In clinical applications where the patient specifiity has to be taken into account via the generation of adapted meshes these problems become methodological bottlenecks. In this context, various studies have addressed these challenges by bypassing the meshing phase by employing atlas-based frameworks using the deformation of an atlas FE mesh. However, these methods still rely on the geometrical description of the target organ, such as contours, 3D surface models, or a set of land-marks.In this context, the aim of this thesis is to investigate how registration techniques can overcome these bottlenecks of atlas-based approaches.We first propose an automatic atlas-based method that includes the volumetric anatomical image registration and the morphing of an atlas FE mesh. The method extracts a 3D transformation by registering the atlas' volumetric image to the subject's one. The subject-specific mesh is then generated by deforming a high-quality atlas FE mesh using the derived transformation. The registration process is designed is such a way to preserve the regularity and the quality of meshes for subsequent FEAs. A first step towards the evaluation of our approach, namely the accuracy of the inter-subject registration process, is provided using a data set of CT ribcage. Then, subject-specific tongue meshes are generated for two healthy subjects and two patients suffering from tongue cancer, in pre- and post-surgery conditions. In order to illustrate a tentative fully automatic process compatible with the clinical constraints, some functional consequences of a tongue surgery are simulated for one of the patients, where the removal of the tumor and the replacement of the corresponding tissues with a passive flap are modeled. With the extraction of any formal priorknowledge on the shape of the target organ and any meshing algorithm, high-quality subject-specific FE meshes are generated while subject’s geometrical properties are successfully captured.Following this method, we develop an original atlas-based approach that employs the information provided by the anatomical images and diffusion tensor imaging (DTI) based muscle fibers for the recognition and registration of fiber-bundles that can be integrated in the subject-specific FE meshes. In contrast to the DT MR images registration techniques that include reorientation of tensors within or after the transformation estimation, our methodology avoids this issue and directly aligns fiber-bundles. This also enables one to handel limited or distorted DTIs by deformation of an atlas fibers’ structure according to the most reliable and non-distorted subject’s ones. Such a manner becomes very important, since the classification and the determination of muscular sub-structures need manual intervention of thousands or millions of fibers for each subject, which are influenced by the limitations associated with the DTI image acquisition process and fiber tractography techniques. To evaluate the performance of our method in the recognition of subject’s fiber-bundles and accordingly in the deformation of the atlas ones, a simulated data set is utilized. In addition, feasibility of our method is demonstrated on acquired human tongue data set
APA, Harvard, Vancouver, ISO, and other styles
28

Benali, Aadil. "Contribution à l'amélioration de la qualité du test de circuits imprimés nus : exploitation des informations CAO, par des techniques de traitement d'images, en vue de la génération des données du test électrique." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0189.

Full text
Abstract:
La presente these traite du test de circuits imprimes nus et en particulier de l'amelioration de la qualite du test par l'etude et l'optimisation des diverses parties du processus de test. En raison de l'evolution rapide de la micro-electronique et en particulier de la connectique (conditionnement des puces), les cartes electroniques sont de plus en plus complexes avec des circuits imprimes tres denses presentant des pistes de largeur inferieure a 100m et des pastilles rapprochees les unes des autres a moins de 200m. En outre et a raison de la finesse souhaitee par des contraintes electriques et electromagnetiques, les traces sont de plus en plus complexes. Ils sont d'autant plus complexes qu'ils sont encore representes par de vieux format comme le gerber (norme eia rs-274-d). En revanche, les moyens de test sont encore a la traine jusqu'a avoir actuellement un impact negatif sur la qualite du test. En effet, il devient impossible de tester les circuits actuels a 100% avec les moyens d'aujourd'hui. Cette these a pour objectif de contribuer a l'amelioration de la qualite du test de circuits imprimes nus en intervenant a 2 niveaux: - la preparation des donnees de test: elle correspond a une extraction 100% automatique de la liste des reseaux (ou equipotentielles) avec reconnaissance des points de test. Concretement il s'agissait de developper un outil logiciel base sur des techniques de traitement et d'analyse d'images bitmap ; - la prise d'information sur le circuit a tester: le but est de garantir l'acces a tous les points de test definis par l'extracteur de reseaux. Cette prise d'information est realisee par une interface appelee carte miroir (standard ou globale) (brevet imd). Elle permet de tester des circuits imprimes avec des points de test aussi rapproches que 200m par les testeurs traditionnels. Les solutions proposees sont en phase d'industrialisation par la societe imd pour leur validation et leur commercialisation
APA, Harvard, Vancouver, ISO, and other styles
29

Villéger, Emmanuel. "Constance de largeur et désocclusion dans les images digitales." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00011229.

Full text
Abstract:
L'école Gestaltiste s'intéresse à la vision, leur point de vue est que
nous regroupons des points lumineux et/ou des objets selon certaines
règles pour former des objets plus gros, des Gestalts.

La première partie de cette thèse est consacrée à la constance de
largeur. La Gestalt constance de largeur regroupe des points situés
entre deux bords qui restent parallèles. Nous cherchons donc dans les
images des courbes ``parallèles.'' Nous voulons faire une détection
a contrario, nous proposons donc une quantification du ``non
parallélisme'' de deux courbes par trois méthodes. La première méthode
utilise un modèle de génération de courbes régulières et nous
calculons une probabilité. La deuxième méthode est une méthode de
simulation de type Monte-Carlo pour estimer cette probabilité. Enfin
la troisième méthode correspond à un développement limité de la
première en faisant tendre un paramètre vers 0 sous certaines
contraintes. Ceci conduit à une équation aux dérivées partielles
(EDP). Parmi ces trois méthodes la méthode de type Monte-Carlo est
plus robuste et plus rapide.

L'EDP obtenue est très similaire à celles utilisées pour la
désocclusion d'images. C'est pourquoi dans la deuxième partie de cette
thèse nous nous intéressons au problème de la désocclusion. Nous
présentons les méthodes existantes puis une nouvelle méthode basée sur
un système de deux EDPs dont l'une est inspirée de celle de la
première partie. Nous introduisons la probabilité de l'orientation du
gradient de l'image. Nous prenons ainsi en compte l'incertitude sur
l'orientation calculée du gradient de l'image. Cette incertitude est
quantifiée en relation avec la norme du gradient.

Avec la quantification du non parallélisme de deux courbes, l'étape
suivante est la détection de la constance de largeur dans
les images. Il faut alors définir un seuil pour sélectionner les
bonnes réponses du détecteur et surtout parmi les réponses définir
des réponses ``maximales.'' Le système d'EDPs pour
la désocclusion dépend de beaucoup de paramètres, il faut trouver une
méthode de calibration des paramètres pour obtenir de bons résultats
adaptés à chaque image.
APA, Harvard, Vancouver, ISO, and other styles
30

Pelcat, Maxime. "Prototypage Rapide et Génération de Code pour DSP Multi-Coeurs Appliqués à la Couche Physique des Stations de Base 3GPP LTE." Phd thesis, INSA de Rennes, 2010. http://tel.archives-ouvertes.fr/tel-00578043.

Full text
Abstract:
Le standard 3GPP LTE (Long Term Evolution) est un nouveau standard de télécommunication terrestre dont la couche physique des stations de base, appelées eNodeB, est particulièrement coûteuse. Les processeurs de traitement du signal (DSP) sont largement employés dans les stations de base pour calculer les algorithmes de la couche physique. Les DSPs de dernière génération sont des systèmes complexes et hétérogènes. Il n'existe pas actuellement de solution idéale pour distribuer les parties d'une application comme le LTE sur les différents cœurs contenus dans un eNodeB. Dans cette thèse, nous présentons une méthode de travail pour le prototypage rapide et la génération de code automatique. Certains algorithmes de la couche physique du LTE étant trop variables pour une distribution hors-ligne, nous présentons un distributeur adaptatif capable de faire des choix en temps réel sur la base de temps d'exécution prédits.
APA, Harvard, Vancouver, ISO, and other styles
31

Durand, Brieux. "Conception et réalisation d'une nouvelle génération de nano-capteurs de gaz à base de nanofils semi-conducteurs." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30240.

Full text
Abstract:
Au cours des dernières années, les efforts de recherche et de développement pour les capteurs de gaz se sont orientés vers l'intégration de nanomatériaux afin d'améliorer les performances des dispositifs. Ces nouvelles générations promettent de nombreux avantages notamment en matière de miniaturisation et de réduction de la consommation énergétique. Par ailleurs, la détection sous gaz (sensibilité, seuil de détection, temps de réponse, ...) s'en retrouve améliorée à cause de l'augmentation du ratio surface/volume de la partie sensible. Ainsi, de tels capteurs peuvent être intégrés dans des systèmes de détections ultrasensibles, autonomes, compactes et transportables. Dans cette thèse, nous proposons d'utiliser des réseaux verticaux de nanofils semi-conducteurs pour créer des dispositifs de détection de gaz hautement sensibles, sélectifs, avec une faible limite de détection (de l'ordre du ppb) et intégrable dans des technologies CMOS, tout en étant générique et adaptable à plusieurs types de matériaux afin de discriminer plusieurs gaz. Une première partie expose la mise au point d'un procédé grande échelle, reproductible, compatible avec l'industrie actuelle des semi-conducteurs (CMOS), pour obtenir un capteur basé sur une architecture 3D à nanofils. Le dispositif est composé de deux contacts symétriques en aluminium à chaque extrémité des nanofils, dont l'un est obtenu par l'approche dite du " pont à air ", permettant la définition d'un contact tridimensionnel au sommet du nanofil. La seconde partie présente les performances sous gaz des dispositifs développés et les mécanismes de fonctionnement. Le capteur démontre des performances record en matière de détection du dioxyde d'azote (30% à 50 ppb) en comparaison à l'état de l'art (25% à 200 ppb). De plus, cette approche permet de mesurer de très faibles concentrations de ce gaz (< 1 ppb) de manière sélective, dans des conditions proches des conditions réelles : humidité (testé jusqu'à 70% d'humidité) et mélange avec d'autres gaz plus concentrés et la réversibilité du capteur est naturelle et se fait à température ambiante sans nécessité des conditions particulières
In recent years, efforts of research and development for gas sensors converged to use nanomaterials to optimize performance. This new generation promises many advantages especially in miniaturization and reduction of energy consumption. Furthermore, the gas detection parameters (sensitivity, detection limit, response time ...) are improved due to the high surface/volume ratio of the sensitive part. Thus, this sensors can be integrated in ultrasensitive detection systems, autonomous, compact and transportable. In this thesis, we propose to use 3D semiconductor nanowires networks to create highly sensitive and selective gas sensors. The objective of this work is to provide a highly sensitive sensor, featuring a low detection limit (in the ppb range) and embeddable in CMOS devices. In addition process is generic and adaptable to many types of materials to discriminate several gas and converge to electronic nose. The first part of the dissertation is based on development of a large scale, reproducible, compatible with Si processing industry and conventional tools (CMOS), to obtain a sensor based on a 3D nanowire architecture. The device is composed by two symmetrical aluminum contacts at each extremity of the nanowires, including a top contact done by air bridge approach. The second part of this work presents the gas performances of components and working mechanisms associated. A very high response (30%) is obtained at 50 ppb of NO2, compare to the state of the art, 25% reached for 200 ppb. This approach can measure selectively very low concentrations of gas (<1 ppb) in real working conditions: moisture (tested up to 70% moisture) and mixing with other more concentrated gas (interfering gas). In addition, the reversibility of the sensor is natural and occurs at room temperature without requiring specific conditions
APA, Harvard, Vancouver, ISO, and other styles
32

Tan, Shengbiao. "Contribution à la reconnaissance automatique des images : application à l'analyse de scènes de vrac planaire en robotique." Paris 11, 1987. http://www.theses.fr/1987PA112349.

Full text
Abstract:
Ce mémoire présente une méthode de modélisation et de reconnaissance automatique d'objets partiellement observés. Notre travail se décompose selon trois parties essentielles: le pré-traitement de l'image, la modélisation d'objets, et l'évaluation de la réalisation des concepts énoncés. Au cours de la première partie, nous présentons une méthode de codage de contours basée sur un ré-échantillonnage de données codées selon Freeman, qui génère une représentation isotrope, homogène et très précise. La deuxième partie traite de la modélisation des objets, cette étape très importante permet de faciliter grandement le travail au cours de la reconnaissance. Nous proposons une nouvelle méthode qui consiste à caractériser un modèle par deux groupes d'informations : un groupe descriptif, et un groupe discriminatif, qui contiennent respectivement les primitives et des paquets de données appelés "vecteurs de transition". Cette méthode originale d'organisation d'informations constitue la base d'un "apprentissage relationnel" qui permet de sélectionner, négliger ou remettre à jour automatiquement les informations concernant les objets déjà appris, en fonction des nouvelles informations à inclure dans la base de données. La reconnaissance se déroule en deux - temps : une étape de génération d'hypothèses détermine très efficacement l'occurrence des objets à l'aide de la mise en valeur des particularités propres à chaque modèle, l'autre étape de vérification fine permet de confirmer ou d'infirmer ces hypothèses. La dernière partie décrit en détail les résultats expérimentaux. Nous démontrons la robustesse des algorithmes sur des images d'objets partiellement cachés, relevées dans des conditions difficiles d'éclairage. Le système, baptisé SOFIA, a été installé sur une famille de systèmes de vision industrielle et fonctionne en temps réel
A method for object modeling and overlapped object automatic recognition is presented. Our work is composed of three essential parts: image processing, object modeling, and evaluation, implementation of the stated concepts. In the first part, we present a method of edge encoding which is based on a re-sampling of the data encoded according to Freeman, this method generates an isotropie, homogenous and very precise representation. The second part relates to object modeling. This important step makes much easier the recognition work. The new method proposed characterizes a model with two groups of information : the description group containing the primitives, the discrimination group containing data packs, called "transition vectors". Based on this original method of information organization, a "relative learning" is able to select, to ignore and to update the information concerning the objects already learned, according to the new information to be included into the data base. The recognition is a two - pass process: the first pass determines very efficiently the presence of objects by making use of each object's particularities, and this hypothesis is either confirmed or rejected by the following fine verification pass. The last part describes in detail the experimentation results. We demonstrate the robustness of the algorithms with images in both poor lighting and overlapping objects conditions. The system, named SOFIA, has been installed into an industrial vision system series and works in real time
APA, Harvard, Vancouver, ISO, and other styles
33

Samuth, Benjamin. "Ηybrid mοdels cοmbining deep neural representatiοns and nοn-parametric patch-based methοds fοr phοtοrealistic image generatiοn." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC249.

Full text
Abstract:
Le domaine de la génération d'images a récemment connu de fortesavancées grâce aux rapides évolutions des modèles neuronaux profonds.Leur succès ayant atteint une portée au-delà de la sphèrescientifique, de multiples inquiétudes et questionnements se sontlégitimement soulevées quant à leur fonctionnement et notammentl'usage de leurs données d'entraînement. En effet, ces modèles sont sivolumineux en paramètres et coûteux en énergie qu'il en devientdifficile d'offrir des garanties et des explications concrètes. Àl'inverse, des modèles légers et explicables seraient souhaitablespour répondre à ces nouvelles problématiques, mais au coût d'unequalité et flexibilité de génération moindre.Cette thèse explore l'idée de construire des « modèles hybrides », quicombineraient intelligemment les qualités des méthodes légères oufrugales avec les performances des réseaux profonds. Nous étudionsd'abord le cas du transfert de style artistique à l'aide d'une méthodecontrainte, multi-échelle, et à patchs. Nous déterminons alorsqualitativement l'intérêt d'une métrique perceptuelle dans cetteopération. Par ailleurs, nous développons deux méthodes hybrides degénération de visages photoréalistes, à l'aide d'un auto-encodeurpré-entraîné. Le premier s'attaque à la génération de visages avecpeu d'échantillons à l'aide de patchs latents, montrant une notablerobustesse et des résultats convaincants avec un simple algorithmeséquentiel à patchs. Le second offre une solution à la généralisationde la tâche à une plus grande variétés de visages grâce à des modèlesde mixtures de gaussiennes. En particulier, nous montrons que cesmodèles offrent des performances similaires à d'autres modèlesneuronaux, tout en s'affranchissant d'une quantité importante deparamètres et d'étapes de calculs
Image generation has encountered great progress thanks to the quickevolution of deep neural models. Their reach went beyond thescientific domain and thus multiple legitimate concerns and questionshave been raised, in particular about how the training data aretreated. On the opposite, lightweight and explainable models wouldbe a fitting answer to these emerging problematics, but their qualityand range of applications are limited.This thesis strives to build “hybrid models”. They would efficientlycombine the qualities of lightweight or frugal methods with theperformance of deep networks. We first study the case of artisticstyle transfer with a multiscale and constrained patch-basedmethod. We qualitatively find out the potential of perceptual metricsin the process. Besides, we develop two hybrid models forphotorealistic face generation, each built around a pretrainedauto-encoder. The first model tackles the problem of few-shot facegeneration with the help of latent patches. Results shows a notablerobustness and convincing synthesis with a simple patch-basedsequential algorithm. The second model uses Gaussian mixtures modelsas a way to generalize the previous method to wider varieties offaces. In particular, we show that these models perform similarly toother neural methods, while removing a non-negligible number ofparameters and computing steps at the same time
APA, Harvard, Vancouver, ISO, and other styles
34

Cao, Yi-Heng. "Apprentissage génératif pour la synthèse d'images médicales dynamiques 4D." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0004.

Full text
Abstract:
La tomodensitométrie quadridimensionnelle (TDM 4D) consiste à reconstruire une acquisition en plusieurs phases afin de suivre les mouvements des organes internes et des tumeurs. Elle est couramment utilisée dans la planification des traitements de radiothérapie pour le cancer du poumon, mais elle expose les patients à des doses de radiation plus élevées, allant jusqu’à six fois supérieures à celles d’une tomodensitométrie tridimensionnelle (TDM 3D) classique. Les méthodes d’apprentissage automatique profond, issues du domaine de la vision par ordinateur, suscitent un vif intérêt au sein de la communauté de l’imagerie médicale. Parmi ces approches, les modèles génératifs se distinguent en leur capacité à générer des images synthétiques reproduisant fidèlement l’apparence et les caractéristiques statistiques d’images obtenues à partir de systèmes réels. Dans cette thèse, nous explorons l’utilisation d’un modèle génératif pour la génération d’image dynamique. Nous proposons un modèle capable de générer un mouvement respiratoire spécifique à un patient à partir d’une image TDM 3D de diagnostic et de données respiratoires. L’objectif est de permettre aux radiologues d’effectuer la délimitation des volumes cibles et des organes à risque, ainsi que le calcul de la dose sur des images dynamiques de synthèses. Cette méthode éviterait ainsi la nécessité de réaliser une acquisition TDM 4D, réduisant ainsi l’exposition du patient aux radiations
Four-dimensional computed tomography (4DCT) involves reconstructing an acquisition in multiple phases to track the movements of internal organs and tumors. It is used routinely for radiotherapy treatment planning of lung cancer, but it exposes patients to higher radiation doses, up to six times greater than those of a conventional threedimensional computed tomography (3DCT). Deep learning methods from the field of computer vision are gaining significant interest within the medical imaging community. Among these approaches, generative models stand out due to their ability to generate synthetic images that faithfully replicate the appearance and statistical characteristics of images acquired from real systems. In this thesis, we explore the use of a generative model for dynamic image generation. We propose a model capable of generating patient-specific respiratory motion from a diagnostic 3DCT image and respiratory data. The goal is to enable radiologists to delineate target volumes and organs at risk, as well as perform dose calculations on these dynamic synthetic images. This method would reduce the need for a 4DCT acquisition, thereby reducing the patient’s radiation exposure
APA, Harvard, Vancouver, ISO, and other styles
35

Li, Huiyu. "Exfiltration et anonymisation d'images médicales à l'aide de modèles génératifs." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4041.

Full text
Abstract:
Cette thèse aborde plusieurs problèmes de sécurité et de confidentialité lors du traitement d'images médicales dans des lacs de données. Ainsi, on explore la fuite potentielle de données lors de l'exportation de modèles d'intelligence artificielle, puis on développe une approche d'anonymisation d'images médicales qui protège la confidentialité des données. Le Chapitre2 présente une nouvelle attaque d'exfiltration de données, appelée Data Exfiltration by Compression (DEC), qui s'appuie sur les techniques de compression d'images. Cette attaque est effectuée lors de l'exportation d'un réseau de neurones entraîné au sein d'un lac de données distant et elle est applicable indépendamment de la tâche de traitement d'images considérée. En explorant à la fois les méthodes de compression sans perte et avec perte, ce chapitre montre comment l'attaque DEC peut être utilisée efficacement pour voler des images médicales et les reconstruire avec une grande fidélité, grâce à l'utilisation de deux ensembles de données CT et IRM publics. Ce chapitre explore également les contre-mesures qu'un propriétaire de données peut mettre en œuvre pour empêcher l'attaque. Il étudie d'abord l'ajout de bruit gaussien pour atténuer cette attaque, et explore comment les attaquants peuvent créer des attaques résilientes à cet ajout. Enfin, une stratégie alternative d'exportation est proposée, qui implique un réglage fin du modèle et une vérification du code. Le Chapitre 3 présente une méthode d'anonymisation d'images médicales par approche générative, une nouvelle approche pour trouver un compromis entre la préservation de la confidentialité des patients et l'utilité des images générées pour résoudre les tâches de traitement d'images. Cette méthode sépare le processus d'anonymisation en deux étapes : tout d'abord, il extrait les caractéristiques liées à l'identité des patients et à l'utilité des images médicales à l'aide d'encodeurs spécialement entrainés ; ensuite, il optimise le code latent pour atteindre le compromis souhaité entre l'anonymisation et l'utilité de l'image. Nous utilisons des encodeurs d'identité, d'utilité et un encodeur automatique génératif basé sur un réseau antagoniste pour créer des images synthétiques réalistes à partir de l'espace latent. Lors de l'optimisation, nous incorporons ces encodeurs dans de nouvelles fonctions de perte pour produire des images qui suppriment les caractéristiques liées à l'identité tout en conservant leur utilité pour résoudre un problème de classification. L'efficacité de cette approche est démontrée par des expériences sur l'ensemble de données de radiographie thoracique MIMIC-CXR, où les images générées permettent avec succès la détection de pathologies pulmonaires. Le Chapitre 4 s'appuie sur les travaux du Chapitre 3 en utilisant des réseaux antagonistes génératifs (GAN) pour créer une solution d'anonymisation plus robuste et évolutive. Le cadre est structuré en deux étapes distinctes : tout d'abord, nous développons un encodeur simplifié et un nouvel algorithme d'entraînement pour plonger chaque image dans un espace latent. Dans la deuxième étape, nous minimisons les fonctions de perte proposées dans le Chapitre 3 pour optimiser la représentation latente de chaque image. Cette méthode garantit que les images générées suppriment efficacement certaines caractéristiques identifiables tout en conservant des informations diagnostiques cruciales. Des expériences qualitatives et quantitatives sur l'ensemble de données MIMIC-CXR démontrent que notre approche produit des images anonymisées de haute qualité qui conservent les détails diagnostiques essentiels, ce qui les rend bien adaptées à la formation de modèles d'apprentissage automatique dans la classification des pathologies pulmonaires. Le chapitre de conclusion résume les contributions scientifiques de ce travail et aborde les problèmes et défis restants pour produire des données médicales sensibles, sécurisées et préservant leur confidentialité
This thesis aims to address some specific safety and privacy issues when dealing with sensitive medical images within data lakes. This is done by first exploring potential data leakage when exporting machine learning models and then by developing an anonymization approach that protects data privacy.Chapter 2 presents a novel data exfiltration attack, termed Data Exfiltration by Compression (DEC), which leverages image compression techniques to exploit vulnerabilities in the model exporting process. This attack is performed when exporting a trained network from a remote data lake, and is applicable independently of the considered image processing task. By exploring both lossless and lossy compression methods, this chapter demonstrates how DEC can effectively be used to steal medical images and reconstruct them with high fidelity, using two public CT and MR datasets. This chapter also explores mitigation measures that a data owner can implement to prevent the attack. It first investigates the application of differential privacy measures, such as Gaussian noise addition, to mitigate this attack, and explores how attackers can create attacks resilient to differential privacy. Finally, an alternative model export strategy is proposed which involves model fine-tuning and code verification.Chapter 3 introduces the Generative Medical Image Anonymization framework, a novel approach to balance the trade-off between preserving patient privacy while maintaining the utility of the generated images to solve downstream tasks. The framework separates the anonymization process into two key stages: first, it extracts identity and utility-related features from medical images using specially trained encoders; then, it optimizes the latent code to achieve the desired trade-off between anonymity and utility. We employ identity and utility encoders to verify patient identities and detect pathologies, and use a generative adversarial network-based auto-encoder to create realistic synthetic images from the latent space. During optimization, we incorporate these encoders into novel loss functions to produce images that remove identity-related features while maintaining their utility to solve a classification problem. The effectiveness of this approach is demonstrated through extensive experiments on the MIMIC-CXR chest X-ray dataset, where the generated images successfully support lung pathology detection.Chapter 4 builds upon the work from Chapter 4 by utilizing generative adversarial networks (GANs) to create a more robust and scalable anonymization solution. The framework is structured into two distinct stages: first, we develop a streamlined encoder and a novel training scheme to map images into a latent space. In the second stage, we minimize the dual-loss functions proposed in Chapter 3 to optimize the latent representation of each image. This method ensures that the generated images effectively remove some identifiable features while retaining crucial diagnostic information. Extensive qualitative and quantitative experiments on the MIMIC-CXR dataset demonstrate that our approach produces high-quality anonymized images that maintain essential diagnostic details, making them well-suited for training machine learning models in lung pathology classification.The conclusion chapter summarizes the scientific contributions of this work, and addresses remaining issues and challenges for producing secured and privacy preserving sensitive medical data
APA, Harvard, Vancouver, ISO, and other styles
36

Simon, Chane Camille. "Intégration de systèmes d'acquisition de données spatiales et spectrales haute résolution, dans le cadre de la génération d'informations appliquées à la conservation du patrimoine." Thesis, Dijon, 2013. http://www.theses.fr/2013DIJOS008/document.

Full text
Abstract:
Cette thèse s'intéresse au recalage de données issues de capteurs 3D et multispectraux pour l'étude du patrimoine.Lorsque l'on étudie ce type d'objet, il y a souvent peu de points saillants naturels entre ces jeux de données complémentaires. Par ailleurs, l'utilisation de mires optiques est proscrite.Notre problème est donc de recaler des données multimodales sans points caractéristiques.Nous avons développé une méthode de recalage basé sur le suivi des systèmes d'acquisition en utilisant des techniques issues de la photogrammétrie.Des simulations nous ont permis d'évaluer la précision de la méthode dans trois configurations qui représentent des cas typiques dans l'étude d'objets du patrimoine.Ces simulations ont montré que l'on peut atteindre une précision du suivi de 0.020 mm spatialement et 0.100 mrad angulairement en utilisant quatre caméras 5 Mpx lorsque l'on numérise une zone de 400 mm x 700 mm.La précision finale du recalage repose sur le succès d'une série de calibrations optiques et géométriques, ainsi que sur leur stabilité pour la durée du processus d'acquisition.Plusieurs tests ont permis d'évaluer la précision du suivi et du recalage de plusieurs jeux de données indépendants; d'abord seulement 3D, puis 3D et multispecrales.Enfin, nous avons étendu notre méthode d'estimation de la réflectance à partir des données multispectrales lorsque celles-ci sont recalées sur un modèle 3D
The concern and interest of this PhD thesis is the registration of featureless 3D and multispectral datasets describing cultural heritage objects.In this context, there are few natural salient features between the complementary datasets, and the use of targets is generally proscribed.We thus develop a technique based on the photogrammetric tracking of the acquisition systems in use.A series of simulations was performed to evaluate the accuracy of our method in three configurations chosen to represent a variety of cultural heritage objects.These simulations show that we can achieve a spatial tracking accuracy of 0.020 mm and an angular accuracy of 0.100 mrad using four 5 Mpx cameras when digitizing an area of 400 mm x 700 mm. The accuracy of the final registration relies on the success of a series of optical and geometrical calibrations and their stability for the duration of the full acquisition process.The accuracy of the tracking and registration was extensively tested in laboratory settings. We first evaluated the potential for multiview 3D registration. Then, the method was used for to project of multispectral images on 3D models.Finally, we used the registered data to improve the reflectance estimation from the multispectral datasets
APA, Harvard, Vancouver, ISO, and other styles
37

Mpe, A. Guilikeng Albert. "Un système de prédiction/vérification pour la localisation d'objets tridimentionnels." Compiègne, 1990. http://www.theses.fr/1990COMPD286.

Full text
Abstract:
Ce travail présente un système de localisation d'objets solides 3D dans une image optique par prédiction/vérification. Les traitements préalables sont la description des objets, ici représentés par une structure C. S. G. Par listes et la calibration de la caméra. La prédiction utilise ces informations, ainsi que les matrices de position pour construire une image des régions. Ces matrices proviennent soit d'informations issues d'un contrôleur de robot, soit d'une génération d'hypothèses. La prédiction utilise des modules de projection de formes primitives telles que les polyhèdres, les ellipsoïdes et les cônes généralisés. La prise en compte de formes plus complexes se fait à l'aide de graphes d'occlusion. La vérification effectue un test de superposition entre les régions prédites d'une part et les régions obtenues après des traitements effectués sur des images acquises d'autre part.
APA, Harvard, Vancouver, ISO, and other styles
38

Roca, Vincent. "Harmonisation multicentrique d'images IRM du cerveau avec des modèles génératifs non-supervisés." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILS060.

Full text
Abstract:
L'imagerie par résonance magnétique (IRM) permet l'acquisition d'images du cerveau pour l'étude de maladies neurologiques et psychiatriques. Les images IRM sont de plus en plus utilisées dans des études statistiques pour identifier des biomarqueurs et pour des modèles de prédiction. Pour gagner en puissance statistique, ces études agrègent parfois des données acquises avec différentes machines, ce qui peut introduire de la variabilité technique biaisant les analyses des variabilités biologiques. Ces dernières années, des méthodes d'harmonisation ont été proposées pour limiter l'impact de ces variabilités dans les analyses. De nombreuses études ont notamment travaillé sur des modèles génératifs basés sur de l'apprentissage profond non-supervisé. Le travail de thèse s'inscrit dans le cadre de ces modèles qui constituent un champ de recherche prometteur mais encore exploratoire. Dans la première partie de ce manuscrit, une revue des méthodes d'harmonisation rétrospective est proposée. Différentes méthodes de normalisation appliquées au niveau de l'image, de translation de domaines ou de transfert de style y sont décrites en vue de comprendre leurs enjeux respectifs, avec une attention particulière portée aux modèles génératifs non-supervisés. La deuxième partie porte sur les méthodes d'évaluation de l'harmonisation rétrospective. Une revue de ces méthodes est d'abord réalisée. Les plus communes reposent sur des sujets “voyageurs” pour présumer des vérités terrain à l'harmonisation. La revue présente également des évaluations employées en l'absence de tels sujets : étude de différences inter-domaine, de motifs biologiques et de performances de modèles prédictifs. Des expériences mettant en avant des limites de certaines approches couramment employées et des points d'attention nécessaires à leur utilisation sont ensuite proposées. La troisième partie présente un nouveau modèle d'harmonisation d'images IRM cérébrales basé sur une architecture CycleGAN. Contrairement aux précédents travaux, le modèle est tridimensionnel et traite les volumes complets. Des images IRM provenant de six jeux de données variables en termes de paramètres d'acquisition et de distribution d'âge sont utilisées pour expérimenter la méthode. Des analyses de distributions d'intensités, de volumes cérébraux, de métriques de qualité d'image et de caractéristiques radiomiques montrent une homogénéisation efficace entre les différents sites de l'étude. À côté de ça, la conservation et le renforcement de motifs biologiques sont montrés avec une analyse de l'évolution d'estimations de volumes de matière grise avec l'âge, des expériences de prédiction d'âge, la cotation de motifs radiologiques dans les images et une évaluation supervisée avec un jeu de données de sujets voyageurs. La quatrième partie présente également une méthode d'harmonisation originale avec des modifications majeures de la première en vue d'établir un générateur “universel” capable d'harmoniser des images sans connaître leur domaine d'origine. Après un entraînement exploitant des données acquises avec onze scanners IRM, des expériences sur des images de sites non-vus lors de l'entraînement montrent un renforcement de motifs cérébraux liés à l'âge et à la maladie d'Alzheimer après harmonisation. De plus, des comparaisons avec d'autres approches d'harmonisation d'intensités suggèrent que le modèle est plus efficace et plus robuste dans différentes tâches subséquentes à l'harmonisation. Ces différents travaux constituent une contribution significative au domaine de l'harmonisation rétrospective d'images IRM cérébrales. Les documentations bibliographiques fournissent en effet un corpus de connaissances méthodologiques pour les futurs études dans ce domaine, que ce soit pour l'harmonisation en elle-même ou pour la validation. De plus, les deux modèles développés sont deux outils robustes accessibles publiquement qui pourraient être intégrés à de futures études multicentriques en IRM
Magnetic resonance imaging (MRI) enables the acquisition of brain images used in the study of neurologic and psychiatric diseases. MR images are more and more used in statistical studies to identify biomarkers and for predictive models. To improve statistical power, these studies sometimes pool data acquired with different machines, which may introduce technical variability and bias into the analysis of biological variabilities. In the last few years, harmonization methods have been proposed to limit the impact of these variabilities. Many studies have notably worked on generative models based on unsupervised deep learning. The doctoral research is within the context of these models, which constitute a promising but still exploratory research field. In the first part of this manuscript, a review of the prospective harmonization methods is proposed. Different methods consisting in normalization applied at the image level, domain translation or style transfer are described to understand their respective issues, with a special focus on unsupervised generative models. The second part is about the methods for evaluation of retrospective harmonization. A review of these methods is first conducted. The most common rely on “traveling” subjects to assume ground truths for harmonization. The review also presents evaluations employed in the absence of such subjects: study of inter-domain differences, biological patterns and performances of predictive models. Experiments showing limits of some approaches commonly employed and important points to consider for their use are then proposed. The third part presents a new model for harmonization of brain MR images based on a CycleGAN architecture. In contrast with the previous works, the model is three-dimensional and processes full volumes. MR images from six datasets that vary in terms of acquisition parameters and age distributions are used to test the method. Analyses of intensity distributions, brain volumes, image quality metrics and radiomic features show an efficient homogenisation between the different sites of the study. Next, the conservation and the reinforcement of biological patterns are demonstrated with an analysis of the evolution of gray-matter volume estimations with age, experiments of age prediction, ratings of radiologic patterns in the images and a supervised evaluation with a traveling subject dataset. The fourth part also presents an original harmonization method with major updates of the first one in order to establish a “universal” generator able to harmonize images without knowing their domain of origin. After a training with data acquired on eleven MRI scanners, experiments on images from sites not seen during the training show a reinforcement of brain patterns relative to age and Alzheimer after harmonization. Moreover, comparisons with other intensity harmonization approaches suggest that the model is more efficient and more robust to different tasks subsequent to harmonization. These different works are a significant contribution to the domain of retrospective harmonization of brain MR images. The bibliographic documentations indeed provide a methodological knowledge base for the future studies in this domain, whether for harmonization in itself or for validation. In addition, the two developed models are two robust tools publicly available that may be integrated in future MRI multicenter studies
APA, Harvard, Vancouver, ISO, and other styles
39

Landes, Pierre-Edouard. "Extraction d'information pour l'édition et la synthèse par l'exemple en rendu expressif." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00637651.

Full text
Abstract:
Cette thèse prend pour cadre la synthèse par l'exemple et l'édition de contenu graphique en infographie et propose une réflexion sur les possibles sources d'information utiles à ces fins. Contrairement aux techniques "procédurales", l'approche par l'exemple se distingue par sa grande simplicité d'utilisation : reviennent en effet à l'algorithme de synthèse l'identification, analyse et reproduction des éléments caractéristiques des exemples fournis en entrée par l'utilisateur. Ce mode de création de même que les techniques approfondies d'édition ont grandement contribué à la facilitation de la production à grande échelle de contenus graphiques convaincants et ainsi participé à l'adoption par la communauté des artistes des outils proposés par le support numérique. Mais pour être ainsi exploitées, celles-ci doivent également être hautement contrôlables tout en évitant l'écueil de n'être que le simple prolongement de la main de l'artiste. Nous explorons ici cette thématique dans le cadre de la création de rendus dits expressifs et étudions les interactions (collaboratives ou concurrentielles) entre les différentes sources d'information au cœur de ce processus. Ces dernières sont à notre sens au nombre de trois : l'analyse automatique des données d'entrée avant rendu ou traitement ; l'utilisation de modèles a priori en vue de leur compréhension ; et enfin le contrôle explicite par l'utilisateur. En les combinant au plus juste, nous proposons des techniques nouvelles dans divers domaines de la synthèse en rendu expressif. Au delà du réalisme photographique, le rendu expressif se caractérise par sa poursuite de critères plus difficilement quantifiables tels la facilité de compréhension ou le caractère artistique de ses résultats. La subjectivité de tels objectifs nous force donc ici plus qu'ailleurs à estimer avec soin les sources d'information à privilégier, le niveau d'implication à accorder à l'utilisateur (sans que ce choix ne s'opère au détriment de la qualité théorique de la méthode), ainsi que le possible recours à des modèles d'analyse (sans en compromettre la généralité). Trois principales instances de synthèse sont ici détaillés : la génération de textures, la désaturation d'images, et la représentation de maillages par le dessin au trait. La grande variété des données d'entrée (textures matricielles ou vectorielles, images complexes, géométries 3d), des modalités de synthèse (imitation, conversion, représentation alternative) et d'objectifs (reproduction de la signature visuelle d'une texture, restitution crédible de contrastes chromatiques, génération de dessins conformes au style de l'utilisateur) permettent l'examen de divers équilibres entre ces sources d'information et l'exploration de degrés plus ou moins élevés d'interaction avec l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
40

Sallé, Guillaume. "Apprentissage génératif à bas régime des données pour la segmentation d'images en oncologie." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0032.

Full text
Abstract:
En apprentissage statistique, la performance des modèles est influencée par divers biais inhérents aux données, comme la rareté des données (data scarcity) et le décalage de domaine (domain shift). Cette thèse s’intéresse à réduire leur influence dans le cadre de la segmentation de structures pathologiques en imagerie médicale. En particulier, notre objectif est de réduire les écarts de données au niveau des régions d’intérêt (ROI) entre les domaines source d’entrainement et cible de déploiement, qu’ils soient intrinsèques aux données ou induits par la faible quantité de données disponibles. Dans ce but, nous proposons une stratégie d’augmentation de données adaptative, basée sur l’analyse de la distribution des intensités des ROI dans le domaine de déploiement. Une première contribution, que nous qualifions d’augmentation naïve, consiste à altérer l’apparence des ROI du domaine d’entrainement pour mieux correspondre aux caractéristiques des ROI du domaine de déploiement. Une seconde étape, complétant la première, rend l’altération plus réaliste par rapport aux propriétés du domaine cible grâce à un modèle génératif d’harmonisation one-shot, applicable dans toutes les situations de disponibilité de données. De cette façon, nous renforçons la robustesse du modèle de segmentation en aval pour les ROI dont les caractéristiques étaient initialement sous-représentées à l’entrainement. Nous évaluons notre approche à différents régimes de données et divers contextes cliniques, notamment en IRM, TDM et radiographie pulmonaire. En outre, notre approche a montré des résultats impressionnants lors d’un challenge de segmentation de tumeurs a la conférence MICCAI 2022
In statistical learning, the performance of models is affected by various biases present within the data, including data scarcity and domain shift. This thesis focuses on reducing their impact in the field of pathological structure segmentation in medical imaging. Our goal is to minimize data discrepancies at the region of interest (ROI) level between the training source domain and the target deployment domain, whether it is intrinsic to the data or caused by the limited data availability. To this end, we present an adaptive data augmentation strategy, based on the analysis of the intensity distribution of the ROIs in the deployment domain.A first contribution, which we call naive augmentation, consists of altering the appearance of the training ROIs to better match the characteristics of the ROIs in the deployment domain. A second augmentation, complementing the first, makes the alteration more realistic relative to the properties of the target domain by harmonizing the characteristics of the altered image. For this, we employ a generative model trained on a single unlabeled image from the deployment domain (one-shot approach), making this technique usable in any data regime encountered. In this way, we enhance the robustness of the downstream segmentation model forROIs whose characteristics were initially underrepresented in the deployment domain. The effectiveness of this method is evaluated under various data regimes and in different clinical contexts (MRI, CT, CXR). Our approach demonstrated impressive results in a tumor segmentation challenge at MICCAI 2022
APA, Harvard, Vancouver, ISO, and other styles
41

Rana, Aakanksha. "Analyse d'images haute gamme dynamique." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0015.

Full text
Abstract:
L'imagerie HDR (High Dynamic Range) permet de capturer une gamme dynamique plus larges, nous permettant ainsi de tirer parti de détails subtils, mais différenciés, présents à la fois dans les zones extrêmement sombres et lumineuses d'une scène. Ces propriétés présentent un intérêt potentiel pour les algorithmes de vision par ordinateur où la performance peut se dégrader considérablement en présence de changements d’illumination lorsque les scènes acquises sont à l'aide d'images traditionnelles à faible gamme dynamique (LDR). Dans cette thèse, nous présentons des aspects quantitatifs et qualitatifs de l'analyse d'images HDR pour des algorithmes de vision par ordinateur.Cette thèse débute par l'identification des questions les plus importantes concernant l'utilisation de contenus HDR pour la tâche d'extraction des caractéristiques de bas niveau, qui est d'une importance fondamentale pour de nombreuses applications. En réalisant une évaluation de la performance, nous démontrons comment les différentes techniques basées sur le HDR améliorent la performance par rapport au LDR. Cependant, nous constatons qu'aucune ne peut le faire de manière optimale pour toutes les scènes. Pour étudier cette question, nous examinons l'importance des objectifs propres à chaque tâche, et concevons des opérateurs de mise en correspondance tonale (tone mapping operator-TMO) spécifiques.Dans cette thèse, nous proposons trois méthodologies basées sur l'apprentissage visant le TMO optimal du contenu HDR pour améliorer l'efficacité de l'extraction des caractéristiques locales à chaqueétape, à savoir détection, description et appariement final
High Dynamic Range (HDR) imaging enables to capture a wider dynamic range and color gamut, thus enabling us to draw on subtle, yet discriminating details present both in the extremely dark and bright areas of a scene. Such property is of potential interest for computer vision algorithms where performance degrades substantially when the scenes are captured using traditional low dynamic range (LDR) imagery. While such algorithms have been exhaustively designed using traditional LDR images, little work has been done so far in contex of HDR content. In this thesis, we present the quantitative and qualitative analysis of HDR imagery for such task-specific algorithms. This thesis begins by identifying the most natural and important questions of using HDR content for low-level feature extraction task, which is of fundamental importance for many high-level applications such as stereo vision, localization, matching and retrieval. By conducting a performance evaluation study, we demonstrate how different HDR-based modalities enhance algorithms performance with respect to LDR on a proposed dataset. However, we observe that none of them can optimally to do so across all the scenes. To examine this sub-optimality, we investigate the importance of task-specific objectives for designing optimal modalities through an experimental study. Based on the insights, we attempt to surpass this sub-optimality by designing task-specific HDR tone-mapping operators (TMOs). In this thesis, we propose three learning based methodologies aimed at optimal mapping of HDR content to enhance the efficiency of local features extraction at each stage namely, detection, description and final matching
APA, Harvard, Vancouver, ISO, and other styles
42

Ben, aziza Sassi. "Etude d'un système de conversion analogique-numérique rapide de grande résolution adapté aux nouvelles générations de capteurs d'images CMOS." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT056.

Full text
Abstract:
Les technologies CMOS représentent aujourd’hui plus de 90% du marché des capteurs d’images : elles permettent d’intégrer des systèmes intelligents dans une seule puce (SoC = System-On-Chip) et ouvrent la voie à l’intégration d’algorithmes de plus en plus complexes dans les dernières générations de capteurs. Des techniques telles que la reconstruction grande dynamique nécessitent d’acquérir plusieurs images avec un même capteur et de les recombiner. Ces nouvelles contraintes nécessitent d’augmenter drastiquement le débit d’images pour des capteurs de tailles conséquentes (Jusqu'à 30 Mpixels), ainsi que d’augmenter la résolution du convertisseur analogique numérique (jusqu’à 14 bits). Cela crée une demande forte en techniques de conversion analogique-numérique. Ces techniques doivent obéir en même temps aux contraintes de performance notamment la vitesse, la résolution, le faible bruit, la faible consommation et l'intégrabilité mais aussi aux contraintes de qualité d'image impactées directement par la chaine de conversion analogique-numérique en plus de la technologie du pixel. D'ici découle une double problématique pour le sujet:- Etudier et déterminer les limites atteignables en termes de performance sur les différents axes précités.- Gestion du fonctionnement massivement parallèle lié à la structure inhérente des capteurs d'image en vue d'avoir une qualité d'image irréprochable
CMOS technologies represent nowadays more than 90% of image sensors market given their features namely the possibility of integrating entire intelligent systems on the same chip (SoC = System-On-Chip). Thereby, allowing the implementation of more and more complex algorithms in the new generations of image sensors.New techniques have emerged like high dynamic range reconstruction which requires the acquisition of several images to build up one, thus multiplying the frame rate.These new constraints require a drastic increase of image rate for sensors ofconsiderable size (Up to 30 Mpix and more). At the same time, the ADCresolution has to be increased to be able to extract more details (until 14 bits).With all these demanding specifications, analog-to-digital conversion capabilities have to be boosted as far as possible.These capabilities can be distinguished into two main research axes representing the pillars of the PhD work, namely:+ The study of the reachable limits in terms of performance: Speed, Resolution,Low Noise, Low power consumption and small design pitch.+ The management of the highly parallel operation linked to the structure of animage sensor. Solutions have to be found so as to avoid image artefacts andpreserve the image quality
APA, Harvard, Vancouver, ISO, and other styles
43

Bouchard, Guillaume. "Les modèles génératifs en classification supervisée et applications à la catégorisation d'images et à la fiabilité industrielle." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00541059.

Full text
Abstract:
L'apprentissage statistique utilise le formalisme des probabilités et des statistiques pour créer des algorithmes qui "s'adaptent" automatiquement en fonction des données qui leurs sont fournies. Les outils les plus performants aujourd'hui (Support Vector Machine, boosting, régression logistique pénalisée et réseaux de neurones) font partie d'une classe générale d'algorithmes de type "discriminatif". Cependant, dans le cas de données structurées (e.g. les séries temporelles et les images numériques) ou en présence d'une forte information a priori, ces méthodes ne permettent pas de modéliser facilement le problème et nécessitent une véritable expertise pour pouvoir être appliquées. A l'opposé, l'approche générative permet de modéliser toutes les variables d'un problème sous la forme d'une distribution de probabilité incluant les informations sur la structure des données grâce à tous les outils de modélisation non-supervisés. Dans cette thèse, nous montrons que cette approche, longtemps considérée comme sous-optimale, permet de résoudre des problèmes complexes de manière cohérente. L'approche générative est définie dans un cadre de classification supervisée et de régression et propose plusieurs outils novateurs pour l'apprentissage statistique supervisé. Un critère de sélection de modèle adapté à ce type d'approche est développé. Les deux principales manières d'estimer les paramètres - générative et discriminative - sont introduites et analysées en classification et en régression, conduisant à la définition d'un nouveau type d'estimateur intermédiaire appelé Generative-Discriminative Tradeoff (GDT). Des exemples d'approches génératives utilisant le formalisme des modèles graphiques sont étudiées pour la catégorisation d'objets dans des images numériques et pour calculer une probabilité de défaillance en fiabilité industrielle. Enfin, un exemple de méthode discriminative utilisant un estimateur à noyau est proposé pour estimer la frontière d'un ensemble de points.
APA, Harvard, Vancouver, ISO, and other styles
44

Durnez, Clémentine. "Analyse des fluctuations discrètes du courant d’obscurité dans les imageurs à semi-conducteurs à base de silicium et Antimoniure d’Indium." Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0030/document.

Full text
Abstract:
Le domaine de l’imagerie a toujours fait l’objet de curiosité, que ce soitpour enregistrer une scène, ou voir au-delà des limites de l’oeil humain grâce aux détecteursinfrarouges. Ces deux types d’imagerie sont réalisés avec différents matériaux. Dans le domainedu visible, c’est le silicium qui domine, car son absorbance spectrale correspond bien au spectrevisible et que ce matériau a été très étudié dans les dernières décennies. Dans le domainede l’infrarouge, plus particulièrement le MWIR (Middle Wave InfraRed), l’InSb est un boncandidat car il s’agit d’un matériau très stable. Cependant, certaines contraintes telles qu’unebande interdite étroite peuvent être limitantes et cela nécessite une température d’opérationcryogénique. Dans ces travaux, un signal parasite commun à ces deux matériaux est étudié : ils’agit du signal des télégraphistes (RTS : Random telegraph Signal) du courant d’obscurité. Cephénomène provient d’un courant de fuite de l’élément photosensible du pixel (photodiode).En effet, même dans le noir, certains pixels des imageurs vont avoir une réponse temporellequi va varier de façon discrète et aléatoire. Cela peut causer des problèmes de calibration, oude la mauvaise détection d’étoiles par exemple. Dans cette étude, deux axes principaux sontétudiés : la caractérisation du signal pour pouvoir mieux l’appréhender, et la localisation dessources à l’origine du RTS dans la photodiode afin d’essayer de l’atténuer
Imaging has always been an interesting field, all the more so as it is nowpossible to see further than human eyes in the infrared and ultraviolet spectra. For each fieldof application, materials are more or less adapted : in order to capture visible light, Siliconis a good candidate, because it has been widely studied, and is also used in our everydaylife. Concerning the infrared, more particularly the MWIR spectral band, InSb has provedto be stable and reliable, even if it need to operate at cryogenic temperatures because ofa narrow bandgap.. In this work, a parasitic signal called Random Telegraph Signal (RTS)which appears in both materials (and also others, such as HgCdTe or InGaAs) is analyzed.This signal comes from the pixel photodiiode and corresponds to a discrete dark currentfluctuation with time, like blinking signals. This can cause detector calibration troubles, orfalse star detection for example. This study aims at characterizing RTS and localize the exactorigin in the photodiode in order to be able to predict or mitigate the phenomenon
APA, Harvard, Vancouver, ISO, and other styles
45

Tata, Zafiarifety Christian. "Simulation et traitement des données d’un imageur à rayons Gamma pour une nouvelle génération de caméras Compton." Electronic Thesis or Diss., Troyes, 2019. http://www.theses.fr/2019TROY0028.

Full text
Abstract:
La localisation de la radioactivité est une étape cruciale dans le contexte du démantèlement des centrales nucléaires. Pour cela plusieurs systèmes de détection ont été développés, telle que la caméra pinhole, utilisant des collimateurs en plomb ou tungstène, mais ayant comme principal inconvénient une basse efficacité de détection. La caméra Compton, elle, utilise la cinématique de la diffusion Compton. Elle représente une alternative très prometteuse comparée aux systèmes classiques car disposant de plusieurs avantages tels que : une haute efficacité de détection, une reconstruction des images de la source radioactive avec une haute résolution spatiale et un large champ de vue, et une capabilité de faire de la spectroscopie avec une bonne résolution en énergie. Ainsi dans ce travail nous avons développé une nouvelle caméra Compton basé sur l’utilisation de deux cristaux monolithiques de CeBr3 équipés de photodétecteur Philips DPC3200 et assemblés avec des matériaux et procédés développés par Damavan pour obtenir les têtes de détection de qualité optimale et adaptés aux contraintes de la caméra Compton. Nous avons ainsi mis en place une procédure de calibration en temps et en énergie des têtes de détection. Nous avons aussi implémenté un nouvel algorithme de calcul de positions basé sur l’utilisation d’un nouveau modèle simulé par Monte Carlo. Finalement nous avons procédé à l’évaluation globale de la performance de la caméra, une fois que les concepts élémentaires dans son développement ont été éprouvés : Le temps, l’énergie et la position
The localization of radioactivity is a crucial step in the dismantling of nuclear power plants. For this purpose, several detection systems have been developed, such as the pinhole camera, using lead or tungsten collimators, but having as main disadvantage a low detection efficiency. The Compton camera uses the kinematics of the Compton broadcast. It represents a very promising alternative compared to conventional systems because it has several advantages such as: high detection efficiency, reconstruction of radioactive source images with high spatial resolution and wide field of view, and the ability to perform spectroscopy with good energy resolution. So, in this work we developed a new Compton camera based on the use of two monolithic crystals from Cebr3 equipped with Philips DPC3200 photodetector and assembled with materials and processes developed by Damavan for obtain the detection heads of optimal quality and adapted to the constraints of the Compton camera. We have thus set up a procedure for the calibration of the time and energy of the detection heads. We also implemented a new position calculation algorithm based on the use of a new model simulated by Monte Carlo. Finally, we carried out a global evaluation of the camera’s performance, once the basic concepts in its development were tested: time, energy and position
APA, Harvard, Vancouver, ISO, and other styles
46

Grechka, Asya. "Image editing with deep neural networks." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS683.pdf.

Full text
Abstract:
L'édition d'images a une histoire riche remontant à plus de deux siècles. Cependant, l'édition "classique" des images requiert une grande maîtrise artistique et nécessitent un temps considérable, souvent plusieurs heures, pour modifier chaque image. Ces dernières années, d'importants progrès dans la modélisation générative ont permis la synthèse d'images réalistes et de haute qualité. Toutefois, l'édition d'une image réelle est un vrai défi nécessitant de synthétiser de nouvelles caractéristiques tout en préservant fidèlement une partie de l'image d'origine. Dans cette thèse, nous explorons différentes approches pour l'édition d'images en exploitant trois familles de modèles génératifs : les GANs, les auto-encodeurs variationnels et les modèles de diffusion. Tout d'abord, nous étudions l'utilisation d'un GAN pré-entraîné pour éditer une image réelle. Bien que des méthodes d'édition d'images générées par des GANs soient bien connues, elles ne se généralisent pas facilement aux images réelles. Nous analysons les raisons de cette limitation et proposons une solution pour mieux projeter une image réelle dans un GAN afin de la rendre éditable. Ensuite, nous utilisons des autoencodeurs variationnels avec quantification vectorielle pour obtenir directement une représentation compacte de l'image (ce qui faisait défaut avec les GANs) et optimiser le vecteur latent de manière à se rapprocher d'un texte souhaité. Nous cherchons à contraindre ce problème, qui pourrait être vulnérable à des exemples adversariaux. Nous proposons une méthode pour choisir les hyperparamètres en fonction de la fidélité et de l'édition des images modifiées. Nous présentons un protocole d'évaluation robuste et démontrons l'intérêt de notre approche. Enfin, nous abordons l'édition d'images sous l'angle particulier de l'inpainting. Notre objectif est de synthétiser une partie de l'image tout en préservant le reste intact. Pour cela, nous exploitons des modèles de diffusion pré-entraînés et nous appuyons sur la méthode classique d'inpainting en remplaçant, à chaque étape du processus de débruitage, la partie que nous ne souhaitons pas modifier par l'image réelle bruitée. Cependant, cette méthode peut entraîner une désynchronisation entre la partie générée et la partie réelle. Nous proposons une approche basée sur le calcul du gradient d'une fonction qui évalue l'harmonisation entre les deux parties. Nous guidons ainsi le processus de débruitage en utilisant ce gradient
Image editing has a rich history which dates back two centuries. That said, "classic" image editing requires strong artistic skills as well as considerable time, often in the scale of hours, to modify an image. In recent years, considerable progress has been made in generative modeling which has allowed realistic and high-quality image synthesis. However, real image editing is still a challenge which requires a balance between novel generation all while faithfully preserving parts of the original image. In this thesis, we will explore different approaches to edit images, leveraging three families of generative networks: GANs, VAEs and diffusion models. First, we study how to use a GAN to edit a real image. While methods exist to modify generated images, they do not generalize easily to real images. We analyze the reasons for this and propose a solution to better project a real image into the GAN's latent space so as to make it editable. Then, we use variational autoencoders with vector quantification to directly obtain a compact image representation (which we could not obtain with GANs) and optimize the latent vector so as to match a desired text input. We aim to constrain this problem, which on the face could be vulnerable to adversarial attacks. We propose a method to chose the hyperparameters while optimizing simultaneously the image quality and the fidelity to the original image. We present a robust evaluation protocol and show the interest of our method. Finally, we abord the problem of image editing from the view of inpainting. Our goal is to synthesize a part of an image while preserving the rest unmodified. For this, we leverage pre-trained diffusion models and build off on their classic inpainting method while replacing, at each denoising step, the part which we do not wish to modify with the noisy real image. However, this method leads to a disharmonization between the real and generated parts. We propose an approach based on calculating a gradient of a loss which evaluates the harmonization of the two parts. We guide the denoising process with this gradient
APA, Harvard, Vancouver, ISO, and other styles
47

Ozcelik, Furkan. "Déchiffrer le langage visuel du cerveau : reconstruction d'images naturelles à l'aide de modèles génératifs profonds à partir de signaux IRMf." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES073.

Full text
Abstract:
Les grands esprits de l'humanité ont toujours été curieux de la nature de l'esprit, du cerveau et de la conscience. Par le biais d'expériences physiques et mentales, ils ont tenté de répondre à des questions difficiles sur la perception visuelle. Avec le développement des techniques de neuro-imagerie, les techniques de codage et de décodage neuronaux ont permis de mieux comprendre la manière dont nous traitons les informations visuelles. Les progrès réalisés dans les domaines de l'intelligence artificielle et de l'apprentissage profond ont également influencé la recherche en neuroscience. Avec l'émergence de modèles génératifs profonds tels que les autoencodeurs variationnels (VAE), les réseaux adversariaux génératifs (GAN) et les modèles de diffusion latente (LDM), les chercheurs ont également utilisé ces modèles dans des tâches de décodage neuronal telles que la reconstruction visuelle des stimuli perçus à partir de données de neuro-imagerie. La présente thèse fournit deux bases théoriques dans le domaine de la reconstruction des stimuli perçus à partir de données de neuro-imagerie, en particulier les données IRMf, en utilisant des modèles génératifs profonds. Ces bases théoriques se concentrent sur des aspects différents de la tâche de reconstruction visuelle que leurs prédécesseurs, et donc ils peuvent apporter des résultats précieux pour les études qui suivront. La première étude dans la thèse (décrite au chapitre 2) utilise un modèle génératif particulier appelé IC-GAN pour capturer les aspects sémantiques et réalistes de la reconstruction visuelle. La seconde étude (décrite au chapitre 3) apporte une nouvelle perspective sur la reconstruction visuelle en fusionnant les informations décodées à partir de différentes modalités (par exemple, le texte et l'image) en utilisant des modèles de diffusion latente récents. Ces études sont à la pointe de la technologie dans leurs domaines de référence en présentant des reconstructions très fidèles des différents attributs des stimuli. Dans nos deux études, nous proposons des analyses de régions d'intérêt (ROI) pour comprendre les propriétés fonctionnelles de régions visuelles spécifiques en utilisant nos modèles de décodage neuronal. Les relations statistiques entre les régions d'intérêt et les caractéristiques latentes décodées montrent que les zones visuelles précoces contiennent plus d'informations sur les caractéristiques de bas niveau (qui se concentrent sur la disposition et l'orientation des objets), tandis que les zones visuelles supérieures sont plus informatives sur les caractéristiques sémantiques de haut niveau. Nous avons également observé que les images optimales de ROI générées à l'aide de nos techniques de reconstruction visuelle sont capables de capturer les propriétés de sélectivité fonctionnelle des ROI qui ont été examinées dans de nombreuses études antérieures dans le domaine de la recherche neuroscientifique. Notre thèse tente d'apporter des informations précieuses pour les études futures sur le décodage neuronal, la reconstruction visuelle et l'exploration neuroscientifique à l'aide de modèles d'apprentissage profond en fournissant les résultats de deux bases théoriques de reconstruction visuelle et d'analyses de ROI. Les résultats et les contributions de la thèse peuvent aider les chercheurs travaillant dans le domaine des neurosciences cognitives et avoir des implications pour les applications d'interface cerveau-ordinateur
The great minds of humanity were always curious about the nature of mind, brain, and consciousness. Through physical and thought experiments, they tried to tackle challenging questions about visual perception. As neuroimaging techniques were developed, neural encoding and decoding techniques provided profound understanding about how we process visual information. Advancements in Artificial Intelligence and Deep Learning areas have also influenced neuroscientific research. With the emergence of deep generative models like Variational Autoencoders (VAE), Generative Adversarial Networks (GAN) and Latent Diffusion Models (LDM), researchers also used these models in neural decoding tasks such as visual reconstruction of perceived stimuli from neuroimaging data. The current thesis provides two frameworks in the above-mentioned area of reconstructing perceived stimuli from neuroimaging data, particularly fMRI data, using deep generative models. These frameworks focus on different aspects of the visual reconstruction task than their predecessors, and hence they may bring valuable outcomes for the studies that will follow. The first study of the thesis (described in Chapter 2) utilizes a particular generative model called IC-GAN to capture both semantic and realistic aspects of the visual reconstruction. The second study (mentioned in Chapter 3) brings new perspective on visual reconstruction by fusing decoded information from different modalities (e.g. text and image) using recent latent diffusion models. These studies become state-of-the-art in their benchmarks by exhibiting high-fidelity reconstructions of different attributes of the stimuli. In both of our studies, we propose region-of-interest (ROI) analyses to understand the functional properties of specific visual regions using our neural decoding models. Statistical relations between ROIs and decoded latent features show that while early visual areas carry more information about low-level features (which focus on layout and orientation of objects), higher visual areas are more informative about high-level semantic features. We also observed that generated ROI-optimal images, using these visual reconstruction frameworks, are able to capture functional selectivity properties of the ROIs that have been examined in many prior studies in neuroscientific research. Our thesis attempts to bring valuable insights for future studies in neural decoding, visual reconstruction, and neuroscientific exploration using deep learning models by providing the results of two visual reconstruction frameworks and ROI analyses. The findings and contributions of the thesis may help researchers working in cognitive neuroscience and have implications for brain-computer-interface applications
APA, Harvard, Vancouver, ISO, and other styles
48

Letheule, Nathan. "Apports de l'Apprentissage Profond pour la simulation d'images SAR." Electronic Thesis or Diss., université Paris-Saclay, 2024. https://theses.hal.science/tel-04651643.

Full text
Abstract:
La simulation est un outil précieux pour de nombreuses applications d'imagerie SAR, cependant, les images simulées de grandes tailles ne sont pas encore assez réalistes pour tromper un expert en images radar. Cette thèse propose d'évaluer dans quelle mesure l'utilisation des avancées récentes en matière d'apprentissage profond peut permettre d'améliorer la qualité des simulations. Dans un premier temps, nous proposons de définir une méthode de mesure de réalisme des images SAR simulées en les comparant à des images réelles. Les métriques ainsi établies serviront ensuite à l'évaluation des résultats de simulation. Dans un second temps, deux cadres de simulation basés sur l'apprentissage profond sont proposés, avec des philosophies différentes. Le premier ne prend pas en compte la connaissance physique de l'imagerie, et propose d'apprendre la transformation d'une image optique vers une image radar à l'aide d'une architecture cGAN. Le second s'appuie sur un simulateur physique développé à l'Onera (EMPRISE), et utilise la génération automatique d'entrées à partir d'une segmentation sémantique d'une image optique de la scène, via l'apprentissage profond. Pour cette dernière piste prometteuse, une réflexion est menée sur la description de l'entrée et son impact sur le résultat final de simulation. Enfin, des pistes d'enrichissement par apprentissage profond des images générées par le simulateur physique seront proposées, notamment à travers des réseaux de diffusion, et des approches text-to-image
Simulation is a valuable tool for many SAR imaging applications, however, large simulated images are not yet realistic enough to fool a radar image expert. This thesis proposes to evaluate to what extent the use of recent advances in deep learning can improve the quality of simulations. As a first step, we propose to define a method for measuring the realism of simulated SAR images by comparing them with real images. The resulting metrics will then be used to evaluate simulation results. Secondly, two simulation frameworks based on deep learning are proposed, with different philosophies. The first does not take into account physical knowledge of the imagery, and proposes to learn the transformation of an optical image into a radar image using a cGAN architecture. The second is based on a physical simulator developed at Onera (EMPRISE), and uses automatic input generation from semantic segmentation of an optical image of the scene, via deep learning. For this last promising avenue, we are looking into the description of the input and its impact on the final simulation result. Finally, we will be proposing ways of enriching the images generated by the physical simulator using deep learning, in particular through diffusion networks and text-to-image approaches
APA, Harvard, Vancouver, ISO, and other styles
49

Fourneaud, Ludovic. "Caractérisation et modélisation des performances hautes fréquences des réseaux d'interconnexions de circuits avancés 3D : application à la réalisation d'imageurs de nouvelle génération." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00819827.

Full text
Abstract:
Le travail de doctorat réalisé s'attache à étudier les nouveaux types d'interconnexions comme les TSV (Through Silicon Via), les lignes de redistribution (RDL) et les piliers de cuivre (Cu-Pillar) présentes dans le domaine de l'intégration 3D en microélectronique avancée, par exemple pour des applications de type " imager " où une puce " capteur optique " est empilée sur une puce " processeur ". Afin de comprendre et quantifier le comportement électrique de ces nouveaux composants d'interconnexion, une première problématique de la thèse s'articulait autour de la caractérisation électrique, sur une très large bande de fréquence (10 MHz - 60 GHz) de ces éléments, enfouis dans leurs environnements complexes d'intégration, en particulier avec l'analyse de l'impact des pertes dans les substrats de silicium dans une gamme de conductivités allant de très faible (0 S/m) à très forte (10 000 S/m). Par la suite, une nouvelle problématique prend alors naissance sur la nécessité de développer des modèles mathématiques permettant de prédire le comportement électrique des interconnexions 3D. Les modèles électriques développés doivent tenir compte des pertes, des couplages ainsi que de certains phénomènes liés à la montée en fréquence (courants de Foucault) en fonction des caractéristiques matériaux, des dimensions et des architectures (haute à faible densité d'intégration). Enfin, à partir des modèles développés, une dernière partie propose une étude sur les stratégies de routage dans les empilements 3D de puces à partir d'une analyse sur l'intégrité de signaux. En opposant différents environnements, débit de signaux binaires ou dimensions des TSV et des RDL des conclusions émergent sur les stratégies à adopter pour améliorer les performances des circuits conçus en intégration 3D.
APA, Harvard, Vancouver, ISO, and other styles
50

Boumzaid, Yacine. "Etude et construction de schémas de subdivision quasi-linéaires sur des maillages bi-réguliers." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00905806.

Full text
Abstract:
Les schémas de subdivision et les schémas de subdivision inverse sont largement utilisés en informatiquegraphique; les uns pour lisser des objets 3D, et les autres pour minimiser le coût d'encodagede l'information. Ce sont les deux aspects abordés dans cette thèse.Les travaux présentés dans le cadre de la subdivision décrivent l'études et la construction d'un nouveautype de schémas de subdivision. Celui-ci unifie deux schémas de subdivision de type géométriquesdifférents. Cela permet de modéliser des objets 3D composés de zones issues de l'applicationd'un schéma approximant et de zones issues de l'application d'un schéma interpolant. Dans le cadrede la subdivision inverse, Nous présentons une méthode de construction des schémas de subdivisionbi-réguliers inverses (quadrilatères et triangles)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography