Dissertations / Theses on the topic 'Optimisation combinatoire – Reconstruction d'image'

To see the other types of publications on this topic, follow the link: Optimisation combinatoire – Reconstruction d'image.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 44 dissertations / theses for your research on the topic 'Optimisation combinatoire – Reconstruction d'image.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ribal, Christophe. "Anisotropic neighborhoods of superpixels for thin structure segmentation." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG117.

Full text
Abstract:
En vision robotique, segmenter une image consiste à décomposer cette image en régions homogènes, en associant un label à chaque élément la constituant. Cette thèse propose une approche générique vis à vis de ces éléments, pixels ou superpixels, en les désignant communément sous le terme de sites. La résolution du problème inverse qu'est la segmentation d'images est généralement rendue robuste au bruit grâce à la formulation d'une hypothèse Markovienne sur le champ des labels, et d'un a priori d'homogénéité des labels au sein des voisinages. Cependant, la solution optimale (ou régularisée) tend alors à présenter des artéfacts indésirables, notablement la perte prématurée des structures fines, définies comme des structures dont la taille est réduite selon au moins une dimension. La construction de voisinages anisotropes adaptés à ces structures permet de pallier ce problème. Ces voisinages sont calculés après une première étape d'estimation des orientations des structures fines présentes dans l'image. Trois options, dont deux adaptées de la littérature, sont proposées pour réaliser cette étape cruciale : la minimisation d'une énergie, le vote de tenseurs, et le RORPO. À partir des cartes d'orientation obtenues, quatres méthodes de construction des voisinages anisotropes sont retenues. Tout d'abord, un voisinage défini par des formes géométriques est présenté, puis la restriction à un nombre fini de configurations pour chaque site permet de formuler un voisinage basé sur un dictionnaire. Enfin, deux voisinages basés sur des chemins entre sites (l'un à extrémités fixées et l'autre à taille constante) sont considérés, tous deux faisant intervenir une énergie à minimiser. Dans ce manuscrit, les segmentations obtenues par estimateur du Maximum A Posteriori (obtenu à partir de coupes de graphes) avec les voisinages anisotropes proposés sont comparées à celles supposant un voisinage isotrope dans le cas de deux applications : la détection de structures fines et la reconstruction de cartes de profondeur en Shape From Focus. Les résultats des différentes variantes proposées sont évalués qualitativement et quantitativement dans le but de souligner les apports de la méthode proposée
In the field of computer vision, image segmentation aims at decomposing an image into homogeneous regions. While usually an image is composed of a regular lattice of pixels, this manuscript proposes through the term of site a generic approach able to consider either pixels or superpixels. Robustness to noise in this challenging inverse problem is achieved by formulating the labels as a Markov Random Field, and finding an optimal segmentation under the prior that labels should be homogeneous inside the neighborhood of a site. However, this regularization of the solution introduces unwanted artifacts, such as the early loss of thin structures, defined as structures whose size is small in at least one dimension. Anisotropic neighborhood construction fitted to thin structures allows us to tackle the mentioned artifacts. Firstly, the orientations of the structures in the image are estimated from any of the three presented options: The minimization of an energy, Tensor Voting, and RORPO. Secondly, four methods for constructing the actual neighborhood from the orientation maps are proposed: Shape-based neighborhood, computed from the relative positioning of the sites, dictionary-based neighborhood, derived from the discretization to a finite number of configurations of neighbors for each site, and two path-based neighborhoods, namely target-based neighborhood with fixed extremities, and cardinal-based neighborhood with fixed path lengths. Finally, the results provided by the Maximum A Posteriori criterion (computed with graph cuts optimization) with these anisotropic neighborhoods are compared against isotropic ones on two applications: Thin structure detection and depth reconstruction in Shape From Focus. The different combinations of guidance map estimations and neighborhood constructions are illustrated and evaluated quantitatively and qualitatively in order to exhibit the benefits of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
2

Tlig, Ghassen. "Programmation mathématique en tomographie discrète." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00957445.

Full text
Abstract:
La tomographie est un ensemble de techniques visant à reconstruirel'intérieur d'un objet sans toucher l'objet lui même comme dans le casd'un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l'objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l'objet àpartir d'un ensemble de projections obtenues par mesures expérimentalesautour de l'objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l'objet est défini de façon discrète. Leschamps d'applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l'imageriemédicale. Il existe d'autres applications de la tomographie discrète, commeles problèmes d'emplois du temps.La tomographie discrète peut être considérée comme un problème d'optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d'optimisation combinatoire.L'objectif de cette thèse est d'étudier et d'utiliser les techniques d'optimisationcombinatoire pour résoudre les problèmes de tomographie.
APA, Harvard, Vancouver, ISO, and other styles
3

Tlig, Ghassen. "Programmation mathématique en tomographie discrète." Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0886.

Full text
Abstract:
La tomographie est un ensemble de techniques visant à reconstruirel’intérieur d’un objet sans toucher l’objet lui même comme dans le casd’un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l’objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l’objet àpartir d’un ensemble de projections obtenues par mesures expérimentalesautour de l’objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l’objet est défini de façon discrète. Leschamps d’applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l’imageriemédicale. Il existe d’autres applications de la tomographie discrète, commeles problèmes d’emplois du temps.La tomographie discrète peut être considérée comme un problème d’optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d’optimisation combinatoire.L’objectif de cette thèse est d’étudier et d’utiliser les techniques d’optimisationcombinatoire pour résoudre les problèmes de tomographie
The tomographic imaging problem deals with reconstructing an objectfrom a data called a projections and collected by illuminating the objectfrom many different directions. A projection means the information derivedfrom the transmitted energies, when an object is illuminated from a particularangle. The solution to the problem of how to reconstruct an object fromits projections dates to 1917 by Radon. The tomographic reconstructingis applicable in many interesting contexts such as nondestructive testing,image processing, electron microscopy, data security, industrial tomographyand material sciences.Discete tomography (DT) deals with the reconstruction of discret objectfrom limited number of projections. The projections are the sums along fewangles of the object to be reconstruct. One of the main problems in DTis the reconstruction of binary matrices from two projections. In general,the reconstruction of binary matrices from a small number of projections isundetermined and the number of solutions can be very large. Moreover, theprojections data and the prior knowledge about the object to reconstructare not sufficient to determine a unique solution. So DT is usually reducedto an optimization problem to select the best solution in a certain sense.In this thesis, we deal with the tomographic reconstruction of binaryand colored images. In particular, research objectives are to derive thecombinatorial optimization techniques in discrete tomography problems
APA, Harvard, Vancouver, ISO, and other styles
4

Soldo, Yan. "Optimisation de la reconstruction d'image pour SMOS et SMOS-NEXT." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2120/.

Full text
Abstract:
Dans le cadre général de l'étude du climat, du cycle de l'eau et de la gestion des ressources en eau, le satellite SMOS (Soil Moisture and Ocean Salinity) a été lancé par l'agence spatiale européenne (ESA) en Novembre 2009 pour fournir des cartes globales d'humidité des sols et de salinité des surfaces océaniques. Les mesures du satellite sont obtenues par un radiomètre interférométrique opérant dans la bande passive 1400-1427 MHz (bande L des micro-ondes). Toutefois, dès les premières mesures de l'instrument, de nombreuses Interférences en Radio Fréquence (RFI) ont été observées, malgré les recommandations de l'Union Internationale des Télécommunications (ITU) qui protègent cette bande pour les applications scientifiques. La dégradation de données à cause des interférences est significative et au niveau international des efforts sont fait par l'ESA et les différentes agences nationales pour l'identification et l'extinction de ces émetteurs. D'un point de vue scientifique l'intérêt porte sur le développement de techniques pour la détection, la localisation au sol des sources d'interférences ainsi que pour la correction de leurs signaux dans les donnés SMOS ; différents objectifs ont donc été poursuivis et ont mené à la définition de différents approches présentées dans cette contribution. En effet la solution idéale serait de corriger l'impact de ces interférences sur les données, en créant synthétiquement des signaux égaux et de signe opposé et d'en tenir compte dans la chaîne de traitement des données. Un outil a donc été développé qui, en utilisant des connaissances a priori sur la scène observée issues des modèles météorologiques, permet de simuler la scène vue par l'instrument. A partir de cette information et des visibilités entre les antennes de l'interféromètre, il est possible de détecter et de décrire précisément ces interférences et donc d'en déduire le signal à soustraire. Bien que l'évaluation des performances d'un algorithme de correction des RFI pour SMOS ne soit pas facile puisqu'elle doit être faite indirectement, des méthodes avec ce but sont proposées et montrent des résultats généralement positifs pour l'algorithme développé. Cependant la difficulté d'évaluer l'impact de la correction à grande échelle, ainsi que pour l'incertitude qui est nécessairement introduite lors de l'application d'un signal synthétique aux données et afin d'éviter une utilisation naïve des résultats de correction, aujourd'hui on écarte l'hypothèse d'une application opérationnelle d'un algorithme de correction. Un produit intermédiaire a alors été développé, par une approche similaire, avec l'objectif de fournir des indications sur l'impact des RFI sur chaque point de chaque image selon des seuils prédéfinis. Un autre objectif a été de fournir un outil en mesure de caractériser rapidement les sources (position au sol, puissance, position dans le champ de vue) pour une zone géographique. Cette méthode utilise les composantes de Fourier de la scène vue par l'instrument pour obtenir une distribution de températures de brillance, dans laquelle les RFI apparaissent comme des points chauds. L'algorithme rapide de caractérisation des sources s'est révélé précis, fiable et robuste, et il pourrait être utilisé pour la définition de bases de données sur les RFI ou pour le suivi de celles-ci à l'échelle locale ou globale. Les résultats de cette méthode ont fournit un jeu de données privilégié pour l'étude des performances de l'instrument et ça a permit de mettre en évidence des potentielles erreurs systématiques ainsi que des variations saisonnières des résultats. Toutes mission spatiale ayant une vie limitée à quelques années, dans un deuxième temps on s'est intéressé à la continuité des mesures des mêmes variables géophysiques, avec le projet de mission SMOS-NEXT. Pour améliorer la qualité des mesures cette mission se propose d'implémenter une technique d'interférométrie novatrice : la synthèse d'ouverture spatio-temporelle, dont le principe est de corréler les mesures entre antennes en positions différentes et à des instants différents, dans les limites de cohérence liées à la bande spectrale. Suite à des études théoriques, une expérience a été faite en utilisant le radiotélescope de Nançay. Dans le cadre de la thèse les données de cette expérience ont été analysées. Bien que l'étude n'ait pas permit de conclure sur la validité du principe, plusieurs difficultés ont été mises en évidence et ce retour d'expérience sera utile lors de la prochaine campagne de mesure prévue
The Soil Moisture and Ocean Salinity (SMOS) satellite was launched by the European Space Agency (ESA) in November 2009 to allow a better understanding of Earth's climate, the water cycle and the availability of water resources at the global scale, by providing global maps of soil moisture and ocean salinity. SMOS' payload, an interferometric radiometer, measures Earth's natural radiation in the protected 1400-1427 MHz band (microwave, L-band). However, since launch the presence of numerous Radio-Frequency Interferences (RFI) has been clearly observed, despite the International Telecommunication Union (ITU) recommendations to preserve this band for scientific use. The pollution created by these artificial signals leads to a significant loss of data and a common effort of ESA and the national authorities is necessary in order to identify and switch off the emitters. From a scientific point of view we focus on the development of algorithms for the detection of RFI, their localization on the ground and the mitigation of the signals they introduce to the SMOS data. These objectives have led to different approaches that are proposed in this contribution. The ideal solution would consist in mitigating the interference signals by creating synthetic signals corresponding to the interferences and subtract them from the actual measurements. For this purpose, an algorithm was developed which makes use of a priori information on the natural scene provided by meteorological models. Accounting for this information, it is possible to retrieve an accurate description of the RFI from the visibilities between antennas, and therefore create the corresponding signal. Even though assessing the performances of a mitigation algorithm for SMOS is not straightforward as it has to be done indirectly, different methods are proposed and they all show a general improvement of the data for this particular algorithm. Nevertheless due to the complexity of assessing the performances at the global scale, and the uncertainty inevitably introduced along with the synthetic signal, and to avoid a naive use of the mitigated data by the end user, for the time being an operational implementation of mitigation algorithms is not foreseen. Instead, an intermediate solution is proposed which consists of estimating the RFI contamination for a given snapshot, and then creating a map of the regions that are contaminated to less than a certain (or several) threshold(s). Another goal has been to allow the characterization of RFI (location on the ground, power emitted, position in the field of view) within a specified geographic zone in a short time. This approach uses the Fourier components of the observed scene to evaluate the brightness temperature spatial distribution in which the RFIs are represented as "hot spots". This algorithm has proven reliable, robust and precise, so that it can be used for the creation of RFI databases and monitoring of the RFI contamination at the local and global scale. Such databases were in fact created and used to highlight systematic errors of the instrument and seasonal variation of the localization results. The second main research topic has been to investigate the principle of SMOS-NEXT, a prospective mission that aims at assuring the continuity of space-borne soil moisture and ocean salinity measurements in the future with significantly improved spatial resolution of the retrievals. In order to achieve the latter this project intends to implement a groundbreaking interferometric approach called the spatio-temporal aperture synthesis. This technique consists in correlating the signals received at antennas in different places at different times, within the coherence limits imposed by the bandwidth. To prove the feasibility of this technique, a measurement campaign was carried out at the radio-telescope in Nançay, France. Even though the analysis of the experimental data has not allowed concluding on the validity of the measurement principle, a series of difficulties have been highlighted and the thus gained knowledge constitutes a valuable base for the foreseen second measurement campaign
APA, Harvard, Vancouver, ISO, and other styles
5

Israel-Jost, Vincent. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec colimateur sténopé." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/ISRAEL-JOST_Vincent_2006.pdf.

Full text
Abstract:
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle. Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume. Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences
In SPECT small animal imaging, it is highly recommended to accurately model the response of the detector in order to improve the low spatial resolution. The volume to reconstruct is thus obtained both by backprojecting and deconvolving the projections. We chose iterative methods, which permit one to solve the inverse problem independently from the model's complexity. We describe in this work a gaussian model of point spread function (PSF) whose position, width and maximum are computed according to physical and geometrical parameters. Then we use the rotation symmetry to replace the computation of P projection operators, each one corresponding to one position of the detector around the object, by the computation of only one of them. This is achieved by choosing an appropriate polar discretization, for which we control the angular density of voxels to avoid oversampling the center of the field of view. Finally, we propose a new family of algorithms, the so-called frequency adapted algorithms, which enable to optimize the reconstruction of a given band in the frequency domain on both the speed of convergence and the quality of the image
APA, Harvard, Vancouver, ISO, and other styles
6

Israel-Jost, Vincent Sonnendrücker Eric Constantinesco André. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec colimateur sténopé." Strasbourg : Université Louis Pasteur, 2007. http://eprints-scd-ulp.u-strasbg.fr:8080/698/01/israel-jost2006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bus, Norbert. "The use of geometric structures in graphics and optimization." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1117/document.

Full text
Abstract:
Les données du monde réel ont manifestement une composante géométrique importante et suggère les patterns géométriques signifiants. Les méthodes qui utilisent la nature géométrique des données sont activement développés dans plusieurs domaines scientifiques, comme, par exemple, la géométrie algorithmique, la géométrie discrète, la synthèse d'images, la vision par ordinateur. Dans le travail présent, nous utilisons les structures géométriques afin de modéliser des algorithmes efficaces pour deux domaines, celui de synthèse d'images et de l'optimisation combinatoire. Dans la première partie il s'agit de la structure de données géométriques, appelé une décomposition bien-séparée, et son application pour un des problèmes les plus difficiles dans la synthèse d'images, un efficace rendu photo-réalistique. Une solution consiste à appliquer toute une famille de méthodes de many-lights qui fait une approximation d'illumination globale par calcule individuelle d'illumination avec un grand nombre de VPLs (virtual point light) répartis sur les surfaces. L'application individuelle de chacun VPL résulte dans un grand nombre des calculs. Une des stratégies de la réussite pour réduire les computations est de faire les clusteurs considérés qui sont consideré comme une seul émetteur. Nous utilisons la décomposition bien-séparée de points comme le fondement de la structure des données susceptible de procéder à un calcul préliminaire et de conserver d'une façon compacte un grand nombre des clusterisations individuels potentiels ce qui montre que la clusterisation des VPL plus correspondante peut être extraite de cette structure de données d'une manière efficace. Nous montrons qu'au lieu de regroupper les points et/ou VPL indépendemment il vaut mieux produire les clusteurs sur l'espace de produit du nombre des points à nuancer et un groupe de VPL à la base de l'illumination des paires induite. En plus, nous proposons une technique adaptive afin d'échantillonner pour réduire le nombre des demandes de vérifications de visibilité pour chaque clusteur de l'espace de produit. Notre méthode consiste à détenir chaque émetteur qui peut être rapproché par VPL, matériaux spéculaire et à performer les méthodes précédents réconnus les meilleurs jusqu'au présent. La deuxième partie est consacrée au développement de nouveaux algorithmes d'approximation pour un problème fondamental de NP complet dans la géométrie algorithmique, précisément le problème du hitting set, avec une précision pour le cas d'un groupe de points et d'un groupe de disques, nous souhaiterons calculer les plus petits nombre du points qui touche tous les disques. Il arrive que les algorithmes efficaces à détecter le hitting set repose sur une structure géométrique clée, appelée epsilon-net. Nous donnons un algorithme utilisant uniquement les triangulisations de Delaunay pour construire les epsilon-nets de taille 13.4/epsilon. Nous donnons une implémentation pratique de la technique à calculer les hitting sets dans le temps quasi-linéaire en utilisant des epsilon-nets de petites tailles. Nos résultats aboutissent à une approximation de 13.4 pour le problème de hitting set par un algorithme qui fonctionne même pour les grands ensembles de données. Pour les ensembles de taille plus petite, nous proposons une implémentation de la technique de recherche locale avec une approximation bornes supérieures, avec le résultat obtenu d'approximation de (8 + epsilon) dans le temps O(n^{2.34})
Real-world data has a large geometric component, showing significant geometric patterns. How to use the geometric nature of data to design efficient methods has became a very important topic in several scientific fields, e.g., computational geometry, discrete geometry, computer graphics, computer vision. In this thesis we use geometric structures to design efficient algorithms for problems in two domains, computer graphics and combinatorial optimization. Part I focuses on a geometric data structure called well-separated pair decomposition and its usage for one of the most challenging problems in computer graphics, namely efficient photo-realistic rendering. One solution is the family of many-lights methods that approximate global illumination by individually computing illumination from a large number of virtual point lights (VPLs) placed on surfaces. Considering each VPL individually results in a vast number of calculations. One successful strategy the reduce computations is to group the VPLs into a small number of clusters that are treated as individual lights with respect to each point to be shaded. We use the well-separated pair decomposition of points as a basis for a data structure for pre-computing and compactly storing a set of view independent candidate VPL clusterings showing that a suitable clustering of the VPLs can be efficiently extracted from this data structure. We show that instead of clustering points and/or VPLs independently what is required is to cluster the product-space of the set of points to be shaded and the set of VPLs based on the induced pairwise illumination. Additionally we propose an adaptive sampling technique to reduce the number of visibility queries for each product-space cluster. Our method handles any light source that can be approximated with virtual point lights (VPLs), highly glossy materials and outperforms previous state-of-the-art methods. Part II focuses on developing new approximation algorithms for a fundamental NP-complete problem in computational geometry, namely the minimum hitting set problem with particular focus on the case where given a set of points and a set of disks, we wish to compute the minimum-sized subset of the points that hits all disks. It turns out that efficient algorithms for geometric hitting set rely on a key geometric structure, called epsilon-net. We give an algorithm that uses only Delaunay triangulations to construct epsilon-nets of size 13.4/epsilon and we provide a practical implementation of a technique to calculate hitting sets in near-linear time using small sized epsilon-nets. Our results yield a 13.4 approximation for the hitting set problem with an algorithm that runs efficiently even on large data sets. For smaller datasets, we present an implementation of the local search technique along with tight approximation bounds for its approximation factor, yielding an (8 + epsilon)-approximation algorithm with running time O(n^{2.34})
APA, Harvard, Vancouver, ISO, and other styles
8

Israel-Jost, Vincent. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec collimateur sténopé." Phd thesis, Université Louis Pasteur - Strasbourg I, 2006. http://tel.archives-ouvertes.fr/tel-00112526.

Full text
Abstract:
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle.
Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume.
Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences.
APA, Harvard, Vancouver, ISO, and other styles
9

Favier, Aurélie. "Décompositions fonctionnelles et structurelles dans les modèles graphiques probabilistes appliquées à la reconstruction d'haplotypes." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1527/.

Full text
Abstract:
Cette thèse s'articule autour de deux thèmes : la décomposition dans les modèles graphiques que sont, entre autres, les réseaux bayésiens et les réseaux de fonctions de coûts (WCSP) et la reconstruction d'haplotypes dans les pedigrees. Nous appliquons les techniques des WCSP pour traiter les réseaux bayésiens, en exploitant les propriétés structurelles et fonctionnelles, de manière exacte et approchée, des instances dans le cadre de l'inférence (ou d'un problème proche, celui de compter le nombre de solutions) et de l'optimisation. Nous définissons en particulier une décomposition de fonctions qui produit des fonctions portant sur un plus petit nombre de variables. Un exemple d'application en optimisation est la reconstruction d'haplotypes. Elle est essentielle pour une meilleure prédiction de la gravité de maladie ou pour comprendre des caractères physiques particuliers. La reconstruction d'haplotypes se modélise sous forme d'un réseau bayésien. La décomposition fonctionnelle permet de réduire ce réseau bayésien en un problème d'optimisation WCSP (Max-2SAT)
This thesis is based on two topics : the decomposition in graphical models which are, among others, Bayesian networks and cost function networks (WCSP) and the haplotype reconstruction in pedigrees. We apply techniques of WCSP to treat Bayesian network. We exploit stuctural and fonctional properties, in an exact and approached methods. Particulary, we define a decomposition of function which produces functions with a smaller variable number. An application example in optimization is the haplotype reconstruction. It is essential for a best prediction of seriousness of disease or to understand particular physical characters. Haplotype reconstruction is represented with a Bayesian network. The functionnal decomposition allows to reduce this Bayesian network in an optimization problem WCSP (Max-2SAT)
APA, Harvard, Vancouver, ISO, and other styles
10

Ribés, Cortés Alejandro. "Analyse multispectrale et reconstruction de la réflectance spectrale de tableaux de maître." Paris, ENST, 2003. https://pastel.archives-ouvertes.fr/pastel-00000761.

Full text
Abstract:
Nous nous sommes intéressés principalement : 1 aux méthodes de reconstruction de la réflectance spectrale de la surface du matériau imagé en chaque pixel à partir des valeurs des N canaux d'une image multispectrale (N>3). Nous proposons une classification des méthodes de reconstruction spectrale existantes et nous apportons des améliorations. La technique "Mixture Density Networks" a été adaptée à la reconstruction spectrale et ensuite enrichie en développant un système automatique de sélection d'architecture. 2 Nous avons étudié, caractérisé et évalué les éléments d'une nouvelle caméra multispectrale de haute définition (projet européen CRISATEL). Un système automatique de calibrage et correction des images a été conçu et implanté. Nous avons aussi travaillé sur la sélection des filtres optiques les plus adaptés à la reconstruction spectrale de matériaux spécifiques. Nous présentons des exemples de traitement de deux tableaux de maître de Georges de la Tour et de Renoir
This thesis is devoted to 1 The methods for spectral reflectance reconstruction of the surface of coloured materials in each pixel of an N-channel multispectral image (N > 3). We propose a classification of spectral reflectance reconstruction methods and we improve some of them. We adapted Mixture Density Networks (MDN) to spectral reconstruction. MDN were enriched by developing an automatic system of architecture selection. 2 We studied, characterised and evaluated a new high definition multispectral camera created for the European project CRISATEL. An automatic calibration procedure and an image correction system were conceived and implemented. We also worked on the selection of the optical filters most adapted to the spectral reconstruction of a specific material. Finally, the work completed during this thesis was applied to art paintings. We present two examples, painted by George de la Tour and Renoir
APA, Harvard, Vancouver, ISO, and other styles
11

LOBEL, PIERRE, and Michel Barlaud. "Problemes de diffraction inverse : reconstruction d'image et optimisation avec regularisation par preservation des discontinuites - application a l'imagerie microonde." Nice, 1996. http://www.theses.fr/1996NICE4989.

Full text
Abstract:
Ce memoire est consacre a la reconstruction d'image en tomographie microonde. Il s'inscrit dans le cadre plus general des problemes de diffraction inverse. De part sa nature non lineaire et son caractere mal-pose, le probleme de diffraction inverse est particulierement complexe. Il conduit a la minimisation d'un systeme non lineaire pour lequel, depuis une quinzaine d'annees, differentes methodes iteratives de resolution quantitative ont ete proposees. Nous presentons dans ce memoire une methode de resolution basee sur un algorithme de descente du type gradient conjugue (gc). Cette methode s'appuie sur la minimisation d'une unique fonctionnelle non lineaire issue de l'application de la methode des moments a une representation integrale du champ electrique. Menes a partir de donnees synthetiques et experimentales, des tests probants ont valide cet algorithme. Une etude sur l'influence d'une estimee initiale calculee par retro-projection sur la solution, a en outre ete menee. Afin de reconstruire des images dans le cas de donnees fortement bruitees ou a fortes valeurs de contraste, l'introduction de techniques de regularisation devient necessaire. Nous avons ainsi developpe une methode de regularisation non lineaire, basee sur la theorie des champs de markov. La contrainte employee consiste en un lissage des zones homogenes de l'image, avec preservation de ses discontinuites. Cette technique a ete appliquee sur notre algorithme gc mais aussi sur un algorithme de type newton-kantorovitch. Nous avons ainsi pu observer une amelioration notable des images obtenues a partir de donnees fortement bruitees, synthetiques ou experimentales.
APA, Harvard, Vancouver, ISO, and other styles
12

Khazâal, Ali. "Reconstruction d'images pour la mission spatiale SMOS." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/917/.

Full text
Abstract:
SMOS (Soil Moisture and Ocean Salinity) est une des missions d'exploration de la Terre menées par l'ESA dans le cadre de ses missions dites d'opportunité. Son objectif est l'observation, à une échelle globale, de l'humidité des sols et de la salinité des océans, deux paramètres importants pour une meilleure modélisation du climat et de meilleures prévisions météorologiques. Ces variables sont mesurées de manière indirecte par l'instrument MIRAS, un radiomètre micro-onde imageur dont le principe observationnelle repose sur l'interférométrie et la synthèse d'ouverture. Dans le cadre de cette mission, le problème de la reconstruction de la distribution de température de brillance des scènes observées à partir des données interférométriques est la clef de la réussite de la mission. Il a été démontré que ce problème est mal posé et doit être régularisé afin de fournir une solution unique et stable. Lors de cette thèse, la méthode de régularisation retenue par l'ESA pour la reconstruction de la distribution de la température de brillance est tout d'abord étudiée. Le problème de l'erreur systématique, ou biais de reconstruction, qui peut parfois être importante est ensuite traité et une approche efficace de réduction de cette erreur est proposée et validée. Une extension de cette méthode aux deux modes polarimétrique de SMOS polarisation double et polarisation totale) est ensuite proposée. Deux autres problèmes liés à la reconstruction d'image sont aussi étudiés. Dans un premier temps, l'effet de deux genres de pannes de certains éléments de MIRAS sur la qualité de la reconstruction est étudié. Ensuite, l'étalonnage des diagrammes d'antennes de MIRAS, une fois en orbite, est abordé où une méthode est proposée pour estimer ces diagrammes d'antennes
Synthetic aperture imaging radiometers are powerful sensors for high-resolution observations of the Earth at low microwave frequencies. Within this context, the European Space Agency is currently developing the Soil Moisture and Ocean Salinity (SMOS) mission devoted to the monitoring of SMOS at global scale from L-band space-borne radiometric observations obtained with a 2-D interferometer. This PhD is concerned with the reconstruction of radiometric brightness temperature maps from interferometric measurements through a regularization approach called Band Limited Regularization. More exactly, it concerns with the reduction of the systematic error (or bias) in the reconstruction of radiometric brightness temperature maps from SMOS interferometric measurements. It also extends the concept of "band-limited regularization approach" to the case of the processing of dual and full polarimetric data. Also, two problems that may affect the quality of the reconstruction are investigated. First, the impact of correlators and receivers failures on the reconstruction process is studied. Then, the calibration of MIRAS antenna's voltage patterns, when the instrument is in orbit, is also studied where a general approach is proposed to estimate this antenna's patterns
APA, Harvard, Vancouver, ISO, and other styles
13

Jin, Qiyu. "Restauration des images et optimisation des poids." Lorient, 2012. http://www.theses.fr/2012LORIS259.

Full text
Abstract:
Dans cette thèse, nous présentons et étudions quelques méthodes pour restaurer l’image originale à partir d’une image dégradée par un bruit additif ou flou. La thèse est composé de 4 parties, 6 chapitres. Partie I. Dans cette partie nous abordons le problème de débruitage du bruit blanc gaussien additif. Cette Partie a deux chapitres : Chapitre 1 et au Chapitre 2. Dans le Chapitre 1, un nouveau algorithme de débruitage d’images est donné. Le filtre proposé est basé sur la moyenne pondérée des observations dans une voisinage, avec des poids en fonction de la similitude des patchs associés. Contrairement au filtre de moyenne nonlocale, nous proposons de choisir les poids en minimisant une majoration exacte de l’erreur quadratique moyenne. Cette approche permet de définir des poids optimaux qui dependent de la fonction inconnue. En estimant ces poids optimaux à partir de l’image bruité, nous obtenons le filtre adaptatif. Sous certaines conditions de régularité de l’image cible, nous montrons que l’estimateur obtenu converge à une vitesse optimale. L’algorithme proposé s’adapte automatiquement à la bande passante du noyau de lissage. Dans le Chapitre 2, nous employons des techniques d’estimation de l’oracle pour expliquer comment déterminer les largeurs des patchs de similarité et de la fenêtre de recherche. Partie II. Dans cette partie, nous étudions le modèle du bruit de Poisson. Dans le Chapitre 3, nous proposons l’algorithme de débruitage d’une image lorsque les données sont contaminés par le bruit de Poisson. La méthode proposé est celle du Chapiter 1, la difference étant que le medèle du bruit de Poisson est hétéroscédastique. Nous adaptons la méthode de poids optimaux à cette situation. Dans le Chapitre 4, nous transposons les résultats de Chapitre 2 au cas du bruit du Poisson. Partie III. Cette partie est consacrée à la reconstruction de l’image à partir de données contaminées par le mélange de bruit gaussien et de bruit impulsionnel. Elle a un seul chapitre, à savoir Chapitre 5. Dans ce chapitre, nous introduisons une généralisation de la statistique ROAD pour mieux détecter le bruit impulsionnel. Combinant cette méthode avec le filtre à poids optimaux du Chapitre 1, nous obtenons une nouvelle méthode pour traiter le bruit mixte, appelé filtre mixte à poids optimaux. Partie IV. La dernière partie se concentre sur les problèmes inverses de l’image flou,et comprend le Chapitre 6. Ce chapitre propose un nouvel algorithme pour résoudre les problèmes inverses basés sur la minimisation de la norme L2 et sur le contrôle de la Variation totale. Il consiste à relâcher le rôle de la variation totale en une approche classique de minimisation Variation Totale, ce qui nous permet d’obtenir une meilleure approximation aux problèmes inverses. Les résultats numériques du problème de déconvolution montrent que notre méthode est plus performante que les précédentes
In this these, we present and study some methods for restoring the original image from an image degraded by additive noise or blurring. The these is composed of 4 parts,and 6 chapters. Part I. In this part, we deal with the additive Gaussian white noise. This part is divided into two chapters : Chapter 1 and Chapter 2. In Chapter 1, a new image denoisingalgorithm to deal with the additive Gaussian white noise model is given. Like the nonlocal means method, we propose the filter which is based on the weighted average of the observations in a neighborhood, with weights depending on the similarity of local patches. But in contrast to the non-local means filter, instead of using a fixed Gaussian kernel, we propose to choose the weights by minimizing a tight upper bound of mean square error. This approach makes it possible to define the weights adapted to the function at hand, mimicking the weights of the oracle filter. Under some regularity conditions on the target image, we show that the obtained estimator converges at the usual optimal rate. The proposed algorithm is parameter free in the sense that it automatically calculates the bandwidth of the smoothing kernel. In Chapter 2, we employ the techniques of oracle estimation to explain how to determine he widths of the similarity patch and of the search window. We justify the Non-Local Means algorithm by proving its convergence under some regularity conditions on the target image. Part II. This part has two chapters. In Chapter 3, we propose an image denoising algorithm for the data contaminated by the Poisson noise. Our key innovations are : Firstly, we handle the Poisson noise directly, i. E. We do not transform Poisson distributed noise into a Gaussian distributed one with constant variance ; secondly, we get the weights of estimates by minimizing the a tight upper bound of the mean squared error. In Chapter 4, we adapt the Non-Local means to restore the images contaminated by the Poisson noise. Part III. This part is dedicated to the problem of reconstructing the image from data contaminated by mixture of Gaussian and impulse noises (Chapter 5). In Chapter 5, we modify the Rank-Ordered Absolute differences (ROAD) statistic in order to detect more effectively the impulse noise in the mixture of impulse and Gaussian noises. Combining it with the method of Optimal Weights, we obtain a new method to deal with the mixed noise, called Optimal Weights Mixed Filter. Part IV. The final part focuses on inverse problems of the flou images, and it includes Chapter 6. This chapter provides a new algorithm for solving inverse problems, based on the minimization of the L2 norm and on the control of the total variation. It consists in relaxing the role of the total variation in the classical total variation minimization approach, which permits us to get better approximation to the inverse problems. Theix numerical results on the deconvolution problem show that our method outperforms some previous ones
APA, Harvard, Vancouver, ISO, and other styles
14

Gambette, Philippe. "Méthodes combinatoires de reconstruction de réseaux phylogénétiques." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00608342.

Full text
Abstract:
Les réseaux phylogénétiques généralisent le modèle de l'arbre pour décrire l'évolution, en permettant à des arêtes entre les branches de l'arbre d'exprimer des échanges de matériel génétique entre espèces coexistantes. De nombreuses approches combinatoires - fondées sur la manipulation d'ensembles finis d'objets mathématiques - ont été conçues pour reconstruire ces réseaux à partir de données extraites de plusieurs arbres de gènes contradictoires. Elles se divisent en plusieurs catégories selon le type de données en entrée (triplets, quadruplets, clades ou bipartitions) et les restrictions de structure sur les réseaux reconstruits. Nous analysons en particulier la structure d'une classe de réseaux restreints, les réseaux de niveau k, et adaptons ce paramètre de niveau au contexte non enraciné. Nous donnons aussi de nouvelles méthodes combinatoires pour reconstruire des réseaux phylogénétiques, à partir de clades - méthode implémentée dans le logiciel Dendroscope - ou de quadruplets. Nous étudions les limites de ces méthodes combinatoires (explosion de complexité, bruit et silence dans les données, ambiguïté des réseaux reconstruits) et la façon de les prendre en compte, en particulier par un pré-traitement des données. Finalement, nous illustrons les résultats de ces méthodes de reconstruction sur des données réelles avant de conclure sur leur utilisation dans une méthodologie globale qui intègre des aspects statistiques
APA, Harvard, Vancouver, ISO, and other styles
15

Nguyen, Trong Phuc. "Techniques d'optimisation en traitement d'image et vision par ordinateur et en transport logistique." Metz, 2007. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2007/Nguyen.Trong_Phue.SMZ0719.pdf.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent les nouvelles techniques d'optimisation pour la résolution de quatre problèmes importants issus de deux domaines : transport logistique et vision et traitement d’image. Il s'agit des problèmes d'optimisation non convexe de très grande dimension pour lesquels la recherche des bonnes méthodes de résolution est toujours d'actualité. Notre travail s'appuie principalement sur la programmation DC et DCA. Cette démarche est motivée par la robustesse et la performance de la programmation DC et DCA comparées à des méthodes existantes, leur adaptation aux structures des problèmes traités et leur capacité de résoudre des problèmes industriels de grande dimension. La thèse est composée de cinq chapitres. Le premier chapitre, servant des références aux autres, présente les outils de bases de la programmation DC et DCA. Le chapitre deux porte sur le problème de conception d'une chaîne d’approvisionnement. Nous traitons ce problème par DCA via la pénalité exacte en basant sur les d'ecompositions DC appropriées et proposons une technique de recherche de bon point initial. Le chapitre trois concerne la tomographie discrète appliquée au problème de reconstruction d’image binaire. Ce problème est traité par les trois approches diffèrentes basées sur DCA. Dans le chapitre quatre, nous étudions le problème de segmentation d'image via la classification floue par DCA. L'estimation non linéaire de la matrice fondamentale en vision par ordinateur par la méthode de r´egion de confiance basée sur la méthode de gradient conjugué tronqué ou DCA est développée dans le dernier chapitre
The works presented in this thesis are related to new techniques of optimization for the solution of four important problems of two fields : transport logistics, computer vision and image processing. They are nonconvex optimization problems of very large dimensions for which the research of good solution methods is always of actuality. Our work is based mainly on the DC programming and DCA that have been successfully applied in various fields of applied sciences, including machine learning. It is motivated and justified by the robustness and the good performance of DC programming and DCA in comparison with the existing methods. The thesis is divided into five chapters. The first chapter, which serves as a reference for other chapters, presents some tools from the bases of DC programming and DCA. The second chapter discusses the problem of supply chain design at the strategic level, which can be formulated as a mixed integer linear program. We treat this problem by DC algorithms via exact penalty on the basis of suitable DC decompositions and a technique for finding a good starting point. The third chapter is concerned with the discrete tomography applied to the problem of binary image reconstruction. This problem is solved by three different approaches based on DCA. In the fourth chapter, we study the problem of image segmentation using Fuzzy C-Means clustering via DCA. A nonlinear estimate of the fundamental matrix in computer vision by the trust-region method based on the truncated conjugate gradient method or DCA is developed in the final chapter
APA, Harvard, Vancouver, ISO, and other styles
16

Prigent, Sylvain. "Complétion combinatoire pour la reconstruction de réseaux métaboliques, et application au modèle des algues brunes Ectocarpus siliculosus." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S077/document.

Full text
Abstract:
Durant cette thèse nous nous sommes attachés au développement d'une méthode globale de création de réseaux métaboliques chez des espèces biologiques non classiques pour lesquelles nous possédons peu d'informations. Classiquement cette reconstruction s'articule en trois points : la création d'une ébauche métabolique à partir d'un génome, la complétion du réseau et la vérification du résultat obtenu. Nous nous sommes particulièrement intéressés au problème d'optimisation combinatoire difficile que représente l'étape de complétion du réseau, en utilisant un paradigme de programmation par contraintes pour le résoudre : la programmation par ensemble réponse (ou ASP). Les modifications apportées à une méthode préexistante nous ont permis d'améliorer à la fois le temps de calcul pour résoudre ce problème combinatoire et la qualité de la modélisation. L'ensemble de ce processus de reconstruction de réseau métabolique a été appliqué au modèle des algues brunes, Ectocarpus siliculosus, nous permettant ainsi de reconstruire le premier réseau métabolique chez une macro-algue brune. La reconstruction de ce réseau nous a permis d'améliorer notre compréhension du métabolisme de cette espèce et d'améliorer l'annotation de son génome
In this thesis we focused on the development of a comprehensive approach to reconstruct metabolic networks applied to unconventional biological species for which we have little information. Traditionally, this reconstruction is based on three points : the creation of a metabolic draft from a genome, the completion of this draft and the verification of the results. We have been particularly interested in the hard combinatorial optimization problem represented by the gap-filling step. We used Answer Set Programming (or ASP) to solve this combinatorial problem. Changes to an existing method allowed us to improve both the computational time and the quality of modeling. This entire process of metabolic network reconstruction was applied to the model of brown algae, Ectocarpus siliculosus, allowing us to reconstruct the first metabolic network of a brown macro-algae. The reconstruction of this network allowed us to improve our understanding of the metabolism of this species and to improve annotation of its genome
APA, Harvard, Vancouver, ISO, and other styles
17

Vazquez, ortiz Karla Esmeralda. "Advanced methods to solve the maximum parsimony problem." Thesis, Angers, 2016. http://www.theses.fr/2016ANGE0015/document.

Full text
Abstract:
La reconstruction phylogénétique est considérée comme un élément central de divers domaines comme l’écologie, la biologie et la physiologie moléculaire pour lesquels les relations généalogiques entre séquences d’espèces ou de gènes, représentées sous forme d’arbres, peuvent apporter des éclairages significatifs à la compréhension de phénomènes biologiques. Le problème de Maximum de Parcimonie est une approche importante pour résoudre la reconstruction phylogénétique en se basant sur un critère d’optimalité pour lequel l’arbre comprenant le moins de mutations est préféré. Dans cette thèse nous proposons différentes méthodes pour s’attaquer à la nature combinatoire de ce problème NP-complet. Premièrement, nous présentons un algorithme de Recuit Simulé compétitif qui nous a permis de trouver des solutions de meilleure qualité pour un ensemble de problèmes. Deuxièmement, nous proposons une nouvelle technique de Path-Relinking qui semble intéressante pour comparer des arbres mais pas pour trouver des solutions de meilleure qualité. Troisièmement, nous donnons le code d’une implantation sur GPU de la fonction objectif dont l’intérêt est de réduire le temps d’exécution de la recherche pour des instances dont la longueur des séquences est importante. Finalement, nous introduisons un prédicteur capable d’estimer le score optimum pour un vaste ensemble d’instances avec une très grande précision
Phylogenetic reconstruction is considered a central underpinning of diverse fields like ecology, molecular biology and physiology where genealogical relationships of species or gene sequences represented as trees can provide the most meaningful insights into biology. Maximum Parsimony (MP) is an important approach to solve the phylogenetic reconstruction based on an optimality criterion under which the tree that minimizes the total number of genetic transformations is preferred. In this thesis we propose different methods to cope with the combinatorial nature of this NP-complete problem. First we present a competitive Simulated Annealing algorithm which helped us find trees of better parsimony score than the ones that were known for a set of instances. Second, we propose a Path-Relinking technique that appears to be suitable for tree comparison but not for finding trees of better quality. Third, we give a GPU implementation of the objective function of the problem that can reduce the runtime for instances that have an important number of residues per taxon. Finally, we introduce a predictor that is able to estimate the best parsimony score of a huge set of instances with a high accuracy
APA, Harvard, Vancouver, ISO, and other styles
18

Tairi, Souhil. "Développement de méthodes itératives pour la reconstruction en tomographie spectrale." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0160/document.

Full text
Abstract:
Depuis quelques années les détecteurs à pixels hybrides ont ouvert la voie au développement de la tomographie à rayon X spectrale ou tomodensitométrie (TDM) spectrale. La TDM spectrale permet d’extraire plus d’information concernant la structure interne de l’objet par rapport à la TDM d’absorption classique. Un de ses objectifs dans l’imagerie médicale est d’identifier et quantifier des composants d’intérêt dans un objet, tels que des marqueurs biologique appelés agents de contraste (iode, baryum, etc.). La majeure partie de l’état de l’art procède en deux étapes : - la "pré-reconstruction" qui consiste à séparer les composants dans l’espace des projections puis reconstruire, - la "post-reconstruction", qui reconstruit l’objet puis sépare les composants.On s’intéresse dans ce travail de thèse à une approche qui consiste à séparer et reconstruire simultanément les composants de l’objet. L’état de l’art des méthodes de reconstruction et séparation simultanées de données de TDM spectrale reste à ce jour peu fourni et les approches de reconstruction existantes sont limitées dans leurs performances et ne tiennent souvent pas compte de la complexité du modèle d’acquisition.L’objectif principal de ce travail de thèse est de proposer des approches de reconstruction et séparation tenant compte de la complexité du modèle afin d’améliorer la qualité des images reconstruites. Le problème à résoudre est un problème inverse, mal-posé, non-convexe et de très grande dimension. Pour le résoudre, nous proposons un algorithme proximal à métrique variable. Des résultats prometteurs sont obtenus sur des données réelles et montrent des avantages en terme de qualité de reconstruction
In recent years, hybrid pixel detectors have paved the way for the development of spectral X ray tomography or spectral tomography (CT). Spectral CT provides more information about the internal structure of the object compared to conventional absorption CT. One of its objectives in medical imaging is to obtain images of components of interest in an object, such as biological markers called contrast agents (iodine, barium, etc.).The state of the art of simultaneous reconstruction and separation of spectral CT data methods remains to this day limited. Existing reconstruction approaches are limited in their performance and often do not take into account the complexity of the acquisition model.The main objective of this thesis work is to propose better quality reconstruction approaches that take into account the complexity of the model in order to improve the quality of the reconstructed images. Our contribution considers the non-linear polychromatic model of the X-ray beam and combines it with an earlier model on the components of the object to be reconstructed. The problem thus obtained is an inverse, non-convex and misplaced problem of very large dimensions.To solve it, we propose a proximal algorithmwith variable metrics. Promising results are shown on real data. They show that the proposed approach allows good separation and reconstruction despite the presence of noise (Gaussian or Poisson). Compared to existing approaches, the proposed approach has advantages over the speed of convergence
APA, Harvard, Vancouver, ISO, and other styles
19

Weiss, Pierre. "Algorithmes rapides d'optimisation convexe : applications à la restauration d'images et à la détection de changements." Nice, 2008. http://www.theses.fr/2008NICE4032.

Full text
Abstract:
Algorithmes rapides d'optimisation convexe. Applications à la restauration d'images et à la détection de changements. Cette thèse contient des contributions en analyse numérique et en vision par ordinateur. Dans une première partie, nous nous intéressons à la résolution rapide, par des méthodes de premier ordre, de problèmes d'optimisation convexe. Ces problèmes apparaissent naturellement dans de nombreuses tâches telles que la reconstruction d'images, l'échantillonnage compressif ou la décomposition d'images en texture et en géométrie. Ils ont la particularité d'être non différentiables ou très mal conditionnés. On montre qu'en utilisant des propriétés fines des fonctions à minimiser on peut obtenir des algorithmes de minimisation extrêmement efficaces. On analyse systématiquement leurs taux de convergence en utilisant des résultats récents dus à Y. Nesterov. Les méthodes proposées correspondent - à notre connaissance - à l'état de l'art des méthodes de premier ordre. Dans une deuxième partie, nous nous intéressons au problème de la détection de changements entre deux images satellitaires prises au même endroit à des instants différents. Une des difficultés principales à surmonter pour résoudre ce problème est de s'affranchir des conditions d'illuminations différentes entre les deux prises de vue. Ceci nous mène à l'étude de l'invariance aux changements d'illuminations des lignes de niveau d'une image. On caractérise complètement les scènes qui fournissent des lignes de niveau invariantes. Celles-ci correspondent assez bien à des milieux urbains. On propose alors un algorithme simple de détection de changements qui fournit des résultats très satisfaisants sur des image synthétiques et des images Quickbird réelles
This PhD contains contributions in numerical analysis and in computer vision. The talk will be divided in two parts. In the first part, we will focus on the fast resolution, using first order methods, of convex optimization problems. Those problems appear naturally in many image processing tasks like image reconstruction, compressed sensing or texture+cartoon decompositions. They are generally non differentiable or ill-conditioned. We show that they can be solved very efficiently using fine properties of the functions to be minimized. We analyze in a systematic way their convergence rate using recent results due to Y. Nesterov. To our knowledge, the proposed methods correspond to the state of the art of the first order methods. In the second part, we will focus on the problem of change detection between two remotely sensed images taken from the same location at two different times. One of the main difficulty to solve this problem is the differences in the illumination conditions between the two shots. This leads us to study the level line illumination invariance. We completely characterize the 3D scenes which produce invariant level lines. We show that they correspond quite well to urban scenes. Then we propose a variational framework and a simple change detection algorithm which gives satisfying results both on synthetic OpenGL scenes and real Quickbird images
APA, Harvard, Vancouver, ISO, and other styles
20

Jolivet, Frederic. "Approches "problèmes inverses" régularisées pour l'imagerie sans lentille et la microscopie holographique en ligne." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES012/document.

Full text
Abstract:
En imagerie numérique, les approches «problèmes inverses» régularisées reconstruisent une information d'intérêt à partir de mesures et d'un modèle de formation d'image. Le problème d'inversion étant mal posé, mal conditionné et le modèle de formation d'image utilisé peu contraint, il est nécessaire d'introduire des a priori afin de restreindre l'ambiguïté de l'inversion. Ceci permet de guider la reconstruction vers une solution satisfaisante. Les travaux de cette thèse ont porté sur le développement d'algorithmes de reconstruction d'hologrammes numériques, basés sur des méthodes d'optimisation en grande dimension (lisse ou non-lisse). Ce cadre général a permis de proposer différentes approches adaptées aux problématiques posées par cette technique d'imagerie non conventionnelle : la super­-résolution, la reconstruction hors du champ du capteur, l'holographie «couleur» et enfin la reconstruction quantitative d'objets de phase (c.a.d. transparents). Dans ce dernier cas, le problème de reconstruction consiste à estimer la transmittance complexe 2D des objets ayant absorbé et/ou déphasé l'onde d'éclairement lors de l'enregistrement de l'hologramme. Les méthodes proposées sont validées à l'aide de simulations numériques puis appliquées sur des données expérimentales issues de l'imagerie sans lentille ou de la microscopie holographique en ligne (imagerie cohérente en transmission, avec un objectif de microscope). Les applications vont de la reconstruction de mires de résolution opaques à la reconstruction d'objets biologiques (bactéries), en passant par la reconstruction de gouttelettes d'éther en évaporation dans le cadre d'une étude de la turbulence en mécanique des fluides
In Digital Imaging, the regularized inverse problems methods reconstruct particular information from measurements and an image formation model. With an inverse problem that is ill-posed and ill­conditioned, and with the used image formation mode! having few constraints, it is necessary to introduce a priori conditions in order to restrict ambiguity for the inversion. This allows us to guide the reconstruction towards a satisfying solution. The works of the following thesis delve into the development of reconstruction algorithms of digital holograms based on large-scale optimization methods (smooth and non-smooth). This general framework allowed us to propose different approaches adapted to the challenges found with this unconventional imaging technique: the super-resolution, reconstruction outside the sensor's field, the color holography and finally, the quantitative reconstruction of phase abjects (i.e. transparent). For this last case, the reconstruction problem consists of estimating the complex 2D transmittance of abjects having absorbed and/or dephased the light wave during the recording of the hologram. The proposed methods are validated with the help of numerical simulations that are then applied on experimental data taken from the lensless imaging or from the in-line holographie microscopy (coherent imaging in transmission, with a microscope abject glass). The applications range from the reconstruction of opaque resolution sights, to the reconstruction of biological objects (bacteria), passing through the reconstruction of evaporating ether droplets from a perspective of turbulence study in fluid mechanics
APA, Harvard, Vancouver, ISO, and other styles
21

Gaullier, Gil. "Modèles déformables contraints en reconstruction d'images de tomographie non linéaire par temps d'arrivée." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAD026/document.

Full text
Abstract:
La reconstruction tomographique par temps de première arrivée est rendue difficile par son caractère mal posé et par la non-linéarité du problème direct associé. Dans cette thèse, on se propose d'employer un modèle déformable, permettant d'introduire un a priori global sur la forme des objets à reconstruire, pour obtenir des solutions plus stables et de meilleure qualité. Dans un premier temps, nous introduisons des contraintes de forme de haut niveau en reconstruction tomographique d'émission, modalité où le problème direct est linéaire. Dans un second temps, différentes stratégies de résolution du problème non linéaire de reconstruction en temps d'arrivée sont envisagées. La solution retenue approche le problème direct par une suite de problèmes linéaires, conduisant à un algorithme par minimisations successives simples, au coursdesquelles l'a priori de forme est introduit. L'efficacité de la méthode est montrée en simulation et à partir de données réelles, acquises sur un banc développé par l'IFSTTAR pour le contrôle non destructif de structures de génie civil
Image reconstruction from first time arrival is a difficult task due to its ill-posedness nature and to the non linearity of the direct problem associated. In this thesis, the purpose is to use a deformable model because it enables to introduce a global shape prior on the objects to reconstruct, which leads to more stable solutions with better quality. First, high level shape constraints are introduced in Computerized Tomography for which the direct problem is linear. Secondly, different strategies to solve the image reconstruction problem with a non linearity hypothesis are considered. The chosen strategy approximates the direct problem by a series of linear problems, which leads to a simple successive minimization algorithm with the introduction of the shape prior along the minimization. The efficiency of the method is demonstrated for simulated data as for real data obtained from a specific measurement device developped by IFSTTAR for non destructive evaluation of civil engineering structures
APA, Harvard, Vancouver, ISO, and other styles
22

Peyrot, Jean-Luc. "Optimisation de la chaîne de numérisation 3D : de la surface au maillage semi-régulier." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4126/document.

Full text
Abstract:
La numérisation 3D permet de générer des représentations numériques très réalistes et fidèles géométriquement aux surfaces réelles. Cependant, cette fidélité géométrique, obtenue à l'aide d'un sur-échantillonnage de surfaces, augmente considérablement le volume de données générées. Les maillages ainsi produits sont donc très denses, et peu adaptés aux différents supports de visualisation, de transfert, de stockage, etc. La représentation semi-régulière des surfaces permet de diminuer le volume nécessaire à la représentation de ces maillages denses, et possède des qualités bien connues en matière de représentations multi-échelles et de compression. Cette thèse a pour objectif d'optimiser la chaîne de numérisation 3D classique en améliorant l'échantillonnage des surfaces tout en conservant la fidélité géométrique, et en court-circuitant les étapes fastidieuses qui conduisent à une représentation semi-régulière. Pour cela, nous avons intégré dans un système stéréoscopique, l'échantillonnage en disques de Poisson qui, grâce à ses propriétés de bruit bleu, réalise un bon compromis entre sous- et sur-échantillonnage. Ensuite, nous avons généré un mailleur semi-régulier, qui travaille directement sur les images stéréoscopiques, et non sur une version remaillée des nuages de points habituellement générés par ces systèmes. Les résultats expérimentaux montrent que ces deux contributions génèrent de façon efficace des représentations semi-régulières, qui sont géométriquement fidèles aux surfaces réelles, tout en réduisant le volume de données générées
Nowadays, 3D digitization systems generate numeric representations that are both realistic and of high geometric accuracy with respect to real surfaces. However, this geometric accuracy, obtained by oversampling surfaces, increases significantly the generated amount of data. Consequently, the resulting meshes are very dense, and not suitable to be visualized, transmitted or even stored efficiently. Nevertheless, the semi-regular representation due to its scalable and compact representation, overcomes this problem. This thesis aims at optimizing the classic 3D digitization chain, by first improving the sampling of surfaces while preserving geometric features, and secondly shortening the number of required treatments to obtain such semi-regular meshes. To achieve this goal, we integrated in a stereoscopic system the Poisson-disk sampling that realizes a good tradeoff between undersampling and oversampling, thanks to its blue noise properties. Then, we produced a semi-regular meshing technique that directly works on the stereoscopic images, and not on a meshed version of point clouds, which are usually generated by such 3D scanners. Experimental results prove that our contributions efficiently generate semi-regular representations, which are accurate with respect to real surfaces, while reducing the generated amount of data
APA, Harvard, Vancouver, ISO, and other styles
23

Sghaier, Maissa. "Clinical-task based reconstruction in Digital Breast Tomosynthesis." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG040.

Full text
Abstract:
La reconstruction en tomosynthèse numérique du sein est considérée comme un problème inverse, pour lequel les méthodes itératives régularisées permettent de fournir une bonne qualité d'image. Bien que la tâche clinique joue un rôle crucial lors de l’examen des images par le radiologue, elle n'a pas été jusqu'à présent directement prise en compte dans le processus de reconstruction des images de tomosynthèse. Dans cette thèse, nous introduisons une nouvelle formulation variationnelle de la reconstruction des images en tomosynthèse numérique du sein qui intègre la tâche clinique du radiologue, notamment la détection des microcalcifications. Le but de cette approche est de permettre à la fois le rehaussement de la détectabilité des microcalcifications et une restauration de bonne qualité des tissus mammaires.Tout d'abord, nous proposons une nouvelle approche qui vise à rehausser la détectabilité des microcalcifications. Nous formulons une nouvelle fonction de détectabilité inspirée d’observateurs mathématiques. Nous l’intégrons, par la suite, dans une fonction objectif minimisée par un algorithme de reconstruction dédié. Nous montrons finalement l'intérêt de notre approche à l'égard des méthodes standards de reconstruction. Dans une deuxième partie, nous introduisons une nouvelle régularisation, Spatially Adaptive Total Variation (SATV), en complément de la fonction de détectabilité dans le problème de reconstruction en tomosynthèse. Nous proposons une formulation originale où l’opérateur de gradient est remplacé par un opérateur adaptatif appliqué à l'image qui incorpore efficacement la connaissance a priori relative à la localisation de petits objets. Ensuite, nous dérivons notre régularisation SATV et l'intégrons dans une nouvelle approche de reconstruction. Les résultats expérimentaux montrent que SATV est une piste prometteuse pour améliorer les méthodes de régularisation de l’état de l'art. Dans une troisième partie, nous étudions l'application de l’algorithme de Majoration-Minimisation à Mémoire de Gradient (3MG) à notre problème de reconstruction. Dans le but d’accroître sa vitesse de convergence, nous proposons deux améliorations numériques. Dès lors, les performances numériques sont évaluées en comparant la vitesse de convergence de la méthode proposée avec celles d'algorithmes d'optimisation convexe concurrents. La dernière partie de la thèse porte sur l'évaluation quantitative des contributions de l'approche de reconstruction proposée en tomosynthèse numérique du sein. Nous menons une étude de lecture d'images impliquant quatorze lecteurs dont neuf radiologues avec différents niveaux d'expertise et cinq experts en mammographie de GE Healthcare. Les résultats démontrent l'intérêt de notre approche de reconstruction par rapport à l'approche standard non-régularisée selon des critères visuels spécifiques
The reconstruction of a volumetric image from Digital Breast Tomosynthesis (DBT)measurements is an ill-posed inverse problem, for which existing iterative regularizedapproaches can provide a good solution. However, the clinical task is somehow omittedin the derivation of those techniques, although it plays a primary role in the radiologistdiagnosis. In this work, we address this issue by introducing a novel variational formulationfor DBT reconstruction. Our approach is tailored for a specific clinical task, namely the detection of microcalcifications. Our method aims at simultaneously enhancing the detectionperformance and enabling a high-quality restoration of the background breast tissues.First, we propose an original approach aiming at enhancing the detectability of microcalcifications in DBT reconstruction. Thus, we formulate a detectability function inspired from mathematical model observers. Then, we integrate it in a cost function which is minimized for 3D reconstruction of DBT volumes. Experimental results demonstrate the interest of our approach in terms of microcalcification detectability.In a second part, we introduce the Spatially Adaptive Total Variation (SATV) as a new regularization strategy applied to DBT reconstruction, in addition to the detectability function. Hence, an original formulation for the weighted gradient field is introduced, that efficiently incorporates prior knowledge on the location of small objects. Then, we derive our SATV regularization, and incorporate it in our proposed 3D reconstruction approach for DBT. We carry out several experiments, in which SATV regularizer shows a promising improvement with respect to state-of-the-art regularization methods.Third, we investigate the application of Majorize Minimize Memory Gradient (3MG) algorithm to our proposed reconstruction approach. Thus, we suggest two numerical improvements to boost the speed of the reconstruction scheme. Then, we assess the numerical performance of 3MG by comparing the convergence speed of the proposed method with state-of-the-art convex optimization algorithms.The last part of this thesis is focused on the quantitative assessment of the contribution of our proposed DBT reconstruction. Thus, we conduct a visual experiment trial involving fourteen readers including nine radiologists with different levels of expertise and five GE Healthcare experts in mammography. According to specific visual criteria, the results show the outperformance of our proposed reconstruction approach over the standard non-regularized least squares solution
APA, Harvard, Vancouver, ISO, and other styles
24

El, Bitar Ziad. "Optimisation et validation d'un algorithme de reconstruction 3D en tomographie d'émission monophotonique à l'aide de la plateforme de simulation GATE." Clermont-Ferrand 2, 2006. http://www.theses.fr/2006CLF21704.

Full text
Abstract:
Les simulations de Monte-Carlo, bien que consommatrices en temps de calcul, restent un outil puissant qui permet d'évaluer les méthodes de correction des effets physiques en imagerie médicale. Nous avons optimisé et validé une méthode de reconstruction baptisée F3DMC (Fully3D Monte CARLO) dans laquelle les effets physiques perturbant le processus de formation de l'image en tomographie d'émission monophotonique sont modélisés par des méthodes de Monte-Carlo et intégrés dans la matrice-système. Le logiciel de simulation de Monte-Carlo utilidé est GATE. Nous avons validé GATE en SPECT en modélisant la gamma-caméra (Philips AXIS) utilisé en routine clinique. Des techniques de seuillage, filtrage par analyse en composantes principales et de reconstruction ciblée (régions fonctionnelles, région hybrides) ont été testées pour améliorer la précision de la matrice-système et réduire le nombre de photons ainsi que le temps de calcul nécessaires. Les infrastructures de la grille EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul. Les résultats obtenus avec F3DMC sont comparés avec les méthodes de reconstruction (FBP,ML-EM,ML-EMC) pour un fantôme simulé et avec la méthode OSEM-C pour un fantôme réel
APA, Harvard, Vancouver, ISO, and other styles
25

Zhang, Naiyu. "Cellular GPU Models to Euclidean Optimization Problems : Applications from Stereo Matching to Structured Adaptive Meshing and Traveling Salesman Problem." Thesis, Belfort-Montbéliard, 2013. http://www.theses.fr/2013BELF0215/document.

Full text
Abstract:
Le travail présenté dans ce mémoire étudie et propose des modèles de calcul parallèles de type cellulaire pour traiter différents problèmes d’optimisation NP-durs définis dans l’espace euclidien, et leur implantation sur des processeurs graphiques multi-fonction (Graphics Processing Unit; GPU). Le but est de pouvoir traiter des problèmes de grande taille tout en permettant des facteurs d’accélération substantiels à l’aide du parallélisme massif. Les champs d’application visés concernent les systèmes embarqués pour la stéréovision de même que les problèmes de transports définis dans le plan, tels que les problèmes de tournées de véhicules. La principale caractéristique du modèle cellulaire est qu’il est fondé sur une décomposition du plan en un nombre approprié de cellules, chacune comportant une part constante de la donnée, et chacune correspondant à une unité de calcul (processus). Ainsi, le nombre de processus parallèles et la taille mémoire nécessaire sont en relation linéaire avec la taille du problème d’optimisation, ce qui permet de traiter des instances de très grandes tailles.L’efficacité des modèles cellulaires proposés a été testée sur plateforme parallèle GPU sur quatre applications. La première application est un problème d’appariement d’images stéréo. Elle concerne la stéréovision couleur. L’entrée du problème est une paire d’images stéréo, et la sortie une carte de disparités représentant les profondeurs dans la scène 3D. Le but est de comparer des méthodes d’appariement local selon l’approche winner-takes-all et appliquées à des paires d’images CFA (color filter array). La deuxième application concerne la recherche d’améliorations de l’implantation GPU permettant de réaliser un calcul quasi temps-réel de l’appariement. Les troisième et quatrième applications ont trait à l’implantation cellulaire GPU des réseaux neuronaux de type carte auto-organisatrice dans le plan. La troisième application concerne la génération de maillages structurés appliquée aux cartes de disparité afin de produire des représentations compressées des surfaces 3D. Enfin, la quatrième application concerne le traitement d’instances de grandes tailles du problème du voyageur de commerce euclidien comportant jusqu’à 33708 villes.Pour chacune des applications, les implantations GPU permettent une accélération substantielle du calcul par rapport aux versions CPU, pour des tailles croissantes des problèmes et pour une qualité de résultat obtenue similaire ou supérieure. Le facteur d’accélération GPU par rapport à la version CPU est d’environ 20 fois plus vite pour la version GPU sur le traitement des images CFA, cependant que le temps de traitement GPU est d’environ de 0,2s pour une paire d’images de petites tailles de la base Middlebury. L’algorithme amélioré quasi temps-réel nécessite environ 0,017s pour traiter une paire d’images de petites tailles, ce qui correspond aux temps d’exécution parmi les plus rapides de la base Middlebury pour une qualité de résultat modérée. La génération de maillages structurés est évaluée sur la base Middlebury afin de déterminer les facteurs d’accélération et qualité de résultats obtenus. Le facteur d’accélération obtenu pour l’implantation parallèle des cartes auto-organisatrices appliquée au problème du voyageur de commerce et pour l’instance avec 33708 villes est de 30 pour la version parallèle
The work presented in this PhD studies and proposes cellular computation parallel models able to address different types of NP-hard optimization problems defined in the Euclidean space, and their implementation on the Graphics Processing Unit (GPU) platform. The goal is to allow both dealing with large size problems and provide substantial acceleration factors by massive parallelism. The field of applications concerns vehicle embedded systems for stereovision as well as transportation problems in the plane, as vehicle routing problems. The main characteristic of the cellular model is that it decomposes the plane into an appropriate number of cellular units, each responsible of a constant part of the input data, and such that each cell corresponds to a single processing unit. Hence, the number of processing units and required memory are with linear increasing relationship to the optimization problem size, which makes the model able to deal with very large size problems.The effectiveness of the proposed cellular models has been tested on the GPU parallel platform on four applications. The first application is a stereo-matching problem. It concerns color stereovision. The problem input is a stereo image pair, and the output a disparity map that represents depths in the 3D scene. The goal is to implement and compare GPU/CPU winner-takes-all local dense stereo-matching methods dealing with CFA (color filter array) image pairs. The second application focuses on the possible GPU improvements able to reach near real-time stereo-matching computation. The third and fourth applications deal with a cellular GPU implementation of the self-organizing map neural network in the plane. The third application concerns structured mesh generation according to the disparity map to allow 3D surface compressed representation. Then, the fourth application is to address large size Euclidean traveling salesman problems (TSP) with up to 33708 cities.In all applications, GPU implementations allow substantial acceleration factors over CPU versions, as the problem size increases and for similar or higher quality results. The GPU speedup factor over CPU was of 20 times faster for the CFA image pairs, but GPU computation time is about 0.2s for a small image pair from Middlebury database. The near real-time stereovision algorithm takes about 0.017s for a small image pair, which is one of the fastest records in the Middlebury benchmark with moderate quality. The structured mesh generation is evaluated on Middlebury data set to gauge the GPU acceleration factor and quality obtained. The acceleration factor for the GPU parallel self-organizing map over the CPU version, on the largest TSP problem with 33708 cities, is of 30 times faster
APA, Harvard, Vancouver, ISO, and other styles
26

Shabou, Aymen. "Minimisation multi-étiquette d'énergies markoviennes par coupe-minimum sur graphe : application à la reconstruction de la phase interférométrique en imagerie RSO." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00565362.

Full text
Abstract:
Les approches markoviennes en imagerie et vision par ordinateur offrent un cadre mathématique élégant pour résoudre certains problèmes complexes. Le plus souvent, la fonction d'énergie globale modélisant le problème demeure difficile à minimiser. La première contribution de cette thèse consiste alors à proposer des algorithmes d'optimisation efficace de la classe d'énergies markoviennes multi-étiquettes de premier ordre ayant une attache aux données quelconque et un a priori convexe. Les algorithmes proposés reposent sur la technique de coupe-minimum sur graphe et des stratégies d'optimisation itérative par des nouveaux mouvements de partitions larges et multi-étiquettes, qui permettent d'avoir un compromis entre la qualité de l'optimum atteint et la complexité algorithmique. Le cadre applicatif principal de cette thèse est la reconstruction du relief par interférométrie radar à synthèse d'ouverture. Cette méthode de calcul de modèles numériques de terrain est confrontée le plus souvent à la nature très bruitée des données radar et aussi à la complexité des scènes naturelles et urbaines à reconstruire et à leur grande dimension. Ainsi, la seconde contribution de ces travaux de thèse consiste à proposer des modèles markoviens robustes face à la diversité des scènes à reconstruire dans le cas général et des algorithmes d'optimisation qui leur sont appropriés. L'approche générale est testée et validée sur un jeu de données radar synthétiques et réelles (ERS et ESAR).
APA, Harvard, Vancouver, ISO, and other styles
27

Shabou, Aymen. "Minimisation multi-étiquette d'énergies markoviennes par coupe-minimum sur graphe : application à la reconstruction de la phase interférométrique en imagerie RSO." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00565362.

Full text
Abstract:
Les approches markoviennes en imagerie et vision par ordinateur offrent un cadre mathématique élégant pour résoudre certains problèmes complexes. Le plus souvent, la fonction d'énergie globale modélisant le problème demeure difficile à minimiser. La première contribution de cette thèse consiste alors à proposer des algorithmes d'optimisation efficace de la classe d'énergies markoviennes multi-étiquettes de premier ordre ayant une attache aux données quelconque et un a priori convexe. Les algorithmes proposés reposent sur la technique de coupe-minimum sur graphe et des stratégies d'optimisation itérative par des nouveaux mouvements de partitions larges et multi-étiquettes, qui permettent d'avoir un compromis entre la qualité de l'optimum atteint et la complexité algorithmique. Le cadre applicatif principal de cette thèse est la reconstruction du relief par interférométrie radar à synthèse d'ouverture. Cette méthode de calcul de modèles numériques de terrain est confrontée le plus souvent à la nature très bruitée des données radar et aussi à la complexité des scènes naturelles et urbaines à reconstruire et à leur grande dimension. Ainsi, la seconde contribution de ces travaux de thèse consiste à proposer des modèles markoviens robustes face à la diversité des scènes à reconstruire dans le cas général et des algorithmes d'optimisation qui leur sont appropriés. L'approche générale est testée et validée sur un jeu de données radar synthétiques et réelles (ERS et ESAR)
The MRF in computer vision and image analysis is a powerful framework for solving complex problems using the MAP estimation. However, some image processing problems deal with high dimensional data and require non-convex MRF energy functions. Thus, optimization process becomes a hard task. The first contribution of this thesis is developing new efficient optimization algorithms for the class of the first order multi-label MRF energies with any likelihood terms and convex prior. The proposed algorithms rely on the graph-cut technique, and iterative strategies based on large and multi-label partition moves. These algorithms offer a trade-off between optimum quality and algorithm complexity. The main application of this work is the digital elevation model (DEM) estimation using interferometric synthetic aperture radar (InSAR) data. This problem is usually considered as a complex and an ill-posed one, because of the high noise rate affecting interferograms and the complex structures qualifying real natural and urban area. So, the second contribution of this work is developing new MRF models relying on the multichannel interferometric likelihood density function and the total variation regularization. Appropriate optimization algorithms are then proposed. The new approach is applied to synthetic and real InSAR data showing better performances than the state of the art techniques
APA, Harvard, Vancouver, ISO, and other styles
28

Goëffon, Adrien. "Nouvelles heuristiques de voisinage et mémétiques pour le problème Maximum de Parcimonie." Phd thesis, Université d'Angers, 2006. http://tel.archives-ouvertes.fr/tel-00256670.

Full text
Abstract:
La reconstruction phylogénétique vise à reconstituer l'histoire évolutive d'un ensemble d'espèces sous forme d'un arbre. Parmi les méthodes de reconstruction, le problème Maximum de Parcimonie (MP) consiste à trouver un arbre binaire dont les feuilles sont associées à des séquences de caractères données, et qui minimise le score de parcimonie. Les méthodes de résolution existantes de ce problème NP-complet s'attachent généralement à appliquer des méthodes heuristiques traditionnelles, comme des algorithmes gloutons et de recherche locale. L'une des diffcultés du problème repose sur la manipulation d'arbres et la définition de voisinages d'arbres.
Dans cette thèse, nous nous intéressons en premier lieu à l'amélioration des techniques de résolution du problème MP basées sur un algorithme de descente. Après avoir montré de manière empirique les limites des voisinages existants, nous introduisons un voisinage progressif qui évolue au cours de la recherche afin de limiter l'évaluation de voisins infructueux lors d'une descente. L'algorithme obtenu est ensuite hybridé à un algorithme génétique utilisant un croisement d'arbres spécifique fondé sur les mesures de distance entre chaque couple d'espèces dans l'arbre. Cet algorithme mémétique exhibe des résultats très compétitifs, tant sur des jeux de test tirés de la littérature que sur des jeux générés aléatoirement.
APA, Harvard, Vancouver, ISO, and other styles
29

Carquet, Marie. "Approches combinatoires pour la reconstruction d'une voie de biosynthèse chez la levure : variation des niveaux d'expression et analyse fonctionnelle d'une étape clé de la voie." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0024/document.

Full text
Abstract:
Afin d’optimiser la production d’un composé d’intérêt tout en évitant les conséquences néfastes sur la viabilité cellulaire, un défi majeur de l’ingénierie métabolique est d’obtenir un équilibre entre les flux métaboliques endogènes de la cellule et le flux consommé par une nouvelle voie de biosynthèse. Dans ce contexte d’optimisation, les stratégies combinatoires génèrent une diversité de voies métaboliques et de modes de régulation rassemblant de précieuses informations quant aux choix d’orientations stratégiques à faire. Notre étude s’inscrit dans un projet visant à produire les molécules responsables de l’arôme, de la couleur et du parfum du safran (Crocus sativus) chez Saccharomyces cerevisiae. Une approche combinatoire a été adoptée pour moduler les niveaux d’expression de trois gènes menant à la synthèse de leur précurseur commun : la zéaxanthine. Cette stratégie nous a permis de décrire des biais inattendus dans la régulation des niveaux d’expression des gènes exprimés sur plasmide. Nous avons détecté une forte interférence transcriptionnelle entre les gènes dans notre système, ainsi qu’une influence de la nature des séquences codantes. Ces éléments, identifiés comme critiques, imposent sur les niveaux d’expression des trois gènes une régulation plus importante que la force des promoteurs qui les contrôlent. Afin de poursuivre le projet vers son objectif final, la réaction de clivage de la zéaxanthine menant à la synthèse des composés d’intérêt du safran a fait l’objet d’une analyse fonctionnelle détaillée. Une absence d’activité de l’enzyme décrite dans la littérature comme responsable de cette réaction nous a conduits à proposer des perspectives d’ingénierie pour atteindre l’objectif final du projet
To optimize the production of a value added compound while avoiding toxic consequences on the cell viability, a challenge in the metabolic engineering field is to balance the endogenous metabolic fluxes and the newly consumed fluxes. In this optimization context, combinatorial strategies can generate several variants of synthetic metabolic pathways. This strategy gives precious strategic information on the right combinations of function and regulation choices to be made in the ultimate pathway reconstruction. Our study aimed at the production of the molecules responsible for aroma, dye, and fragrance of saffron (Crocus sativus) in Saccharomyces cerevisiae. A combinatorial approach was chosen to modulate expression levels of three genes involved in their common precursor biosynthesis: zeaxanthin. This strategy allowed us to describe some unexpected bias in the regulation of the plasmid-encoded genes expression levels. We detected strong transcriptional interference between the different genes in our system, and the ORF nature also seemed to influence the expression levels. These critical factors imposed a stronger regulation of the three genes expression levels than the promoter strength initially chosen to control them. The project was continued toward its final objective by making a detailed functional analysis of the zeaxanthin cleavage reaction leading to the molecules of interest synthesis. This reaction was described to be catalyzed by a specific enzyme, but no activity was observed in our experiments. This result led us to propose some tools to reach the final goal of the project
APA, Harvard, Vancouver, ISO, and other styles
30

Klaine, Luc. "Filtrage et restauration myopes des images numériques." Rennes 1, 2004. http://www.theses.fr/2004REN10161.

Full text
Abstract:
Les images numériques sont souvent dégradées par un flou et/ou un bruit lors de l'acquisition. L'objectif de cette thèse est de contribuer à un système adaptatif de restauration des images pour en faciliter l'exploitation. La première partie est un travail de synthèse sur les méthodes de filtrage (classiques, semi-automatiques) et de restauration (variationelles). Le contexte est myope car le bruit inconnu est supposé additif, multiplicatif ou impulsionnel. Le seconde partie reprend le schéma des méthodes semi-automatiques. La recherche des zones homogènes est optimisée à partir des critères d'évaluation de la méthode. Les statistiques locales sont intégrées pour améliorer l'identification de la nature du bruit et l'estimation de sa variance. Le filtrage est basé sur la resolution numérique d'une équation d'évolution, le filtre de Lee et des statistiques locales adaptatives. Les statistiques locales et l'optimisation de l'erreur quadratique moyenne sont reprises pour la restauration.
APA, Harvard, Vancouver, ISO, and other styles
31

Galindo, Patricio A. "Image matching for 3D reconstruction using complementary optical and geometric information." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0007/document.

Full text
Abstract:
L’appariement d’images est un sujet central de recherche en vision par ordinateur. La recherche sur cette problématique s’est longuement concentrée sur ses aspects optiques, mais ses aspects géométriques ont reçu beaucoup moins d’attention. Cette thèse promeut l’utilisation de la géométrie pour compléter les informations optique dans les tâches de mise en correspondance d’images. Tout d’abord, nous nous penchons sur les méthodes globales pour lesquelles les occlusions et arêtes vives posent des défis. Dans ces scenarios, le résultat est fortement dépendant de la contribution du terme de régularisation. À l'aide d’une caractérisation géométrique de ce comportement, nous formulons une méthode d’appariement qui dirige les lignes de la grille loin des régions problématiques. Bien que les méthodes variationnelles fournissent des résultats qui se comportent bien en général, les méthodes locales basées sur la propagation de correspondances fournissent des résultats qui s’adaptent mieux à divers structures 3D mais au détriment de la cohérence globale de la surface reconstruite. Par conséquent, nous présentons une nouvelle méthode de propagation guidée par des reconstructions locales de surface
AbstractImage matching is a central research topic in computer vision which has been mainly focused on optical aspects. The aim of the work presented herein consists in the direct use of geometry to complement optical information in the tasks of 2D matching. First, we focus on global methods based on the calculus of variations. In such methods occlusions and sharp features raise difficult challenges. In these scenarios only the contribution of the regularizer accounts for results. Based on a geometric characterization of this behaviour, we formulate a variational matching method that steers grid lines away from problematic regions. While variational methods provide well behaved results, local methods based on match propagation provide results that adapt closely to varying 3D structures although choppy in nature. Therefore, we present a novel method to propagate matches using local information about surface regularity correcting 3D positions along with corresponding 2D matchings
APA, Harvard, Vancouver, ISO, and other styles
32

Soubies, Emmanuel. "Sur quelques problèmes de reconstruction en imagerie MA-TIRF et en optimisation parcimonieuse par relaxation continue exacte de critères pénalisés en norme-l0." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4082/document.

Full text
Abstract:
Cette thèse s'intéresse à deux problèmes rencontrés en traitement du signal et des images. Le premierconcerne la reconstruction 3D de structures biologiques à partir d'acquisitions multi-angles enmicroscopie par réflexion totale interne (MA-TIRF). Dans ce contexte, nous proposons de résoudre leproblème inverse avec une approche variationnelle et étudions l'effet de la régularisation. Une batteried'expériences, simples à mettre en oeuvre, sont ensuite proposées pour étalonner le système et valider lemodèle utilisé. La méthode proposée s'est montrée être en mesure de reconstruire avec précision unéchantillon phantom de géométrie connue sur une épaisseur de 400 nm, de co-localiser deux moléculesfluorescentes marquant les mêmes structures biologiques et d'observer des phénomènes biologiquesconnus, le tout avec une résolution axiale de l'ordre de 20 nm. La deuxième partie de cette thèseconsidère plus précisément la régularisation l0 et la minimisation du critère moindres carrés pénalisé (l2-l0) dans le contexte des relaxations continues exactes de cette fonctionnelle. Nous proposons dans unpremier temps la pénalité CEL0 (Continuous Exact l0) résultant en une relaxation de la fonctionnelle l2-l0 préservant ses minimiseurs globaux et pour laquelle de tout minimiseur local on peut définir unminimiseur local de l2-l0 par un simple seuillage. Par ailleurs, nous montrons que cette relaxation éliminedes minimiseurs locaux de la fonctionnelle initiale. La minimisation de cette fonctionnelle avec desalgorithmes d'optimisation non-convexe est ensuite utilisée pour différentes applications montrantl'intérêt de la minimisation de la relaxation par rapport à une minimisation directe du critère l2-l0. Enfin,une vue unifiée des pénalités continues de la littérature est proposée dans ce contexte de reformulationexacte du problème
This thesis is devoted to two problems encountered in signal and image processing. The first oneconcerns the 3D reconstruction of biological structures from multi-angle total interval reflectionfluorescence microscopy (MA-TIRF). Within this context, we propose to tackle the inverse problem byusing a variational approach and we analyze the effect of the regularization. A set of simple experimentsis then proposed to both calibrate the system and validate the used model. The proposed method hasbeen shown to be able to reconstruct precisely a phantom sample of known geometry on a 400 nmdepth layer, to co-localize two fluorescent molecules used to mark the same biological structures andalso to observe known biological phenomena, everything with an axial resolution of 20 nm. The secondpart of this thesis considers more precisely the l0 regularization and the minimization of the penalizedleast squares criteria (l2-l0) within the context of exact continuous relaxations of this functional. Firstly,we propose the Continuous Exact l0 (CEL0) penalty leading to a relaxation of the l2-l0 functional whichpreserves its global minimizers and for which from each local minimizer we can define a local minimizerof l2-l0 by a simple thresholding. Moreover, we show that this relaxed functional eliminates some localminimizers of the initial functional. The minimization of this functional with nonsmooth nonconvexalgorithms is then used on various applications showing the interest of minimizing the relaxation incontrast to a direct minimization of the l2-l0 criteria. Finally we propose a unified view of continuouspenalties of the literature within this exact problem reformulation framework
APA, Harvard, Vancouver, ISO, and other styles
33

Rani, Kaddour. "Stratégies d’optimisation des protocoles en scanographie pédiatrique." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0282/document.

Full text
Abstract:
Depuis le début des années soixante-dix, le nombre de scanners par hôpitaux n’a fait qu’augmenter et leur utilisation est de plus en plus fréquente. Même si cette technique permet de donner des informations cliniques précieuses, elle a un revers qui est l’exposition du patient à des rayonnements ionisants. La sensibilité des enfants aux rayonnements est plus grande que celle des adultes, les enfants ont une espérance de vie importante et ont donc plus de risques de développer des cancers dans le futur. Il y a donc nécessité de tenter de réduire la dose au patient. Cette thèse vise donc à développer des stratégies d’optimisation sur les protocoles cliniques en utilisant des méthodes de simulation et de modélisation permettant de comprendre l’influence des paramètres des protocoles sur les indicateurs de qualité d’image et sur la dose délivrée au patient. Ce travail se divise en quatre parties: La première partie porte sur la modélisation de l’influence des paramètres des protocoles scanographiques sur deux indicateurs de qualité d’image et un indicateur de dose en utilisant la méthodologie des plans d’expériences. La seconde partie traite du développement d’un Protocole Générique Optimisé (PGO) pour la région de l’abdomen. A partir des données des modèles développés, un PGO recalculé pour cinq morphologies de patients pédiatriques et pour quatre modèles de scanners a été réalisé. L’ensemble des résultats, ont permis le développement d’un outil d’aide à l’optimisation permettant à l’utilisateur de générer un protocole optimisé en fonction du modèle de scanner et de la morphologie du patient
For the last 10-years, computed tomography (CT) procedures and their increased use have been a major source for concern in the scientific community. This concern has been the starting point for several studies aiming to optimize the dose while maintaining a diagnostic image quality. In addition, it is important to pay special attention to dose levels for children (age range considered to be from a newborn baby to a 16-y-old patient). Indeed, children are more sensitive to ionizing radiations, and they have a longer life expectancy. Optimizing the CT protocols is a very difficult process due to the complexity of the acquisition parameters, starting with the individual patient characteristics, taking into account the available CT device and the required diagnostic image quality. This PhD project is contributing to the advancement of knowledge by: (1) Developing a new approach that can minimize the number of testing CT scans examinations while developing a predictive mathematical model allowing radiologists to prospectively anticipate how changes in protocols will affect the image quality and the delivered dose for four models of CT scan. (2) Setting-up a Generic Optimized Protocol (based on the size of the phantom CATPAHN 600) for four models of CT scan. (3) Developing a methodology to adapt the GOP to five sizes of pediatric patient using Size Specific Dose Estimate calculation (SSDE). (4) Evaluating subjective and objective image quality between size-based optimised CT protocol and age-based CT protocols. (5) Developing a CT protocol optimization tool and a tutorial helping the radiologists in the process of optimization
APA, Harvard, Vancouver, ISO, and other styles
34

Couprie, Camille. "Graph-based variational optimization and applications in computer vision." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00666878.

Full text
Abstract:
Many computer vision applications such as image filtering, segmentation and stereovision can be formulated as optimization problems. Recently discrete, convex, globally optimal methods have received a lot of attention. Many graph-based methods suffer from metrication artefacts, segmented contours are blocky in areas where contour information is lacking. In the first part of this work, we develop a discrete yet isotropic energy minimization formulation for the continuous maximum flow problem that prevents metrication errors. This new convex formulation leads us to a provably globally optimal solution. The employed interior point method can optimize the problem faster than the existing continuous methods. The energy formulation is then adapted and extended to multi-label problems, and shows improvements over existing methods. Fast parallel proximal optimization tools have been tested and adapted for the optimization of this problem. In the second part of this work, we introduce a framework that generalizes several state-of-the-art graph-based segmentation algorithms, namely graph cuts, random walker, shortest paths, and watershed. This generalization allowed us to exhibit a new case, for which we developed a globally optimal optimization method, named "Power watershed''. Our proposed power watershed algorithm computes a unique global solution to multi labeling problems, and is very fast. We further generalize and extend the framework to applications beyond image segmentation, for example image filtering optimizing an L0 norm energy, stereovision and fast and smooth surface reconstruction from a noisy cloud of 3D points
APA, Harvard, Vancouver, ISO, and other styles
35

El, Gueddari Loubna. "Proximal structured sparsity regularization for online reconstruction in high-resolution accelerated Magnetic Resonance imaging." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS573.

Full text
Abstract:
L'imagerie par résonance magnétique (IRM) est la technique d'imagerie médicale de référence pour sonder in vivo et non invasivement les tissus mous du corps humain, en particulier le cerveau.L'amélioration de la résolution de l'IRM en un temps d'acquisition standard (400µm isotrope en 15 minutes) permettrait aux médecins d'améliorer considérablement leur diagnostic et le suivi des patients. Cependant, le temps d'acquisition en IRM reste long. Pour réduire ce temps, la récente théorie de l'échantillonnage comprimée (EC) a révolutionné la façon d'acquérir des données dans plusieurs domaines dont l'IRM en surmontant le théorème de Shannon-Nyquist. Avec l'EC, les données peuvent alors être massivement sous-échantillonnées tout en assurant des conditions optimales de reconstruction des images.Dans ce contexte, les thèses de doctorat précédemment soutenue au sein du laboratoire ont été consacrées à la conception et à la mise en oeuvre de scénarios d'acquisition physiquement plausibles pour accélérer l'acquisitions. Un nouvel algorithme d'optimisation pour la conception de trajectoire non cartésienne avancée appelée SPARKLING pour Spreading Projection Algorithm for Rapid K-space samplING en est né. Les trajectoires SPARKLING générées ont conduit à des facteurs d'accélération allant jusqu'à 20 en 2D et 70 pour les acquisitions 3D sur des images à haute résolution pondérées en T*₂ acquises à 7 Tesla. Ces accélérations n'étaient accessibles que grâce au rapport signal/bruit d'entrée élevé fourni par l'utilisation de bobines de réception multi-canaux (IRMp). Cependant, ces résultats ont été obtenus au détriment d'une reconstruction longue et complexe. Dans cette thèse, l'objectif est de proposer une nouvelle approche de reconstruction en ligne d'images acquies par IRMp non cartésiennes. Pour atteindre cet objectif, nous nous appuyons sur une approche en ligne où reconstruction et acquisition s'entremèlent. Par conséquent, la reconstruction débute avant la fin de l'acquisition et un résultat partiel est délivré au cours de l'examen. L'ensemble du pipeline est compatible avec une implémentation réelle à travers l'interface Gadgetron pour produire les images reconstruites à la console du scanner.Ainsi, après avoir exposé la théorie de l'échantillonage comprimé, nous présentons l'état de l'art de la méthode dédiée à la reconstruction en imagerie multi-canaux. En particulier, nous nous concentrerons d'abord sur les méthodes d'autocalibration qui présentent l'avantage d'être adaptées à l'échantillonnage non cartésien et nous proposons une méthode simple mais efficace pour estimer le profil de sensibilité des différents cannaux. Cependant, en raison de leur dépendance au profil de sensibilité, ces méthodes ne sont pas adapatable à la reconstruction en ligne. Par conséquent, la deuxième partie se concentre sur la suppression des ces profils et celà grâce à l'utilisation de norme mixte promouvant une parcimonie structurée. Ensuite, nous adaptons différentes réularization basées sur la parcimonie structurée pour reconstruire ces images fortement corrélées. Enfin, la méthode retenue sera appliquée à l'imagerie en ligne
Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 400µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. However the scanning time in MRI remains long, especially in the high resolution context. To reduce this time, the recent Compressed Sensing (CS) theory has revolutionized the way of acquiring data in several fields including MRI by overcoming the Shannon-Nyquist theorem. Using CS, data can then be massively under-sampled while ensuring conditions for optimal image recovery.In this context, previous Ph.D. thesis in the laboratory were dedicated to the design and implementation of physically plausible acquisition scenarios to accelerate the scan. Those projects deliver new optimization algorithm for the design of advanced non-Cartesian trajectory called SPARKLING: Spreading Projection Algorithm for Rapid K-space samplING. The generated SPARKLING trajectories led to acceleration factors up to 20 in 2D and 60 for 3D-acquisitions on highly resolved T₂* weighted images acquired at 7~Tesla.Those accelerations were only accessible thanks to the high input Signal-to-Noise Ratio delivered by the usage of multi-channel reception coils. However, those results are coming at a price of long and complex reconstruction.In this thesis, the objective is to propose an online approach for non-Cartesian multi-channel MR image reconstruction. To achieve this goal we rely on an online approach where the reconstruction starts from incomplete data.Hence acquisition and reconstruction are interleaved, and partial feedback is given during the scan. After exposing the Compressed Sensing theory, we present state-of the art method dedicated to multi-channel coil reconstruction. In particular, we will first focus on self-calibrating methods that presents the advantage to be adapted to non-Cartesian sampling and we propose a simple yet efficient method to estimate the coil sensitivity profile.However, owing to its dependence to user-defined parameters, this two-step approach (extraction of sensitivity maps and then image reconstruction) is not compatible with the timing constraints associated with online reconstruction. Then we studied the case of calibration-less reconstruction methods and splits them into two categories, the k-space based and the domain-based. While the k-space calibration-less method are sub-optimal for non-Cartesian reconstruction, due to the gridding procedure, we will retain the domain-based calibration-less reconstruction and prove theirs for online purposes. Hence in the second part, we first prove the advantage of mixed norm to improve the recovery guarantee in the pMRI setting. Then we studied the impact of structured sparse induced norm on the reconstruction multi-channel purposes, where then and adapt different penalty based on structured sparsity to handle those highly correlated images. Finally, the retained method will be applied to online purposes. The entire pipeline, is compatible with an implementation through the Gadgetron pipeline to deliver the reconstruction at the scanner console
APA, Harvard, Vancouver, ISO, and other styles
36

Mourya, Rahul Kumar. "Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES005/document.

Full text
Abstract:
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs
Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
APA, Harvard, Vancouver, ISO, and other styles
37

Labat, Christian. "Algorithmes d'optimisation de critères pénalisés pour la restauration d'images : application à la déconvolution de trains d'impulsions en imagerie ultrasonore." Phd thesis, Ecole centrale de nantes - ECN, 2006. http://tel.archives-ouvertes.fr/tel-00132861.

Full text
Abstract:
La solution de nombreux problèmes de restauration et de reconstruction d'images se ramène à celle de la minimisation d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés préservant les discontinuités des images. Nous discutons des aspects algorithmiques dans le cas de problèmes de grande taille. Il est possible de tirer parti de la structure des critères pénalisés pour la mise en oeuvre algorithmique du problème de minimisation. Ainsi, des algorithmes d'optimisation semi-quadratiques (SQ) convergents exploitant la forme analytique des critères pénalisés ont été utilisés. Cependant, ces algorithmes SQ sont généralement lourds à manipuler pour les problèmes de grande taille. L'utilisation de versions approchées des algorithmes SQ a alors été proposée. On peut également envisager d'employer des algorithmes du gradient conjugué non linéaire GCNL+SQ1D utilisant une approche SQ scalaire pour la recherche du pas. En revanche, plusieurs questions liées à la convergence de ces différentes structures algorithmiques sont restées sans réponses jusqu'à présent. Nos contributions consistent à:
- Démontrer la convergence des algorithmes SQ approchés et GCNL+SQ1D.
- Etablir des liens forts entre les algorithmes SQ approchés et GCNL+SQ1D.
- Illustrer expérimentalement en déconvolution d'images le fait que les algorithmes SQ approchés et GCNL+SQ1D sont préférables aux algorithmes SQ exacts.
- Appliquer l'approche pénalisée à un problème de déconvolution d'images en contrôle non destructif par ultrasons.
APA, Harvard, Vancouver, ISO, and other styles
38

Repetti, Audrey. "Algorithmes d'optimisation en grande dimension : applications à la résolution de problèmes inverses." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1032/document.

Full text
Abstract:
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données
An efficient approach for solving an inverse problem is to define the recovered signal/image as a minimizer of a penalized criterion which is often split in a sum of simpler functions composed with linear operators. In the situations of practical interest, these functions may be neither convex nor smooth. In addition, large scale optimization problems often have to be faced. This thesis is devoted to the design of new methods to solve such difficult minimization problems, while paying attention to computational issues and theoretical convergence properties. A first idea to build fast minimization algorithms is to make use of a preconditioning strategy by adapting, at each iteration, the underlying metric. We incorporate this technique in the forward-backward algorithm and provide an automatic method for choosing the preconditioning matrices, based on a majorization-minimization principle. The convergence proofs rely on the Kurdyka-L ojasiewicz inequality. A second strategy consists of splitting the involved data in different blocks of reduced dimension. This approach allows us to control the number of operations performed at each iteration of the algorithms, as well as the required memory. For this purpose, block alternating methods are developed in the context of both non-convex and convex optimization problems. In the non-convex case, a block alternating version of the preconditioned forward-backward algorithm is proposed, where the blocks are updated according to an acyclic deterministic rule. When additional convexity assumptions can be made, various alternating proximal primal-dual algorithms are obtained by using an arbitrary random sweeping rule. The theoretical analysis of these stochastic convex optimization algorithms is grounded on the theory of monotone operators. A key ingredient in the solution of high dimensional optimization problems lies in the possibility of performing some of the computation steps in a parallel manner. This parallelization is made possible in the proposed block alternating primal-dual methods where the primal variables, as well as the dual ones, can be updated in a quite flexible way. As an offspring of these results, new distributed algorithms are derived, where the computations are spread over a set of agents connected through a general hyper graph topology. Finally, our methodological contributions are validated on a number of applications in signal and image processing. First, we focus on optimization problems involving non-convex criteria, in particular image restoration when the original image is corrupted with a signal dependent Gaussian noise, spectral unmixing, phase reconstruction in tomography, and blind deconvolution in seismic sparse signal reconstruction. Then, we address convex minimization problems arising in the context of 3D mesh denoising and in query optimization for database management
APA, Harvard, Vancouver, ISO, and other styles
39

Jezierska, Anna Maria. "Image restoration in the presence of Poisson-Gaussian noise." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00906718.

Full text
Abstract:
This thesis deals with the restoration of images corrupted by blur and noise, with emphasis on confocal microscopy and macroscopy applications. Due to low photon count and high detector noise, the Poisson-Gaussian model is well suited to this context. However, up to now it had not been widely utilized because of theoretical and practical difficulties. In view of this, we formulate the image restoration problem in the presence of Poisson-Gaussian noise in a variational framework, where we express and study the exact data fidelity term. The solution to the problem can also be interpreted as a Maximum A Posteriori (MAP) estimate. Using recent primal-dual convex optimization algorithms, we obtain results that outperform methods relying on a variety of approximations. Turning our attention to the regularization term in the MAP framework, we study both discrete and continuous approximation of the $ell_0$ pseudo-norm. This useful measure, well-known for promoting sparsity, is difficult to optimize due to its non-convexity and its non-smoothness. We propose an efficient graph-cut procedure for optimizing energies with truncated quadratic priors. Moreover, we develop a majorize-minimize memory gradient algorithm to optimize various smooth versions of the $ell_2-ell_0$ norm, with guaranteed convergence properties. In particular, good results are achieved on deconvolution problems. One difficulty with variational formulations is the necessity to tune automatically the model hyperparameters. In this context, we propose to estimate the Poisson-Gaussian noise parameters based on two realistic scenarios: one from time series images, taking into account bleaching effects, and another from a single image. These estimations are grounded on the use of an Expectation-Maximization (EM) approach.Overall, this thesis proposes and evaluates various methodologies for tackling difficult image noise and blur cases, which should be useful in various applicative contexts within and beyond microscopy
APA, Harvard, Vancouver, ISO, and other styles
40

Kaaniche, Mounir. "Schémas de lifting vectoriels adaptatifs et applications à la compression d'images stéréoscopiques." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00631357.

Full text
Abstract:
L'objectif majeur de ce travail de thèse était de proposer et d'analyser de nouveaux schémas de codage d'images stéréoscopiques. Ces schémas permettent d'assurer la reconstruction progressive avec la possibilité de restitution exacte de la paire d'images. Dans une première partie, nous avons proposé de nouveaux schémas de codage conjoint de la paire d'images stéréo reposant sur le concept du lifting vectoriel. En ce sens, contrairement aux méthodes classiques, la méthode proposée ne génère aucune image résiduelle mais deux représentations multirésolutions compactes de l'image gauche et l'image droite. De plus, nous avons proposé d'intégrer une méthode récente d'estimation de disparité dans des applications de codage d'images stéréoscopiques. Puis, dans une deuxième partie, nous nous sommes intéressés aux schémas de lifting 2D non séparables tout en nous focalisant sur les aspects d'optimisation des différents filtres mis en jeu. La structure de lifting 2D considérée est composée de trois étapes de prédiction suivies par une étape de mise à jour. Plus précisément, nous avons proposé et analysé une nouvelle méthode pour la conception du filtre de mise à jour. Concernant les filtres de prédiction, nous avons développé de nouveaux critères parcimonieux de types L1.
APA, Harvard, Vancouver, ISO, and other styles
41

Chaux, Caroline. "Analyse en ondelettes M-bandes en arbre dual : application à la restauration d'images." Phd thesis, Université de Marne la Vallée, 2006. http://tel.archives-ouvertes.fr/tel-00714292.

Full text
Abstract:
Cette thèse porte sur les décompositions en ondelettes M-bandes en arbre dual ainsi que sur leur application à l'analyse et la restauration d'images. Ces décompositions permettent d'obtenir une analyse multi-échelles, directionnelle et locale des images. Elles s'inscrivent donc dans la perspective de travaux récents visant à mieux représenter les informations géométriques (textures, contours) et les préserver lors de traitements. Ce travail s'appuie sur les travaux antérieurs de N. Kingsbury et I. Selesnick portant sur la construction de décompositions en ondelettes formant des paires de Hilbert (approchées). Ces auteurs ont établi divers résultats concernant le cas dyadique et l'une de nos contributions a été de montrer qu'il était possible de généraliser leurs conclusions et de montrer de nouveaux résultats dans le cas M-bandes. Les représentations proposées présentent de nombreux avantages notamment en termes d'invariance par translation de l'analyse et de sélectivité directionnelle. Nous avons établi les conditions que doivent satisfaire les bancs de filtres en arbre dual servant à l'analyse et à la synthèse des signaux traités. Nous avons également étudié les pré-traitements qu'il est nécessaire d'appliquer à des données discrètes. Ces décompositions introduisant typiquement une redondance d'un facteur 2 (dans le cas réel, et de 4 dans le cas complexe), elles constituent des trames à partir desquelles on peut calculer une reconstruction optimale. Ces nouvelles transformées ont finalement été généralisées aux cadres biorthogonal et complexe. Notre volonté d'appliquer ces outils d'analyse au débruitage de signaux nous a conduit à l'étude des propriétés statistiques des coefficients issus de la décomposition M-bandes en arbre dual d'un processus aléatoire stationnaire au sens large. Nous avons tout d'abord calculé les statistiques au second ordre de ces coefficients et nous avons étudié le rôle du post-traitement dans le calcul des corrélations. Quelques résultats asymptotiques concernant les corrélations d'un couple de coefficients primal/dual ont également été obtenus. Les inter-corrélations entre les ondelettes primale et duale jouant un rôle clé dans notre étude, nous en avons fourni des expressions exactes pour quelques familles d'ondelettes usuelles. Des simulations numériques nous ont aussi permis de valider nos résultats théoriques ainsi que d'évaluer la zone d'influence de la dépendance statistique induite. Pour démontrer l'efficacité de ces décompositions, nous avons été amenés à nous intéresser à deux types de problèmes : le débruitage et la déconvolution d'images. En ce qui concerne le débruitage, nous avons poursuivi deux buts principaux liés au cheminement de la thèse. Dans un premier temps, nous nous sommes attachés à montrer que la décomposition en arbre dual M-bandes apporte un gain significatif en terme de qualité, à la fois objective et subjective, par rapport à une décomposition en ondelettes classique, voire une décomposition dyadique en arbre dual. Dans un second temps, nous avons considéré le débruitage d'images multi-canaux pour lesquelles nous avons mis en place un estimateur statistique original reposant sur l'emploi du principe de Stein et permettant notamment de prendre en compte des voisinages quelconques (spatial, intercomposantes, inter-échelles, ...). Les problèmes de déconvolution d'images ont été appréhendés dans le cadre de méthodes variationnelles, en mettant en place un algorithme itératif, utilisant des outils récemment développés en analyse convexe. L'approche proposée permet de résoudre des problèmes inverses associés à des modèles probabilistes variés et elle est applicable à l'analyse M-bandes en arbre dual ainsi qu'à tout autre type de représentation à l'aide d'une trame.
APA, Harvard, Vancouver, ISO, and other styles
42

Carlavan, Mikaël. "Optimization of the compression/restoration chain for satellite images." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847182.

Full text
Abstract:
The subject of this work is image coding and restoration in the context of satellite imaging. Regardless of recent developments in image restoration techniques and embedded compression algorithms, the reconstructed image still suffers from coding artifacts making its quality evaluation difficult. The objective of the thesis is to improve the quality of the final image with the study of the optimal structure of decoding and restoration regarding to the properties of the acquisition and compression processes. More essentially, the aim of this work is to propose a reliable technique to address the optimal decoding-deconvolution-denoising problem in the objective of global optimization of the compression/restoration chain. The thesis is organized in three parts. The first part is a general introduction to the problematic addressed in this work. We then review a state-of-the-art of restoration and compression techniques for satellite imaging and we describe the current imaging chain used by the French Space Agency as this is the focus of the thesis. The second part is concerned with the global optimization of the satellite imaging chain. We propose an approach to estimate the theoretical distortion of the complete chain and we present, for three different configurations of coding/restoration, an algorithm to perform its minimization. Our second contribution is also focused on the study of the global chain but is more aimed to optimize the visual quality of the final image. We present numerical methods to improve the quality of the reconstructed image and we propose a novel imaging chain based on the image quality assessment results of these techniques. The last part of the thesis introduces a satellite imaging chain based on a new sampling approach. This approach is interesting in the context of satellite imaging as it allows transferring all the difficulties to the on-ground decoder. We recall the main theoretical results of this sampling technique and we present a satellite imaging chain based on this framework. We propose an algorithm to solve the reconstruction problem and we conclude by comparing the proposed chain to the one currently used by the CNES.
APA, Harvard, Vancouver, ISO, and other styles
43

Duan, Liuyun. "Modélisation géométrique de scènes urbaines par imagerie satellitaire." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4025.

Full text
Abstract:
La modélisation automatique de villes à partir d’images satellites est l'un des principaux défis en lien avec la reconstruction urbaine. Son objectif est de représenter des villes en 3D de manière suffisamment compacte et précise. Elle trouve son application dans divers domaines, qui vont de la planification urbaine aux télécommunications, en passant par la gestion des catastrophes. L'imagerie satellite offre plusieurs avantages sur l'imagerie aérienne classique, tels qu'un faible coût d'acquisition, une couverture mondiale et une bonne fréquence de passage au-dessus des sites visités. Elle impose toutefois un certain nombre de contraintes techniques. Les méthodes existantes ne permettent que la synthèse de DSM (Digital Surface Models), dont la précision est parfois inégale. Cette dissertation décrit une méthode entièrement automatique pour la production de modèles 3D compacts, précis et répondant à une sémantique particulière, à partir de deux images satellites en stéréo. Cette méthode repose sur deux grands concepts. D'une part, la description géométrique des objets et leur assimilation à des catégories génériques sont effectuées simultanément, conférant ainsi une certaine robustesse face aux occlusions partielles ainsi qu'à la faible qualité des images. D'autre part, la méthode opère à une échelle géométrique très basse, ce qui permet la préservation de la forme des objets, avec finalement, une plus grande efficacité et un meilleur passage à l'échelle. Pour générer des régions élémentaires, un algorithme de partitionnement de l'image en polygones convexes est présenté
Automatic city modeling from satellite imagery is one of the biggest challenges in urban reconstruction. The ultimate goal is to produce compact and accurate 3D city models that benefit many application fields such as urban planning, telecommunications and disaster management. Compared with aerial acquisition, satellite imagery provides appealing advantages such as low acquisition cost, worldwide coverage and high collection frequency. However, satellite context also imposes a set of technical constraints as a lower pixel resolution and a wider that challenge 3D city reconstruction. In this PhD thesis, we present a set of methodological tools for generating compact, semantically-aware and geometrically accurate 3D city models from stereo pairs of satellite images. The proposed pipeline relies on two key ingredients. First, geometry and semantics are retrieved simultaneously providing robust handling of occlusion areas and low image quality. Second, it operates at the scale of geometric atomic regions which allows the shape of urban objects to be well preserved, with a gain in scalability and efficiency. Images are first decomposed into convex polygons that capture geometric details via Voronoi diagram. Semantic classes, elevations, and 3D geometric shapes are then retrieved in a joint classification and reconstruction process operating on polygons. Experimental results on various cities around the world show the robustness, scalability and efficiency of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
44

Glaudin, Lilian. "Stratégies multicouche, avec mémoire, et à métrique variable en méthodes de point fixe pour l'éclatement d'opérateurs monotones et l'optimisation." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS119.

Full text
Abstract:
Plusieurs stratégies sans liens apparents coexistent pour mettre en œuvre les algorithmes de résolution de problèmes d'inclusion monotone dans les espaces hilbertiens. Nous proposons un cadre synthétique permettant d'englober diverses approches algorithmiques pour la construction de point fixe, clarifions et généralisons leur théorie asymptotique, et concevons de nouveaux schémas itératifs pour l'analyse non linéaire et l'optimisation convexe. Notre méthodologie, qui est ancrée sur un modèle de compositions de quasicontractions moyennées, nous permet de faire avancer sur plusieurs fronts la théorie des algorithmes de point fixe et d'impacter leurs domaines d'applications. Des exemples numériques sont fournis dans le contexte de la restauration d'image, où nous proposons un nouveau point de vue pour la formulation des problèmes variationnels
Several apparently unrelated strategies coexist to implement algorithms for solving monotone inclusions in Hilbert spaces. We propose a synthetic framework for fixed point construction which makes it possible to capture various algorithmic approaches, clarify and generalize their asymptotic behavior, and design new iterative schemes for nonlinear analysis and convex optimization. Our methodology, which is anchored on an averaged quasinonexpansive operator composition model, allows us to advance the theory of fixed point algorithms on several fronts, and to impact their application fields. Numerical examples are provided in the context of image restoration, where we propose a new viewpoint on the formulation of variational problems
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography