Gotowa bibliografia na temat „Optimisation combinatoire – Reconstruction d'image”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Optimisation combinatoire – Reconstruction d'image”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Rozprawy doktorskie na temat "Optimisation combinatoire – Reconstruction d'image"

1

Ribal, Christophe. "Anisotropic neighborhoods of superpixels for thin structure segmentation". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG117.

Pełny tekst źródła
Streszczenie:
En vision robotique, segmenter une image consiste à décomposer cette image en régions homogènes, en associant un label à chaque élément la constituant. Cette thèse propose une approche générique vis à vis de ces éléments, pixels ou superpixels, en les désignant communément sous le terme de sites. La résolution du problème inverse qu'est la segmentation d'images est généralement rendue robuste au bruit grâce à la formulation d'une hypothèse Markovienne sur le champ des labels, et d'un a priori d'homogénéité des labels au sein des voisinages. Cependant, la solution optimale (ou régularisée) tend alors à présenter des artéfacts indésirables, notablement la perte prématurée des structures fines, définies comme des structures dont la taille est réduite selon au moins une dimension. La construction de voisinages anisotropes adaptés à ces structures permet de pallier ce problème. Ces voisinages sont calculés après une première étape d'estimation des orientations des structures fines présentes dans l'image. Trois options, dont deux adaptées de la littérature, sont proposées pour réaliser cette étape cruciale : la minimisation d'une énergie, le vote de tenseurs, et le RORPO. À partir des cartes d'orientation obtenues, quatres méthodes de construction des voisinages anisotropes sont retenues. Tout d'abord, un voisinage défini par des formes géométriques est présenté, puis la restriction à un nombre fini de configurations pour chaque site permet de formuler un voisinage basé sur un dictionnaire. Enfin, deux voisinages basés sur des chemins entre sites (l'un à extrémités fixées et l'autre à taille constante) sont considérés, tous deux faisant intervenir une énergie à minimiser. Dans ce manuscrit, les segmentations obtenues par estimateur du Maximum A Posteriori (obtenu à partir de coupes de graphes) avec les voisinages anisotropes proposés sont comparées à celles supposant un voisinage isotrope dans le cas de deux applications : la détection de structures fines et la reconstruction de cartes de profondeur en Shape From Focus. Les résultats des différentes variantes proposées sont évalués qualitativement et quantitativement dans le but de souligner les apports de la méthode proposée
In the field of computer vision, image segmentation aims at decomposing an image into homogeneous regions. While usually an image is composed of a regular lattice of pixels, this manuscript proposes through the term of site a generic approach able to consider either pixels or superpixels. Robustness to noise in this challenging inverse problem is achieved by formulating the labels as a Markov Random Field, and finding an optimal segmentation under the prior that labels should be homogeneous inside the neighborhood of a site. However, this regularization of the solution introduces unwanted artifacts, such as the early loss of thin structures, defined as structures whose size is small in at least one dimension. Anisotropic neighborhood construction fitted to thin structures allows us to tackle the mentioned artifacts. Firstly, the orientations of the structures in the image are estimated from any of the three presented options: The minimization of an energy, Tensor Voting, and RORPO. Secondly, four methods for constructing the actual neighborhood from the orientation maps are proposed: Shape-based neighborhood, computed from the relative positioning of the sites, dictionary-based neighborhood, derived from the discretization to a finite number of configurations of neighbors for each site, and two path-based neighborhoods, namely target-based neighborhood with fixed extremities, and cardinal-based neighborhood with fixed path lengths. Finally, the results provided by the Maximum A Posteriori criterion (computed with graph cuts optimization) with these anisotropic neighborhoods are compared against isotropic ones on two applications: Thin structure detection and depth reconstruction in Shape From Focus. The different combinations of guidance map estimations and neighborhood constructions are illustrated and evaluated quantitatively and qualitatively in order to exhibit the benefits of the proposed approaches
Style APA, Harvard, Vancouver, ISO itp.
2

Tlig, Ghassen. "Programmation mathématique en tomographie discrète". Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00957445.

Pełny tekst źródła
Streszczenie:
La tomographie est un ensemble de techniques visant à reconstruirel'intérieur d'un objet sans toucher l'objet lui même comme dans le casd'un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l'objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l'objet àpartir d'un ensemble de projections obtenues par mesures expérimentalesautour de l'objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l'objet est défini de façon discrète. Leschamps d'applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l'imageriemédicale. Il existe d'autres applications de la tomographie discrète, commeles problèmes d'emplois du temps.La tomographie discrète peut être considérée comme un problème d'optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d'optimisation combinatoire.L'objectif de cette thèse est d'étudier et d'utiliser les techniques d'optimisationcombinatoire pour résoudre les problèmes de tomographie.
Style APA, Harvard, Vancouver, ISO itp.
3

Tlig, Ghassen. "Programmation mathématique en tomographie discrète". Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0886.

Pełny tekst źródła
Streszczenie:
La tomographie est un ensemble de techniques visant à reconstruirel’intérieur d’un objet sans toucher l’objet lui même comme dans le casd’un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l’objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l’objet àpartir d’un ensemble de projections obtenues par mesures expérimentalesautour de l’objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l’objet est défini de façon discrète. Leschamps d’applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l’imageriemédicale. Il existe d’autres applications de la tomographie discrète, commeles problèmes d’emplois du temps.La tomographie discrète peut être considérée comme un problème d’optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d’optimisation combinatoire.L’objectif de cette thèse est d’étudier et d’utiliser les techniques d’optimisationcombinatoire pour résoudre les problèmes de tomographie
The tomographic imaging problem deals with reconstructing an objectfrom a data called a projections and collected by illuminating the objectfrom many different directions. A projection means the information derivedfrom the transmitted energies, when an object is illuminated from a particularangle. The solution to the problem of how to reconstruct an object fromits projections dates to 1917 by Radon. The tomographic reconstructingis applicable in many interesting contexts such as nondestructive testing,image processing, electron microscopy, data security, industrial tomographyand material sciences.Discete tomography (DT) deals with the reconstruction of discret objectfrom limited number of projections. The projections are the sums along fewangles of the object to be reconstruct. One of the main problems in DTis the reconstruction of binary matrices from two projections. In general,the reconstruction of binary matrices from a small number of projections isundetermined and the number of solutions can be very large. Moreover, theprojections data and the prior knowledge about the object to reconstructare not sufficient to determine a unique solution. So DT is usually reducedto an optimization problem to select the best solution in a certain sense.In this thesis, we deal with the tomographic reconstruction of binaryand colored images. In particular, research objectives are to derive thecombinatorial optimization techniques in discrete tomography problems
Style APA, Harvard, Vancouver, ISO itp.
4

Soldo, Yan. "Optimisation de la reconstruction d'image pour SMOS et SMOS-NEXT". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2120/.

Pełny tekst źródła
Streszczenie:
Dans le cadre général de l'étude du climat, du cycle de l'eau et de la gestion des ressources en eau, le satellite SMOS (Soil Moisture and Ocean Salinity) a été lancé par l'agence spatiale européenne (ESA) en Novembre 2009 pour fournir des cartes globales d'humidité des sols et de salinité des surfaces océaniques. Les mesures du satellite sont obtenues par un radiomètre interférométrique opérant dans la bande passive 1400-1427 MHz (bande L des micro-ondes). Toutefois, dès les premières mesures de l'instrument, de nombreuses Interférences en Radio Fréquence (RFI) ont été observées, malgré les recommandations de l'Union Internationale des Télécommunications (ITU) qui protègent cette bande pour les applications scientifiques. La dégradation de données à cause des interférences est significative et au niveau international des efforts sont fait par l'ESA et les différentes agences nationales pour l'identification et l'extinction de ces émetteurs. D'un point de vue scientifique l'intérêt porte sur le développement de techniques pour la détection, la localisation au sol des sources d'interférences ainsi que pour la correction de leurs signaux dans les donnés SMOS ; différents objectifs ont donc été poursuivis et ont mené à la définition de différents approches présentées dans cette contribution. En effet la solution idéale serait de corriger l'impact de ces interférences sur les données, en créant synthétiquement des signaux égaux et de signe opposé et d'en tenir compte dans la chaîne de traitement des données. Un outil a donc été développé qui, en utilisant des connaissances a priori sur la scène observée issues des modèles météorologiques, permet de simuler la scène vue par l'instrument. A partir de cette information et des visibilités entre les antennes de l'interféromètre, il est possible de détecter et de décrire précisément ces interférences et donc d'en déduire le signal à soustraire. Bien que l'évaluation des performances d'un algorithme de correction des RFI pour SMOS ne soit pas facile puisqu'elle doit être faite indirectement, des méthodes avec ce but sont proposées et montrent des résultats généralement positifs pour l'algorithme développé. Cependant la difficulté d'évaluer l'impact de la correction à grande échelle, ainsi que pour l'incertitude qui est nécessairement introduite lors de l'application d'un signal synthétique aux données et afin d'éviter une utilisation naïve des résultats de correction, aujourd'hui on écarte l'hypothèse d'une application opérationnelle d'un algorithme de correction. Un produit intermédiaire a alors été développé, par une approche similaire, avec l'objectif de fournir des indications sur l'impact des RFI sur chaque point de chaque image selon des seuils prédéfinis. Un autre objectif a été de fournir un outil en mesure de caractériser rapidement les sources (position au sol, puissance, position dans le champ de vue) pour une zone géographique. Cette méthode utilise les composantes de Fourier de la scène vue par l'instrument pour obtenir une distribution de températures de brillance, dans laquelle les RFI apparaissent comme des points chauds. L'algorithme rapide de caractérisation des sources s'est révélé précis, fiable et robuste, et il pourrait être utilisé pour la définition de bases de données sur les RFI ou pour le suivi de celles-ci à l'échelle locale ou globale. Les résultats de cette méthode ont fournit un jeu de données privilégié pour l'étude des performances de l'instrument et ça a permit de mettre en évidence des potentielles erreurs systématiques ainsi que des variations saisonnières des résultats. Toutes mission spatiale ayant une vie limitée à quelques années, dans un deuxième temps on s'est intéressé à la continuité des mesures des mêmes variables géophysiques, avec le projet de mission SMOS-NEXT. Pour améliorer la qualité des mesures cette mission se propose d'implémenter une technique d'interférométrie novatrice : la synthèse d'ouverture spatio-temporelle, dont le principe est de corréler les mesures entre antennes en positions différentes et à des instants différents, dans les limites de cohérence liées à la bande spectrale. Suite à des études théoriques, une expérience a été faite en utilisant le radiotélescope de Nançay. Dans le cadre de la thèse les données de cette expérience ont été analysées. Bien que l'étude n'ait pas permit de conclure sur la validité du principe, plusieurs difficultés ont été mises en évidence et ce retour d'expérience sera utile lors de la prochaine campagne de mesure prévue
The Soil Moisture and Ocean Salinity (SMOS) satellite was launched by the European Space Agency (ESA) in November 2009 to allow a better understanding of Earth's climate, the water cycle and the availability of water resources at the global scale, by providing global maps of soil moisture and ocean salinity. SMOS' payload, an interferometric radiometer, measures Earth's natural radiation in the protected 1400-1427 MHz band (microwave, L-band). However, since launch the presence of numerous Radio-Frequency Interferences (RFI) has been clearly observed, despite the International Telecommunication Union (ITU) recommendations to preserve this band for scientific use. The pollution created by these artificial signals leads to a significant loss of data and a common effort of ESA and the national authorities is necessary in order to identify and switch off the emitters. From a scientific point of view we focus on the development of algorithms for the detection of RFI, their localization on the ground and the mitigation of the signals they introduce to the SMOS data. These objectives have led to different approaches that are proposed in this contribution. The ideal solution would consist in mitigating the interference signals by creating synthetic signals corresponding to the interferences and subtract them from the actual measurements. For this purpose, an algorithm was developed which makes use of a priori information on the natural scene provided by meteorological models. Accounting for this information, it is possible to retrieve an accurate description of the RFI from the visibilities between antennas, and therefore create the corresponding signal. Even though assessing the performances of a mitigation algorithm for SMOS is not straightforward as it has to be done indirectly, different methods are proposed and they all show a general improvement of the data for this particular algorithm. Nevertheless due to the complexity of assessing the performances at the global scale, and the uncertainty inevitably introduced along with the synthetic signal, and to avoid a naive use of the mitigated data by the end user, for the time being an operational implementation of mitigation algorithms is not foreseen. Instead, an intermediate solution is proposed which consists of estimating the RFI contamination for a given snapshot, and then creating a map of the regions that are contaminated to less than a certain (or several) threshold(s). Another goal has been to allow the characterization of RFI (location on the ground, power emitted, position in the field of view) within a specified geographic zone in a short time. This approach uses the Fourier components of the observed scene to evaluate the brightness temperature spatial distribution in which the RFIs are represented as "hot spots". This algorithm has proven reliable, robust and precise, so that it can be used for the creation of RFI databases and monitoring of the RFI contamination at the local and global scale. Such databases were in fact created and used to highlight systematic errors of the instrument and seasonal variation of the localization results. The second main research topic has been to investigate the principle of SMOS-NEXT, a prospective mission that aims at assuring the continuity of space-borne soil moisture and ocean salinity measurements in the future with significantly improved spatial resolution of the retrievals. In order to achieve the latter this project intends to implement a groundbreaking interferometric approach called the spatio-temporal aperture synthesis. This technique consists in correlating the signals received at antennas in different places at different times, within the coherence limits imposed by the bandwidth. To prove the feasibility of this technique, a measurement campaign was carried out at the radio-telescope in Nançay, France. Even though the analysis of the experimental data has not allowed concluding on the validity of the measurement principle, a series of difficulties have been highlighted and the thus gained knowledge constitutes a valuable base for the foreseen second measurement campaign
Style APA, Harvard, Vancouver, ISO itp.
5

Israel-Jost, Vincent. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec colimateur sténopé". Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/ISRAEL-JOST_Vincent_2006.pdf.

Pełny tekst źródła
Streszczenie:
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle. Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume. Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences
In SPECT small animal imaging, it is highly recommended to accurately model the response of the detector in order to improve the low spatial resolution. The volume to reconstruct is thus obtained both by backprojecting and deconvolving the projections. We chose iterative methods, which permit one to solve the inverse problem independently from the model's complexity. We describe in this work a gaussian model of point spread function (PSF) whose position, width and maximum are computed according to physical and geometrical parameters. Then we use the rotation symmetry to replace the computation of P projection operators, each one corresponding to one position of the detector around the object, by the computation of only one of them. This is achieved by choosing an appropriate polar discretization, for which we control the angular density of voxels to avoid oversampling the center of the field of view. Finally, we propose a new family of algorithms, the so-called frequency adapted algorithms, which enable to optimize the reconstruction of a given band in the frequency domain on both the speed of convergence and the quality of the image
Style APA, Harvard, Vancouver, ISO itp.
6

Israel-Jost, Vincent Sonnendrücker Eric Constantinesco André. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec colimateur sténopé". Strasbourg : Université Louis Pasteur, 2007. http://eprints-scd-ulp.u-strasbg.fr:8080/698/01/israel-jost2006.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Bus, Norbert. "The use of geometric structures in graphics and optimization". Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1117/document.

Pełny tekst źródła
Streszczenie:
Les données du monde réel ont manifestement une composante géométrique importante et suggère les patterns géométriques signifiants. Les méthodes qui utilisent la nature géométrique des données sont activement développés dans plusieurs domaines scientifiques, comme, par exemple, la géométrie algorithmique, la géométrie discrète, la synthèse d'images, la vision par ordinateur. Dans le travail présent, nous utilisons les structures géométriques afin de modéliser des algorithmes efficaces pour deux domaines, celui de synthèse d'images et de l'optimisation combinatoire. Dans la première partie il s'agit de la structure de données géométriques, appelé une décomposition bien-séparée, et son application pour un des problèmes les plus difficiles dans la synthèse d'images, un efficace rendu photo-réalistique. Une solution consiste à appliquer toute une famille de méthodes de many-lights qui fait une approximation d'illumination globale par calcule individuelle d'illumination avec un grand nombre de VPLs (virtual point light) répartis sur les surfaces. L'application individuelle de chacun VPL résulte dans un grand nombre des calculs. Une des stratégies de la réussite pour réduire les computations est de faire les clusteurs considérés qui sont consideré comme une seul émetteur. Nous utilisons la décomposition bien-séparée de points comme le fondement de la structure des données susceptible de procéder à un calcul préliminaire et de conserver d'une façon compacte un grand nombre des clusterisations individuels potentiels ce qui montre que la clusterisation des VPL plus correspondante peut être extraite de cette structure de données d'une manière efficace. Nous montrons qu'au lieu de regroupper les points et/ou VPL indépendemment il vaut mieux produire les clusteurs sur l'espace de produit du nombre des points à nuancer et un groupe de VPL à la base de l'illumination des paires induite. En plus, nous proposons une technique adaptive afin d'échantillonner pour réduire le nombre des demandes de vérifications de visibilité pour chaque clusteur de l'espace de produit. Notre méthode consiste à détenir chaque émetteur qui peut être rapproché par VPL, matériaux spéculaire et à performer les méthodes précédents réconnus les meilleurs jusqu'au présent. La deuxième partie est consacrée au développement de nouveaux algorithmes d'approximation pour un problème fondamental de NP complet dans la géométrie algorithmique, précisément le problème du hitting set, avec une précision pour le cas d'un groupe de points et d'un groupe de disques, nous souhaiterons calculer les plus petits nombre du points qui touche tous les disques. Il arrive que les algorithmes efficaces à détecter le hitting set repose sur une structure géométrique clée, appelée epsilon-net. Nous donnons un algorithme utilisant uniquement les triangulisations de Delaunay pour construire les epsilon-nets de taille 13.4/epsilon. Nous donnons une implémentation pratique de la technique à calculer les hitting sets dans le temps quasi-linéaire en utilisant des epsilon-nets de petites tailles. Nos résultats aboutissent à une approximation de 13.4 pour le problème de hitting set par un algorithme qui fonctionne même pour les grands ensembles de données. Pour les ensembles de taille plus petite, nous proposons une implémentation de la technique de recherche locale avec une approximation bornes supérieures, avec le résultat obtenu d'approximation de (8 + epsilon) dans le temps O(n^{2.34})
Real-world data has a large geometric component, showing significant geometric patterns. How to use the geometric nature of data to design efficient methods has became a very important topic in several scientific fields, e.g., computational geometry, discrete geometry, computer graphics, computer vision. In this thesis we use geometric structures to design efficient algorithms for problems in two domains, computer graphics and combinatorial optimization. Part I focuses on a geometric data structure called well-separated pair decomposition and its usage for one of the most challenging problems in computer graphics, namely efficient photo-realistic rendering. One solution is the family of many-lights methods that approximate global illumination by individually computing illumination from a large number of virtual point lights (VPLs) placed on surfaces. Considering each VPL individually results in a vast number of calculations. One successful strategy the reduce computations is to group the VPLs into a small number of clusters that are treated as individual lights with respect to each point to be shaded. We use the well-separated pair decomposition of points as a basis for a data structure for pre-computing and compactly storing a set of view independent candidate VPL clusterings showing that a suitable clustering of the VPLs can be efficiently extracted from this data structure. We show that instead of clustering points and/or VPLs independently what is required is to cluster the product-space of the set of points to be shaded and the set of VPLs based on the induced pairwise illumination. Additionally we propose an adaptive sampling technique to reduce the number of visibility queries for each product-space cluster. Our method handles any light source that can be approximated with virtual point lights (VPLs), highly glossy materials and outperforms previous state-of-the-art methods. Part II focuses on developing new approximation algorithms for a fundamental NP-complete problem in computational geometry, namely the minimum hitting set problem with particular focus on the case where given a set of points and a set of disks, we wish to compute the minimum-sized subset of the points that hits all disks. It turns out that efficient algorithms for geometric hitting set rely on a key geometric structure, called epsilon-net. We give an algorithm that uses only Delaunay triangulations to construct epsilon-nets of size 13.4/epsilon and we provide a practical implementation of a technique to calculate hitting sets in near-linear time using small sized epsilon-nets. Our results yield a 13.4 approximation for the hitting set problem with an algorithm that runs efficiently even on large data sets. For smaller datasets, we present an implementation of the local search technique along with tight approximation bounds for its approximation factor, yielding an (8 + epsilon)-approximation algorithm with running time O(n^{2.34})
Style APA, Harvard, Vancouver, ISO itp.
8

Israel-Jost, Vincent. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec collimateur sténopé". Phd thesis, Université Louis Pasteur - Strasbourg I, 2006. http://tel.archives-ouvertes.fr/tel-00112526.

Pełny tekst źródła
Streszczenie:
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle.
Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume.
Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences.
Style APA, Harvard, Vancouver, ISO itp.
9

Favier, Aurélie. "Décompositions fonctionnelles et structurelles dans les modèles graphiques probabilistes appliquées à la reconstruction d'haplotypes". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1527/.

Pełny tekst źródła
Streszczenie:
Cette thèse s'articule autour de deux thèmes : la décomposition dans les modèles graphiques que sont, entre autres, les réseaux bayésiens et les réseaux de fonctions de coûts (WCSP) et la reconstruction d'haplotypes dans les pedigrees. Nous appliquons les techniques des WCSP pour traiter les réseaux bayésiens, en exploitant les propriétés structurelles et fonctionnelles, de manière exacte et approchée, des instances dans le cadre de l'inférence (ou d'un problème proche, celui de compter le nombre de solutions) et de l'optimisation. Nous définissons en particulier une décomposition de fonctions qui produit des fonctions portant sur un plus petit nombre de variables. Un exemple d'application en optimisation est la reconstruction d'haplotypes. Elle est essentielle pour une meilleure prédiction de la gravité de maladie ou pour comprendre des caractères physiques particuliers. La reconstruction d'haplotypes se modélise sous forme d'un réseau bayésien. La décomposition fonctionnelle permet de réduire ce réseau bayésien en un problème d'optimisation WCSP (Max-2SAT)
This thesis is based on two topics : the decomposition in graphical models which are, among others, Bayesian networks and cost function networks (WCSP) and the haplotype reconstruction in pedigrees. We apply techniques of WCSP to treat Bayesian network. We exploit stuctural and fonctional properties, in an exact and approached methods. Particulary, we define a decomposition of function which produces functions with a smaller variable number. An application example in optimization is the haplotype reconstruction. It is essential for a best prediction of seriousness of disease or to understand particular physical characters. Haplotype reconstruction is represented with a Bayesian network. The functionnal decomposition allows to reduce this Bayesian network in an optimization problem WCSP (Max-2SAT)
Style APA, Harvard, Vancouver, ISO itp.
10

Ribés, Cortés Alejandro. "Analyse multispectrale et reconstruction de la réflectance spectrale de tableaux de maître". Paris, ENST, 2003. https://pastel.archives-ouvertes.fr/pastel-00000761.

Pełny tekst źródła
Streszczenie:
Nous nous sommes intéressés principalement : 1 aux méthodes de reconstruction de la réflectance spectrale de la surface du matériau imagé en chaque pixel à partir des valeurs des N canaux d'une image multispectrale (N>3). Nous proposons une classification des méthodes de reconstruction spectrale existantes et nous apportons des améliorations. La technique "Mixture Density Networks" a été adaptée à la reconstruction spectrale et ensuite enrichie en développant un système automatique de sélection d'architecture. 2 Nous avons étudié, caractérisé et évalué les éléments d'une nouvelle caméra multispectrale de haute définition (projet européen CRISATEL). Un système automatique de calibrage et correction des images a été conçu et implanté. Nous avons aussi travaillé sur la sélection des filtres optiques les plus adaptés à la reconstruction spectrale de matériaux spécifiques. Nous présentons des exemples de traitement de deux tableaux de maître de Georges de la Tour et de Renoir
This thesis is devoted to 1 The methods for spectral reflectance reconstruction of the surface of coloured materials in each pixel of an N-channel multispectral image (N > 3). We propose a classification of spectral reflectance reconstruction methods and we improve some of them. We adapted Mixture Density Networks (MDN) to spectral reconstruction. MDN were enriched by developing an automatic system of architecture selection. 2 We studied, characterised and evaluated a new high definition multispectral camera created for the European project CRISATEL. An automatic calibration procedure and an image correction system were conceived and implemented. We also worked on the selection of the optical filters most adapted to the spectral reconstruction of a specific material. Finally, the work completed during this thesis was applied to art paintings. We present two examples, painted by George de la Tour and Renoir
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii