To see the other types of publications on this topic, follow the link: POSTERIORI ALGORITHM.

Dissertations / Theses on the topic 'POSTERIORI ALGORITHM'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 39 dissertations / theses for your research on the topic 'POSTERIORI ALGORITHM.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Full text
Abstract:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
APA, Harvard, Vancouver, ISO, and other styles
2

Moon, Kyoung-Sook. "Adaptive Algorithms for Deterministic and Stochastic Differential Equations." Doctoral thesis, KTH, Numerical Analysis and Computer Science, NADA, 2003. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-3586.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bekkouche, Fatiha. "Étude théorique et numérique des équations non-linéaires de Sobolev." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0018/document.

Full text
Abstract:
L'objectif de la thèse est l'étude mathématique et l'analyse numérique du problème non linéaire de Sobolev. Un premier chapitre est consacré à l'analyse a priori pour le problème de Sobolev où on utilise des méthodes de semi-discrétisation explicite en temps. Des estimations d'erreurs ont été obtenues assurant que les schémas numériques utilisés convergent lorsque le pas de discrétisation en temps et le pas de discrétisation en espace tendent vers zéro. Dans le second chapitre, on s'intéresse au problème de Sobolev singulièrement perturbé. En vue de la stabilité des schémas numériques, on utilise dans cette partie des méthodes numériques implicites (la méthode d'Euler et la méthode de Crank- Nicolson) pour discrétiser le problème par rapport au temps. Dans le troisième chapitre, on présente des applications et des illustrations où on utilise le logiciel "FreeFem++". Dans le dernier chapitre, on considère une équation de type Sobolev et on s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des éléments finis conforme en espace et un schéma d'Euler implicite en temps. La borne supérieure est globale en espace et en temps et permet le contrôle effectif de l'erreur globale. A la fin du chapitre, on propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques
The purpose of this work is the mathematical study and the numerical analysis of the nonlinear Sobolev problem. A first chapter is devoted to the a priori analysis for the Sobolev problem, where we use an explicit semidiscretization in time. A priori error estimates were obtained ensuring that the used numerical schemes converge when the time step discretization and the spatial step discretization tend to zero. In a second chapter, we are interested in the singularly perturbed Sobolev problem. For the stability of numerical schemes, we used in this part implicit semidiscretizations in time (the Euler method and the Crank-Nicolson method). Our estimates of Chapters 1 and 2 are confirmed in the third chapter by some numerical experiments. In the last chapter, we consider a Sobolev equation and we derive a posteriori error estimates for the discretization of this equation by a conforming finite element method in space and an implicit Euler scheme in time. The upper bound is global in space and time and allows effective control of the global error. At the end of the chapter, we propose an adaptive algorithm which ensures the control of the total error with respect to a user-defined relative precision by refining the meshes adaptively, equilibrating the time and space contributions of the error. We also present numerical experiments
APA, Harvard, Vancouver, ISO, and other styles
4

Giacomini, Matteo. "Quantitative a posteriori error estimators in Finite Element-based shape optimization." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX070/document.

Full text
Abstract:
Les méthodes d’optimisation de forme basées sur le gradient reposent sur le calcul de la dérivée de forme. Dans beaucoup d’applications, la fonctionnelle coût dépend de la solution d’une EDP. Il s’en suit qu’elle ne peut être résolue exactement et que seule une approximation de celle-ci peut être calculée, par exemple par la méthode des éléments finis. Il en est de même pour la dérivée de forme. Ainsi, les méthodes de gradient en optimisation de forme - basées sur des approximations du gradient - ne garantissent pas a priori que la direction calculée à chaque itération soit effectivement une direction de descente pour la fonctionnelle coût. Cette thèse est consacrée à la construction d’une procédure de certification de la direction de descente dans des algorithmes de gradient en optimisation de forme grâce à des estimations a posteriori de l’erreur introduite par l’approximation de la dérivée de forme par la méthode des éléments finis. On présente une procédure pour estimer l’erreur dans une Quantité d’Intérêt et on obtient une borne supérieure certifiée et explicitement calculable. L’Algorithme de Descente Certifiée (CDA) pour l’optimisation de forme identifie une véritable direction de descente à chaque itération et permet d’établir un critère d’arrêt fiable basé sur la norme de la dérivée de forme. Deux applications principales sont abordées dans la thèse. Premièrement, on considère le problème scalaire d’identification de forme en tomographie d’impédance électrique et on étudie différentes estimations d’erreur. Une première approche est basée sur le principe de l’énergie complémentaire et nécessite la résolution de problèmes globaux additionnels. Afin de réduire le coût de calcul de la procédure de certification, une estimation qui dépend seulement de quantités locales est dérivée par la reconstruction des flux équilibrés. Après avoir validé les estimations de l’erreur pour un cas bidimensionnel, des résultats numériques sont présentés pour tester les méthodes discutées. Une deuxième application est centrée sur le problème vectoriel de la conception optimale des structures élastiques. Dans ce cadre figure, on calcule l’expression volumique de la dérivée de forme de la compliance à partir de la formulation primale en déplacements et de la formulation duale mixte pour l’équation de l’élasticité linéaire. Quelques résultats numériques préliminaires pour la minimisation de la compliance sous une contrainte de volume en 2D sont obtenus à l’aide de l’Algorithme de Variation de Frontière et une estimation a posteriori de l’erreur de la dérivée de forme basée sur le principe de l’énergie complémentaire est calculée
Gradient-based shape optimization strategies rely on the computation of the so-called shape gradient. In many applications, the objective functional depends both on the shape of the domain and on the solution of a PDE which can only be solved approximately (e.g. via the Finite Element Method). Hence, the direction computed using the discretized shape gradient may not be a genuine descent direction for the objective functional. This Ph.D. thesis is devoted to the construction of a certification procedure to validate the descent direction in gradient-based shape optimization methods using a posteriori estimators of the error due to the Finite Element approximation of the shape gradient.By means of a goal-oriented procedure, we derive a fully computable certified upper bound of the aforementioned error. The resulting Certified Descent Algorithm (CDA) for shape optimization is able to identify a genuine descent direction at each iteration and features a reliable stopping criterion basedon the norm of the shape gradient.Two main applications are tackled in the thesis. First, we consider the scalar inverse identification problem of Electrical Impedance Tomography and we investigate several a posteriori estimators. A first procedure is inspired by the complementary energy principle and involves the solution of additionalglobal problems. In order to reduce the computational cost of the certification step, an estimator which depends solely on local quantities is derived via an equilibrated fluxes approach. The estimators are validated for a two-dimensional case and some numerical simulations are presented to test the discussed methods. A second application focuses on the vectorial problem of optimal design of elastic structures. Within this framework, we derive the volumetric expression of the shape gradient of the compliance using both H 1 -based and dual mixed variational formulations of the linear elasticity equation. Some preliminary numerical tests are performed to minimize the compliance under a volume constraint in 2D using the Boundary Variation Algorithm and an a posteriori estimator of the error in the shape gradient is obtained via the complementary energy principle
APA, Harvard, Vancouver, ISO, and other styles
5

Chalhoub, Nancy. "Estimations a posteriori pour l'équation de convection-diffusion-réaction instationnaire et applications aux volumes finis." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00794392.

Full text
Abstract:
On considère l'équation de convection-diffusion-réaction instationnaire. On s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des volumes finis centrés par mailles en espace et un schéma d'Euler implicite en temps. Les estimations, qui sont établies dans la norme d'énergie, bornent l'erreur entre la solution exacte et une solution post-traitée à l'aide de reconstructions H(div, Ω)-conformes du flux diffusif et du flux convectif, et d'une reconstruction H_0^1(Ω)-conforme du potentiel. On propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques. Enfin, on dérive une estimation d'erreur a posteriori dans la norme d'énergie augmentée d'une norme duale de la dérivée en temps et de la partie antisymétrique de l'opérateur différentiel. Cette nouvelle estimation est robuste dans des régimes dominés par la convection et des bornes inférieures locales en temps et globales en espace sont également obtenues.
APA, Harvard, Vancouver, ISO, and other styles
6

Moon, Kyoung-Sook. "Convergence rates of adaptive algorithms for deterministic and stochastic differential equations." Licentiate thesis, KTH, Numerical Analysis and Computer Science, NADA, 2001. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-1382.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sánchez, Góez Sebastián. "Algoritmo de reconstrucción analítico para el escáner basado en cristales monolíticos MINDView." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/159259.

Full text
Abstract:
[ES] La tomografía por emisión de positrones (PET, del inglés Positron Emission Tomography) es una técnica de medicina nuclear en la que se genera una imagen a partir de la detección de rayos gamma en coincidencia. Estos rayos son producidos dentro de un paciente al que se le inyecta una radiotrazador emisor de positrones, los cuales se aniquilan con electrones del medio circundante. El proceso de adquisición de eventos de interacción, tiene como unidad central el detector del escáner PET, el cual se compone a su vez de un cristal de centelleo, encargado de transformar los rayos gamma incidentes en fotones ópticos dentro del cristal. La finalidad es entonces, determinar las coordenadas de impacto dentro del cristal de centelleo con la mayor precisión posible, para que, a partir de dichos puntos, se pueda reconstruir una imagen. A lo largo de la historia, los detectores basados en cristales pixelados han representado la elección por excelencia para la la fabricación de escáneres PET. En está tesis se evalúa el impacto en la resolución espacial del escáner PET MINDView, desarrollado dentro del séptimo programa Marco de la Unión Europea No 603002, el cual se basa en el uso de cristales monolíticos. El uso de cristales monolíticos, facilita la determinación de la profundidad de interacción (DOI - del inglés Depth Of Interaction) de los rayos gamma incidentes, aumenta la precisión en las coordenadas de impacto determinadas, y disminuye el error de paralaje que se induce en cristales pixelados, debido a la dificultad para determinar la DOI. En esta tesis, hemos logrado dos objetivos principales relacionados con la medición de la resolución espacial del escáner MINDView: la adaptación del un algoritmo de STIR de Retroproyección Filtrada en 3D (FBP3DRP - del inglés Filtered BackProjection 3D Reproyected) a un escáner basado en cristales monolíticos y la implementación de un algoritmo de Retroproyección y filtrado a posteriori (BPF - BackProjection then Filtered). Respecto a la adaptación del algoritmo FBP, las resoluciones espaciales obtenidas varían en los intervalos [2 mm, 3,4 mm], [2,3 mm, 3,3 mm] y [2,2 mm, 2,3 mm] para las direcciones radial, tangencial y axial, respectivamente, en el primer prototipo del escáner MINDView dedicado a cerebro. Por otra parte, en la implementación del algoritmo de tipo BPF, se realizó una adquisición de un maniquí de derenzo y se comparó la resolución obtenida con el algoritmo de FBP y una implementación del algoritmo de subconjuntos ordenados en modo lista (LMOS - del inglés List Mode Ordered Subset). Mediante el algoritmo de tipo BPF se obtuvieron valores pico-valle de 2.4 a lo largo de los cilindros del maniquí de 1.6 mm de diámetro, en contraste con las medidas obtenidas de 1.34 y 1.44 para los algoritmos de FBP3DRP y LMOS, respectivamente. Lo anterior se traduce en que, mediante el algoritmo de tipo BPF, se logra mejorar la resolución para obtenerse un valor promedio 1.6 mm.
[CAT] La tomografia per emissió de positrons és una tècnica de medicina nuclear en la qual es genera una imatge a partir de la detecció de raigs gamma en coincidència. Aquests raigs són produïts dins d'un pacient a què se li injecta una radiotraçador emissor de positrons, els quals s'aniquilen amb electrons de l'medi circumdant. El procés de adquición d'esdeveniments d'interacció, té com a unitat central el detector de l'escàner PET, el qual es compon al seu torn d'un vidre de centelleig, encarregat de transformar els raigs gamma incidents en fotons òptics dins el vidre. La finalitat és llavors, determinar les coordenades d'impacte dins el vidre de centelleig amb la major precisió possible, perquè, a partir d'aquests punts, es pugui reconstruir una imatge. Al llarg de la història, els detectors basats en cristalls pixelats han representat l'elecció per excellència per a la la fabricació d'escàners PET. En aquesta tesi s'avalua l'impacte en la resolució espacial de l'escàner PET MINDView, desenvolupat dins el setè programa Marc de la Unió Europea No 603.002, el qual es basa en l'ús de vidres monolítics. L'ús de vidres monolítics, facilita la determinació de la profunditat d'interacció dels raigs gamma incidents, augmenta la precisió en les coordenades d'impacte determinades, i disminueix l'error de parallaxi que s'indueix en cristalls pixelats, a causa de la dificultat per determinar la DOI. En aquesta tesi, hem aconseguit dos objectius principals relacionats amb el mesurament de la resolució espacial de l'escàner MINDView: l'adaptació de l'un algoritme de STIR de Retroprojecció Filtrada en 3D a un escàner basat en cristalls monolítics i la implementació d'un algoritme de Retroprojecció i filtrat a posteriori. Pel que fa a l'adaptació de l'algoritme FBP3DRP, les resolucions espacials obtingudes varien en els intervals [2 mm, 3,4 mm], [2,3 mm, 3,3 mm] i [2,2 mm, 2,3 mm] per les direccions radial, tangencial i axial, respectivament, en el primer prototip de l'escàner MINDView dedicat a cervell. D'altra banda, en la implementació de l'algoritme de tipus BPF, es va realitzar una adquisició d'un maniquí de derenzo i es va comparar la resolució obtinguda amb l'algorisme de FBP3DRP i una implementació de l'algoritme de subconjunts ordenats en mode llista (LMOS - de l'anglès List Mode Ordered Subset). Mitjançant l'algoritme de tipus BPF es van obtenir valors pic-vall de 2.4 al llarg dels cilindres de l'maniquí de 1.6 mm de diàmetre, en contrast amb les mesures obtingudes de 1.34 i 1.44 per als algoritmes de FBP3DRP i LMOS, respectivament. L'anterior es tradueix en que, mitjançant l'algoritme de tipus BPF, s'aconsegueix millorar la resolució per obtenir-se un valor mitjà 1.6 mm.
[EN] Positron Emission Tomography (PET) is a medical imaging technique, in which an image is generated from the detection of gamma rays in coincidence. These rays are produced within a patient, who is injected with a positron emmiter radiotracer, from which positrons are annihilated with electrons in the media. The event acquisition process is focused on the scanner detector. The detector is in turn composed of a scintillation crystal, which transform the incident ray gamma into optical photons within the crystal. The purpose is then to determine the impact coordinates within the scintillation crystal with the greatest possible precision, so that, from these points, an image can be reconstructed. Throughout history, detectors based on pixelated crystals have represented the quintessential choice for PET scanners manufacture. This thesis evaluates the impact on the spatial resolution of the MINDView PET scanner, developed in the seventh Framework program of the European Union No. 603002, which detectors are based on monolithic crystals. The use of monolithic crystals facilitates the determination of the depth of interaction (DOI - Depth Of Interaction) of the incident gamma rays, increases the precision in the determined impact coordinates, and reduces the parallax error induces in pixelated crystals, due to the difficulties in determining DOI. In this thesis, we have achieved two main goals related to the measurement of the spatial resolution of the MINDView PET scanner: the adaptation of an STIR algorithm for Filtered BackProjection 3D Reproyected (FBP3DRP) to a scanner based on monolithic crystals, and the implementation of a BackProjection then Filtered algorithm (BPF). Regarding the FBP algorithm adaptation, we achieved resolutions ranging in the intervals [2 mm, 3.4 mm], [2.3 mm, 3.3 mm] and [2.2 mm, 2.3 mm] for the radial, tangential and axial directions, respectively. On the an acquisition of a derenzo phantom was performed to measure the spacial resolution, which was obtained using three reconstruction algorithms: the BPF-type algorithm, the FBP3DRP algorithm and an implementation of the list-mode ordered subsets algorithm (LMOS). Regarding the BPF-type algorithm, a peak-to-valley value of 2.4 were obtain along rod of 1.6 mm, in contrast to the measurements of 1.34 and 1.44 obtained for the FBP3DRP and LMOS algorithms, respectively. This means that, by means of the BPF-type algorithm, it is possible to improve the resolution to obtain an average value of 1.6 mm.
Sánchez Góez, S. (2020). Algoritmo de reconstrucción analítico para el escáner basado en cristales monolíticos MINDView [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159259
TESIS
APA, Harvard, Vancouver, ISO, and other styles
8

Hu, Ying. "Maximum a posteriori estimation algorithms for image segmentation and restoration." Thesis, University of Essex, 1992. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.317698.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Renaud, Gabriel. "Bayesian maximum a posteriori algorithms for modern and ancient DNA." Doctoral thesis, Universitätsbibliothek Leipzig, 2016. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-195705.

Full text
Abstract:
When DNA is sequenced, nucleotide calls are produced along with their individual error probabilities, which are usually reported in the form of a per-base quality score. However, these quality scores have not generally been incorporated into probabilistic models as there is typically a poor correlation between the predicted and observed error rates. Computational tools aimed at sequence analysis have therefore used arbitrary cutoffs on quality scores which often unnecessarily reduce the amount of data that can be analyzed. A different approach involves recalibration of those quality scores using known genomic variants to measure empirical error rates. However, for this heuristic to work, an adequate characterization of the variants present in a population must be available -which means that this approach is not possible for a wide range of species. This thesis develops methods to directly produce error probabilities that are representative of their empirical error rates for raw sequencing data. These can then be incorporated into Bayesian maximum a posteriori algorithms to make highly accurate inferences about the likelihood of the model that gave rise to this observed data. First, an algorithm to produce highly accurate nucleotide basecalls along with calibrated error probabilities is presented. Using the resulting data, individual reads can be robustly as- signed to their samples of origin and ancient DNA fragments can be inferred even at high error rates. For archaic hominin samples, the number of DNA fragments from present-day human contamination can also be accurately quantified. The novel algorithms developed during the course of this thesis provide an alternative approach to working with Illumina sequence data. They also provide a demonstrable improvement over existing computational methods for basecalling, inferring ancient DNA fragments, demultiplexing, and estimating present-day human contamination along with reconstruction of mitochondrial genomes in ancient hominins.
APA, Harvard, Vancouver, ISO, and other styles
10

Grosman, Sergey. "Adaptivity in anisotropic finite element calculations." Doctoral thesis, Universitätsbibliothek Chemnitz, 2006. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200600815.

Full text
Abstract:
When the finite element method is used to solve boundary value problems, the corresponding finite element mesh is appropriate if it is reflects the behavior of the true solution. A posteriori error estimators are suited to construct adequate meshes. They are useful to measure the quality of an approximate solution and to design adaptive solution algorithms. Singularly perturbed problems yield in general solutions with anisotropic features, e.g. strong boundary or interior layers. For such problems it is useful to use anisotropic meshes in order to reach maximal order of convergence. Moreover, the quality of the numerical solution rests on the robustness of the a posteriori error estimation with respect to both the anisotropy of the mesh and the perturbation parameters. There exist different possibilities to measure the a posteriori error in the energy norm for the singularly perturbed reaction-diffusion equation. One of them is the equilibrated residual method which is known to be robust as long as one solves auxiliary local Neumann problems exactly on each element. We provide a basis for an approximate solution of the aforementioned auxiliary problem and show that this approximation does not affect the quality of the error estimation. Another approach that we develope for the a posteriori error estimation is the hierarchical error estimator. The robustness proof for this estimator involves some stages including the strengthened Cauchy-Schwarz inequality and the error reduction property for the chosen space enrichment. In the rest of the work we deal with adaptive algorithms. We provide an overview of the existing methods for the isotropic meshes and then generalize the ideas for the anisotropic case. For the resulting algorithm the error reduction estimates are proven for the Poisson equation and for the singularly perturbed reaction-difussion equation. The convergence for the Poisson equation is also shown. Numerical experiments for the equilibrated residual method, for the hierarchical error estimator and for the adaptive algorithm confirm the theory. The adaptive algorithm shows its potential by creating the anisotropic mesh for the problem with the boundary layer starting with a very coarse isotropic mesh.
APA, Harvard, Vancouver, ISO, and other styles
11

Zoubert-Ousseni, Kersane. "Algorithmes de géolocalisation à l’intérieur d’un bâtiment en temps différé." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S015/document.

Full text
Abstract:
La géolocalisation indoor en temps réel a largement été étudiée ces dernières années, et de nombreuses applications y sont associées. Une estimation en temps différé de la trajectoire présente également un certain intérêt. La géolocalisation indoor en temps différé permet par exemple de développer des approches de type crowdsourcing qui tirent profit d'un grand nombre d'utilisateurs afin de récolter un grand nombre de mesures : la connaissance du trajet d'un utilisateur muni d'un smartphone permet par exemple d'alimenter une carte de fréquentation du bâtiment. Estimer la trajectoire de cet utilisateur ne nécessite pas de traitement en temps réel et peut s'effectuer en temps différé ce qui offre deux avantages. D'abord, l'approche temps réel estime une position courante uniquement avec les mesures présentes et passées, alors que l'approche temps différé permet d'avoir accès à l'ensemble des mesures et permet d'obtenir une trajectoire estimée plus régulière et plus précise qu'en temps réel. Par ailleurs, cette estimation peut se faire sur un serveur et n'a pas besoin d'être portée par un smartphone comme c'est le cas en temps réel, ce qui permet d'utiliser une puissance de calcul et un volume mémoire plus importants. L'objet de ces travaux de thèse est de proposer une estimation de la trajectoire d'un individu se déplaçant avec un smartphone recevant des mesures de puissance wifi ou bluetooth (RSS) et enregistrant des mesures inertielles (IMU). En premier lieu, sans la connaissance de la position des murs de la carte, un modèle paramétrique est proposé, basé sur un modèle de propagation d'onde adaptatif pour les mesures RSS ainsi que sur une modélisation par morceaux de la trajectoire inertielle, issue des mesures IMU. Les résultats obtenus en temps différé ont une moyenne d'erreur de 6.2m contre 12.5men temps réel. En second lieu, l'information des contraintes de déplacement induites par la présence des murs du bâtiment est ajoutée et permet d'affiner l'estimation de la trajectoire avec une technique particulaire, comme il est couramment utilisé dans la littérature. Cette seconde approche a permis de développer un lisseur particulaire ainsi qu'un estimateur du maximum a posteriori par l'algorithme de Viterbi. D'autres heuristiques numériques ont été présentées. Une première heuristique ajuste le modèle d'état de l'utilisateur, qui est initialement uniquement basé sur les mesures IMU, à partir du modèle paramétrique développé sans les murs. Une seconde heuristique met en œuvre plusieurs réalisations d'un filtre particulaire et définit deux scores basés sur les mesures RSS et sur la continuité de la trajectoire. Les scores permettent de sélectionner la meilleure réalisation du filtre. Un algorithme global, regroupant l'ensemble de ces approche permet d'obtenir une erreur moyenne de 3.6m contre 5.8m en temps réel. Enfin, un modèle d'apprentissage statistique basé sur des forêts aléatoires a permis de distinguer les trajectoires qui ont été correctement estimées en fonction d'un faible nombre de variables, en prévision d'une application au crowdsourcing
Real time indoor geolocalization has recently been widely studied, and has many applications. Off-line (post-processing) trajectory estimation also presents some interest. Off-line indoor geolocalization makes it possible for instance to develop crowdsourcing approaches that take advantage of a large number of users to collect a large number of measurements: knowing the trajectory of a smartphone user makes it possible for instance to feed an attendance map. Estimating this trajectory does not need to be performed in real-time and can be performed off-line, two main benefits. Firstly, the real-time approach estimates a current position using present and past measurements only, when the off-line approach has access to the whole measurements, and makes it possible to obtain an estimated trajectory that is smoother and more accurate than with a real-time approach. Secondly, this estimation can be done on a server and does not need to be implemented in the smartphone as it is the case in the real-time approach, with the consequence that more computing power and size memory are available. The objective of this PhD is to provide an off-line estimation of the trajectory of a smartphone user receiving signal strength (RSS) of wifi or bluetooth measurements and collecting inertial measurements (IMU). In the beginning, without the floorplan of the building, a parametric model is proposed, based on an adaptive pathloss model for RSS measurements and on a piecewise parametrization for the inertial trajectory, obtained with IMU measurements. Results are an average error of 6.2mfor the off-line estimation against 12.5m for the real-time estimation. Then, information on displacement constraints induced by the walls is considered, that makes it possible to adjust the estimated trajectory by using a particle technique as often done in the state-of-the-art. With this second approach we developped a particle smoother and a maximum a posteriori estimator using the Viterbi algorithm. Other numerical heuristics have been introduced. A first heuristic makes use of the parametric model developed without the floorplan to adjust the state model of the user which was originally based on IMUalone. A second heuristic proposes to performseveral realization of a particle filter and to define two score functions based on RSS and on the continuity of the estimated trajectory. The scores are then used to select the best realization of the particle filter as the estimated trajectory. A global algorithm, which uses all of the aforementioned approaches, leads to an error of 3.6m against 5.8m in real-time. Lastly, a statistical machine learning model produced with random forests makes it possible to distinguish the correct estimated trajectories by only using few variables to be used in a crowdsourcing framework
APA, Harvard, Vancouver, ISO, and other styles
12

Riedlbeck, Rita. "Adaptive algorithms for poromechanics and poroplasticity." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS055/document.

Full text
Abstract:
Dans cette thèse nous développons des estimations d'erreur a posteriori par équilibrage de flux pour la poro-mécanique et la poro-plasticité.En se basant sur ces estimations, nous proposons des algorithmes adaptatifs pour la résolution numérique de problèmes en mécanique des sols.Le premier chapitre traite des problèmes en poro-élasticité linéaire.Nous obtenons une borne garantie sur l'erreur en utilisant des reconstructions équilibrées et $H({rm div})$-conformes de la vitesse de Darcy et du tenseur de contraintes mécaniques.Nous appliquons cette estimation dans un algorithme adaptif pour équilibrer les composantes de l'erreur provenant de la discrétisation en espace et en temps pour des simulations en deux dimensions.La contribution principale du chapitre porte sur la reconstruction symétrique du tenseur de contraintes.Dans le deuxième chapitre nous proposons une deuxième technique de reconstruction du tenseur de contraintes dans le cadre de l'élasticité nonlinéaire.En imposant la symétrie faiblement, cette technique améliore les temps de calcul et facilite l'implémentation.Nous démontrons l'éfficacité locale et globale des estimateurs obtenus avec cette reconstruction pour une grande classe de lois en hyperélasticité.En ajoutant un estimateur de l'erreur de linéarisation, nous introduisons des critères d'arrêt adaptatifs pour le solveur de linéarisation.Le troisième chapitre est consacré à l'application industrielle des résultats obtenus. Nous appliquons un algorithme adaptatif à des problèmes poro-mécaniques en trois dimensions avec des lois de comportement mécanique élasto-plastiques
In this Ph.D. thesis we develop equilibrated flux a posteriori error estimates for poro-mechanical and poro-plasticity problems.Based on these estimations we propose adaptive algorithms for the numerical solution of problems in soil mechanics.The first chapter deals with linear poro-elasticity problems.Using equilibrated $H({rm div})$-conforming flux reconstructions of the Darcy velocity and the mechanical stress tensor, we obtain a guaranteed upper bound on the error.We apply this estimate in an adaptive algorithm balancing the space and time discretisation error components in simulations in two space dimensions.The main contribution of this chapter is the symmetric reconstruction of the stress tensor.In the second chapter we propose another reconstruction technique for the stress tensor, while considering nonlinear elasticity problems.By imposing the symmetry of the tensor only weakly, we reduce computation time and simplify the implementation.We prove that the estimate obtained using this stress reconstuction is locally and globally efficient for a wide range of hyperelasticity problems.We add a linearization error estimator, enabling us to introduce adaptive stopping criteria for the linearization solver.The third chapter adresses the industrial application of the obtained results.We apply an adaptive algorithm to three-dimensional poro-mechanical problems involving elasto-plastic mechanical behavior laws
APA, Harvard, Vancouver, ISO, and other styles
13

Dakroub, Jad. "Analyse a posteriori d'algorithmes itératifs pour des problèmes non linéaires." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066259/document.

Full text
Abstract:
La résolution numérique de n’importe quelle discrétisation d’équations aux dérivées partielles non linéaires requiert le plus souvent un algorithme itératif. En général, la discrétisation des équations aux dérivées partielles donne lieu à des systèmes de grandes dimensions. Comme la résolution des grands systèmes est très coûteuse en terme de temps de calcul, une question importante se pose: afin d’obtenir une solution approchée de bonne qualité, quand est-ce qu’il faut arrêter l’itération afin d’éviter les itérations inutiles ? L’objectif de cette thèse est alors d’appliquer, à différentes équations, une méthode qui nous permet de diminuer le nombre d’itérations de la résolution des systèmes en gardant toujours une bonne précision de la méthode numérique. En d’autres termes, notre but est d’appliquer une nouvelle méthode qui fournira un gain remarquable en terme de temps de calcul. Tout d’abord, nous appliquons cette méthode pour un problème non linéaire modèle. Nous effectuons l’analyse a priori et a posteriori de la discrétisation par éléments finis de ce problème et nous proposons par la suite deux algorithmes de résolution itérative correspondants. Nous calculons les estimations d’erreur a posteriori de nos algorithmes itératifs proposés et nous présentons ensuite quelques résultats d’expérience numériques afin de comparer ces deux algorithmes. Nous appliquerons de même cette approche pour les équations de Navier-Stokes. Nous proposons un schéma itératif et nous étudions la convergence et l’analyse a priori et a posteriori correspondantes. Finalement, nous présentons des simulations numériques montrant l’efficacité de notre méthode
The numerical resolution of any discretization of nonlinear PDEs most often requires an iterative algorithm. In general, the discretization of partial differential equations leads to large systems. As the resolution of large systems is very costly in terms of computation time, an important question arises. To obtain an approximate solution of good quality, when is it necessary to stop the iteration in order to avoid unnecessary iterations? A posteriori error indicators have been studied in recent years owing to their remarkable capacity to enhance both speed and accuracy in computing. This thesis deals with a posteriori error estimation for the finite element discretization of nonlinear problems. Our purpose is to apply a new method that allows us to reduce the number of iterations of the resolution system while keeping a good accuracy of the numerical method. In other words, our goal is to apply a new method that provides a remarkable gain in computation time. For a given nonlinear equation we propose a finite element discretization relying on the Galerkin method. We solve the discrete problem using two iterative methods involving some kind of linearization. For each of them, there are actually two sources of error, namely discretization and linearization. Balancing these two errors can be very important, since it avoids performing an excessive number of iterations. Our results lead to the construction of computable upper indicators for the full error. Similarly, we apply this approach to the Navier-Stokes equations. Several numerical tests are provided to evaluate the efficiency of our indicators
APA, Harvard, Vancouver, ISO, and other styles
14

Zhang, Li. "Automated segmentation and analysis of layers and structures of human posterior eye." Diss., University of Iowa, 2015. https://ir.uiowa.edu/etd/2030.

Full text
Abstract:
Optical coherence tomography (OCT) is becoming an increasingly important modality for the diagnosis and management of a variety of eye diseases, such as age-related macular degeneration (AMD), glaucoma, and diabetic macular edema (DME). Spectral domain OCT (SD-OCT), an advanced type of OCT, produces three dimensional high-resolution cross-sectional images and demonstrates delicate structure of the functional portion of posterior eye, including retina, choroid, and optic nerve head. As the clinical importance of OCT for retinal disease management and the need for quantitative and objective disease biomarkers grows, fully automated three-dimensional analysis of the retina has become desirable. Previously, our group has developed the Iowa Reference Algorithms (http://www.biomed-imaging.uiowa.edu/downloads/), a set of fully automated 3D segmentation algorithms for the analysis of retinal layer structures in subjects without retinal disease. This is the first method of segmenting and quantifying individual layers of the retina in three dimensions. However, in retinal disease, the normal architecture of the retina - specifically the outer retina - is disrupted. Fluid and deposits can accumulate, and normal tissue can be replaced by scar tissue. These abnormalities increase the irregularity of the retinal structure and make quantitative analysis in the image data extra challenging. In this work, we focus on the segmentation of the retina of patients with age-related macular degeneration, the most important cause of blindness and visual loss in the developed world. Though early and intermediate AMD results in some vision loss, the most devastating vision loss occurs in the two endstages of the disease, called geographic atrophy (GA) respectively choroidal neovascularization (CNV). In GA, because of pathological changes that are not fully understood, the retinal pigment epithelium disappears and photoreceptors lose this supporting tissue and degenerate. Second, in CNV, the growth of abnormal blood vessels originating from the choroidal vasculature causes fluid to enter the surrounding retina, causing disruption of the tissues and eventual visual loss. The severity and progress of early AMD is characterized by the formation of drusen and subretinal drusenoid deposits, structures containing photoreceptor metabolites - primarily lipofuscin - the more drusen the more severe the disease and the higher the risk of progressing to GAD or CNV. Thus, to improve the image guided management of AMD, we will study automated methods for segmenting and quantifying these intraretinal, subretinal and choroidal structures, including different types of abnormalities and layers, focusing on the outer retina. The major contributions of this thesis include: 1) developing an automated method of segmenting the choroid and quantifying the choroidal thickness in 3D OCT images; 2) developing an automated method of quantifying the presence of drusen in early and intermediate AMD; 3) developing an method of identifying the different ocular structures simultaneously; 4) studying the relationship among intraretinal, subretinal and choroidal structures.
APA, Harvard, Vancouver, ISO, and other styles
15

Nasr, Imen. "Algorithmes et Bornes minimales pour la Synchronisation Temporelle à Haute Performance : Application à l’internet des objets corporels." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLY007/document.

Full text
Abstract:
La synchronisation temporelle est la première opération effectuée par le démodulateur. Elle permet d'assurer que les échantillons transmis aux processus de démodulation puissent réaliser un taux d'erreurs binaires le plus faible.Dans cette thèse, nous proposons l'étude d'algorithmes innovants de synchronisation temporelle à haute performance.D'abord, nous avons proposé des algorithmes exploitant l'information souple du décodeur en plus du signal reçu afin d'améliorer l'estimation aveugle d'un retard temporel supposé constant sur la durée d'observation.Ensuite, nous avons proposé un algorithme original basé sur la synchronisation par lissage à faible complexité.Cette étape a consisté à proposer une technique opérant dans un contexte hors ligne, permettant l'estimation d'un retard aléatoire variable dans le temps via les boucles d'aller-retour sur plusieurs itération. Les performances d'un tel estimateur dépassent celles des algorithmes traditionnels.Afin d'évaluer la pertinence de tous les estimateurs proposés, pour des retards déterministe et aléatoire, nous avons évalué et comparé leurs performances à des bornes de Cramèr-Rao que nous avons développées pour ce cadre. Enfin, nous avons évalué les algorithmes proposés sur des signaux WBAN
Time synchronization is the first function performed by the demodulator. It ensures that the samples transmitted to the demodulation processes allow to achieve the lowest bit error rate.In this thesis we propose the study of innovative algorithms for high performance time synchronization.First, we propose algorithms exploiting the soft information from the decoder in addition to the received signal to improve the blind estimation of the time delay. Next, we develop an original algorithm based on low complexity smoothing synchronization techniques. This step consisted in proposing a technique operating in an off-line context, making it possible to estimate a random delay that varies over time on several iterations via Forward- Backward loops. The performance of such estimators exceeds that of traditional algorithms. In order to evaluate the relevance of all the proposed estimators, for deterministic and random delays, we evaluated and compared their performance to Cramer-Rao bounds that we developed within these frameworks. We, finally, evaluated the proposed algorithms on WBAN signals
APA, Harvard, Vancouver, ISO, and other styles
16

Renaud, Gabriel [Verfasser], Janet [Akademischer Betreuer] Kelso, and Peter [Gutachter] Stadler. "Bayesian maximum a posteriori algorithms for modern and ancient DNA / Gabriel Renaud ; Gutachter: Peter Stadler ; Betreuer: Janet Kelso." Leipzig : Universitätsbibliothek Leipzig, 2016. http://d-nb.info/1240317271/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Nazarov, Murtazo. "Adaptive Algorithms and High Order Stabilization for Finite Element Computation of Turbulent Compressible Flow." Doctoral thesis, KTH, Numerisk analys, NA, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-34532.

Full text
Abstract:
This work develops finite element methods with high order stabilization, and robust and efficient adaptive algorithms for Large Eddy Simulation of turbulent compressible flows. The equations are approximated by continuous piecewise linear functions in space, and the time discretization is done in implicit/explicit fashion: the second order Crank-Nicholson method and third/fourth order explicit Runge-Kutta methods. The full residual of the system and the entropy residual, are used in the construction of the stabilization terms. These methods are consistent for the exact solution, conserves all the quantities, such as mass, momentum and energy, is accurate and very simple to implement. We prove convergence of the method for scalar conservation laws in the case of an implicit scheme. The convergence analysis is based on showing that the approximation is uniformly bounded, weakly consistent with all entropy inequalities, and strongly consistent with the initial data. The convergence of the explicit schemes is tested in numerical examples in 1D, 2D and 3D. To resolve the small scales of the flow, such as turbulence fluctuations, shocks, discontinuities and acoustic waves, the simulation needs very fine meshes. In this thesis, a robust adjoint based adaptive algorithm is developed for the time-dependent compressible Euler/Navier-Stokes equations. The adaptation is driven by the minimization of the error in quantities of interest such as stresses, drag and lift forces, or the mean value of some quantity. The implementation and analysis are validated in computational tests, both with respect to the stabilization and the duality based adaptation.
QC 20110627
APA, Harvard, Vancouver, ISO, and other styles
18

Johansson, August. "Duality-based adaptive finite element methods with application to time-dependent problems." Doctoral thesis, Umeå : Institutionen för matematik och matematisk statistik, Umeå universitet, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-33872.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Murphy, Steven. "Methods for solving discontinuous-Galerkin finite element equations with application to neutron transport." Phd thesis, Toulouse, INPT, 2015. http://oatao.univ-toulouse.fr/14650/1/murphy.pdf.

Full text
Abstract:
We consider high order discontinuous-Galerkin finite element methods for partial differential equations, with a focus on the neutron transport equation. We begin by examining a method for preprocessing block-sparse matrices, of the type that arise from discontinuous-Galerkin methods, prior to factorisation by a multifrontal solver. Numerical experiments on large two and three dimensional matrices show that this pre-processing method achieves a significant reduction in fill-in, when compared to methods that fail to exploit block structures. A discontinuous-Galerkin finite element method for the neutron transport equation is derived that employs high order finite elements in both space and angle. Parallel Krylov subspace based solvers are considered for both source problems and $k_{eff}$-eigenvalue problems. An a-posteriori error estimator is derived and implemented as part of an h-adaptive mesh refinement algorithm for neutron transport $k_{eff}$-eigenvalue problems. This algorithm employs a projection-based error splitting in order to balance the computational requirements between the spatial and angular parts of the computational domain. An hp-adaptive algorithm is presented and results are collected that demonstrate greatly improved efficiency compared to the h-adaptive algorithm, both in terms of reduced computational expense and enhanced accuracy. Computed eigenvalues and effectivities are presented for a variety of challenging industrial benchmarks. Accurate error estimation (with effectivities of 1) is demonstrated for a collection of problems with inhomogeneous, irregularly shaped spatial domains as well as multiple energy groups. Numerical results are presented showing that the hp-refinement algorithm can achieve exponential convergence with respect to the number of degrees of freedom in the finite element space
APA, Harvard, Vancouver, ISO, and other styles
20

Pereira, Filipe de Oliveira. "Separação cega de misturas com não-linearidade posterior utilizando estruturas monotônicas e algoritmos bio-inspirados de otimização." [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259842.

Full text
Abstract:
Orientadores: Romis Ribeiro de Faissol Attux, Leonardo Tomazeli Duarte
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação
Made available in DSpace on 2018-08-16T19:27:38Z (GMT). No. of bitstreams: 1 Pereira_FilipedeOliveira_M.pdf: 3292959 bytes, checksum: b07b4141d2a1f443eb3ab766909a099c (MD5) Previous issue date: 2010
Resumo: O presente trabalho se propõe a desenvolver métodos de Separação Cega de Fontes (BSS) para modelos de mistura com Não-Linearidade Posterior (PNL). Neste caso particular, a despeito da não-linearidade do modelo, ainda é possível recuperar as fontes através de técnicas de Análise de Componentes Independentes (ICA). No entanto, há duas dificuldades maiores no emprego da ICA em modelos PNL. A primeira delas diz respeito a uma restrição sobre as funções não-lineares presentes no modelo PNL: elas devem ser monotônicas por construção. O segundo problema se encontra no ajuste do sistema separador com base em funções custo associadas à ICA: pode haver mínimos locais sub-ótimos. De modo a contornar o primeiro problema, investigamos a adequabilidade de três tipos distintos de estruturas não-lineares monotônicas. Para lidar com a presença de mínimos sub-ótimos no ajuste do sistema separador, empregamos algoritmos bio-inspirados com significativa capacidade de busca global. Finalmente, buscamos, através de experimentos em diversos cenários representativos, identificar dentre as estratégias estudadas qual a melhor configuração, tanto em termos de qualidade da estimação das fontes quanto em termos de complexidade
Abstract: This work aims at the development of Blind Source Separation (BSS) methods for Post-NonLinear (PNL) mixing models. In this particular case, despite the presence of nonlinear elements in the mixing model, it is still possible to recover the sources through Independent Component Analysis (ICA) methods. However, there are two major problems in the application of ICA techniques to PNL models. The first one concerns a restriction on the nonlinear functions present in the PNL model: they must be monotonic functions by construction. The second one is related to the adjustment of the PNL separating system via ICA-based cost functions: there may be sub-optimal local minima. To cope with the first problem, we investigate three types of monotonic nonlinear structures. Moreover, to circumvent the problem related to the presence of sub-optimal minima, we consider bio-inspired algorithms that have a significant global search potential. Finally, we perform a set of experiments in representative scenarios in order to identify, among the considered strategies, the best ones in terms of quality of the retrieved sources and overall complexity
Mestrado
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
21

Harroue, Benjamin. "Approche bayésienne pour la sélection de modèles : application à la restauration d’image." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0127.

Full text
Abstract:
L’inversion consiste à reconstruire des objets d’intérêt à partir de données acquises au travers d’un système d’observation. Dans ces travaux, nous nous penchons sur la déconvolution d’image. Les données observées constituent une version dégradée de l’objet, altéré par le système (flou et bruit). A cause de la perte d’informations engendrée, le problème devient alors mal conditionné. Une solution est de régulariser dans un cadre bayésien : en se basant sur des modèles, on introduit de l’information a priori sur les inconnues. Se posent alors les questions suivantes : comment comparer les modèles candidats et choisir le meilleur ? Sur quel critère faut-il s’appuyer ? A quelles caractéristiques ou quantités doit-on se fier ? Ces travaux présentent une méthode de comparaison et de sélection automatique de modèles, fondée sur la théorie de la décision bayésienne. La démarche consiste à sélectionner le modèle qui maximise la probabilité a posteriori. Pour calculer ces dernières, on a besoin de connaître une quantité primordiale : l’évidence. Elle s’obtient en marginalisant la loi jointe par rapport aux inconnus : l’image et les hyperparamètres. Les dépendances complexes entre les variables et la grande dimension de l’image rendent le calcul analytique de l’intégrale impossible. On a donc recours à des méthodes numériques. Dans cette première étude, on s’intéresse au cas gaussien circulant. Cela permet, d’une part, d’avoir une expression analytique de l’intégrale sur l’image, et d’autre part, de faciliter la manipulation des matrices de covariances. Plusieurs méthodes sont mises en œuvre comme l’algorithme du Chib couplé à une chaîne de Gibbs, les power posteriors, ou encore la moyenne harmonique. Les méthodes sont ensuite comparées pour déterminer lesquelles sont les plus adéquates au problème dela restauration d’image
Inversing main goal is about reconstructing objects from data. Here, we focus on the special case of image restauration in convolution problems. The data are acquired through a altering observation system and additionnaly distorted by errors. The problem becomes ill-posed due to the loss of information. One way to tackle it is to exploit Bayesian approach in order to regularize the problem. Introducing prior information about the unknown quantities osset the loss, and it relies on stochastic models. We have to test all the candidate models, in order to select the best one. But some questions remain : how do you choose the best model? Which features or quantities should we rely on ? In this work, we propose a method to automatically compare and choose the model, based on Bayesion decision theory : objectively compare the models based on their posterior probabilities. These probabilities directly depend on the marginal likelihood or “evidence” of the models. The evidence comes from the marginalization of the jointe law according to the unknow image and the unknow hyperparameters. This a difficult integral calculation because of the complex dependancies between the quantities and the high dimension of the image. That way, we have to work with computationnal methods and approximations. There are several methods on the test stand as Harmonic Mean, Laplace method, discrete integration, Chib from Gibbs approximation or the power posteriors. Comparing is those methods is significative step to determine which ones are the most competent in image restauration. As a first lead of research, we focus on the family of Gaussian models with circulant covariance matrices to lower some difficulties
APA, Harvard, Vancouver, ISO, and other styles
22

Fontana, Ilaria. "Interface problems for dam modeling." Thesis, Université de Montpellier (2022-….), 2022. http://www.theses.fr/2022UMONS020.

Full text
Abstract:
Les équipes d’ingénierie ont souvent recours aux simulations numériques par éléments finis pour étudier et analyser le comportement des ouvrages hydrauliques de grande dimension. Pour les ouvrages en béton, les modèles doivent être en mesure de prendre en compte le comportement non-linéaire des discontinuités aux diverses zones d’interfaces localisées en fondation, dans le corps du barrage ou à l’interface entre la structure et la fondation. Il faut non seulement être capable de représenter le comportement mécanique non-linéaire de ces interfaces (rupture, glissement, contact), mais également de prendre en compte l’écoulement hydraulique à travers ces ouvertures.Dans le cadre de cette thèse, nous nous focalisons d’abord sur la question du comportement des interfaces, que nous abordons à travers le modèle des zones cohésives (CZM). Ce dernier, introduit dans divers codes de calcul par éléments finis (avec éléments finis de joint), est une approche pertinente pour décrire la physique des problèmes de fissuration et de frottement au niveau de discontinuités géométriques. Bien que le CZM a été initialement introduit pour prendre en compte que le phénomène de rupture, nous montrons dans cette thèse que son utilisation peut être étendue aux problèmes de glissement en s'appuyant sur le formalisme élasto-plastique éventuellement couplé à l'endommagement. En outre, des lois de comportement hydromécaniques non-linéaires peuvent être introduites pour modéliser la notion d’ouverture de fissure et le couplage avec les lois d’écoulement fluide. Au niveau mécanique, nous travaillons dans le cadre des matériaux standard généralisés (SGM), qui fournit une classe de modèles qui satisfont d’une manière automatique des principes de la thermodynamique tout en possédant des bonnes propriétés mathématiques utiles pour la modélisation numérique robuste. Nous adaptons le formalisme SGM volumique à la description des zones d'interface. Dans cette première partie de la thèse, nous présentons nos développements faites dans l'hypothèse de SGM adaptée aux CZM, capable de reproduire les phénomènes physiques observés expérimentalement : rupture, frottement, adhésion.En pratique, les non-linéarités du comportement des zones d’interface sont dominées par la présence de contact, ce qui engendre des difficultés numériques importantes pour la convergence des calculs par élément fini. Le développement de méthodes numériques efficaces pour le problème de contact est donc une étape clé pour atteindre l’objectif de simulateurs numériques industriels robustes. Récemment, l’utilisation de techniques d’imposition faible des conditions de contact à la Nitsche a été proposée comme moyen pour réduire la complexité numérique. Cette technique présente plusieurs avantages, dont les plus importants pour nos travaux sont: 1) possibilité de gérer une vaste gamme de conditions (glissement avec ou sans frottement, non interpénétration, etc); 2) la technique se prête à une analyse d'erreur a posteriori rigoureuse. Ce schéma basé sur les conditions d’interface faibles représente le point de départ pour l’estimation d’erreur a posteriori par reconstruction équilibrée de la contrainte. Cette analyse est utilisée pour estimer les différentes composantes d’erreur (p.e., spatiale, non-linéaire), et pour mettre en place un algorithme de résolution adaptatif, ainsi que des critères d’arrêt pour les solveurs itératifs et le réglage automatique d’éventuels paramètres numériques.L'objectif principal de la thèse est donc de rendre robuste la simulation numérique par éléments finis des ouvrages présentant des discontinuités géométriques. On aborde cette question sous angle double : d’un côté on revisite les méthodes existantes de représentation de fissuration en travaillant sur la loi de comportement mécanique pour les joints ; de l’autre on introduit une nouvelle méthode a posteriori pour traiter le problème de contact et propose son adaptation pour les modèles d’interfaces génériques
Engineering teams often use finite element numerical simulations for the design, study and analysis of the behavior of large hydraulic structures. For concrete structures, models of increasing complexity must be able to take into account the nonlinear behavior of discontinuities at the various interfaces located in the foundation, in the body of the dam or at the interface between structure and foundation. Besides representing the nonlinear mechanical behavior of these interfaces (rupture, sliding, contact), one should also be able to take into account the hydraulic flow through these openings.In this thesis, we first focus on the topic of interface behavior modeling, which we address through the Cohesive Zone Model (CZM). This model was introduced in various finite element codes (with the joint elements), and it is a relevant approach to describe the physics of cracking and friction problems at the geometrical discontinuities level. Although initially the CZM was introduced to take into account the phenomenon of rupture, we show in this thesis that it can be extended to sliding problems by possibly relying on the elasto-plastic formalism coupled to the damage. In addition, nonlinear hydro-mechanical constitutive relations can be introduced to model the notion of crack opening and the coupling with the laws of fluid flow. At the mechanical level, we work in the Standard Generalized Materials (SGM) framework, which provides a class of models automatically satisfying some thermodynamical principles, while having good mathematical and numerical properties that are useful for robust numerical modeling. We adapt the formalism of volumetric SGM to the interface zones description. In this first part of the thesis, we present our developpements under the hypothesis of SGM adapted to CZM, capable of reproducing the physical phenomena observed experimentally: rupture, friction, adhesion.In practice, nonlinearities of behavior of interface zones are dominated by the presence of contact, which generates significant numerical difficulties for the convergence of finite element computations. The development of efficient numerical methods for the contact problem is thus a key stage for achieving the goal of robust industrial numerical simulators. Recently, the weak enforcement of contact conditions à la Nitsche has been proposed as a mean to reduce numerical complexity. This technique displays several advantages, among which the most important for our work are: 1) it can handle a wide range of conditions (slip with or without friction, no interpenetration, etc.); 2) it lends itself for a rigorous a posteriori error analysis. This scheme based on the weak contact conditions represents in this work the starting point for the a posteriori error estimation via equilibrated stress reconstruction. This analysis is then used to estimate the different error components (e.g., spatial, nonlinear), and to develop an adaptive resolution algorithm, as well as stopping criteria for iterative solvers and the automatic tuning of possible numerical parameters.The main goal of this thesis is thus to make the finite element numerical simulation of structures with geometrical discontinuities robust. We address this question from two angles: on one side, we revisit the existing methods for the crack representation working on the mechanical constitutive relation for joints; on the other, we introduce a new a posteriori method for the contact problem and we propose its adaptation for the generic interface models
APA, Harvard, Vancouver, ISO, and other styles
23

Cooper, Jonathan Paul. "Automatic validation and optimisation of biological models." Thesis, University of Oxford, 2009. http://ora.ox.ac.uk/objects/uuid:24b96d62-b47c-458d-9dff-79b27dbdc9f2.

Full text
Abstract:
Simulating the human heart is a challenging problem, with simulations being very time consuming, to the extent that some can take days to compute even on high performance computing resources. There is considerable interest in computational optimisation techniques, with a view to making whole-heart simulations tractable. Reliability of heart model simulations is also of great concern, particularly considering clinical applications. Simulation software should be easily testable and maintainable, which is often not the case with extensively hand-optimised software. It is thus crucial to automate and verify any optimisations. CellML is an XML language designed for describing biological cell models from a mathematical modeller’s perspective, and is being developed at the University of Auckland. It gives us an abstract format for such models, and from a computer science perspective looks like a domain specific programming language. We are investigating the gains available from exploiting this viewpoint. We describe various static checks for CellML models, notably checking the dimensional consistency of mathematics, and investigate the possibilities of provably correct optimisations. In particular, we demonstrate that partial evaluation is a promising technique for this purpose, and that it combines well with a lookup table technique, commonly used in cardiac modelling, which we have automated. We have developed a formal operational semantics for CellML, which enables us to mathematically prove the partial evaluation of CellML correct, in that optimisation of models will not change the results of simulations. The use of lookup tables involves an approximation, thus introduces some error; we have analysed this using a posteriori techniques and shown how it may be managed. While the techniques could be applied more widely to biological models in general, this work focuses on cardiac models as an application area. We present experimental results demonstrating the effectiveness of our optimisations on a representative sample of cardiac cell models, in a variety of settings.
APA, Harvard, Vancouver, ISO, and other styles
24

Béchet, Clémentine. "Commande optimale rapide pour l'optique adaptative des futurs télescopes hectométriques." Phd thesis, Ecole Centrale de Lyon, 2008. http://tel.archives-ouvertes.fr/tel-00363940.

Full text
Abstract:
Le nombre de degrés de liberté à contrôler dans un système d'optique adaptative (OA) passe de quelques centaines pour les grands télescopes actuels à plusieurs milliers prévus sur les futurs télescopes de 30 à 100 mètres de diamètre. La méthode de commande de cette OA doit être repensée à la fois pour être en adéquation avec les nouveaux critères de performance et pour pouvoir estimer un si grand nombre de paramètres en temps réel. Je montre d'abord qu'il est possible d'améliorer l'estimation de la déformation de la surface d'onde, d'un facteur 2 sur la variance de l'erreur, en tenant compte de connaissances a priori sur la statistique de la turbulence atmosphérique et ce, tout en utilisant un algorithme rapide adapté aux grands systèmes. Ensuite, l'optimisation d'un critère en boucle fermée me conduit à une commande optimale par modèle interne, applicable en temps réel sur un télescope hectométrique grâce à l'algorithme rapide cité précédemment. La robustesse de cette nouvelle méthode de commande a enfin été éprouvée sur un simulateur complet d'OA et ses performances ont été comparées à d'autres approches.
APA, Harvard, Vancouver, ISO, and other styles
25

Yousef, Soleiman. "Etude d'estimations d'erreur a posteriori et d'adaptivité basée sur des critères d'arrêt et raffinement de maillages pour des problèmes d'écoulements multiphasiques et thermiques. Application aux procédés de récupération assistée d'huile." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00918782.

Full text
Abstract:
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénér ées multidimensionnelles modélisant des problèmes importants pour l'industrie. Au chapitre 1 nous considérons le problème de Stefan instationaire a deux phases qui modélise un processus de changement de phase régi par la loi de Fourier. Nous régularisons la relation entre l'enthalpie et la température et nous discrétisons le problème par la méthode d'Euler implicite en temps et un schéma numérique conforme en espace tel que les élément finis conformes, ou les volumes finis centrés aux sommets du maillage. Nous démontrons une borne supérieure de la norme duale du résidu, de l'erreur sur l'enthalpie dans L2(0; T;H-1) et de l'erreur sur la température dans L2(0; T;L2), par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent : un estimateur associé à l'erreur de régularisation, un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. En fin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Un test numérique illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des indices d'efficacité proches de la valeur optimale de 1 sont obtenus. Au chapitre 2 nous développons des estimations d'erreur a posteriori pour l'écoulement de Darcy polyphasique et isothermique, décrit par un système couplé d'équations aux dérivées partielles non linéaires et d'équations algébriques non linéaires. Ce système est discrétisé en espace par une méthode de volume finis centrés par maille et la méthode d'Euler implicite en temps. Nous etablissons une borne supérieure d'une norme duale du résidu augmentée d'un terme qui tiens compte de la non-conformité des volumes finis par des estimateurs d'erreur a posteriori entièrement calculables. Dans ce chapitre, nous nous concentrons sur la formulation d'un critère d'arrêt de l'algorithme de linéarisation du problème discrète (tel que la méthode de Newton) avec un critère d'arrêt du solveur algébrique de résolution du système linéarité (par exemple la méthode GMRes), de sort que les contributions des estimateurs d'erreur correspondant n'affectent plus la somme globale des estimateurs d'erreur de manière significative. Nous appliquons notre analyse sur des exemples réalistes d'ingénierie de réservoir pour confirmer qu'en général notre ajustement des critères d'arrêt apporte une économie significative (jusqu'au un ordre de magnitude en termes du nombre total des itérations du solveur algébrique), déjà sur des maillages fixes, et ceci sans perte notable de précision. Au chapitre 3 nous complétons le modèle décrit au chapitre 2 en considérant une condition non-isothermique pour l'écoulement a fin de traiter le modèle général d'écoulement polyphasique thermique dans les milieux poreux. Pour ce problème, nous développons des estimateurs d'erreur analogues a ceux du chapitre 2 pour lesquels nous établissons une borne supérieure d'erreur entièrement calculable, pour une norme duale du résidu complétée par un terme d'évaluation de la non-conformité. Nous montrons ensuite comment estimer séparément chaque composante d'erreur, ce qui nous permet d'ajuster les critères d'arrêt et d'équilibrer les contributions des différents estimateurs d'erreur : erreur d'approximation en temps, erreur d'approximation en espace, erreur de linéarisation et erreur du solveur algébrique. Ce chapitre se termine par une application des estimateurs au modèle d'huile morte. La preuve de l'efficacité de notre estimation a postiriori est egalement fournie. Finalement, au chapitre 4 nous considérons les procédés de récupération assistée d'huile. Plus précisément, nous étudions une technique de récupération thermique d'huile de type huile morte par injection de vapeur destinée a augmenter la mobilité des hydrocarbures. Dans ce chapitre, nous appliquons l'analyse a posteriori des chapitres 2 et 3, nous proposons une formule de quadrature pour simplifier l'évaluation des estimateurs, nous proposons un algorithme adaptatif de raffinement de maillages en espace et en temps basé sur les estimateurs et nous illustrons pas des essais numériques sur des exemples réalistes la performance de cette stratégie de raffinement. Notamment, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation sur des exemples en dimension trois.
APA, Harvard, Vancouver, ISO, and other styles
26

Tremblay, Marie. "Estimation des paramètres des modèles de culture : application au modèle STICS Tournesol." Toulouse 3, 2004. http://www.theses.fr/2004TOU30020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Celeste, Francis. "Cartes incertaines et planification optimale pour la localisation d'un engin autonome." Phd thesis, Université Européenne de Bretagne, 2010. http://tel.archives-ouvertes.fr/tel-00483272.

Full text
Abstract:
Des avancées importantes ont été réalisées dans le domaine de la robotique mobile. L'usage croissant des robots terrestres et des drones de petite taille, n'est possible que par l'apport de capacités d'autonomie de mouvement dans l'environnement d'évolution. La problématique de la localisation du système, par la mise en correspondance de mesures issues des capteurs embarqués avec des primitives contenues dans une carte, est primordiale. Ce processus, qui s'appuie sur la mise en oeuvre de techniques de fusion, a été très étudié. Dans cette thèse, nous proposons de définir des méthodes de planification du mouvement d'un mobile, avec pour objectif de garantir une performance de localisation à partir d'une carte incertaine donnée a priori, et ce lors de l'exécution. Une méthode de génération contrôlée de réalisations de cartes bruitées, exploitant la théorie des processus ponctuels, est d'abord présentée. Cette base de cartes permet de construire des cartes multi-niveaux pour la localisation. Le critère d'optimisation est défini à partir de fonctionnelles de la borne de Cramèr-Rao a posteriori, qui tient compte de l'incertitude sur la dynamique du mobile et de la cartographie incertaine. Nous proposons différentes approches, basées sur la méthode de cross-entropie, pour obtenir des stratégies de déplacement avec des modèles de dynamique discret et continu. La qualité des solutions optimales fournies par ces approches heuristiques est analysée en utilisant des résultats de la théorie des valeurs extrêmes. Enfin, nous esquissons une démarche pour l'amélioration ciblée de cartes sous contrainte de ressources afin d'améliorer la performance de localisation.
APA, Harvard, Vancouver, ISO, and other styles
28

Pankajakshan, Praveen. "Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage Laser." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00474264.

Full text
Abstract:
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
APA, Harvard, Vancouver, ISO, and other styles
29

Ozerov, Alexey. "Adaptation de modèles statistiques pour la séparation de sources mono-capteur : application à la séparation voix / musique dans les chansons." Phd thesis, Rennes 1, 2006. https://tel.archives-ouvertes.fr/tel-00564866.

Full text
Abstract:
Les méthodes de séparation de sources avec un seul capteur basées sur des modèles statistiques donnent de bonnes performances à condition que les caractéristiques des modèles utilisés soient proches de celles des sources à séparer. Malheureusement, il n'est pas toujours possible en pratique de construire et d'utiliser de tels modèles. Pour remédier à ce problème, il est proposé dans cette thèse d'adapter les modèles aux sources à séparer. Ainsi, un formalisme général d'adaptation est développé sous la forme d'un critère d'adaptation bayésienne. Ce formalisme d'adaptation est ensuite appliqué sous certaines formes particulières pour séparer la voix chantée par rapport à la musique ambiante dans des chansons populaires. Les résultats obtenus montrent que pour cette tâche, l'utilisation des modèles adaptés permet d'augmenter significativement (au moins de 5 dB) les performances de séparation par rapport aux modèles non adaptés.
APA, Harvard, Vancouver, ISO, and other styles
30

Bontemps, Dominique. "Statistiques discrètes et Statistiques bayésiennes en grande dimension." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00561749.

Full text
Abstract:
Dans cette thèse de doctorat, nous présentons les travaux que nous avons effectués dans trois directions reliées : la compression de données en alphabet infini, les statistiques bayésiennes en dimension infinie, et les mélanges de distributions discrètes multivariées. Dans le cadre de la compression de données sans perte, nous nous sommes intéressé à des classes de sources stationnaires sans mémoire sur un alphabet infini, définies par une condition d'enveloppe à décroissance exponentielle sur les distributions marginales. Un équivalent de la redondance minimax de ces classes a été obtenue. Un algorithme approximativement minimax ainsi que des a-priori approximativement les moins favorables, basés sur l'a-priori de Jeffreys en alphabet fini, ont en outre été proposés. Le deuxième type de travaux porte sur la normalité asymptotique des distributions a-posteriori (théorèmes de Bernstein-von Mises) dans différents cadres non-paramétriques et semi-paramétriques. Tout d'abord, dans un cadre de régression gaussienne lorsque le nombre de régresseurs augmente avec la taille de l'échantillon. Les théorèmes non-paramétriques portent sur les coefficients de régression, tandis que les théorèmes semi-paramétriques portent sur des fonctionnelles de la fonction de régression. Dans nos applications au modèle de suites gaussiennes et à la régression de fonctions appartenant à des classe de Sobolev ou de régularité hölderiennes, nous obtenons simultanément le théorème de Bernstein-von Mises et la vitesse d'estimation fréquentiste minimax. L'adaptativité est atteinte pour l'estimation de fonctionnelles dans ces applications. Par ailleurs nous présentons également un théorème de Bernstein-von Mises non-paramétrique pour des modèles exponentiels de dimension croissante. Enfin, le dernier volet de ce travail porte sur l'estimation du nombre de composantes et des variables pertinentes dans des modèles de mélange de lois multinomiales multivariées, dans une optique de classification non supervisée. Ce type de modèles est utilisé par exemple pour traiter des données génotypiques. Un critère du maximum de vraisemblance pénalisé est proposé, et une inégalité oracle non-asymptotique est obtenue. Le critère retenu en pratique comporte une calibration grâce à l'heuristique de pente. Ses performances sont meilleurs que celles des critères classiques BIC et AIC sur des données simulées. L'ensemble des procédures est implémenté dans un logiciel librement accessible.
APA, Harvard, Vancouver, ISO, and other styles
31

Kao, Chih-wei, and 高志偉. "Circuit Design of Maximum a Posteriori Algorithm for Turbo Code Decoder." Thesis, 2010. http://ndltd.ncl.edu.tw/handle/17949025353187667484.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Chen, Jiunn-Yann, and 陳俊諺. "Low-Complexity Symmetry-Constrained Maximum-A-Posteriori Probability Algorithm for Adaptive Blind Beamforming." Thesis, 2013. http://ndltd.ncl.edu.tw/handle/09482189312002402759.

Full text
Abstract:
碩士
國立中央大學
通訊工程學系
101
In this paper, we propose a real-valued SC-MAP (RSC-MAP) algorithm for concurrent adaptive filter (CAF) applied to beamforming. We first contribute to deriving a closed-form optimal weight expression for blind MAP algorithm. A conjugate symmetric property associated with optimal blind MAP weights is further acquired. Then, we use the conjugate symmetric constraint to guide the proposed RSC-MAP algorithms to follow the optimal blind MAP expression form during adapting procedure. In the simulations, we show that the proposed RSC-MAP algorithms have better performance than the classic ones. Compared with SC-MAP, the RSC-MAP with less computational complexity has the same bit-error rate performance.
APA, Harvard, Vancouver, ISO, and other styles
33

CHANDRA, MUDITA. "PERFORMANCE ANALYSIS OF TURBO CODES IN FADING ENVIRONMENTS." Thesis, 2016. http://dspace.dtu.ac.in:8080/jspui/handle/repository/14972.

Full text
Abstract:
Turbo codes belong to the class of convolutional error correcting codes used in wireless data transmission applications like mobile communications, deep-sea communications, satellite communications and other power constrained fields. Turbo Decoder consists of concatenation of decoders based on Maximum a posteriori algorithm. Turbo decoding is an iterative principle where the constituent decoders pass extrinsic information to each other with an interleaver or deinterleaver in between. The performance of turbo codes approaches the Shannon limit making them most sought after in current wireless applications. Simulations of Turbo code performance under different parameters and different situations like number of iterations, different encoder structures, interleaver types, puncturing has been done. The performance of turbo codes was simulated in Rayleigh and Rician fading channels. The turbo codes have shown a considerably remarkable performance with variations in parameters and environments.
APA, Harvard, Vancouver, ISO, and other styles
34

Chen, Chih-Cheng, and 陳志權. "Application and Complexity Reduction of "Adaptive Maximum A Posteriori Symbol Detection Algorithm" Under Multipath Fading Channel." Thesis, 1998. http://ndltd.ncl.edu.tw/handle/67862919205169266594.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Hossain, Md Nurtaj. "Adaptive reduced order modeling of dynamical systems through novel a posteriori error estimators : Application to uncertainty quantification." Thesis, 2021. https://etd.iisc.ac.in/handle/2005/5218.

Full text
Abstract:
Multi-query problems such as uncertainty quantification, optimization of a dynamical system require solving a governing differential equation at multiple parameter values. Therefore, for large systems, the computational cost becomes prohibitive. Replacing the original discretized higher dimensional model with a faster reduced order model (ROM) can alleviate this computationally prohibitive task significantly. However, a ROM incurs error in the solution due to approximation in a lower dimensional subspace. Moreover, ROMs lack robustness in terms of effectiveness over the entire parameter range. Accordingly, often they are classified as local and global, based on their construction in the parametric domain. Availability of an error bound or error estimator of a ROM helps in achieving this robustness, mainly by allowing adaptivity. The goal of this thesis is to propose such error estimators and use them to develop adaptive proper orthogonal decomposition-based ROM for uncertainty quantification. Therefore, two a posteriori error estimators, one for linear and another for nonlinear dynamical system, respectively, are developed based on the residual in the differential equation. To develop an a posteriori error estimator for nonlinear systems, first, an upper bound on the norm of the state transition matrix is derived and then it is used to develop the error estimator. Numerically they are compared with the error estimators available in the current literature. This comparison revealed that the proposed estimators follow the trend of the exact error more closely, thus serving as an improvement over the state-of-the-art. These error estimators are used in conjunction with a greedy search to develop adaptive algorithms for the construction of robust ROM. The adaptively trained ROM is subsequently deployed for uncertainty quantification by invoking it in a statistical simulation. For the linear dynamical system, two algorithms are proposed for building robust ROMs --- one for local, and another for global. For the nonlinear dynamical system, an adaptive algorithm is developed for the global ROM. In the training stage of global ROM, a modification is proposed --- at each iteration of the greedy search, the ROM is trained at a few local maxima in addition to the global maxima of the error estimator --- leading to an accelerated convergence. For this purpose, a multi-frequency vibrational particle swarm optimization is employed. It is shown that the proposed algorithm for adaptive training of ROMs poses ample scope of parallelization. Different numerical studies: (i) bladed disk assembly, (ii) Burgers' equation, and (iii) beam on nonlinear Winkler foundation, are performed to test the efficiency of the error estimators and the accuracy achieved by the modified greedy search. A speed-up of more than two orders of magnitude is achieved using the ROM, trained with the proposed algorithm, and error estimators. However, adaptive training of ROM is also expensive due to multiple evaluations of HDM. To address this issue, a novel random excitation-based training is proposed in this thesis. Accordingly, depending upon the parameter range of interest, bandlimited random white noise excitations are chosen and the ROM is trained from the corresponding responses. This is applied to linear and nonlinear vibrating systems with spatial periodicity and imperfection. From the numerical studies, it is found that the proposed method reduces the cost of training significantly, and successfully captures the behavior such as alternate pass- and stop-bands of vibration propagation, peak response.
APA, Harvard, Vancouver, ISO, and other styles
36

Samarasinghe, Devanarayanage Pradeepa. "Efficient methodologies for real-time image restoration." Phd thesis, 2011. http://hdl.handle.net/1885/9859.

Full text
Abstract:
In this thesis we investigate the problem of image restoration. The main focus of our research is to come up with novel algorithms and enhance existing techniques in order to deliver efficient and effective methodologies, applicable in real-time image restoration scenarios. Our research starts with a literature review, which identifies the gaps in existing techniques and helps us to come up with a novel classification on image restoration, which integrates and discusses more recent developments in the area of image restoration. With this novel classification, we identified three major areas which need our attention. The first developments relate to non-blind image restoration. The two mostly used techniques, namely deterministic linear algorithms and stochastic nonlinear algorithms are compared and contrasted. Under deterministic linear algorithms, we develop a class of more effective novel quadratic linear regularization models, which outperform the existing linear regularization models. In addition, by looking in a new perspective, we evaluate and compare the performance of deterministic and stochastic restoration algorithms and explore the validity of the performance claims made so far on those algorithms. Further, we critically challenge the ne- cessity of some complex mechanisms in Maximum A Posteriori (MAP) technique under stochastic image deconvolution algorithms. The next developments are focussed in blind image restoration, which is claimed to be more challenging. Constant Modulus Algorithm (CMA) is one of the most popular, computationally simple, tested and best performing blind equalization algorithms in the signal processing domain. In our research, we extend the use of CMA in image restoration and develop a broad class of blind image deconvolution algorithms, in particular algorithms for blurring kernels with a separable property. These algorithms show significantly faster convergence than conventional algorithms. Although CMA method has a proven record in signal processing applications related to data communications systems, no research has been carried out to the investigation of the applicability of CMA for image restoration in practice. In filling this gap and taking into account the differences of signal processing in im- age processing and data communications contexts, we extend our research on the applicability of CMA deconvolution under the assumptions on the ground truth image properties. Through analyzing the main assumptions of ground truth image properties being zero-mean, independent and uniformly distributed, which char- acterize the convergence of CMA deconvolution, we develop a novel technique to overcome the effects of image source correlation based on segmentation and higher order moments of the source. Multichannel image restoration techniques recently gained much attention over the single channel image restoration due to the benefits of diversity and redundancy of the information between the channels. Exploiting these benefits in real time applications is often restricted due to the unavailability of multiple copies of the same image. In order to overcome this limitation, as the last area of our research, we develop a novel multichannel blind restoration model with a single image, which eliminates the constraint of the necessity of multiple copies of the blurred image. We consider this as a major contribution which could be extended to wider areas of research integrated with multiple disciplines such as demosaicing.
APA, Harvard, Vancouver, ISO, and other styles
37

Vicente, Sergio. "Apprentissage statistique avec le processus ponctuel déterminantal." Thesis, 2021. http://hdl.handle.net/1866/25249.

Full text
Abstract:
Cette thèse aborde le processus ponctuel déterminantal, un modèle probabiliste qui capture la répulsion entre les points d’un certain espace. Celle-ci est déterminée par une matrice de similarité, la matrice noyau du processus, qui spécifie quels points sont les plus similaires et donc moins susceptibles de figurer dans un même sous-ensemble. Contrairement à la sélection aléatoire uniforme, ce processus ponctuel privilégie les sous-ensembles qui contiennent des points diversifiés et hétérogènes. La notion de diversité acquiert une importante grandissante au sein de sciences comme la médecine, la sociologie, les sciences forensiques et les sciences comportementales. Le processus ponctuel déterminantal offre donc une alternative aux traditionnelles méthodes d’échantillonnage en tenant compte de la diversité des éléments choisis. Actuellement, il est déjà très utilisé en apprentissage automatique comme modèle de sélection de sous-ensembles. Son application en statistique est illustrée par trois articles. Le premier article aborde le partitionnement de données effectué par un algorithme répété un grand nombre de fois sur les mêmes données, le partitionnement par consensus. On montre qu’en utilisant le processus ponctuel déterminantal pour sélectionner les points initiaux de l’algorithme, la partition de données finale a une qualité supérieure à celle que l’on obtient en sélectionnant les points de façon uniforme. Le deuxième article étend la méthodologie du premier article aux données ayant un grand nombre d’observations. Ce cas impose un effort computationnel additionnel, étant donné que la sélection de points par le processus ponctuel déterminantal passe par la décomposition spectrale de la matrice de similarité qui, dans ce cas-ci, est de grande taille. On présente deux approches différentes pour résoudre ce problème. On montre que les résultats obtenus par ces deux approches sont meilleurs que ceux obtenus avec un partitionnement de données basé sur une sélection uniforme de points. Le troisième article présente le problème de sélection de variables en régression linéaire et logistique face à un nombre élevé de covariables par une approche bayésienne. La sélection de variables est faite en recourant aux méthodes de Monte Carlo par chaînes de Markov, en utilisant l’algorithme de Metropolis-Hastings. On montre qu’en choisissant le processus ponctuel déterminantal comme loi a priori de l’espace des modèles, le sous-ensemble final de variables est meilleur que celui que l’on obtient avec une loi a priori uniforme.
This thesis presents the determinantal point process, a probabilistic model that captures repulsion between points of a certain space. This repulsion is encompassed by a similarity matrix, the kernel matrix, which selects which points are more similar and then less likely to appear in the same subset. This point process gives more weight to subsets characterized by a larger diversity of its elements, which is not the case with the traditional uniform random sampling. Diversity has become a key concept in domains such as medicine, sociology, forensic sciences and behavioral sciences. The determinantal point process is considered a promising alternative to traditional sampling methods, since it takes into account the diversity of selected elements. It is already actively used in machine learning as a subset selection method. Its application in statistics is illustrated with three papers. The first paper presents the consensus clustering, which consists in running a clustering algorithm on the same data, a large number of times. To sample the initials points of the algorithm, we propose the determinantal point process as a sampling method instead of a uniform random sampling and show that the former option produces better clustering results. The second paper extends the methodology developed in the first paper to large-data. Such datasets impose a computational burden since sampling with the determinantal point process is based on the spectral decomposition of the large kernel matrix. We introduce two methods to deal with this issue. These methods also produce better clustering results than consensus clustering based on a uniform sampling of initial points. The third paper addresses the problem of variable selection for the linear model and the logistic regression, when the number of predictors is large. A Bayesian approach is adopted, using Markov Chain Monte Carlo methods with Metropolis-Hasting algorithm. We show that setting the determinantal point process as the prior distribution for the model space selects a better final model than the model selected by a uniform prior on the model space.
APA, Harvard, Vancouver, ISO, and other styles
38

Liu, Hui. "On Regularized Newton-type Algorithms and A Posteriori Error Estimates for Solving Ill-posed Inverse Problems." 2015. http://scholarworks.gsu.edu/math_diss/25.

Full text
Abstract:
Ill-posed inverse problems have wide applications in many fields such as oceanography, signal processing, machine learning, biomedical imaging, remote sensing, geophysics, and others. In this dissertation, we address the problem of solving unstable operator equations with iteratively regularized Newton-type algorithms. Important practical questions such as selection of regularization parameters, construction of generating (filtering) functions based on a priori information available for different models, algorithms for stopping rules and error estimates are investigated with equal attention given to theoretical study and numerical experiments.
APA, Harvard, Vancouver, ISO, and other styles
39

Singh, Inderjeet 1978. "Risk-averse periodic preventive maintenance optimization." Thesis, 2011. http://hdl.handle.net/2152/ETD-UT-2011-08-4203.

Full text
Abstract:
We consider a class of periodic preventive maintenance (PM) optimization problems, for a single piece of equipment that deteriorates with time or use, and can be repaired upon failure, through corrective maintenance (CM). We develop analytical and simulation-based optimization models that seek an optimal periodic PM policy, which minimizes the sum of the expected total cost of PMs and the risk-averse cost of CMs, over a finite planning horizon. In the simulation-based models, we assume that both types of maintenance actions are imperfect, whereas our analytical models consider imperfect PMs with minimal CMs. The effectiveness of maintenance actions is modeled using age reduction factors. For a repairable unit of equipment, its virtual age, and not its calendar age, determines the associated failure rate. Therefore, two sets of parameters, one describing the effectiveness of maintenance actions, and the other that defines the underlying failure rate of a piece of equipment, are critical to our models. Under a given maintenance policy, the two sets of parameters and a virtual-age-based age-reduction model, completely define the failure process of a piece of equipment. In practice, the true failure rate, and exact quality of the maintenance actions, cannot be determined, and are often estimated from the equipment failure history. We use a Bayesian approach to parameter estimation, under which a random-walk-based Gibbs sampler provides posterior estimates for the parameters of interest. Our posterior estimates for a few datasets from the literature, are consistent with published results. Furthermore, our computational results successfully demonstrate that our Gibbs sampler is arguably the obvious choice over a general rejection sampling-based parameter estimation method, for this class of problems. We present a general simulation-based periodic PM optimization model, which uses the posterior estimates to simulate the number of operational equipment failures, under a given periodic PM policy. Optimal periodic PM policies, under the classical maximum likelihood (ML) and Bayesian estimates are obtained for a few datasets. Limitations of the ML approach are revealed for a dataset from the literature, in which the use of ML estimates of the parameters, in the maintenance optimization model, fails to capture a trivial optimal PM policy. Finally, we introduce a single-stage and a two-stage formulation of the risk-averse periodic PM optimization model, with imperfect PMs and minimal CMs. Such models apply to a class of complex equipment with many parts, operational failures of which are addressed by replacing or repairing a few parts, thereby not affecting the failure rate of the equipment under consideration. For general values of PM age reduction factors, we provide sufficient conditions to establish the convexity of the first and second moments of the number of failures, and the risk-averse expected total maintenance cost, over a finite planning horizon. For increasing Weibull rates and a general class of increasing and convex failure rates, we show that these convexity results are independent of the PM age reduction factors. In general, the optimal periodic PM policy under the single-stage model is no better than the optimal two-stage policy. But if PMs are assumed perfect, then we establish that the single-stage and the two-stage optimization models are equivalent.
text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography