Siga este link para ver outros tipos de publicações sobre o tema: Problème de minimisation.

Teses / dissertações sobre o tema "Problème de minimisation"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 38 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Problème de minimisation".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Benaim, Abderrahim. "Unicité pour un problème de minimisation à valeurs dans Sn". Metz, 1996. http://www.theses.fr/1996METZ018S.

Texto completo da fonte
Resumo:
On étudie l'unicité pour le problème de minimisation de la fonctionnelle qui intervient dans le modèle de Landau-Lifshitz pour le ferromagnétisme. Sous certaines hypothèses sur le champ extérieur, on caractérise tous les cas de non unicité. Cette caractérisation prend une forme simple et explicite pour les applications a images dans la sphère de dimension deux. On applique le résultat général pour certains problèmes concrets, notamment en présence de la symétrie axiale. Dans la dernière partie de cette thèse, on applique nos techniques pour l'étude du problème avec condition au bord
We study the uniqueness problem for minimizers of the Landau-Lifshitz model in ferromagnetism. Under certain assumptions on the external field, we characterize all the cases where the uniqueness fails to hold. This characterization takes a very explicit and simple form when the impage of the maps lies in two-dimentional sphere. We apply the general result for some concrete problems, notably in the presence of axial symmetry. In the last part of the thesis we apply our techniques for the study of a problem with boundary data
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Coppa, Bertrand. "Sur quelques applications du codage parcimonieux et sa mise en oeuvre". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00934823.

Texto completo da fonte
Resumo:
Le codage parcimonieux permet la reconstruction d'un signal à partir de quelques projections linéaires de celui-ci, sous l'hypothèse que le signal se décompose de manière parcimonieuse, c'est-à-dire avec peu de coefficients, sur un dictionnaire connu. Le codage est simple, et la complexité est déportée sur la reconstruction. Après une explication détaillée du fonctionnement du codage parcimonieux, une présentation de quelques résultats théoriques et quelques simulations pour cerner les performances envisageables, nous nous intéressons à trois problèmes : d'abord, l'étude de conception d'un système permettant le codage d'un signal par une matrice binaire, et des avantages apportés par une telle implémentation. Ensuite, nous nous intéressons à la détermination du dictionnaire de représentation parcimonieuse du signal par des méthodes d'apprentissage. Enfin, nous discutons la possibilité d'effectuer des opérations comme la classification sur le signal sans le reconstruire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Venturelli, Andrea. "Application de la minimisation de l'action au problème des N corps dans le plan et dans l'espace". Paris 7, 2002. http://www.theses.fr/2002PA077190.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Haberkorn, Thomas. "Transfert orbital à poussée faible avec minimisation de la consommation : résolution par homotopie différentielle". Toulouse, INPT, 2004. http://www.theses.fr/2004INPT031H.

Texto completo da fonte
Resumo:
Cette thèse porte sur un problème de mécanique spatiale, un transfert orbital à poussée faible, autour de la Terre, avec maximisation de la masse finale. La difficulté de ce problème vient des discontinuités de la commande optimale et du fait que les instants de commutations ne sont pas connus (nombre et localisation). La méthode du tir simple devenant particulièrement sensible à l'initialisation, on paramètre le critère du problème pour relier la minimisation de l'énergie à la minimisation de la consommation. La fonction de tir résultant de la paramétrisation définit alors une homotopie dont le chemin de zéros est suivi par une méthode de continuation différentielle. Une seconde homotopie, discrète celle-ci, permet d'affranchir complètement notre méthode de toute connaissance à priori sur la structure de la commande optimale, d'autant plus que le nombre de commutations peut être très important (plus de 1000 pour une poussée de 0. 1 N et un satellite de 1500 kg). Cette méthode de résolution est implantée dans un logiciel et appliquée avec succès a notre problème. Les résultats obtenus permettent de mettre en évidence un grand nombre de lois empiriques comme par exemple l'indépendance de l'évolution de la masse finale par rapport a la poussée maximale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Gryson, Alexis. "Minimisation d'énergie sous contraintes : applications en algèbre linéaire et en contrôle linéaire". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00424947.

Texto completo da fonte
Resumo:
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l'approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l'approximation d'un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d'une équation de Sylvester. Après avoir prouvé l'existence d'un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d'énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique. On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l'axe réel symétriques par rapport à l'origine. L'impact de nos résultats théoriques pour l'analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d'une équation de Lyapounov est estimé à l'aide de plusieurs exemples numériques après avoir exposé l'algorithme nous permettant d'obtenir les paramètres utilisés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Rachdi, Nabil. "Apprentissage statistique et computer experiments : approche quantitative du risque et des incertitudes en modélisation". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1538/.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le domaine de l'apprentissage statistique et dans celui des expériences simulées (computer experiments). Son objet est de proposer un cadre général permettant d'estimer les paramètres d'un code de simulation numérique de façon à reproduire au mieux certaines caractéristiques d'intérêt extraites de données observées. Ce travail recouvre le cadre classique de l'estimation paramétrique dans un modèle de régression et également la calibration de la densité de probabilité des variables d'entrée d'un code numérique afin de reproduire une loi de probabilité donnée en sortie. Une partie importante de ce travail consiste dans l'estimation paramétrique d'un code numérique à partir d'observations. Nous proposons une classe de méthode originale nécessitant une simulation intensive du code numérique, que l'on remplacera par un méta-modèle s'il est trop coûteux. Nous validons théoriquement les algorithmes proposés du point de vue non-asymptotique, en prouvant des bornes sur l'excès de risque. Ces résultats reposent entres autres sur des inégalités de concentration. Un second problème que nous abordons est celui de l'étude d'une dualité entre procédure d'estimation et nature de la prédiction recherchée. Il s'agit ici de mieux comprendre l'effet d'une procédure d'estimation des paramètres d'un code numérique sur une caractéristique d'intérêt donnée. Enfin, en pratique la détermination des paramètres optimaux au sens du critère donné par le risque empirique nécessite la recherche du minimum d'une fonction généralement non convexe et possédant plusieurs minima locaux. Nous proposons un algorithme stochastique consistant à combiner une régularisation du critère par convolution avec un noyau gaussien, de variance décroissante au fil des itérations, avec une méthode d'approximation stochastique du type Kiefer-Wolfowitz
This thesis work consists in gathering statistical learning theory with the field of computer experiments. As the considered computer codes are only known through simulations, we propose an original statistical framework, including the classical ones, which takes into account the simulation aspect. We investigate learning algorithms for parameter estimation in computer codes which depend on both observed and simulation data. We validate these algorithms by proving excess risk bounds using concentration inequalities. We also study the duality between the estimation procedure and the wanted feature prediction. Here, we try to understand the impact of an estimation procedure on some given characteristic of the phenomenon of interest. Finally, the computation of optimal parameters in practice involves the minimization of a criterion which is generally highly non convex and with irregularities. We propose a stochastic algorithm which consists in combining regularization methods with a stochastic approximation method like the Kiefer-Wolfowitz one
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Gryson, Alexis. "Minimisation d'énergie sous contraintes : applications en algèbre linéaire et en contrôle linéaire". Electronic Thesis or Diss., Lille 1, 2009. http://www.theses.fr/2009LIL10034.

Texto completo da fonte
Resumo:
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l’approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l’approximation d’un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d’une équation de Sylvester. Après avoir prouvé l’existence d’un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d’énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique.On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l’axe réel symétriques par rapport à l’origine. L’impact de nos résultats théoriques pour l’analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d’une équation de Lyapounov est estimé à l’aide de plusieurs exemples numériques après avoir exposé l’algorithme nous permettant d’obtenir les paramètres utilisés. Mots clés : Théorie du potentiel
The Zolotarev problem with respect to discrete sets arises naturally to describe both the convergence rate of the ADI method, to compute approximation of various functions of matrices and to quantify the decreasing rate of singular values of structured matrices. Moreover, the theory of model reduction is a key problem in linear control theory, and the quality of the approximation of continuous stationnary linear dynamical system might be predicted with the computation of the solution of a Sylvester equation. Once proved the existence of a minimizer for the third Zolotarev problem with respect to discrete sets, we give the weak asymptotic behaviour of the Zolotarev quantity under some regularity hypothesis. In this purpose, we introduce a problem of energy minimization with constraints in logarithmic potential theory with respect to signed measures. We discuss the accuracy of our results for general discrete sets in the complex plane, and we prove an explicit integral formula in the particular case of two discret subsets of the real axis symmetric with respect to the imaginary axis. Then, the impact of our theoretical results concerning the analysis of the convergence rate of the ADI method applied to solve a Sylvester equation is estimated with various numerical examples after the description of the algorithm which we used to compute the parameters
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Nguyen, Laurent. "Calibration de modèles financiers par minimisation d'entropie relative et modèles avec sauts". Phd thesis, Ecole des Ponts ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00005766.

Texto completo da fonte
Resumo:
Le smile de volatilité implicite observé sur les marchés d'options traduit l'insuffisance du modèle de Black et Scholes. Avec la nécessité d'élaborer un modèle d'actif financier plus satisfaisant, vient celle de sa calibration, objet de cette thèse.
La calibration de modèles financiers par minimisation de lentropie relative a été proposée récemment dans le cadre de la méthode de Monte Carlo. On a étudié la convergence et la stabilité de cette méthode et on a étendu les résultats à des critères plus généraux que lentropie relative. La prise en compte des contraintes sur le sous-jacent assurant labsence dopportunité darbitrage a été abordée sous langle dun problème de moments.
Dans la seconde partie, on a considéré un modèle simple du phénomène de krach en introduisant en particulier des sauts dans la volatilité du sous-jacent. On a calculé le risque quadratique et effectué un développement approché du smile utile pour la calibration.
Finalement, dans la troisième partie, on utilise lentropie relative pour calibrer lintensité des sauts dun modèle de diffusion avec sauts et volatilité locale. La stabilité de la méthode a été prouvée grâce à des techniques de contrôle optimal ainsi quau théorème des fonctions implicites.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Wang, Chen. "Variants of Deterministic and Stochastic Nonlinear Optimization Problems". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112294/document.

Texto completo da fonte
Resumo:
Les problèmes d’optimisation combinatoire sont généralement réputés NP-difficiles, donc il n’y a pas d’algorithmes efficaces pour les résoudre. Afin de trouver des solutions optimales locales ou réalisables, on utilise souvent des heuristiques ou des algorithmes approchés. Les dernières décennies ont vu naitre des méthodes approchées connues sous le nom de métaheuristiques, et qui permettent de trouver une solution approchées. Cette thèse propose de résoudre des problèmes d’optimisation déterministe et stochastique à l’aide de métaheuristiques. Nous avons particulièrement étudié la méthode de voisinage variable connue sous le nom de VNS. Nous avons choisi cet algorithme pour résoudre nos problèmes d’optimisation dans la mesure où VNS permet de trouver des solutions de bonne qualité dans un temps CPU raisonnable. Le premier problème que nous avons étudié dans le cadre de cette thèse est le problème déterministe de largeur de bande de matrices creuses. Il s’agit d’un problème combinatoire difficile, notre VNS a permis de trouver des solutions comparables à celles de la littérature en termes de qualité des résultats mais avec temps de calcul plus compétitif. Nous nous sommes intéressés dans un deuxième temps aux problèmes de réseaux mobiles appelés OFDMA-TDMA. Nous avons étudié le problème d’affectation de ressources dans ce type de réseaux, nous avons proposé deux modèles : Le premier modèle est un modèle déterministe qui permet de maximiser la bande passante du canal pour un réseau OFDMA à débit monodirectionnel appelé Uplink sous contraintes d’énergie utilisée par les utilisateurs et des contraintes d’affectation de porteuses. Pour ce problème, VNS donne de très bons résultats et des bornes de bonne qualité. Le deuxième modèle est un problème stochastique de réseaux OFDMA d’affectation de ressources multi-cellules. Pour résoudre ce problème, on utilise le problème déterministe équivalent auquel on applique la méthode VNS qui dans ce cas permet de trouver des solutions avec un saut de dualité très faible. Les problèmes d’allocation de ressources aussi bien dans les réseaux OFDMA ou dans d’autres domaines peuvent aussi être modélisés sous forme de problèmes d’optimisation bi-niveaux appelés aussi problèmes d’optimisation hiérarchique. Le dernier problème étudié dans le cadre de cette thèse porte sur les problèmes bi-niveaux stochastiques. Pour résoudre le problème lié à l’incertitude dans ce problème, nous avons utilisé l’optimisation robuste plus précisément l’approche appelée « distributionnellement robuste ». Cette approche donne de très bons résultats légèrement conservateurs notamment lorsque le nombre de variables du leader est très supérieur à celui du suiveur. Nos expérimentations ont confirmé l’efficacité de nos méthodes pour l’ensemble des problèmes étudiés
Combinatorial optimization problems are generally NP-hard problems, so they can only rely on heuristic or approximation algorithms to find a local optimum or a feasible solution. During the last decades, more general solving techniques have been proposed, namely metaheuristics which can be applied to many types of combinatorial optimization problems. This PhD thesis proposed to solve the deterministic and stochastic optimization problems with metaheuristics. We studied especially Variable Neighborhood Search (VNS) and choose this algorithm to solve our optimization problems since it is able to find satisfying approximated optimal solutions within a reasonable computation time. Our thesis starts with a relatively simple deterministic combinatorial optimization problem: Bandwidth Minimization Problem. The proposed VNS procedure offers an advantage in terms of CPU time compared to the literature. Then, we focus on resource allocation problems in OFDMA systems, and present two models. The first model aims at maximizing the total bandwidth channel capacity of an uplink OFDMA-TDMA network subject to user power and subcarrier assignment constraints while simultaneously scheduling users in time. For this problem, VNS gives tight bounds. The second model is stochastic resource allocation model for uplink wireless multi-cell OFDMA Networks. After transforming the original model into a deterministic one, the proposed VNS is applied on the deterministic model, and find near optimal solutions. Subsequently, several problems either in OFDMA systems or in many other topics in resource allocation can be modeled as hierarchy problems, e.g., bi-level optimization problems. Thus, we also study stochastic bi-level optimization problems, and use robust optimization framework to deal with uncertainty. The distributionally robust approach can obtain slight conservative solutions when the number of binary variables in the upper level is larger than the number of variables in the lower level. Our numerical results for all the problems studied in this thesis show the performance of our approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Rezig, Wafa. "Problèmes de multiflots : état de l'art et approche par décomposition décentralisée du biflot entier de coût minimum". Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346082.

Texto completo da fonte
Resumo:
Nous considèrerons ici les modèles linéaires de multiflots, en mettant l'accent sur leurs multiples applications, notamment dans les domaines de l'ordonnancement et de la gestion de production. Il est bien connu que ces problèmes, présentés sous forme de programmes linéaires, sont difficiles à résoudre, contrairement à leurs homologues en flot simple. Les méthodes de résolution classiques proposent, déjà dans le cas continu, des solutions approchées. On distingue: les méthodes de décomposition par les prix, par les ressources, ainsi que les techniques de partitionnement. Si l'on rajoute la contrainte d'intégralité sur les flots, ces problèmes deviennent extrêmement difficiles. Nous nous sommes intéressés à un cas particulier des problèmes de multiflots, à savoir: le biflot entier de coût minimum. Nous avons développé une approche de résolution heuristique basée sur un principe de décomposition mixte, opérant itérativement, à la fois par une allocation de ressources et par un ajustement des coûts. L'implémentation de cette approche met en évidence des résultats prometteurs, obtenus sur des problèmes de biflot purs, générés aléatoirement. Nous avons donc envisagé une deuxième application sur des problèmes de biflot plus structurés. Ces problèmes de biflot ont été proposés pour la modélisation du problème de voyageur de commerce. Cette application débouche d'une part, sur l'utilisation d'un algorithme de recherche d'un circuit hamiltonien dans un graphe, et d'autre part, sur le développement de techniques heuristiques pour la construction de tournées intéressantes
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Lemenant, Antoine. "SUR LA REGULARITE DES MINIMISEURS DE MUMFORD-SHAH EN DIMENSION 3 ET SUPERIEURE". Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00288822.

Texto completo da fonte
Resumo:
On étudie dans cette thèse certains aspects de la régularité de l'ensemble singulier d'un minimiseur pour la fonctionnelle de Mumford-Shah. On se place principalement en dimension 3 même si certains résultats fonctionnent encore en dimension supérieure. Dans une première partie on étudie les minimiseurs globaux dans R^N et on montre que si (u;K) est un minimiseur global et que si K est un cône assez régulier, alors u (modulo les constantes) est une fonction homogène de degré 1/2 dans R^N\K. Ceci nous permet de lier l'existence d'un minimiseur global et le spectre du laplacien sphérique dans la sphère unité privée de K. Une conséquence est qu'un secteur angulaire stricte ne peut pas être l'ensemble singulier d'un minimiseur global de Mumford-Shah dans R^3. Dans la deuxième partie on montre un théorème de régularité au voisinage des cônes minimaux P, Y et T. On montre que si K est proche (en distance) d'un Y ou d'un T dans une certaine boule, alors K est l'image C^1,alpha d'un P, Y ou d'un T dans une boule légèrement plus petite, ce qui généralise un théorème de L. Ambrosio, N. Fusco et D. Pallara [AFP07]. Les techniques employées ne sont pas exclusives à la dimension 3 et devraient permettre de démontrer des résultats analogues en toute dimension pour un minimiseur de Mumford-Shah, dès lors qu'un résultat de régularité sur les ensembles presque minimaux existerait.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Sadfi, Chérif. "Problèmes d'ordonnancement avec minimisation des encours". Grenoble INPG, 2002. http://www.theses.fr/2002INPG0016.

Texto completo da fonte
Resumo:
Dans ce travail de thèse, nous nous sommes intéressés aux problèmes d'ordonnancement avec minimisation des encours. Cet objectif se traduit par la minimisation du flot moyen (temps de séjour moyen des produits dans l'atelier). Le critère de minimisation du flot est une mesure de performance souvent rencontrée en pratique. La minimisation des encours permet de raccourcir le temps de cycle du produit et ainsi maîtriser sa date de sortie de l'atelier. Nous nous sommes intéressés particulièrement à trois types de problèmes : le problème du flow shop, le problème sur une machine avec contrainte d'indisponibilité de la machine et le problème sur une machine avec dates d'arrivées des travaux. Nous commençons notre étude par une présentation générale des problèmes d'ordonnancement, de leur complexité et un état de l'art des problèmes d'ordonnancement avec minimisation des encours. Pour le problème du flow shop, pour mieux comprendre l'influence des temps opératoires sur le résultat des méthodes de résolution, ous présentons une étude théorique du comportement de la fonction objectif et du résultat de l'ordonnancement suite à une variation des temps opératoires des travaux. Enfin, pour résoudre chacun des problèmes considérés, nous proposons différentes méthodes approximatives et exactes. Une analyse théorique et expérimentale est présentée pour chacune des méthodes proposées afin de juger sa performance.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Schwinte, Valentin. "Autour de l'équation du plus bas niveau de Landau". Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0078.

Texto completo da fonte
Resumo:
Cette thèse a pour objet l'étude de l'équation du plus bas niveau de Landau, dans plusieurs contextes pertinents en physique et provient des modèles pour les condensats de Bose-Einstein. Nous nous penchons spécifiquement sur trois aspects liés à l'équation. Le premier est l'étude d'une classe de solutions appelées ondes stationnaires, à travers la minimisation d'une fonctionnelle énergie. Nous montrons notamment que la gaussienne est l'unique minimiseur global à symétries près pour un certain paramètre, à l'aide d'algèbre linéaire et bilinéaire. Le deuxième point concerne la conjecture de réseau d'Abrikosov. Nous investiguons l'équation avec ajout de conditions périodiques, et la linéarisons autour des réseaux. Nous aboutirons à la stabilité du réseau hexagonal. Le troisième et dernier aspect porte sur les ondes progressives pour l'équation couplée du plus bas niveau de Landau. Nous classifions de telles solutions ayant un nombre fini de zéros, et en déduisons l'existence de solutions dont les normes de Sobolev croissent
The aim of this thesis is to study the Lowest Landau Level equation, in several contexts relevant to physics and originating from models for Bose-Einstein condensates. In particular, we investigate three aspects of the equation. The first is the study of a class of solutions called stationary waves, through the minimization of an energy functional. In particular, we show that the Gaussian is the only global minimizer up to symmetries for a certain parameter, using linear and bilinear algebra tools. The second point concerns the Abrikosov lattice conjecture. We investigate the equation with the addition of periodic conditions, and linearize it around lattices. This results in the stability of the hexagonal lattice. The third and final aspect concerns progressive waves for the coupled Lowest Landau Level equation. We classify such solutions with a finite number of zeros, and deduce the existence of solutions with growing Sobolev norms
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Boiger, Wolfgang Josef. "Stabilised finite element approximation for degenerate convex minimisation problems". Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://dx.doi.org/10.18452/16790.

Texto completo da fonte
Resumo:
Infimalfolgen nichtkonvexer Variationsprobleme haben aufgrund feiner Oszillationen häufig keinen starken Grenzwert in Sobolevräumen. Diese Oszillationen haben eine physikalische Bedeutung; Finite-Element-Approximationen können sie jedoch im Allgemeinen nicht auflösen. Relaxationsmethoden ersetzen die nichtkonvexe Energie durch ihre (semi)konvexe Hülle. Das entstehende makroskopische Modell ist degeneriert: es ist nicht strikt konvex und hat eventuell mehrere Minimalstellen. Die fehlende Kontrolle der primalen Variablen führt zu Schwierigkeiten bei der a priori und a posteriori Fehlerschätzung, wie der Zuverlässigkeits- Effizienz-Lücke und fehlender starker Konvergenz. Zur Überwindung dieser Schwierigkeiten erweitern Stabilisierungstechniken die relaxierte Energie um einen diskreten, positiv definiten Term. Bartels et al. (IFB, 2004) wenden Stabilisierung auf zweidimensionale Probleme an und beweisen dabei starke Konvergenz der Gradienten. Dieses Ergebnis ist auf glatte Lösungen und quasi-uniforme Netze beschränkt, was adaptive Netzverfeinerungen ausschließt. Die vorliegende Arbeit behandelt einen modifizierten Stabilisierungsterm und beweist auf unstrukturierten Netzen sowohl Konvergenz der Spannungstensoren, als auch starke Konvergenz der Gradienten für glatte Lösungen. Ferner wird der sogenannte Fluss-Fehlerschätzer hergeleitet und dessen Zuverlässigkeit und Effizienz gezeigt. Für Interface-Probleme mit stückweise glatter Lösung wird eine Verfeinerung des Fehlerschätzers entwickelt, die den Fehler der primalen Variablen und ihres Gradienten beschränkt und so starke Konvergenz der Gradienten sichert. Der verfeinerte Fehlerschätzer konvergiert schneller als der Fluss- Fehlerschätzer, und verringert so die Zuverlässigkeits-Effizienz-Lücke. Numerische Experimente mit fünf Benchmark-Tests der Mikrostruktursimulation und Topologieoptimierung ergänzen und bestätigen die theoretischen Ergebnisse.
Infimising sequences of nonconvex variational problems often do not converge strongly in Sobolev spaces due to fine oscillations. These oscillations are physically meaningful; finite element approximations, however, fail to resolve them in general. Relaxation methods replace the nonconvex energy with its (semi)convex hull. This leads to a macroscopic model which is degenerate in the sense that it is not strictly convex and possibly admits multiple minimisers. The lack of control on the primal variable leads to difficulties in the a priori and a posteriori finite element error analysis, such as the reliability-efficiency gap and no strong convergence. To overcome these difficulties, stabilisation techniques add a discrete positive definite term to the relaxed energy. Bartels et al. (IFB, 2004) apply stabilisation to two-dimensional problems and thereby prove strong convergence of gradients. This result is restricted to smooth solutions and quasi-uniform meshes, which prohibit adaptive mesh refinements. This thesis concerns a modified stabilisation term and proves convergence of the stress and, for smooth solutions, strong convergence of gradients, even on unstructured meshes. Furthermore, the thesis derives the so-called flux error estimator and proves its reliability and efficiency. For interface problems with piecewise smooth solutions, a refined version of this error estimator is developed, which provides control of the error of the primal variable and its gradient and thus yields strong convergence of gradients. The refined error estimator converges faster than the flux error estimator and therefore narrows the reliability-efficiency gap. Numerical experiments with five benchmark examples from computational microstructure and topology optimisation complement and confirm the theoretical results.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Bouguecha, Mohamed. "Quelques résultats de symétrie pour des solutions de problèmes de minimisation". Paris 9, 1999. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1999PA090040.

Texto completo da fonte
Resumo:
Les principaux résultats de cette thèse portent sur les propriétés de symétrie des minima de fonctionnelles symétriques. Dans un premier chapitre, nous démontrons que sous certaines hypothèses de symétrie partielle, le minimum de l’énergie de Skyrme pris parmi les fonctions de degré 1 possède la symétrie de l'hérisson modulo une rotation. Nous démontrons également des résultats similaires de symétrie pour un modèle de Skyrme simplifié en dimension 2 : le modèle du baby-skyrmion. Dans le second chapitre, nous établissons des résultats de symétrie pour une large classe de problèmes de minimisation sans contraintes et invariants sous l'action des réflexions et des rotations. Dans un premier temps, nous prouvons le lien entre une hypothèse de régularité de tous les minima et leur symétrie radiale. Nous donnons ensuite une hypothèse naturelle assurant la symétrie de tous ces minima. Le dernier chapitre de la thèse est consacrée à l'étude de trois modèles de lagrangiens paramètres proposés par des physiciens afin de tenir compte d'autres phénomènes physiques négligés dans le modèle de Skyrme. Nous préciserons en l'occurrence l'existence de minima des énergies correspondantes ainsi que les plages de paramètres permettant d'avoir la modélisation adéquate
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Mur, Anthony. "Quelques problèmes de minimisation en relation avec les équations de Schrödinger". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30274.

Texto completo da fonte
Resumo:
Dans cette thèse, on étudie quelques problèmes de minimisation issus de la théorie des équations aux dérivées partielles. On considère les estimations de Strichartz associées à l'équation de Schrödinger avec des puissances fractionnaires du Laplacien dans l'espace euclidien. On montre l'existence des fonctions optimales pour ces inégalités pour toutes les valeurs possibles des paramètres. La preuve utilise un théorème général de décomposition de profils. Dans la deuxième partie de la thèse, on considère des équations de Schrödinger non linéaires avec des conditions non nulles à l'infini dans l'espace euclidien bidimensionnel. On travaille avec des non-linéarités générales. Tous nos résultats sont valables dans le cas modèle de l'équation de Gross-Pitaevskii. Les équations étudiées sont hamiltoniennes, les quantités conservées sont l'énergie et le moment. On donne d'abord une définition mathématique rigoureuse du moment. On montre ensuite que pour toute valeur possible dollar p dollar du moment il existe des fonctions qui minimisent l'énergie lorsque la valeur du moment est fixée et est égale à dollar p dollar. Ces fonctions sont lisses et sont des ondes progressives de l'équation. Leurs vitesses sont les multiplicateurs de Lagrange associés au problème de minimisation. On montre que pour chaque dollar p dollar il existe une valeur critique de la période dollar lambda ( p ) dollar telle que tous les minimiseurs avec une période inférieure à dollar lambda ( p ) dollar doivent être unidimensionnels, et que les minimiseurs avec des périodes supérieures à dollar lambda ( p ) dollar dépendent effectivement des deux variables spatiales. On étudie également le problème unidimensionnel correspondant et on trouve toutes les ondes progressives d'énergie finie. Dans certains cas (comme, par exemple, dans le cas de l'équation de Gross-Pitaevskii), les minimisateurs de l'énergie à moment constant constituent l'ensemble des ondes progressives. On construit des exemples de non-linéarités lisses pour lesquelles l'équation admet des ondes progressives qui ne sont pas des minimisateurs
In this thesis we study several minimization problems arising in the theory of partial differential equations. We consider Strichartz estimates associated to the Schrödinger equation involving fractional powers of the Laplacian in the Euclidean space. Using a general profile decomposition theorem, we prove the existence of optimal functions for these inequalities for the whole range of parameters. In the second part of the thesis we consider periodic nonlinear Schrödinger equations in the plane with non-zero conditions at infinity. We work with general nonlinearities, including the model case of the Gross-Pitaevskii equation. The equation is Hamiltonian, the conserved quantities are the energy and the momentum. We give a rigorous mathematical definition of the momentum, then for any possible value dollar p dolla of the momentum we prove the existence of traveling waves that minimize the energy when the momentum is equal to dollar p dollar. We show that for each dollar p dollar there exists a critical length of the period dollar lambda ( p ) dollar such that all minimizers with period smaller than dollar lambda ( p ) dollar must be one-dimensional, while minimizers with period greater than dollar lambda ( p ) dollar are truly two-dimensional. We also investigate the corresponding one-dimensional problem and we find all finite-energy traveling waves. Minimizers are always traveling waves, and in some cases they constitute the whole set of traveling-waves (this occurs, for instance, in the case of Gross-Pitaevskii nonlinearity). We construct examples of smooth nonlinearities for which the equation admits traveling waves that are not minimizers
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Haben, Stephen A. "Conditioning and preconditioning of the minimisation problem in variational data assimilation". Thesis, University of Reading, 2011. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.541945.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Cutforth, Claire Louise. "Understanding waste minimisation practices at the individual and household level". Thesis, Cardiff University, 2014. http://orca.cf.ac.uk/69484/.

Texto completo da fonte
Resumo:
Over recent years, the issue of how to manage waste sustainably has intensified for both researchers and policy makers. From a policy perspective, the reason for this intensification can be traced to European legislation and its transposition into UK policy. The Welsh Government in particular has set challenging statutory targets for Local Authorities. Such targets include increases in recycling and composting as well as waste reduction and reuse targets. From a research perspective there has been dissatisfaction with behavioural models and their willingness to explore alternative social science thinking (such as leading approaches to practice). Despite policy interest in sustainable waste practices, there remains little research which focuses specifically on waste minimisation at the individual or household level. What research exists focuses on pro-environmental or recycling behaviour, and tends to focus upon values, intention and behavioural change, rather than on what actual practices occur, and for what reasons. This research focuses on what practices take place in order to access a more complex range of reasons why such practices take place. The methodology adopts a qualitative approach to uncovering practices in a variety of contexts, and discovers a number of key insights which underpin waste minimisation practice. This thesis demonstrates that waste minimisation performances take place, but often do so ‘unwittingly’. Coupled to this, many witting or unwitting waste minimisation actions occur for reasons other than concern for the environment. Furthermore, this research suggests that practices (and their motivations) vary dependent upon the context in which they occur. In general, three key themes were found to be significant in influencing the take up and transfer of practice: cost, convenience, and community. As a waste practitioner, the researcher is able to engage with these themes in order to suggest future directions for waste minimisation policy as well as research.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Hülsemann, Frank. "A new moving mesh algorithm for the finite element solution of variational problems". Thesis, University of Bristol, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.310742.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Marnissi, Yosra. "Bayesian methods for inverse problems in signal and image processing". Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1142/document.

Texto completo da fonte
Resumo:
Les approches bayésiennes sont largement utilisées dans le domaine du traitement du signal. Elles utilisent des informations a priori sur les paramètres inconnus à estimer ainsi que des informations sur les observations, pour construire des estimateurs. L'estimateur optimal au sens du coût quadratique est l'un des estimateurs les plus couramment employés. Toutefois, comme la loi a posteriori exacte a très souvent une forme complexe, il faut généralement recourir à des outils d'approximation bayésiens pour l'approcher. Dans ce travail, nous nous intéressons particulièrement à deux types de méthodes: les algorithmes d'échantillonnage Monte Carlo par chaînes de Markov (MCMC) et les approches basées sur des approximations bayésiennes variationnelles (VBA).La thèse est composée de deux parties. La première partie concerne les algorithmes d'échantillonnage. Dans un premier temps, une attention particulière est consacrée à l'amélioration des méthodes MCMC basées sur la discrétisation de la diffusion de Langevin. Nous proposons une nouvelle méthode pour régler la composante directionnelle de tels algorithmes en utilisant une stratégie de Majoration-Minimisation ayant des propriétés de convergence garanties. Les résultats expérimentaux obtenus lors de la restauration d'un signal parcimonieux confirment la rapidité de cette nouvelle approche par rapport à l'échantillonneur usuel de Langevin. Dans un second temps, une nouvelle méthode d'échantillonnage basée sur une stratégie d'augmentation des données est proposée pour améliorer la vitesse de convergence et les propriétés de mélange des algorithmes d'échantillonnage standards. L'application de notre méthode à différents exemples en traitement d'images montre sa capacité à surmonter les difficultés liées à la présence de corrélations hétérogènes entre les coefficients du signal.Dans la seconde partie de la thèse, nous proposons de recourir aux techniques VBA pour la restauration de signaux dégradés par un bruit non-gaussien. Afin de contourner les difficultés liées à la forme compliquée de la loi a posteriori, une stratégie de majoration est employée pour approximer la vraisemblance des données ainsi que la densité de la loi a priori. Grâce à sa flexibilité, notre méthode peut être appliquée à une large classe de modèles et permet d'estimer le signal d'intérêt conjointement au paramètre de régularisation associé à la loi a priori. L'application de cette approche sur des exemples de déconvolution d'images en présence d'un bruit mixte Poisson-gaussien, confirme ses bonnes performances par rapport à des méthodes supervisées de l'état de l'art
Bayesian approaches are widely used in signal processing applications. In order to derive plausible estimates of original parameters from their distorted observations, they rely on the posterior distribution that incorporates prior knowledge about the unknown parameters as well as informations about the observations. The posterior mean estimator is one of the most commonly used inference rule. However, as the exact posterior distribution is very often intractable, one has to resort to some Bayesian approximation tools to approximate it. In this work, we are mainly interested in two particular Bayesian methods, namely Markov Chain Monte Carlo (MCMC) sampling algorithms and Variational Bayes approximations (VBA).This thesis is made of two parts. The first one is dedicated to sampling algorithms. First, a special attention is devoted to the improvement of MCMC methods based on the discretization of the Langevin diffusion. We propose a novel method for tuning the directional component of such algorithms using a Majorization-Minimization strategy with guaranteed convergence properties.Experimental results on the restoration of a sparse signal confirm the performance of this new approach compared with the standard Langevin sampler. Second, a new sampling algorithm based on a Data Augmentation strategy, is proposed to improve the convergence speed and the mixing properties of standard MCMC sampling algorithms. Our methodological contributions are validated on various applications in image processing showing the great potentiality of the proposed method to manage problems with heterogeneous correlations between the signal coefficients.In the second part, we propose to resort to VBA techniques to build a fast estimation algorithm for restoring signals corrupted with non-Gaussian noise. In order to circumvent the difficulties raised by the intricate form of the true posterior distribution, a majorization technique is employed to approximate either the data fidelity term or the prior density. Thanks to its flexibility, the proposed approach can be applied to a broad range of data fidelity terms allowing us to estimate the target signal jointly with the associated regularization parameter. Illustration of this approach through examples of image deconvolution in the presence of mixed Poisson-Gaussian noise, show the good performance of the proposed algorithm compared with state of the art supervised methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Faucher, Florian. "Contributions à l'imagerie sismique par inversion des formes d’onde pour les équations d'onde harmoniques : Estimation de stabilité, analyse de convergence, expériences numériques avec algorithmes d'optimisation à grande échelle". Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3024/document.

Texto completo da fonte
Resumo:
Dans ce projet, nous étudions la reconstruction de milieux terrestres souterrains.L’imagerie sismique est traitée avec un problème de minimisation itérative àgrande échelle, et nous utilisons la méthode de l’inversion des formes d’ondes(Full Waveform Inversion, FWI method). La reconstruction est basée sur desmesures d’ondes sismiques, car ces ondes sont caractérisées par le milieu danslequel elles se propagent. Tout d’abord, nous présentons les méthodesnumériques qui sont nécessaires pour prendre en compte l’hétérogénéité etl’anisotropie de la Terre. Ici, nous travaillons avec les solutions harmoniques deséquations des ondes, donc dans le domaine fréquentiel. Nous détaillons leséquations et l’approche numérique mises en place pour résoudre le problèmed’onde.Le problème inverse est établi afin de reconstruire les propriétés du milieu. Ils’agit d’un problème non-linéaire et mal posé, pour lequel nous disposons de peude données. Cependant, nous pouvons montrer une stabilité de type Lipschitzpour le problème inverse associé avec l’équation de Helmholtz, en considérantdes modèles représentés par des constantes par morceaux. Nous explicitons laborne inférieure et supérieure pour la constante de stabilité, qui nous permetd’obtenir une caractérisation de la stabilité en fonction de la fréquence et del’échelle. Nous revoyons ensuite le problème de minimisation associé à lareconstruction en sismique. La méthode de Newton apparaît comme naturelle,mais peut être difficilement accessible, dû au coup de calcul de la Hessienne.Nous présentons une comparaison des méthodes pour proposer un compromisentre temps de calcul et précision. Nous étudions la convergence de l’algorithme,en fonction de la géométrie du sous-sol, la fréquence et la paramétrisation. Celanous permet en particulier de quantifier la progression en fréquence, en estimantla taille du rayon de convergence de l’espace des solutions admissibles.A partir de l’étude de la stabilité et de la convergence, l’algorithme deminimisation itérative est conduit en faisant progresser la fréquence et l’échellesimultanément. Nous présentons des exemples en deux et trois dimensions, etillustrons l’incorporation d’atténuation et la considération de milieux anisotropes.Finalement, nous étudions le cas de reconstruction avec accès aux données deCauchy, motivé par les dual sensors développés en sismique. Cela nous permetde définir une nouvelle fonction coût, qui permet de prometteuses perspectivesavec un besoin minimal quant aux informations sur l’acquisition
In this project, we investigate the recovery of subsurface Earth parameters. Weconsider the seismic imaging as a large scale iterative minimization problem, anddeploy the Full Waveform Inversion (FWI) method, for which several aspects mustbe treated. The reconstruction is based on the wave equations because thecharacteristics of the measurements indicate the nature of the medium in whichthe waves propagate. First, the natural heterogeneity and anisotropy of the Earthrequire numerical methods that are adapted and efficient to solve the wavepropagation problem. In this study, we have decided to work with the harmonicformulation, i.e., in the frequency domain. Therefore, we detail the mathematicalequations involved and the numerical discretization used to solve the waveequations in large scale situations.The inverse problem is then established in order to frame the seismic imaging. Itis a nonlinear and ill-posed inverse problem by nature, due to the limitedavailable data, and the complexity of the subsurface characterization. However,we obtain a conditional Lipschitz-type stability in the case of piecewise constantmodel representation. We derive the lower and upper bound for the underlyingstability constant, which allows us to quantify the stability with frequency andscale. It is of great use for the underlying optimization algorithm involved to solvethe seismic problem. We review the foundations of iterative optimizationtechniques and provide the different methods that we have used in this project.The Newton method, due to the numerical cost of inverting the Hessian, may notalways be accessible. We propose some comparisons to identify the benefits ofusing the Hessian, in order to study what would be an appropriate procedureregarding the accuracy and time. We study the convergence of the iterativeminimization method, depending on different aspects such as the geometry ofthe subsurface, the frequency, and the parametrization. In particular, we quantifythe frequency progression, from the point of view of optimization, by showinghow the size of the basin of attraction evolves with frequency. Following the convergence and stability analysis of the problem, the iterativeminimization algorithm is conducted via a multi-level scheme where frequencyand scale progress simultaneously. We perform a collection of experiments,including acoustic and elastic media, in two and three dimensions. Theperspectives of attenuation and anisotropic reconstructions are also introduced.Finally, we study the case of Cauchy data, motivated by the dual sensors devicesthat are developed in the geophysical industry. We derive a novel cost function,which arises from the stability analysis of the problem. It allows elegantperspectives where no prior information on the acquisition set is required
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Tekitek, Mohamed Mahdi. "Identification de modèles et de paramètres pour la méthode de Boltzmann sur réseau". Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00207541.

Texto completo da fonte
Resumo:
Cette thèse comporte trois parties: étude du schéma de Boltzmann sur réseau, schéma adjoint de Boltzmann sur réseau pour l'identification de paramètres et construction d'une couche parfaitement absorbante pour ce schéma.

La première partie introduit et analyse la méthode.

La deuxième partie décrit une approche variationnelle pour l'assimilation de paramètres relatifs à la méthode du gaz de Boltzmann sur réseau. Une méthode adjointe discrète en temps est développée. L'algorithme est d'abord testé sur un écoulement de type Poiseuille linéaire (problème de Stokes), puis il est appliqué à un problème non linéaire. Des résultats encourageants sont obtenus pour un et deux paramètres inconnus.

Finalement la troisième partie décrit une adaptation des couches absorbantes de Bérenger. Il en résulte un modèle d'automate de Boltzmann à neuf vitesses discrètes. Une analyse des ondes réfléchies est ensuite réalisée entre deux milieux de Boltzmann à une dimension, ce qui permet d'obtenir un équivalent des formules de Fresnel pour les schémas de Boltzmann et de proposer des modifications du schéma à l'interface pour annuler les ondes réfléchies. En deux dimensions, la même analyse d'ondes réfléchies met en évidence l'apparition de modes de Knudsen et des ondes transverses qui rendent l'analyse complexe.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Gerner, Wadim [Verfasser], Christof [Akademischer Betreuer] Melcher, der Mosel Heiko [Akademischer Betreuer] von e Daniel [Akademischer Betreuer] Peralta-Salas. "Minimisation problems in ideal magnetohydrodynamics / Wadim Gerner ; Christof Melcher, Heiko von der Mosel, Daniel Peralta-Salas". Aachen : Universitätsbibliothek der RWTH Aachen, 2020. http://d-nb.info/1225880297/34.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Nguyên, Thùy Liên. "Quelques problèmes variationnels issus de la théorie des ondes non-linéaires". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1386/.

Texto completo da fonte
Resumo:
Cette thèse porte sur l'étude des solutions spéciales (de type onde progressive et onde stationnaire) pour des équations aux dérivées partielles dispersives non-linéaires dans R^N. Les problèmes considérés ont une structure variationnelle, les solutions sont des points critiques de certaines fonctionnelles. Nous démontrons l'existence des points critiques en utilisant des méthodes de minimisation. Une des principales difficultés vient du manque de compacité. Pour y remédier, on utilise quelques raffinements récents du principe de concentration-compacité de P. -L. Lions. Dans la première partie du mémoire on montre l'existence des solutions d'énergie minimale pour des équations elliptiques quasi-linéaires dans R^N. Nous généralisons les résultats de Brézis et Lieb dans le cas du Laplacien, ainsi que les résultats de Jeanjean et Squassina dans le cas du p-Laplacien. Dans la seconde partie on montre l'existence des ondes progressives subsoniques d'énergie finie pour un système de Gross-Pitaevskii-Schrödinger qui modélise le mouvement d'une impureté non chargée dans un condensat de Bose-Einstein. Les résultats obtenus sont valables en dimension trois et quatre d'espace
This thesis focuses on the study of special solutions (traveling wave and standing wave type) for nonlinear dispersive partial differential equations in R^N. The considered problems have a variational structure, the solutions are critical points of some functionals. We demonstrate the existence of critical points using minimization methods. One of the main difficulties comes from the lack of compactness. To overcome this, we use some recent improvements of P. -L. Lions concentration-compactness principle. In the first part of the dissertation, we show the existence of the least energy solutions to quasi-linear elliptic equations in R^N. We generalize the results of Brézis and Lieb in the case of the Laplacian, and the results of Jeanjean and Squassina in the case of the p-Laplacian. In the second part, we show the existence of subsonic travelling waves of finite energy for a Gross-Pitaevskii-Schrödinger system which models the motion of a non charged impurity in a Bose-Einstein condensate. The obtained results are valid in three and four dimensional space
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Rigot, Séverine. "1. Sur un probleme de minimisation avec contrainte de volume 2. Sur la fonctionnelle de mumford-shah en dimension quelconque". Paris 11, 1999. http://www.theses.fr/1999PA112269.

Texto completo da fonte
Resumo:
On etudie dans cette these certains problemes variationnels ou des energies de surface et de volume entrent en competition. Le premier probleme aborde concerne une energie e definie pour tout ensemble comme la surface de sa frontiere plus un autre terme homogene grossierement parlant a un volume. On etudie le probleme de la minimisation de e parmi tous les candidats de mesure de lebesgue fixee. On montre des resultats d'existence et de regularite pour la frontiere des minima. L'uniforme rectifiabilite avec des parametres universels est une premiere etape. Puis on montre que les minima de e sont des quasi minima pour le perimetre. Des resultats connus, dont on demontre des versions quantitatives uniformes, nous disent alors qu'en dehors d'un ensemble ferme de dimension au plus n-8, la frontiere des minima normalises est localement le graphe d'une fonction dont la derivee est holderienne. Ces resultats sont valides de maniere plus generale pour les quasi minima pour le perimetre avec contrainte de volume. On etudie aussi les composantes connexes des minima (volume, position relative). Le deuxieme probleme aborde concerne la generalisation de la fonctionnelle de mumford-shah en dimension quelconque. On demontre la generalisation d'un resultat de g. David en dimension 2 concernant la regularite de l'ensemble des contours d'une paire reduite minimisante.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Radulescu, Vicentiu. "Analyse de quelques problèmes liés à l'équation de Ginzburg-Landau". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1995. http://tel.archives-ouvertes.fr/tel-00980811.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Néron, Alex. "Développement d'une plateforme de calcul d'équilibres chimiques complexes et adaptation aux problèmes électrochimiques et d'équilibres contraints". Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5502.

Texto completo da fonte
Resumo:
Avec l'arrivée de l'environnement comme enjeu mondial, le secteur de l'efficacité énergétique prend une place de plus en plus importante pour les entreprises autant au niveau économique que pour l'image de la compagnie. Par le fait même, le domaine des technologies de l'énergie est un créneau de recherche dont les projets en cours se multiplient. D'ailleurs, un des problèmes qui peut survenir fréquemment dans certaines entreprises est d'aller mesurer la composition des matériaux dans des conditions difficiles d'accès. C'est le cas par exemple de l'électrolyse de l'aluminium qui se réalise à des températures très élevées. Pour pallier à ce problème, il faut créer et valider des modèles mathématiques qui vont calculer la composition et les propriétés à l'équilibre du système chimique. Ainsi, l'objectif global du projet de recherche est de développer un outil de calcul d'équilibres chimiques complexes (plusieurs réactions et plusieurs phases) et l'adapter aux problèmes électrochimiques et d'équilibres contraints. Plus spécifiquement, la plateforme de calcul doit tenir compte de la variation de température due à un gain ou une perte en énergie du système. Elle doit aussi considérer la limitation de l'équilibre due à un taux de réaction et enfin, résoudre les problèmes d'équilibres électrochimiques. Pour y parvenir, les propriétés thermodynamiques telles que l'énergie libre de Gibbs, la fugacité et l'activité sont tout d'abord étudiées pour mieux comprendre les interactions moléculaires qui régissent les équilibres chimiques. Ensuite, un bilan énergétique est inséré à la plateforme de calcul, ce qui permet de calculer la température à laquelle le système est le plus stable en fonction d'une température initiale et d'une quantité d'énergie échangée. Puis, une contrainte cinétique est ajoutée au système afin de calculer les équilibres pseudo-stationnaires en évolution dans le temps. De plus, la contrainte d'un champ de potentiel électrique est considérée pour l'évaluation des équilibres électrochimiques par des techniques classiques de résolution et fera l'objet de travaux futurs via une technique d'optimisation. Enfin, les résultats obtenus sont comparés avec ceux présents dans la littérature scientifique pour valider le modèle. À terme, le modèle développé devient un bon moyen de prédire des résultats en éliminant beaucoup de coût en recherche et développement. Les résultats ainsi obtenus sont applicables dans une grande variété de domaines tels que la chimie et l'électrochimie industrielle ainsi que la métallurgie et les matériaux. Ces applications permettraient de réduire la production de gaz à effet de serre en optimisant les procédés et en ayant une meilleure efficacité énergétique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Boiger, Wolfgang Josef [Verfasser], Carsten [Akademischer Betreuer] Carstensen, Sören [Akademischer Betreuer] Bartels e Eun-Jae [Akademischer Betreuer] Park. "Stabilised finite element approximation for degenerate convex minimisation problems / Wolfgang Josef Boiger. Gutachter: Carsten Carstensen ; Sören Bartels ; Eun-Jae Park". Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://d-nb.info/1041284454/34.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Boiger, Wolfgang [Verfasser], Carsten Akademischer Betreuer] Carstensen, Sören [Akademischer Betreuer] [Bartels e Eun-Jae [Akademischer Betreuer] Park. "Stabilised finite element approximation for degenerate convex minimisation problems / Wolfgang Josef Boiger. Gutachter: Carsten Carstensen ; Sören Bartels ; Eun-Jae Park". Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://nbn-resolving.de/urn:nbn:de:kobv:11-100211496.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Repetti, Audrey. "Algorithmes d'optimisation en grande dimension : applications à la résolution de problèmes inverses". Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1032/document.

Texto completo da fonte
Resumo:
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données
An efficient approach for solving an inverse problem is to define the recovered signal/image as a minimizer of a penalized criterion which is often split in a sum of simpler functions composed with linear operators. In the situations of practical interest, these functions may be neither convex nor smooth. In addition, large scale optimization problems often have to be faced. This thesis is devoted to the design of new methods to solve such difficult minimization problems, while paying attention to computational issues and theoretical convergence properties. A first idea to build fast minimization algorithms is to make use of a preconditioning strategy by adapting, at each iteration, the underlying metric. We incorporate this technique in the forward-backward algorithm and provide an automatic method for choosing the preconditioning matrices, based on a majorization-minimization principle. The convergence proofs rely on the Kurdyka-L ojasiewicz inequality. A second strategy consists of splitting the involved data in different blocks of reduced dimension. This approach allows us to control the number of operations performed at each iteration of the algorithms, as well as the required memory. For this purpose, block alternating methods are developed in the context of both non-convex and convex optimization problems. In the non-convex case, a block alternating version of the preconditioned forward-backward algorithm is proposed, where the blocks are updated according to an acyclic deterministic rule. When additional convexity assumptions can be made, various alternating proximal primal-dual algorithms are obtained by using an arbitrary random sweeping rule. The theoretical analysis of these stochastic convex optimization algorithms is grounded on the theory of monotone operators. A key ingredient in the solution of high dimensional optimization problems lies in the possibility of performing some of the computation steps in a parallel manner. This parallelization is made possible in the proposed block alternating primal-dual methods where the primal variables, as well as the dual ones, can be updated in a quite flexible way. As an offspring of these results, new distributed algorithms are derived, where the computations are spread over a set of agents connected through a general hyper graph topology. Finally, our methodological contributions are validated on a number of applications in signal and image processing. First, we focus on optimization problems involving non-convex criteria, in particular image restoration when the original image is corrupted with a signal dependent Gaussian noise, spectral unmixing, phase reconstruction in tomography, and blind deconvolution in seismic sparse signal reconstruction. Then, we address convex minimization problems arising in the context of 3D mesh denoising and in query optimization for database management
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Vu, Dong Quan. "Models and solutions of strategic resource allocation problems : approximate equilibrium and online learning in Blotto games". Electronic Thesis or Diss., Sorbonne université, 2020. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2020SORUS120.pdf.

Texto completo da fonte
Resumo:
Les problèmes d'allocation des ressources sont définis comme les situations concernant les décisions sur la distribution d’un budget limité afin d’optimiser un objectif. Beaucoup d'entre eux impliquent des interactions entre des décideurs compétitifs ; ils peuvent être bien capturés par des modèles de théorie des jeux. Dans cette thèse, nous choisissons d'étudier les jeux d'allocation de ressources. Nous nous concentrons principalement sur le jeu de Colonel Blotto (CB). Dans le jeu CB, deux joueurs compétitifs, chacun ayant un budget fixe, distribuent simultanément leurs ressources vers n champs de bataille. Chaque joueur évalue chaque champ de bataille avec une certaine valeur. Dans chaque champ de bataille, le joueur qui a l'allocation la plus élevée gagne la valeur correspondante tandis que l'autre obtient zéro. Le gain de chaque joueur est à ses gains cumulés sur tous les champs de bataille. Tout d'abord, nous modélisons plusieurs variantes et extensions du jeu CB comme jeux d'informations complètes à un coup. Notre première contribution est une classe d'équilibres approximatifs dans ces jeux et nous prouvons que l'erreur d'approximation est bien contrôlée. Deuxièmement, nous modélisons les jeux d'allocation de ressources avec des structures combinatoires comme des problèmes d'apprentissage en ligne pour étudier des situations impliquant des jeux séquentiels et des informations incomplètes. Nous établissons une connexion entre ces jeux et les problèmes de chemin le plus court en ligne (OSP). Notre deuxième contribution est un ensemble de nouveaux algorithmes d’OSP sous plusieurs paramètres de feedback qui améliorent des garanties de regret et du temps d'exécution
Resource allocation problems are broadly defined as situations involving decisions on distributing a limited budget of resources in order to optimize an objective. In particular, many of them involve interactions between competitive decision-makers which can be well captured by game-theoretic models. In this thesis, we choose to investigate resource allocation games. We primarily focus on the Colonel Blotto game (CB game). In the CB game, two competitive players, each having a fixed budget of resources, simultaneously distribute their resources toward n battlefields. Each player evaluates each battlefield with a certain value. In each battlefield, the player who has the higher allocation wins and gains the corresponding value while the other loses and gains zero. Each player's payoff is her aggregate gains from all the battlefields. First, we model several prominent variants of the CB game and their extensions as one-shot complete-information games and analyze players' strategic behaviors. Our first main contribution is a class of approximate (Nash) equilibria in these games for which we prove that the approximation error can be well-controlled. Second, we model resource allocation games with combinatorial structures as online learning problems to study situations involving sequential plays and incomplete information. We make a connection between these games and online shortest path problems (OSP). Our second main contribution is a set of novel regret-minimization algorithms for generic instances of OSP under several restricted feedback settings that provide significant improvements in regret guarantees and running time in comparison with existing solutions
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Haïat, Guillaume. "Étude d'une méthode d'inversion basée sur la simulation pour la caractérisation de fissures détectées par ultrasons dans un composant revêtu". Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00007345.

Texto completo da fonte
Resumo:
Le travail effectué au cours de cette thèse porte sur l'inversion de données ultrasonores. Le contexte industriel en est le contrôle non destructif des cuves de réacteurs à eau pressurisée. Ces contrôles visent à détecter et caractériser des fissures. Les données ultrasonores se présentent sous la forme d'échographies obtenues à l'aide d'un capteur fonctionnant en émission-réception. Les fissures sont détectées par diffraction de leurs arêtes. L'analyse des données obtenues est rendue difficile du fait de l'existence d'un revêtement dont la surface est irrégulière et dont le matériau diffère du matériau constitutif de la cuve. Une méthode est ici proposée pour localiser avec précision les arêtes diffractantes et donc permettre un dimensionnement des fissures à partir des échographies ultrasonores obtenues. Cette méthode s'appuie sur l'application d'outils de modélisation de la propagation et de la diffraction des ultrasons prenant en compte à la fois le caractère irrégulier de la surface et la nature hétérogène du composant. La méthode développée a fait l'objet d'une implémentation informatique et a pu être testée sur un ensemble de cas représentatifs. En particulier, ses performances ont été évaluées à partir de l'analyse de résultats expérimentaux. La précision obtenue en laboratoire sur les cas expérimentaux traités est conforme à la demande industrielle qui a motivé cette étude.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies". Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Merzouki, Tarek. "Identification expérimentale et modélisation micromécanique du comportement d'un multicristal en alliage à mémoire de forme". Phd thesis, 2008. http://pastel.archives-ouvertes.fr/pastel-00004954.

Texto completo da fonte
Resumo:
Résumé : Le présent travail de thèse est une contribution à l'analyse et à la modélisation du comportement micromécanique d'un multicristal en AMF. Il est fondé sur l'exploitation de la richesse des mesures de champs cinématiques locaux dans le multicristal en vue de l'investigation des mécanismes gouvernant le comportement mécanique à l'échelle microscopique : transformation de phases, .... L'analyse et la modélisation de ces micromécanismes ont contribué, d'une part, à la mise en place du modèle à fort contenu physique reliant les causes et les effets des phénomènes mécaniques étudiés et d'autre part, à l'identification des paramètres régissant le modèle rhéologique. Le travail de thèse présente trois objectifs : le premier est le développement d'une approche expérimentale dédiée à la mesure de champs cinématiques à l'échelle microscopique sur un multicristal en alliage à mémoire de forme de type Cu-Al-Be. La mesure cinématique est réalisée par la technique de corrélation d'images numériques. Les champs de déplacement puis de déformation sont ensuite extraits par un traitement numérique à l'aide du logiciel de corrélation d'images CORRELI-Q4. Le deuxième objectif est la mise en place d'une méthodologie de couplage entre simulations numériques du comportement du multicristal et la mesure des champs cinématiques à l'échelle de la microstructure. Le troisième but visé dans ce travail est la mise en œuvre d'une méthode d'identification basée sur la minimisation d'une norme énergétique formulée par l'erreur en relation de comportement. La méthode d'identification est appliquée à l'échelle de la microstructure afin d'estimer les paramètres du comportement mécanique du multicristal à partir du champ cinématique mesuré.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Jeng, Jr-Yung, e 鄭志勇. "Conjugate Functions and Convex Minimisation Problems". Thesis, 2001. http://ndltd.ncl.edu.tw/handle/08950813929137317016.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Amghar, Khalid. "Une heuristique de recherche à voisinage variable pour le problème du voyageur de commerce avec fenêtres de temps". Thèse, 2016. http://hdl.handle.net/1866/16156.

Texto completo da fonte
Resumo:
Nous adaptons une heuristique de recherche à voisinage variable pour traiter le problème du voyageur de commerce avec fenêtres de temps (TSPTW) lorsque l'objectif est la minimisation du temps d'arrivée au dépôt de destination. Nous utilisons des méthodes efficientes pour la vérification de la réalisabilité et de la rentabilité d'un mouvement. Nous explorons les voisinages dans des ordres permettant de réduire l'espace de recherche. La méthode résultante est compétitive avec l'état de l'art. Nous améliorons les meilleures solutions connues pour deux classes d'instances et nous fournissons les résultats de plusieurs instances du TSPTW pour la première fois.
We adapt a general variable neighborhood search heuristic to solve the traveling salesman problem with time windows (TSPTW) where the objective is to minimize the completion time. We use efficient methods to check the feasibility and the profitability of a movement. We use a specific order to reduce the search space while exploring the neighborhoods. The resulting method is competitive with the state-of-the-art. We improve the best known solutions for two classes of instances and provide the results of multiple instances of TSPTW for the first time.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Laza, Vlad Lucian. "Interrelated product design activities sequencing with efficient tabu search algorithms". Thèse, 2016. http://hdl.handle.net/1866/16161.

Texto completo da fonte
Resumo:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Ce mémoire présente un nouvel algorithme métaheuristique de recherche taboue pour trouver des solutions optimales ou sous-optimales au problème de minimisation de la longueur des dépendances d’une matrice de conception (FLMP). Ce problème comporte une fonction économique non-linéaire et il appartient à la classe NP-ardu. Il s’ensuit qu’il est très difficile à trouver une solution optimale exacte en temps réel pour les problèmes de taille moyenne ou grande. D’abord, on présente le problème et une revue de la littérature associée. Ensuite, on analyse le problème, et on présente les détails du nouvel algorithme de recherche taboue produisant des solutions au problème de réduction de l’effet de retour en utilisant deux voisinages différents, le premier basé sur l’échange des positions de deux activités ("swap"), et le second sur le déplacement d’une activité à une position différente ("shift"). Des résultats numériques permettent d’analyser le comportement de l’algorithme et de comparer les deux voisinages. La première étape consiste à déterminer de bonnes valeurs pour les paramètres en utilisant des problèmes générés aléatoirement. Ensuite nos résultats sont comparés avec ceux obtenus dans la littérature. On conclut que l’algorithme de recherche taboue proposé est très prometteur, car nos résultats sont meilleurs que ceux publiés dans la litérature. D’autant plus que la recherche taboue semble avoir été utilisée pour la première fois sur ce problème.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Monnye, Segoane Lawrence. "Towards the regulation of interactive gambling : an analysis of the gambling regulatory framework in South Africa". Diss., 2016. http://hdl.handle.net/10500/21154.

Texto completo da fonte
Resumo:
With the exception of horse racing, any form of gambling was criminalised in South Africa until the dawn of constitutional democracy in 1994. In the same year, the Lotteries and Gambling Board Act, 1993, came into force decriminalising, amongst others, casinos and gambling games within the Republic. This Act has since been repealed and gambling is governed by the National Gambling Act, 2004, as well as by provincial gambling laws. Interactive / online gambling is illegal pending authorisation by a national legislation. Such legislation, the National Gambling Amendment Act, 2008, seeking to regulate interactive gambling awaits proclamation of the date of its commencement by the President. The National Gambling Policy, 2016, dashes any hope of regulation of interactive gambling, however, as it seeks to embargo the introduction of (new) forms of gambling, including but not limited to interactive gambling. The scourge of problem gambling and the protection of traditional forms of gambling, that is, casinos, are the main reasons for advocating for the continued prohibition of interactive gambling. Problem gambling is not unique to interactive gambling, but affects all modes of gambling. South Africa is among countries with a high rate of problem gambling. It is feared that interactive gambling will exacerbate the scourge of problem gambling as gamblers with access to the internet will now have unlimited gambling opportunities around the clock. On the other hand, interactive gambling offers practical solutions to the implementation of harm minimisation strategies to deal with problem gambling such as limitations on gambling deposits, losses and time. Prohibition of interactive gambling is difficult to enforce and deprives the country of an opportunity to control, through licensing, this mode of gambling and possible benefit from taxation and licensing fees. It further exposes gamblers – who despite prohibition choose this mode of gambling – to unregulated and illegal gambling websites. This thesis attempts to provide safeguards for regulation of interactive gambling and to embrace the benefits of the technological development that makes interactive gambling a reality. The United Kingdom (UK) is a prime example of a country that has successfully legalised and licensed interactive gambling in its jurisdiction.
Criminal and Procedural Law
LL. D.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia