To see the other types of publications on this topic, follow the link: Minimisation problem.

Dissertations / Theses on the topic 'Minimisation problem'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 dissertations / theses for your research on the topic 'Minimisation problem.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Haben, Stephen A. "Conditioning and preconditioning of the minimisation problem in variational data assimilation." Thesis, University of Reading, 2011. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.541945.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Coppa, Bertrand. "Sur quelques applications du codage parcimonieux et sa mise en oeuvre." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00934823.

Full text
Abstract:
Le codage parcimonieux permet la reconstruction d'un signal à partir de quelques projections linéaires de celui-ci, sous l'hypothèse que le signal se décompose de manière parcimonieuse, c'est-à-dire avec peu de coefficients, sur un dictionnaire connu. Le codage est simple, et la complexité est déportée sur la reconstruction. Après une explication détaillée du fonctionnement du codage parcimonieux, une présentation de quelques résultats théoriques et quelques simulations pour cerner les performances envisageables, nous nous intéressons à trois problèmes : d'abord, l'étude de conception d'un système permettant le codage d'un signal par une matrice binaire, et des avantages apportés par une telle implémentation. Ensuite, nous nous intéressons à la détermination du dictionnaire de représentation parcimonieuse du signal par des méthodes d'apprentissage. Enfin, nous discutons la possibilité d'effectuer des opérations comme la classification sur le signal sans le reconstruire.
APA, Harvard, Vancouver, ISO, and other styles
3

Wang, Chen. "Variants of Deterministic and Stochastic Nonlinear Optimization Problems." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112294/document.

Full text
Abstract:
Les problèmes d’optimisation combinatoire sont généralement réputés NP-difficiles, donc il n’y a pas d’algorithmes efficaces pour les résoudre. Afin de trouver des solutions optimales locales ou réalisables, on utilise souvent des heuristiques ou des algorithmes approchés. Les dernières décennies ont vu naitre des méthodes approchées connues sous le nom de métaheuristiques, et qui permettent de trouver une solution approchées. Cette thèse propose de résoudre des problèmes d’optimisation déterministe et stochastique à l’aide de métaheuristiques. Nous avons particulièrement étudié la méthode de voisinage variable connue sous le nom de VNS. Nous avons choisi cet algorithme pour résoudre nos problèmes d’optimisation dans la mesure où VNS permet de trouver des solutions de bonne qualité dans un temps CPU raisonnable. Le premier problème que nous avons étudié dans le cadre de cette thèse est le problème déterministe de largeur de bande de matrices creuses. Il s’agit d’un problème combinatoire difficile, notre VNS a permis de trouver des solutions comparables à celles de la littérature en termes de qualité des résultats mais avec temps de calcul plus compétitif. Nous nous sommes intéressés dans un deuxième temps aux problèmes de réseaux mobiles appelés OFDMA-TDMA. Nous avons étudié le problème d’affectation de ressources dans ce type de réseaux, nous avons proposé deux modèles : Le premier modèle est un modèle déterministe qui permet de maximiser la bande passante du canal pour un réseau OFDMA à débit monodirectionnel appelé Uplink sous contraintes d’énergie utilisée par les utilisateurs et des contraintes d’affectation de porteuses. Pour ce problème, VNS donne de très bons résultats et des bornes de bonne qualité. Le deuxième modèle est un problème stochastique de réseaux OFDMA d’affectation de ressources multi-cellules. Pour résoudre ce problème, on utilise le problème déterministe équivalent auquel on applique la méthode VNS qui dans ce cas permet de trouver des solutions avec un saut de dualité très faible. Les problèmes d’allocation de ressources aussi bien dans les réseaux OFDMA ou dans d’autres domaines peuvent aussi être modélisés sous forme de problèmes d’optimisation bi-niveaux appelés aussi problèmes d’optimisation hiérarchique. Le dernier problème étudié dans le cadre de cette thèse porte sur les problèmes bi-niveaux stochastiques. Pour résoudre le problème lié à l’incertitude dans ce problème, nous avons utilisé l’optimisation robuste plus précisément l’approche appelée « distributionnellement robuste ». Cette approche donne de très bons résultats légèrement conservateurs notamment lorsque le nombre de variables du leader est très supérieur à celui du suiveur. Nos expérimentations ont confirmé l’efficacité de nos méthodes pour l’ensemble des problèmes étudiés
Combinatorial optimization problems are generally NP-hard problems, so they can only rely on heuristic or approximation algorithms to find a local optimum or a feasible solution. During the last decades, more general solving techniques have been proposed, namely metaheuristics which can be applied to many types of combinatorial optimization problems. This PhD thesis proposed to solve the deterministic and stochastic optimization problems with metaheuristics. We studied especially Variable Neighborhood Search (VNS) and choose this algorithm to solve our optimization problems since it is able to find satisfying approximated optimal solutions within a reasonable computation time. Our thesis starts with a relatively simple deterministic combinatorial optimization problem: Bandwidth Minimization Problem. The proposed VNS procedure offers an advantage in terms of CPU time compared to the literature. Then, we focus on resource allocation problems in OFDMA systems, and present two models. The first model aims at maximizing the total bandwidth channel capacity of an uplink OFDMA-TDMA network subject to user power and subcarrier assignment constraints while simultaneously scheduling users in time. For this problem, VNS gives tight bounds. The second model is stochastic resource allocation model for uplink wireless multi-cell OFDMA Networks. After transforming the original model into a deterministic one, the proposed VNS is applied on the deterministic model, and find near optimal solutions. Subsequently, several problems either in OFDMA systems or in many other topics in resource allocation can be modeled as hierarchy problems, e.g., bi-level optimization problems. Thus, we also study stochastic bi-level optimization problems, and use robust optimization framework to deal with uncertainty. The distributionally robust approach can obtain slight conservative solutions when the number of binary variables in the upper level is larger than the number of variables in the lower level. Our numerical results for all the problems studied in this thesis show the performance of our approaches
APA, Harvard, Vancouver, ISO, and other styles
4

Boiger, Wolfgang Josef. "Stabilised finite element approximation for degenerate convex minimisation problems." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://dx.doi.org/10.18452/16790.

Full text
Abstract:
Infimalfolgen nichtkonvexer Variationsprobleme haben aufgrund feiner Oszillationen häufig keinen starken Grenzwert in Sobolevräumen. Diese Oszillationen haben eine physikalische Bedeutung; Finite-Element-Approximationen können sie jedoch im Allgemeinen nicht auflösen. Relaxationsmethoden ersetzen die nichtkonvexe Energie durch ihre (semi)konvexe Hülle. Das entstehende makroskopische Modell ist degeneriert: es ist nicht strikt konvex und hat eventuell mehrere Minimalstellen. Die fehlende Kontrolle der primalen Variablen führt zu Schwierigkeiten bei der a priori und a posteriori Fehlerschätzung, wie der Zuverlässigkeits- Effizienz-Lücke und fehlender starker Konvergenz. Zur Überwindung dieser Schwierigkeiten erweitern Stabilisierungstechniken die relaxierte Energie um einen diskreten, positiv definiten Term. Bartels et al. (IFB, 2004) wenden Stabilisierung auf zweidimensionale Probleme an und beweisen dabei starke Konvergenz der Gradienten. Dieses Ergebnis ist auf glatte Lösungen und quasi-uniforme Netze beschränkt, was adaptive Netzverfeinerungen ausschließt. Die vorliegende Arbeit behandelt einen modifizierten Stabilisierungsterm und beweist auf unstrukturierten Netzen sowohl Konvergenz der Spannungstensoren, als auch starke Konvergenz der Gradienten für glatte Lösungen. Ferner wird der sogenannte Fluss-Fehlerschätzer hergeleitet und dessen Zuverlässigkeit und Effizienz gezeigt. Für Interface-Probleme mit stückweise glatter Lösung wird eine Verfeinerung des Fehlerschätzers entwickelt, die den Fehler der primalen Variablen und ihres Gradienten beschränkt und so starke Konvergenz der Gradienten sichert. Der verfeinerte Fehlerschätzer konvergiert schneller als der Fluss- Fehlerschätzer, und verringert so die Zuverlässigkeits-Effizienz-Lücke. Numerische Experimente mit fünf Benchmark-Tests der Mikrostruktursimulation und Topologieoptimierung ergänzen und bestätigen die theoretischen Ergebnisse.
Infimising sequences of nonconvex variational problems often do not converge strongly in Sobolev spaces due to fine oscillations. These oscillations are physically meaningful; finite element approximations, however, fail to resolve them in general. Relaxation methods replace the nonconvex energy with its (semi)convex hull. This leads to a macroscopic model which is degenerate in the sense that it is not strictly convex and possibly admits multiple minimisers. The lack of control on the primal variable leads to difficulties in the a priori and a posteriori finite element error analysis, such as the reliability-efficiency gap and no strong convergence. To overcome these difficulties, stabilisation techniques add a discrete positive definite term to the relaxed energy. Bartels et al. (IFB, 2004) apply stabilisation to two-dimensional problems and thereby prove strong convergence of gradients. This result is restricted to smooth solutions and quasi-uniform meshes, which prohibit adaptive mesh refinements. This thesis concerns a modified stabilisation term and proves convergence of the stress and, for smooth solutions, strong convergence of gradients, even on unstructured meshes. Furthermore, the thesis derives the so-called flux error estimator and proves its reliability and efficiency. For interface problems with piecewise smooth solutions, a refined version of this error estimator is developed, which provides control of the error of the primal variable and its gradient and thus yields strong convergence of gradients. The refined error estimator converges faster than the flux error estimator and therefore narrows the reliability-efficiency gap. Numerical experiments with five benchmark examples from computational microstructure and topology optimisation complement and confirm the theoretical results.
APA, Harvard, Vancouver, ISO, and other styles
5

Schwinte, Valentin. "Autour de l'équation du plus bas niveau de Landau." Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0078.

Full text
Abstract:
Cette thèse a pour objet l'étude de l'équation du plus bas niveau de Landau, dans plusieurs contextes pertinents en physique et provient des modèles pour les condensats de Bose-Einstein. Nous nous penchons spécifiquement sur trois aspects liés à l'équation. Le premier est l'étude d'une classe de solutions appelées ondes stationnaires, à travers la minimisation d'une fonctionnelle énergie. Nous montrons notamment que la gaussienne est l'unique minimiseur global à symétries près pour un certain paramètre, à l'aide d'algèbre linéaire et bilinéaire. Le deuxième point concerne la conjecture de réseau d'Abrikosov. Nous investiguons l'équation avec ajout de conditions périodiques, et la linéarisons autour des réseaux. Nous aboutirons à la stabilité du réseau hexagonal. Le troisième et dernier aspect porte sur les ondes progressives pour l'équation couplée du plus bas niveau de Landau. Nous classifions de telles solutions ayant un nombre fini de zéros, et en déduisons l'existence de solutions dont les normes de Sobolev croissent
The aim of this thesis is to study the Lowest Landau Level equation, in several contexts relevant to physics and originating from models for Bose-Einstein condensates. In particular, we investigate three aspects of the equation. The first is the study of a class of solutions called stationary waves, through the minimization of an energy functional. In particular, we show that the Gaussian is the only global minimizer up to symmetries for a certain parameter, using linear and bilinear algebra tools. The second point concerns the Abrikosov lattice conjecture. We investigate the equation with the addition of periodic conditions, and linearize it around lattices. This results in the stability of the hexagonal lattice. The third and final aspect concerns progressive waves for the coupled Lowest Landau Level equation. We classify such solutions with a finite number of zeros, and deduce the existence of solutions with growing Sobolev norms
APA, Harvard, Vancouver, ISO, and other styles
6

Cutforth, Claire Louise. "Understanding waste minimisation practices at the individual and household level." Thesis, Cardiff University, 2014. http://orca.cf.ac.uk/69484/.

Full text
Abstract:
Over recent years, the issue of how to manage waste sustainably has intensified for both researchers and policy makers. From a policy perspective, the reason for this intensification can be traced to European legislation and its transposition into UK policy. The Welsh Government in particular has set challenging statutory targets for Local Authorities. Such targets include increases in recycling and composting as well as waste reduction and reuse targets. From a research perspective there has been dissatisfaction with behavioural models and their willingness to explore alternative social science thinking (such as leading approaches to practice). Despite policy interest in sustainable waste practices, there remains little research which focuses specifically on waste minimisation at the individual or household level. What research exists focuses on pro-environmental or recycling behaviour, and tends to focus upon values, intention and behavioural change, rather than on what actual practices occur, and for what reasons. This research focuses on what practices take place in order to access a more complex range of reasons why such practices take place. The methodology adopts a qualitative approach to uncovering practices in a variety of contexts, and discovers a number of key insights which underpin waste minimisation practice. This thesis demonstrates that waste minimisation performances take place, but often do so ‘unwittingly’. Coupled to this, many witting or unwitting waste minimisation actions occur for reasons other than concern for the environment. Furthermore, this research suggests that practices (and their motivations) vary dependent upon the context in which they occur. In general, three key themes were found to be significant in influencing the take up and transfer of practice: cost, convenience, and community. As a waste practitioner, the researcher is able to engage with these themes in order to suggest future directions for waste minimisation policy as well as research.
APA, Harvard, Vancouver, ISO, and other styles
7

Hülsemann, Frank. "A new moving mesh algorithm for the finite element solution of variational problems." Thesis, University of Bristol, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.310742.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Gerner, Wadim [Verfasser], Christof [Akademischer Betreuer] Melcher, der Mosel Heiko [Akademischer Betreuer] von, and Daniel [Akademischer Betreuer] Peralta-Salas. "Minimisation problems in ideal magnetohydrodynamics / Wadim Gerner ; Christof Melcher, Heiko von der Mosel, Daniel Peralta-Salas." Aachen : Universitätsbibliothek der RWTH Aachen, 2020. http://d-nb.info/1225880297/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Gryson, Alexis. "Minimisation d'énergie sous contraintes : applications en algèbre linéaire et en contrôle linéaire." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00424947.

Full text
Abstract:
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l'approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l'approximation d'un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d'une équation de Sylvester. Après avoir prouvé l'existence d'un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d'énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique. On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l'axe réel symétriques par rapport à l'origine. L'impact de nos résultats théoriques pour l'analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d'une équation de Lyapounov est estimé à l'aide de plusieurs exemples numériques après avoir exposé l'algorithme nous permettant d'obtenir les paramètres utilisés.
APA, Harvard, Vancouver, ISO, and other styles
10

Haberkorn, Thomas. "Transfert orbital à poussée faible avec minimisation de la consommation : résolution par homotopie différentielle." Toulouse, INPT, 2004. http://www.theses.fr/2004INPT031H.

Full text
Abstract:
Cette thèse porte sur un problème de mécanique spatiale, un transfert orbital à poussée faible, autour de la Terre, avec maximisation de la masse finale. La difficulté de ce problème vient des discontinuités de la commande optimale et du fait que les instants de commutations ne sont pas connus (nombre et localisation). La méthode du tir simple devenant particulièrement sensible à l'initialisation, on paramètre le critère du problème pour relier la minimisation de l'énergie à la minimisation de la consommation. La fonction de tir résultant de la paramétrisation définit alors une homotopie dont le chemin de zéros est suivi par une méthode de continuation différentielle. Une seconde homotopie, discrète celle-ci, permet d'affranchir complètement notre méthode de toute connaissance à priori sur la structure de la commande optimale, d'autant plus que le nombre de commutations peut être très important (plus de 1000 pour une poussée de 0. 1 N et un satellite de 1500 kg). Cette méthode de résolution est implantée dans un logiciel et appliquée avec succès a notre problème. Les résultats obtenus permettent de mettre en évidence un grand nombre de lois empiriques comme par exemple l'indépendance de l'évolution de la masse finale par rapport a la poussée maximale.
APA, Harvard, Vancouver, ISO, and other styles
11

Faucher, Florian. "Contributions à l'imagerie sismique par inversion des formes d’onde pour les équations d'onde harmoniques : Estimation de stabilité, analyse de convergence, expériences numériques avec algorithmes d'optimisation à grande échelle." Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3024/document.

Full text
Abstract:
Dans ce projet, nous étudions la reconstruction de milieux terrestres souterrains.L’imagerie sismique est traitée avec un problème de minimisation itérative àgrande échelle, et nous utilisons la méthode de l’inversion des formes d’ondes(Full Waveform Inversion, FWI method). La reconstruction est basée sur desmesures d’ondes sismiques, car ces ondes sont caractérisées par le milieu danslequel elles se propagent. Tout d’abord, nous présentons les méthodesnumériques qui sont nécessaires pour prendre en compte l’hétérogénéité etl’anisotropie de la Terre. Ici, nous travaillons avec les solutions harmoniques deséquations des ondes, donc dans le domaine fréquentiel. Nous détaillons leséquations et l’approche numérique mises en place pour résoudre le problèmed’onde.Le problème inverse est établi afin de reconstruire les propriétés du milieu. Ils’agit d’un problème non-linéaire et mal posé, pour lequel nous disposons de peude données. Cependant, nous pouvons montrer une stabilité de type Lipschitzpour le problème inverse associé avec l’équation de Helmholtz, en considérantdes modèles représentés par des constantes par morceaux. Nous explicitons laborne inférieure et supérieure pour la constante de stabilité, qui nous permetd’obtenir une caractérisation de la stabilité en fonction de la fréquence et del’échelle. Nous revoyons ensuite le problème de minimisation associé à lareconstruction en sismique. La méthode de Newton apparaît comme naturelle,mais peut être difficilement accessible, dû au coup de calcul de la Hessienne.Nous présentons une comparaison des méthodes pour proposer un compromisentre temps de calcul et précision. Nous étudions la convergence de l’algorithme,en fonction de la géométrie du sous-sol, la fréquence et la paramétrisation. Celanous permet en particulier de quantifier la progression en fréquence, en estimantla taille du rayon de convergence de l’espace des solutions admissibles.A partir de l’étude de la stabilité et de la convergence, l’algorithme deminimisation itérative est conduit en faisant progresser la fréquence et l’échellesimultanément. Nous présentons des exemples en deux et trois dimensions, etillustrons l’incorporation d’atténuation et la considération de milieux anisotropes.Finalement, nous étudions le cas de reconstruction avec accès aux données deCauchy, motivé par les dual sensors développés en sismique. Cela nous permetde définir une nouvelle fonction coût, qui permet de prometteuses perspectivesavec un besoin minimal quant aux informations sur l’acquisition
In this project, we investigate the recovery of subsurface Earth parameters. Weconsider the seismic imaging as a large scale iterative minimization problem, anddeploy the Full Waveform Inversion (FWI) method, for which several aspects mustbe treated. The reconstruction is based on the wave equations because thecharacteristics of the measurements indicate the nature of the medium in whichthe waves propagate. First, the natural heterogeneity and anisotropy of the Earthrequire numerical methods that are adapted and efficient to solve the wavepropagation problem. In this study, we have decided to work with the harmonicformulation, i.e., in the frequency domain. Therefore, we detail the mathematicalequations involved and the numerical discretization used to solve the waveequations in large scale situations.The inverse problem is then established in order to frame the seismic imaging. Itis a nonlinear and ill-posed inverse problem by nature, due to the limitedavailable data, and the complexity of the subsurface characterization. However,we obtain a conditional Lipschitz-type stability in the case of piecewise constantmodel representation. We derive the lower and upper bound for the underlyingstability constant, which allows us to quantify the stability with frequency andscale. It is of great use for the underlying optimization algorithm involved to solvethe seismic problem. We review the foundations of iterative optimizationtechniques and provide the different methods that we have used in this project.The Newton method, due to the numerical cost of inverting the Hessian, may notalways be accessible. We propose some comparisons to identify the benefits ofusing the Hessian, in order to study what would be an appropriate procedureregarding the accuracy and time. We study the convergence of the iterativeminimization method, depending on different aspects such as the geometry ofthe subsurface, the frequency, and the parametrization. In particular, we quantifythe frequency progression, from the point of view of optimization, by showinghow the size of the basin of attraction evolves with frequency. Following the convergence and stability analysis of the problem, the iterativeminimization algorithm is conducted via a multi-level scheme where frequencyand scale progress simultaneously. We perform a collection of experiments,including acoustic and elastic media, in two and three dimensions. Theperspectives of attenuation and anisotropic reconstructions are also introduced.Finally, we study the case of Cauchy data, motivated by the dual sensors devicesthat are developed in the geophysical industry. We derive a novel cost function,which arises from the stability analysis of the problem. It allows elegantperspectives where no prior information on the acquisition set is required
APA, Harvard, Vancouver, ISO, and other styles
12

Venturelli, Andrea. "Application de la minimisation de l'action au problème des N corps dans le plan et dans l'espace." Paris 7, 2002. http://www.theses.fr/2002PA077190.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Gryson, Alexis. "Minimisation d'énergie sous contraintes : applications en algèbre linéaire et en contrôle linéaire." Electronic Thesis or Diss., Lille 1, 2009. http://www.theses.fr/2009LIL10034.

Full text
Abstract:
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l’approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l’approximation d’un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d’une équation de Sylvester. Après avoir prouvé l’existence d’un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d’énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique.On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l’axe réel symétriques par rapport à l’origine. L’impact de nos résultats théoriques pour l’analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d’une équation de Lyapounov est estimé à l’aide de plusieurs exemples numériques après avoir exposé l’algorithme nous permettant d’obtenir les paramètres utilisés. Mots clés : Théorie du potentiel
The Zolotarev problem with respect to discrete sets arises naturally to describe both the convergence rate of the ADI method, to compute approximation of various functions of matrices and to quantify the decreasing rate of singular values of structured matrices. Moreover, the theory of model reduction is a key problem in linear control theory, and the quality of the approximation of continuous stationnary linear dynamical system might be predicted with the computation of the solution of a Sylvester equation. Once proved the existence of a minimizer for the third Zolotarev problem with respect to discrete sets, we give the weak asymptotic behaviour of the Zolotarev quantity under some regularity hypothesis. In this purpose, we introduce a problem of energy minimization with constraints in logarithmic potential theory with respect to signed measures. We discuss the accuracy of our results for general discrete sets in the complex plane, and we prove an explicit integral formula in the particular case of two discret subsets of the real axis symmetric with respect to the imaginary axis. Then, the impact of our theoretical results concerning the analysis of the convergence rate of the ADI method applied to solve a Sylvester equation is estimated with various numerical examples after the description of the algorithm which we used to compute the parameters
APA, Harvard, Vancouver, ISO, and other styles
14

Boiger, Wolfgang Josef [Verfasser], Carsten [Akademischer Betreuer] Carstensen, Sören [Akademischer Betreuer] Bartels, and Eun-Jae [Akademischer Betreuer] Park. "Stabilised finite element approximation for degenerate convex minimisation problems / Wolfgang Josef Boiger. Gutachter: Carsten Carstensen ; Sören Bartels ; Eun-Jae Park." Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://d-nb.info/1041284454/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Boiger, Wolfgang [Verfasser], Carsten Akademischer Betreuer] Carstensen, Sören [Akademischer Betreuer] [Bartels, and Eun-Jae [Akademischer Betreuer] Park. "Stabilised finite element approximation for degenerate convex minimisation problems / Wolfgang Josef Boiger. Gutachter: Carsten Carstensen ; Sören Bartels ; Eun-Jae Park." Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://nbn-resolving.de/urn:nbn:de:kobv:11-100211496.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Rigot, Séverine. "1. Sur un probleme de minimisation avec contrainte de volume 2. Sur la fonctionnelle de mumford-shah en dimension quelconque." Paris 11, 1999. http://www.theses.fr/1999PA112269.

Full text
Abstract:
On etudie dans cette these certains problemes variationnels ou des energies de surface et de volume entrent en competition. Le premier probleme aborde concerne une energie e definie pour tout ensemble comme la surface de sa frontiere plus un autre terme homogene grossierement parlant a un volume. On etudie le probleme de la minimisation de e parmi tous les candidats de mesure de lebesgue fixee. On montre des resultats d'existence et de regularite pour la frontiere des minima. L'uniforme rectifiabilite avec des parametres universels est une premiere etape. Puis on montre que les minima de e sont des quasi minima pour le perimetre. Des resultats connus, dont on demontre des versions quantitatives uniformes, nous disent alors qu'en dehors d'un ensemble ferme de dimension au plus n-8, la frontiere des minima normalises est localement le graphe d'une fonction dont la derivee est holderienne. Ces resultats sont valides de maniere plus generale pour les quasi minima pour le perimetre avec contrainte de volume. On etudie aussi les composantes connexes des minima (volume, position relative). Le deuxieme probleme aborde concerne la generalisation de la fonctionnelle de mumford-shah en dimension quelconque. On demontre la generalisation d'un resultat de g. David en dimension 2 concernant la regularite de l'ensemble des contours d'une paire reduite minimisante.
APA, Harvard, Vancouver, ISO, and other styles
17

Nguyen, Laurent. "Calibration de modèles financiers par minimisation d'entropie relative et modèles avec sauts." Phd thesis, Ecole des Ponts ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00005766.

Full text
Abstract:
Le smile de volatilité implicite observé sur les marchés d'options traduit l'insuffisance du modèle de Black et Scholes. Avec la nécessité d'élaborer un modèle d'actif financier plus satisfaisant, vient celle de sa calibration, objet de cette thèse.
La calibration de modèles financiers par minimisation de lentropie relative a été proposée récemment dans le cadre de la méthode de Monte Carlo. On a étudié la convergence et la stabilité de cette méthode et on a étendu les résultats à des critères plus généraux que lentropie relative. La prise en compte des contraintes sur le sous-jacent assurant labsence dopportunité darbitrage a été abordée sous langle dun problème de moments.
Dans la seconde partie, on a considéré un modèle simple du phénomène de krach en introduisant en particulier des sauts dans la volatilité du sous-jacent. On a calculé le risque quadratique et effectué un développement approché du smile utile pour la calibration.
Finalement, dans la troisième partie, on utilise lentropie relative pour calibrer lintensité des sauts dun modèle de diffusion avec sauts et volatilité locale. La stabilité de la méthode a été prouvée grâce à des techniques de contrôle optimal ainsi quau théorème des fonctions implicites.
APA, Harvard, Vancouver, ISO, and other styles
18

Marnissi, Yosra. "Bayesian methods for inverse problems in signal and image processing." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1142/document.

Full text
Abstract:
Les approches bayésiennes sont largement utilisées dans le domaine du traitement du signal. Elles utilisent des informations a priori sur les paramètres inconnus à estimer ainsi que des informations sur les observations, pour construire des estimateurs. L'estimateur optimal au sens du coût quadratique est l'un des estimateurs les plus couramment employés. Toutefois, comme la loi a posteriori exacte a très souvent une forme complexe, il faut généralement recourir à des outils d'approximation bayésiens pour l'approcher. Dans ce travail, nous nous intéressons particulièrement à deux types de méthodes: les algorithmes d'échantillonnage Monte Carlo par chaînes de Markov (MCMC) et les approches basées sur des approximations bayésiennes variationnelles (VBA).La thèse est composée de deux parties. La première partie concerne les algorithmes d'échantillonnage. Dans un premier temps, une attention particulière est consacrée à l'amélioration des méthodes MCMC basées sur la discrétisation de la diffusion de Langevin. Nous proposons une nouvelle méthode pour régler la composante directionnelle de tels algorithmes en utilisant une stratégie de Majoration-Minimisation ayant des propriétés de convergence garanties. Les résultats expérimentaux obtenus lors de la restauration d'un signal parcimonieux confirment la rapidité de cette nouvelle approche par rapport à l'échantillonneur usuel de Langevin. Dans un second temps, une nouvelle méthode d'échantillonnage basée sur une stratégie d'augmentation des données est proposée pour améliorer la vitesse de convergence et les propriétés de mélange des algorithmes d'échantillonnage standards. L'application de notre méthode à différents exemples en traitement d'images montre sa capacité à surmonter les difficultés liées à la présence de corrélations hétérogènes entre les coefficients du signal.Dans la seconde partie de la thèse, nous proposons de recourir aux techniques VBA pour la restauration de signaux dégradés par un bruit non-gaussien. Afin de contourner les difficultés liées à la forme compliquée de la loi a posteriori, une stratégie de majoration est employée pour approximer la vraisemblance des données ainsi que la densité de la loi a priori. Grâce à sa flexibilité, notre méthode peut être appliquée à une large classe de modèles et permet d'estimer le signal d'intérêt conjointement au paramètre de régularisation associé à la loi a priori. L'application de cette approche sur des exemples de déconvolution d'images en présence d'un bruit mixte Poisson-gaussien, confirme ses bonnes performances par rapport à des méthodes supervisées de l'état de l'art
Bayesian approaches are widely used in signal processing applications. In order to derive plausible estimates of original parameters from their distorted observations, they rely on the posterior distribution that incorporates prior knowledge about the unknown parameters as well as informations about the observations. The posterior mean estimator is one of the most commonly used inference rule. However, as the exact posterior distribution is very often intractable, one has to resort to some Bayesian approximation tools to approximate it. In this work, we are mainly interested in two particular Bayesian methods, namely Markov Chain Monte Carlo (MCMC) sampling algorithms and Variational Bayes approximations (VBA).This thesis is made of two parts. The first one is dedicated to sampling algorithms. First, a special attention is devoted to the improvement of MCMC methods based on the discretization of the Langevin diffusion. We propose a novel method for tuning the directional component of such algorithms using a Majorization-Minimization strategy with guaranteed convergence properties.Experimental results on the restoration of a sparse signal confirm the performance of this new approach compared with the standard Langevin sampler. Second, a new sampling algorithm based on a Data Augmentation strategy, is proposed to improve the convergence speed and the mixing properties of standard MCMC sampling algorithms. Our methodological contributions are validated on various applications in image processing showing the great potentiality of the proposed method to manage problems with heterogeneous correlations between the signal coefficients.In the second part, we propose to resort to VBA techniques to build a fast estimation algorithm for restoring signals corrupted with non-Gaussian noise. In order to circumvent the difficulties raised by the intricate form of the true posterior distribution, a majorization technique is employed to approximate either the data fidelity term or the prior density. Thanks to its flexibility, the proposed approach can be applied to a broad range of data fidelity terms allowing us to estimate the target signal jointly with the associated regularization parameter. Illustration of this approach through examples of image deconvolution in the presence of mixed Poisson-Gaussian noise, show the good performance of the proposed algorithm compared with state of the art supervised methods
APA, Harvard, Vancouver, ISO, and other styles
19

Rachdi, Nabil. "Apprentissage statistique et computer experiments : approche quantitative du risque et des incertitudes en modélisation." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1538/.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l'apprentissage statistique et dans celui des expériences simulées (computer experiments). Son objet est de proposer un cadre général permettant d'estimer les paramètres d'un code de simulation numérique de façon à reproduire au mieux certaines caractéristiques d'intérêt extraites de données observées. Ce travail recouvre le cadre classique de l'estimation paramétrique dans un modèle de régression et également la calibration de la densité de probabilité des variables d'entrée d'un code numérique afin de reproduire une loi de probabilité donnée en sortie. Une partie importante de ce travail consiste dans l'estimation paramétrique d'un code numérique à partir d'observations. Nous proposons une classe de méthode originale nécessitant une simulation intensive du code numérique, que l'on remplacera par un méta-modèle s'il est trop coûteux. Nous validons théoriquement les algorithmes proposés du point de vue non-asymptotique, en prouvant des bornes sur l'excès de risque. Ces résultats reposent entres autres sur des inégalités de concentration. Un second problème que nous abordons est celui de l'étude d'une dualité entre procédure d'estimation et nature de la prédiction recherchée. Il s'agit ici de mieux comprendre l'effet d'une procédure d'estimation des paramètres d'un code numérique sur une caractéristique d'intérêt donnée. Enfin, en pratique la détermination des paramètres optimaux au sens du critère donné par le risque empirique nécessite la recherche du minimum d'une fonction généralement non convexe et possédant plusieurs minima locaux. Nous proposons un algorithme stochastique consistant à combiner une régularisation du critère par convolution avec un noyau gaussien, de variance décroissante au fil des itérations, avec une méthode d'approximation stochastique du type Kiefer-Wolfowitz
This thesis work consists in gathering statistical learning theory with the field of computer experiments. As the considered computer codes are only known through simulations, we propose an original statistical framework, including the classical ones, which takes into account the simulation aspect. We investigate learning algorithms for parameter estimation in computer codes which depend on both observed and simulation data. We validate these algorithms by proving excess risk bounds using concentration inequalities. We also study the duality between the estimation procedure and the wanted feature prediction. Here, we try to understand the impact of an estimation procedure on some given characteristic of the phenomenon of interest. Finally, the computation of optimal parameters in practice involves the minimization of a criterion which is generally highly non convex and with irregularities. We propose a stochastic algorithm which consists in combining regularization methods with a stochastic approximation method like the Kiefer-Wolfowitz one
APA, Harvard, Vancouver, ISO, and other styles
20

Lemenant, Antoine. "SUR LA REGULARITE DES MINIMISEURS DE MUMFORD-SHAH EN DIMENSION 3 ET SUPERIEURE." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00288822.

Full text
Abstract:
On étudie dans cette thèse certains aspects de la régularité de l'ensemble singulier d'un minimiseur pour la fonctionnelle de Mumford-Shah. On se place principalement en dimension 3 même si certains résultats fonctionnent encore en dimension supérieure. Dans une première partie on étudie les minimiseurs globaux dans R^N et on montre que si (u;K) est un minimiseur global et que si K est un cône assez régulier, alors u (modulo les constantes) est une fonction homogène de degré 1/2 dans R^N\K. Ceci nous permet de lier l'existence d'un minimiseur global et le spectre du laplacien sphérique dans la sphère unité privée de K. Une conséquence est qu'un secteur angulaire stricte ne peut pas être l'ensemble singulier d'un minimiseur global de Mumford-Shah dans R^3. Dans la deuxième partie on montre un théorème de régularité au voisinage des cônes minimaux P, Y et T. On montre que si K est proche (en distance) d'un Y ou d'un T dans une certaine boule, alors K est l'image C^1,alpha d'un P, Y ou d'un T dans une boule légèrement plus petite, ce qui généralise un théorème de L. Ambrosio, N. Fusco et D. Pallara [AFP07]. Les techniques employées ne sont pas exclusives à la dimension 3 et devraient permettre de démontrer des résultats analogues en toute dimension pour un minimiseur de Mumford-Shah, dès lors qu'un résultat de régularité sur les ensembles presque minimaux existerait.
APA, Harvard, Vancouver, ISO, and other styles
21

Rezig, Wafa. "Problèmes de multiflots : état de l'art et approche par décomposition décentralisée du biflot entier de coût minimum." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346082.

Full text
Abstract:
Nous considèrerons ici les modèles linéaires de multiflots, en mettant l'accent sur leurs multiples applications, notamment dans les domaines de l'ordonnancement et de la gestion de production. Il est bien connu que ces problèmes, présentés sous forme de programmes linéaires, sont difficiles à résoudre, contrairement à leurs homologues en flot simple. Les méthodes de résolution classiques proposent, déjà dans le cas continu, des solutions approchées. On distingue: les méthodes de décomposition par les prix, par les ressources, ainsi que les techniques de partitionnement. Si l'on rajoute la contrainte d'intégralité sur les flots, ces problèmes deviennent extrêmement difficiles. Nous nous sommes intéressés à un cas particulier des problèmes de multiflots, à savoir: le biflot entier de coût minimum. Nous avons développé une approche de résolution heuristique basée sur un principe de décomposition mixte, opérant itérativement, à la fois par une allocation de ressources et par un ajustement des coûts. L'implémentation de cette approche met en évidence des résultats prometteurs, obtenus sur des problèmes de biflot purs, générés aléatoirement. Nous avons donc envisagé une deuxième application sur des problèmes de biflot plus structurés. Ces problèmes de biflot ont été proposés pour la modélisation du problème de voyageur de commerce. Cette application débouche d'une part, sur l'utilisation d'un algorithme de recherche d'un circuit hamiltonien dans un graphe, et d'autre part, sur le développement de techniques heuristiques pour la construction de tournées intéressantes
APA, Harvard, Vancouver, ISO, and other styles
22

Vu, Dong Quan. "Models and solutions of strategic resource allocation problems : approximate equilibrium and online learning in Blotto games." Electronic Thesis or Diss., Sorbonne université, 2020. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2020SORUS120.pdf.

Full text
Abstract:
Les problèmes d'allocation des ressources sont définis comme les situations concernant les décisions sur la distribution d’un budget limité afin d’optimiser un objectif. Beaucoup d'entre eux impliquent des interactions entre des décideurs compétitifs ; ils peuvent être bien capturés par des modèles de théorie des jeux. Dans cette thèse, nous choisissons d'étudier les jeux d'allocation de ressources. Nous nous concentrons principalement sur le jeu de Colonel Blotto (CB). Dans le jeu CB, deux joueurs compétitifs, chacun ayant un budget fixe, distribuent simultanément leurs ressources vers n champs de bataille. Chaque joueur évalue chaque champ de bataille avec une certaine valeur. Dans chaque champ de bataille, le joueur qui a l'allocation la plus élevée gagne la valeur correspondante tandis que l'autre obtient zéro. Le gain de chaque joueur est à ses gains cumulés sur tous les champs de bataille. Tout d'abord, nous modélisons plusieurs variantes et extensions du jeu CB comme jeux d'informations complètes à un coup. Notre première contribution est une classe d'équilibres approximatifs dans ces jeux et nous prouvons que l'erreur d'approximation est bien contrôlée. Deuxièmement, nous modélisons les jeux d'allocation de ressources avec des structures combinatoires comme des problèmes d'apprentissage en ligne pour étudier des situations impliquant des jeux séquentiels et des informations incomplètes. Nous établissons une connexion entre ces jeux et les problèmes de chemin le plus court en ligne (OSP). Notre deuxième contribution est un ensemble de nouveaux algorithmes d’OSP sous plusieurs paramètres de feedback qui améliorent des garanties de regret et du temps d'exécution
Resource allocation problems are broadly defined as situations involving decisions on distributing a limited budget of resources in order to optimize an objective. In particular, many of them involve interactions between competitive decision-makers which can be well captured by game-theoretic models. In this thesis, we choose to investigate resource allocation games. We primarily focus on the Colonel Blotto game (CB game). In the CB game, two competitive players, each having a fixed budget of resources, simultaneously distribute their resources toward n battlefields. Each player evaluates each battlefield with a certain value. In each battlefield, the player who has the higher allocation wins and gains the corresponding value while the other loses and gains zero. Each player's payoff is her aggregate gains from all the battlefields. First, we model several prominent variants of the CB game and their extensions as one-shot complete-information games and analyze players' strategic behaviors. Our first main contribution is a class of approximate (Nash) equilibria in these games for which we prove that the approximation error can be well-controlled. Second, we model resource allocation games with combinatorial structures as online learning problems to study situations involving sequential plays and incomplete information. We make a connection between these games and online shortest path problems (OSP). Our second main contribution is a set of novel regret-minimization algorithms for generic instances of OSP under several restricted feedback settings that provide significant improvements in regret guarantees and running time in comparison with existing solutions
APA, Harvard, Vancouver, ISO, and other styles
23

Haïat, Guillaume. "Étude d'une méthode d'inversion basée sur la simulation pour la caractérisation de fissures détectées par ultrasons dans un composant revêtu." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00007345.

Full text
Abstract:
Le travail effectué au cours de cette thèse porte sur l'inversion de données ultrasonores. Le contexte industriel en est le contrôle non destructif des cuves de réacteurs à eau pressurisée. Ces contrôles visent à détecter et caractériser des fissures. Les données ultrasonores se présentent sous la forme d'échographies obtenues à l'aide d'un capteur fonctionnant en émission-réception. Les fissures sont détectées par diffraction de leurs arêtes. L'analyse des données obtenues est rendue difficile du fait de l'existence d'un revêtement dont la surface est irrégulière et dont le matériau diffère du matériau constitutif de la cuve. Une méthode est ici proposée pour localiser avec précision les arêtes diffractantes et donc permettre un dimensionnement des fissures à partir des échographies ultrasonores obtenues. Cette méthode s'appuie sur l'application d'outils de modélisation de la propagation et de la diffraction des ultrasons prenant en compte à la fois le caractère irrégulier de la surface et la nature hétérogène du composant. La méthode développée a fait l'objet d'une implémentation informatique et a pu être testée sur un ensemble de cas représentatifs. En particulier, ses performances ont été évaluées à partir de l'analyse de résultats expérimentaux. La précision obtenue en laboratoire sur les cas expérimentaux traités est conforme à la demande industrielle qui a motivé cette étude.
APA, Harvard, Vancouver, ISO, and other styles
24

Tekitek, Mohamed Mahdi. "Identification de modèles et de paramètres pour la méthode de Boltzmann sur réseau." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00207541.

Full text
Abstract:
Cette thèse comporte trois parties: étude du schéma de Boltzmann sur réseau, schéma adjoint de Boltzmann sur réseau pour l'identification de paramètres et construction d'une couche parfaitement absorbante pour ce schéma.

La première partie introduit et analyse la méthode.

La deuxième partie décrit une approche variationnelle pour l'assimilation de paramètres relatifs à la méthode du gaz de Boltzmann sur réseau. Une méthode adjointe discrète en temps est développée. L'algorithme est d'abord testé sur un écoulement de type Poiseuille linéaire (problème de Stokes), puis il est appliqué à un problème non linéaire. Des résultats encourageants sont obtenus pour un et deux paramètres inconnus.

Finalement la troisième partie décrit une adaptation des couches absorbantes de Bérenger. Il en résulte un modèle d'automate de Boltzmann à neuf vitesses discrètes. Une analyse des ondes réfléchies est ensuite réalisée entre deux milieux de Boltzmann à une dimension, ce qui permet d'obtenir un équivalent des formules de Fresnel pour les schémas de Boltzmann et de proposer des modifications du schéma à l'interface pour annuler les ondes réfléchies. En deux dimensions, la même analyse d'ondes réfléchies met en évidence l'apparition de modes de Knudsen et des ondes transverses qui rendent l'analyse complexe.
APA, Harvard, Vancouver, ISO, and other styles
25

Jeng, Jr-Yung, and 鄭志勇. "Conjugate Functions and Convex Minimisation Problems." Thesis, 2001. http://ndltd.ncl.edu.tw/handle/08950813929137317016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Laza, Vlad Lucian. "Interrelated product design activities sequencing with efficient tabu search algorithms." Thèse, 2016. http://hdl.handle.net/1866/16161.

Full text
Abstract:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Ce mémoire présente un nouvel algorithme métaheuristique de recherche taboue pour trouver des solutions optimales ou sous-optimales au problème de minimisation de la longueur des dépendances d’une matrice de conception (FLMP). Ce problème comporte une fonction économique non-linéaire et il appartient à la classe NP-ardu. Il s’ensuit qu’il est très difficile à trouver une solution optimale exacte en temps réel pour les problèmes de taille moyenne ou grande. D’abord, on présente le problème et une revue de la littérature associée. Ensuite, on analyse le problème, et on présente les détails du nouvel algorithme de recherche taboue produisant des solutions au problème de réduction de l’effet de retour en utilisant deux voisinages différents, le premier basé sur l’échange des positions de deux activités ("swap"), et le second sur le déplacement d’une activité à une position différente ("shift"). Des résultats numériques permettent d’analyser le comportement de l’algorithme et de comparer les deux voisinages. La première étape consiste à déterminer de bonnes valeurs pour les paramètres en utilisant des problèmes générés aléatoirement. Ensuite nos résultats sont comparés avec ceux obtenus dans la littérature. On conclut que l’algorithme de recherche taboue proposé est très prometteur, car nos résultats sont meilleurs que ceux publiés dans la litérature. D’autant plus que la recherche taboue semble avoir été utilisée pour la première fois sur ce problème.
APA, Harvard, Vancouver, ISO, and other styles
27

Monnye, Segoane Lawrence. "Towards the regulation of interactive gambling : an analysis of the gambling regulatory framework in South Africa." Diss., 2016. http://hdl.handle.net/10500/21154.

Full text
Abstract:
With the exception of horse racing, any form of gambling was criminalised in South Africa until the dawn of constitutional democracy in 1994. In the same year, the Lotteries and Gambling Board Act, 1993, came into force decriminalising, amongst others, casinos and gambling games within the Republic. This Act has since been repealed and gambling is governed by the National Gambling Act, 2004, as well as by provincial gambling laws. Interactive / online gambling is illegal pending authorisation by a national legislation. Such legislation, the National Gambling Amendment Act, 2008, seeking to regulate interactive gambling awaits proclamation of the date of its commencement by the President. The National Gambling Policy, 2016, dashes any hope of regulation of interactive gambling, however, as it seeks to embargo the introduction of (new) forms of gambling, including but not limited to interactive gambling. The scourge of problem gambling and the protection of traditional forms of gambling, that is, casinos, are the main reasons for advocating for the continued prohibition of interactive gambling. Problem gambling is not unique to interactive gambling, but affects all modes of gambling. South Africa is among countries with a high rate of problem gambling. It is feared that interactive gambling will exacerbate the scourge of problem gambling as gamblers with access to the internet will now have unlimited gambling opportunities around the clock. On the other hand, interactive gambling offers practical solutions to the implementation of harm minimisation strategies to deal with problem gambling such as limitations on gambling deposits, losses and time. Prohibition of interactive gambling is difficult to enforce and deprives the country of an opportunity to control, through licensing, this mode of gambling and possible benefit from taxation and licensing fees. It further exposes gamblers – who despite prohibition choose this mode of gambling – to unregulated and illegal gambling websites. This thesis attempts to provide safeguards for regulation of interactive gambling and to embrace the benefits of the technological development that makes interactive gambling a reality. The United Kingdom (UK) is a prime example of a country that has successfully legalised and licensed interactive gambling in its jurisdiction.
Criminal and Procedural Law
LL. D.
APA, Harvard, Vancouver, ISO, and other styles
28

Amghar, Khalid. "Une heuristique de recherche à voisinage variable pour le problème du voyageur de commerce avec fenêtres de temps." Thèse, 2016. http://hdl.handle.net/1866/16156.

Full text
Abstract:
Nous adaptons une heuristique de recherche à voisinage variable pour traiter le problème du voyageur de commerce avec fenêtres de temps (TSPTW) lorsque l'objectif est la minimisation du temps d'arrivée au dépôt de destination. Nous utilisons des méthodes efficientes pour la vérification de la réalisabilité et de la rentabilité d'un mouvement. Nous explorons les voisinages dans des ordres permettant de réduire l'espace de recherche. La méthode résultante est compétitive avec l'état de l'art. Nous améliorons les meilleures solutions connues pour deux classes d'instances et nous fournissons les résultats de plusieurs instances du TSPTW pour la première fois.
We adapt a general variable neighborhood search heuristic to solve the traveling salesman problem with time windows (TSPTW) where the objective is to minimize the completion time. We use efficient methods to check the feasibility and the profitability of a movement. We use a specific order to reduce the search space while exploring the neighborhoods. The resulting method is competitive with the state-of-the-art. We improve the best known solutions for two classes of instances and provide the results of multiple instances of TSPTW for the first time.
APA, Harvard, Vancouver, ISO, and other styles
29

Merzouki, Tarek. "Identification expérimentale et modélisation micromécanique du comportement d'un multicristal en alliage à mémoire de forme." Phd thesis, 2008. http://pastel.archives-ouvertes.fr/pastel-00004954.

Full text
Abstract:
Résumé : Le présent travail de thèse est une contribution à l'analyse et à la modélisation du comportement micromécanique d'un multicristal en AMF. Il est fondé sur l'exploitation de la richesse des mesures de champs cinématiques locaux dans le multicristal en vue de l'investigation des mécanismes gouvernant le comportement mécanique à l'échelle microscopique : transformation de phases, .... L'analyse et la modélisation de ces micromécanismes ont contribué, d'une part, à la mise en place du modèle à fort contenu physique reliant les causes et les effets des phénomènes mécaniques étudiés et d'autre part, à l'identification des paramètres régissant le modèle rhéologique. Le travail de thèse présente trois objectifs : le premier est le développement d'une approche expérimentale dédiée à la mesure de champs cinématiques à l'échelle microscopique sur un multicristal en alliage à mémoire de forme de type Cu-Al-Be. La mesure cinématique est réalisée par la technique de corrélation d'images numériques. Les champs de déplacement puis de déformation sont ensuite extraits par un traitement numérique à l'aide du logiciel de corrélation d'images CORRELI-Q4. Le deuxième objectif est la mise en place d'une méthodologie de couplage entre simulations numériques du comportement du multicristal et la mesure des champs cinématiques à l'échelle de la microstructure. Le troisième but visé dans ce travail est la mise en œuvre d'une méthode d'identification basée sur la minimisation d'une norme énergétique formulée par l'erreur en relation de comportement. La méthode d'identification est appliquée à l'échelle de la microstructure afin d'estimer les paramètres du comportement mécanique du multicristal à partir du champ cinématique mesuré.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography