Добірка наукової літератури з теми "Non-smooth optimisation"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Non-smooth optimisation".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Non-smooth optimisation":

1

Dao, Minh Ngoc, Dominikus Noll, and Pierre Apkarian. "Robust eigenstructure clustering by non-smooth optimisation." International Journal of Control 88, no. 8 (March 3, 2015): 1441–55. http://dx.doi.org/10.1080/00207179.2015.1007393.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Yao, Zhiqiang, Jinfeng Huang, Shiguo Wang, and Rukhsana Ruby. "Efficient local optimisation‐based approach for non‐convex and non‐smooth source localisation problems." IET Radar, Sonar & Navigation 11, no. 7 (July 2017): 1051–54. http://dx.doi.org/10.1049/iet-rsn.2016.0433.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Pothiya, Saravuth, Issarachai Ngamroo, and Waree Kongprawechnon. "Ant colony optimisation for economic dispatch problem with non-smooth cost functions." International Journal of Electrical Power & Energy Systems 32, no. 5 (June 2010): 478–87. http://dx.doi.org/10.1016/j.ijepes.2009.09.016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Sach, Pham Huu, Gue Myung Lee, and Do Sang Kim. "Efficiency and generalised convexity in vector optimisation problems." ANZIAM Journal 45, no. 4 (April 2004): 523–46. http://dx.doi.org/10.1017/s1446181100013547.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
AbstractThis paper gives a necessary and sufficient condition for a Kuhn-Tucker point of a non-smooth vector optimisation problem subject to inequality and equality constraints to be an efficient solution. The main tool we use is an alternative theorem which is quite different to a corresponding result by Xu.
5

Pecci, Filippo, Edo Abraham, and Ivan Stoianov. "Quadratic head loss approximations for optimisation problems in water supply networks." Journal of Hydroinformatics 19, no. 4 (April 17, 2017): 493–506. http://dx.doi.org/10.2166/hydro.2017.080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This paper presents a novel analysis of the accuracy of quadratic approximations for the Hazen–Williams (HW) head loss formula, which enables the control of constraint violations in optimisation problems for water supply networks. The two smooth polynomial approximations considered here minimise the absolute and relative errors, respectively, from the original non-smooth HW head loss function over a range of flows. Since quadratic approximations are used to formulate head loss constraints for different optimisation problems, we are interested in quantifying and controlling their absolute errors, which affect the degree of constraint violations of feasible candidate solutions. We derive new exact analytical formulae for the absolute errors as a function of the approximation domain, pipe roughness and relative error tolerance. We investigate the efficacy of the proposed quadratic approximations in mathematical optimisation problems for advanced pressure control in an operational water supply network. We propose a strategy on how to choose the approximation domain for each pipe such that the optimisation results are sufficiently close to the exact hydraulically feasible solution space. By using simulations with multiple parameters, the approximation errors are shown to be consistent with our analytical predictions.
6

Zhu, Yuteng. "Designing a physically-feasible colour filter to make a camera more colorimetric." London Imaging Meeting 2020, no. 1 (September 29, 2020): 96–99. http://dx.doi.org/10.2352/issn.2694-118x.2020.lim-16.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Previously, a method has been developed to find the best colour filter for a given camera which results in the new effective camera sensitivities that best meet the Luther condition. That is, the new sensitivities are approximately linearly related to the XYZ colour matching functions. However, with no constraint, the filter derived from this Luther-condition based optimisation can be rather non-smooth and transmit very little light which are impractical for fabrication. In this paper, we extend the Luther-condition filter optimisation method to allow us to incorporate both the smoothness and transmittance bounds of the recovered filter which are key practical concerns. Experiments demonstrate that we can find physically realisable filters which are smooth and reasonably transmissive with which the effective 'camera+filter' becomes significantly more colorimetric.
7

Wang, Wei-Xiang, You-Lin Shang, and Ying Zhang. "Finding global minima with a novel filled function for non-smooth unconstrained optimisation." International Journal of Systems Science 43, no. 4 (April 2012): 707–14. http://dx.doi.org/10.1080/00207721.2010.520094.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Chen, Shuming, Zhenyu Zhou, and Jixiu Zhang. "Multi-objective optimisation of automobile sound package with non-smooth surface based on grey theory and particle swarm optimisation." International Journal of Vehicle Design 88, no. 2/3/4 (2022): 238. http://dx.doi.org/10.1504/ijvd.2022.127018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Chen, Shuming, Jixiu Zhang, and Zhenyu Zhou. "Multi-objective optimisation of automobile sound package with non-smooth surface based on grey theory and particle swarm optimisation." International Journal of Vehicle Design 88, no. 2/3/4 (2022): 238. http://dx.doi.org/10.1504/ijvd.2022.10052010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Ribeiro, Tiago, Yun-Fei Fu, Luís Bernardo, and Bernard Rolfe. "Topology Optimisation of Structural Steel with Non-Penalisation SEMDOT: Optimisation, Physical Nonlinear Analysis, and Benchmarking." Applied Sciences 13, no. 20 (October 17, 2023): 11370. http://dx.doi.org/10.3390/app132011370.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In this work, Non-penalisation Smooth-Edged Material Distribution for Optimising Topology (np-SEMDOT) algorithm was developed as an alternative to well-established Topology Optimisation (TO) methods based on the solid/void approach. Its novelty lies in its smoother edges and enhanced manufacturability, but it requires validation in a real case study rather than using simplified benchmark problems. To such an end, a Sheikh-Ibrahim steel girder joint’s tension cover plate was optimised with np-SEMDOT, following a methodology designed to ensure compliance with the European design standards. The optimisation was assessed with Physical Nonlinear Finite Element Analyses (PhNLFEA), after recent findings that topologically optimised steel construction joint parts were not accurately modelled with linear analyses to ensure the required highly nonlinear ultimate behaviour. The results prove, on the one hand, that the quality of np-SEMDOT solutions strongly depends on the chosen optimisation parameters, and on the other hand, that the optimal np-SEMDOT solution can equalise the ultimate capacity and can slightly outperform the ultimate displacement of a benchmarking solution using a Solid Isotropic Material with Penalisation (SIMP)-based approach. It can be concluded that np-SEMDOT does not fall short of the prevalent methods. These findings highlight the novelty in this work by validating the use of np-SEMDOT for professional applications.

Дисертації з теми "Non-smooth optimisation":

1

Hess, Roxana. "Some approximation schemes in polynomial optimization." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30129/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est dédiée à l'étude de la hiérarchie moments-sommes-de-carrés, une famille de problèmes de programmation semi-définie en optimisation polynomiale, couramment appelée hiérarchie de Lasserre. Nous examinons différents aspects de ses propriétés et applications. Comme application de la hiérarchie, nous approchons certains objets potentiellement compliqués, comme l'abscisse polynomiale et les plans d'expérience optimaux sur des domaines semi-algébriques. L'application de la hiérarchie de Lasserre produit des approximations par des polynômes de degré fixé et donc de complexité bornée. En ce qui concerne la complexité de la hiérarchie elle-même, nous en construisons une modification pour laquelle un taux de convergence amélioré peut être prouvé. Un concept essentiel de la hiérarchie est l'utilisation des modules quadratiques et de leurs duaux pour appréhender de manière flexible le cône des polynômes positifs et le cône des moments. Nous poursuivons cette idée pour construire des approximations étroites d'ensembles semi-algébriques à l'aide de séparateurs polynomiaux
This thesis is dedicated to investigations of the moment-sums-of-squares hierarchy, a family of semidefinite programming problems in polynomial optimization, commonly called the Lasserre hierarchy. We examine different aspects of its properties and purposes. As applications of the hierarchy, we approximate some potentially complicated objects, namely the polynomial abscissa and optimal designs on semialgebraic domains. Applying the Lasserre hierarchy results in approximations by polynomials of fixed degree and hence bounded complexity. With regard to the complexity of the hierarchy itself, we construct a modification of it for which an improved convergence rate can be proved. An essential concept of the hierarchy is to use quadratic modules and their duals as a tractable characterization of the cone of positive polynomials and the moment cone, respectively. We exploit further this idea to construct tight approximations of semialgebraic sets with polynomial separators
2

Svensson, Anton. "Non-smooth and variational analysis of optimization problems and multi-leader-follower games." Thesis, Perpignan, 2020. http://www.theses.fr/2020PERP0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse, dont le cadre général est l'optimisation, traite de problèmes d'optimisation non-lisse et de problèmes de théorie des jeux. Elle est constituée de quatre parties. Dans la première, nous présentons le contexte et l'introduction. Dans la deuxième partie, nous discutons quelques règles de calcul sous-différentiel dans des espaces généraux, et présentons notamment certaines formules plus fortes que l'état de l'art, autant dans le cas convexe que dans le cas non convexe. L'accent est mis sur les règles de calcul et conditions d'optimalité approchées et "fuzzy", pour lesquelles aucune condition de qualification n'est requise. Dans la troisième partie, nous considérons des jeux bi-niveaux à plusieurs meneurs et plusieurs suiveurs. Après quelques résultats d'existence dans le cas d'un seul meneur optimiste et dans le cas de plusieurs meneurs, nous étendons des résultats existants concernant la relation entre le problème bi-niveau original et sa reformulation obtenue grâce au remplacement des problèmes des suiveurs par la concaténation de leurs conditions d'optimalité (KKT). Finalement, dans la quatrième partie, nous abordons quelques problèmes de quasi-équilibre, qui sont une généralisation des problèmes d'équilibre de Nash et des inégalités quasi-variationnelles. Nous prouvons ainsi de nouveaux résultats d'existence qui permettent de relâcher les hypothèses standard
This thesis is within the framework of optimization and deals with nonsmooth optimization and with some problems of game theory. It is divided into four parts. In the first introductory part, we give the context and some preliminary results. In the second part we discuss about subdifferential calculus rules in general spaces providing of some improved formulas in both the convex and the non-convex cases. Here the focus is on approximate or fuzzy calculus rules and optimality conditions, for which no qualification conditions are required. In the third part, we discuss about the so-called Multi-Leader-Follower Games. We give an existence result for the case of a single optimistic leader and multiple followers, and extend some results concerning the relation between the original problem with the reformulation obtained by replacing the followers' problem by the concatenation of their KKT conditions. Finally, in the fourth part we study quasi-equilibrium problems which are a general formulation for studying Nash equilibrium problems and quasi-variational inequalities. We provide some new existence results that relax some of the standard hypotheses
3

Jacob, de Cordemoy Aymeric. "Analyse de sensibilité et optimisation pour des problèmes de contact." Electronic Thesis or Diss., Pau, 2023. http://www.theses.fr/2023PAUU3038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse de sensibilité de problèmes décrits par des inéquations variationnelles est un domaine prometteur pour le traitement de problèmes de contrôle optimal et d'optimisation de forme en mécanique du contact. L'objectif de cette thèse est de mener une telle analyse sans utiliser les méthodes classiques de régularisation et/ou de pénalisation qui perturbent la nature non lisse des modèles physiques d'origine. Nous proposons alors une nouvelle méthodologie, basée sur des outils avancés issus de l'analyse convexe et non lisse, tels que l'opérateur proximal et le concept d'épi-différentiabilité du second ordre. Plus précisément, les modèles considérés sont ceux issus de la mécanique du contact, décrivant le contact entre des solides déformables qui se touchent sur des parties de leurs bords sans s'interpénétrer et qui peuvent éventuellement glisser l'un contre l'autre, provoquant ainsi des phénomènes de frottement. La condition de non-perméabilité peut être décrite par la loi de contact unilatéral de Signorini, tandis que le frottement peut être décrit par la loi de friction de Tresca. Ces deux lois se traduisent par des inégalités et/ou des termes non lisses dans les formulations variationnelles correspondantes. À l'aide de notre approche, nous procédons à une analyse de sensibilité de ces modèles et étudions ainsi des problèmes associés de contrôle optimal et d'optimisation de forme
Sensitivity analysis of problems described by variational inequalities is a promising field for the treatment of optimal control and shape optimization problems in contact mechanics. The objective of this PhD thesis is to carry out such analysis without using classical regularization and/or penalization procedures which perturb the non-smooth nature of the original physical models. Then we propose a new methodology, based on advanced tools from convex and non-smooth analyses, such as the proximal operator and the concept of second order epi-differentiability. More precisely, the models considered are those from contact mechanics, describing the contact between a deformable body with a rigid foundation without penetrating it, and possibly allows sliding modes which causes friction phenomena. The non-permeability condition can be described by the Signorini unilateral conditions, while the friction can be described by the Tresca friction law, both resulting in inequalities and/or non-smooth terms in the corresponding variational formulations. Using our approach, we perform a sensitivity analysis of these models and thus study associated optimal control and shape optimization problems
4

Lazzaretti, Marta. "Algorithmes d'optimisation dans des espaces de Banach non standard pour problèmes inverses en imagerie." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la modélisation, l'analyse théorique et l'implémentation numérique d'algorithmes d'optimisation pour la résolution de problèmes inverses d'imagerie (par exemple, la reconstruction d'images en tomographie et la déconvolution d'images en microscopie) dans des espaces de Banach non standard. Elle est divisée en deux parties: dans la première, nous considérons le cadre des espaces de Lebesgue à exposant variable L^{p(cdot)} afin d'améliorer l'adaptabilité de la solution par rapport aux reconstructions obtenues dans le cas standard d'espaces d'Hilbert; dans la deuxième partie, nous considérons une modélisation dans l'espace des mesures de Radon pour éviter les biais dus à la discrétisation observés dans les méthodes de régularisation parcimonieuse. Plus en détail, la première partie explore à la fois des algorithmes d'optimisation lisse et non lisse dans les espaces L^{p(cdot)} réflexifs, qui sont des espaces de Banach dotés de la norme dite de Luxemburg. Comme premier résultat, nous fournissons une expression des cartes de dualité dans ces espaces, qui sont un ingrédient essentiel pour la conception d'algorithmes itératifs efficaces. Pour surmonter la non-séparabilité de la norme sous-jacente et les temps de calcul conséquents, nous étudions ensuite la classe des fonctions modulaires qui étendent directement la puissance (non homogène) p > 1 des normes L^p au cadre L^{p(cdot)}. En termes de fonctions modulaires, nous formulons des analogues des cartes duales qui sont plus adaptées aux algorithmes d'optimisation lisse et non lisse en raison de leur séparabilité. Nous étudions alors des algorithmes de descente de gradient (à la fois déterministes et stochastiques) basés sur les fonctions modulaires, ainsi que des algorithmes modulaires de gradient proximal dans L^{p(cdot)}, dont nous prouvons la convergence en termes des valeurs de la fonctionnelle. La flexibilité de ces espaces s'avère particulièrement avantageuse pour la modélisation de la parcimonie et les statistiques hétérogènes du signal/bruit, tout en restant efficace et stable d'un point de vue de l'optimisation. Nous validons cela numériquement de manière approfondie sur des problèmes inverses exemplaires en une/deux dimension(s) (déconvolution, débruitage mixte, tomographie). La deuxième partie de la thèse se concentre sur la formulation des problèmes inverses avec un bruit de Poisson formulés dans l'espace des mesures de Radon. Notre contribution consiste en la modélisation d'un modèle variationnel qui couple un terme de données de divergence de Kullback-Leibler avec la régularisation de la Variation Totale de la mesure souhaitée (une somme pondérée de Diracs) et une contrainte de non-négativité. Nous proposons une étude détaillée des conditions d'optimalité et du problème dual correspondant. Nous considérons une version améliorée de l'algorithme de Sliding Franke-Wolfe pour calculer la solution numérique du problème de manière efficace. Pour limiter la dépendance des résultats du choix du paramètre de régularisation, nous considérons une stratégie d'homotopie pour son ajustement automatique où à chaque itération algorithmique, on vérifie si un critère d'arrêt défini en termes du niveau de bruit est vérifié et on met à jour le paramètre de régularisation en conséquence. Plusieurs expériences numériques sont rapportées à la fois sur des données de microscopie de fluorescence simulées en 1D/2D et réelles en 3D
This thesis focuses on the modelling, the theoretical analysis and the numerical implementation of advanced optimisation algorithms for imaging inverse problems (e.g,., image reconstruction in computed tomography, image deconvolution in microscopy imaging) in non-standard Banach spaces. It is divided into two parts: in the former, the setting of Lebesgue spaces with a variable exponent map L^{p(cdot)} is considered to improve adaptivity of the solution with respect to standard Hilbert reconstructions; in the latter a modelling in the space of Radon measures is used to avoid the biases observed in sparse regularisation methods due to discretisation.In more detail, the first part explores both smooth and non-smooth optimisation algorithms in reflexive L^{p(cdot)} spaces, which are Banach spaces endowed with the so-called Luxemburg norm. As a first result, we provide an expression of the duality maps in those spaces, which are an essential ingredient for the design of effective iterative algorithms.To overcome the non-separability of the underlying norm and the consequent heavy computation times, we then study the class of modular functionals which directly extend the (non-homogeneous) p-power of L^p-norms to the general L^{p(cdot)}. In terms of the modular functions, we formulate handy analogues of duality maps, which are amenable for both smooth and non-smooth optimisation algorithms due to their separability. We thus study modular-based gradient descent (both in deterministic and in a stochastic setting) and modular-based proximal gradient algorithms in L^{p(cdot)}, and prove their convergence in function values. The spatial flexibility of such spaces proves to be particularly advantageous in addressing sparsity, edge-preserving and heterogeneous signal/noise statistics, while remaining efficient and stable from an optimisation perspective. We numerically validate this extensively on 1D/2D exemplar inverse problems (deconvolution, mixed denoising, CT reconstruction). The second part of the thesis focuses on off-the-grid Poisson inverse problems formulated within the space of Radon measures. Our contribution consists in the modelling of a variational model which couples a Kullback-Leibler data term with the Total Variation regularisation of the desired measure (that is, a weighted sum of Diracs) together with a non-negativity constraint. A detailed study of the optimality conditions and of the corresponding dual problem is carried out and an improved version of the Sliding Franke-Wolfe algorithm is used for computing the numerical solution efficiently. To mitigate the dependence of the results on the choice of the regularisation parameter, an homotopy strategy is proposed for its automatic tuning, where, at each algorithmic iteration checks whether an informed stopping criterion defined in terms of the noise level is verified and update the regularisation parameter accordingly. Several numerical experiments are reported on both simulated 2D and real 3D fluorescence microscopy data
5

Pierre, Fabien. "Méthodes variationnelles pour la colorisation d’images, de vidéos, et la correction des couleurs." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0250/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de problèmes liés à la couleur. En particulier, on s’intéresse à des problématiques communes à la colorisation d’images, de vidéos et au rehaussement de contraste. Si on considère qu’une image est composée de deux informations complémentaires, une achromatique (sans couleur) et l’autre chromatique (en couleur), les applications étudiées consistent à traiter une de ces deux informations en préservant sa complémentaire. En colorisation, la difficulté est de calculer une image couleur en imposant son niveau de gris. Le rehaussement de contraste vise à modifier l’intensité d’une image en préservant sa teinte. Ces problématiques communes nous ont conduits à étudier formellement la géométrie de l’espace RGB. On a démontré que les espaces couleur classiques de la littérature pour résoudre ces types de problème conduisent à des erreurs. Un algorithme, appelé spécification luminance-teinte, qui calcule une couleur ayant une teinte et une luminance données est décrit dans cette thèse. L’extension de cette méthode à un cadre variationnel a été proposée. Ce modèle a été utilisé avec succès pour rehausser les images couleur, en utilisant des hypothèses connues sur le système visuel humain. Les méthodes de l’état-de-l’art pour la colorisation d’images se divisent en deux catégories. La première catégorie regroupe celles qui diffusent des points de couleurs posés par l’utilisateur pour obtenir une image colorisée (colorisation manuelle). La seconde est constituée de celles qui utilisent une image couleur de référence ou une base d’images couleur et transfèrent les couleurs de la référence sur l’image en niveaux de gris (colorisation basée exemple). Les deux types de méthodes ont leurs avantages et inconvénients. Dans cette thèse, on propose un modèle variationnel pour la colorisation basée exemple. Celui-ci est étendu en une méthode unifiant la colorisation manuelle et basée exemple. Enfin, nous décrivons des modèles variationnels qui colorisent des vidéos tout en permettent une interaction avec l’utilisateur
This thesis deals with problems related to color. In particular, we are interested inproblems which arise in image and video colorization and contrast enhancement. When considering color images composed of two complementary information, oneachromatic (without color) and the other chromatic (in color), the applications studied in this thesis are based on the processing one of these information while preserving its complement. In colorization, the challenge is to compute a color image while constraining its gray-scale channel. Contrast enhancement aims to modify the intensity channel of an image while preserving its hue.These joined problems require to formally study the RGB space geometry. In this work, it has been shown that the classical color spaces of the literature designed to solve these classes of problems lead to errors. An novel algorithm, called luminance-hue specification, which computes a color with a given hue and luminance is described in this thesis. The extension of this method to a variational framework has been proposed. This model has been used successfully to enhance color images, using well-known assumptions about the human visual system. The state-of-the-art methods for image colorization fall into two categories. The first category includes those that diffuse color scribbles drawn by the user (manual colorization). The second consists of those that benefits from a reference color image or a base of reference images to transfer the colors from the reference to the grayscale image (exemplar-based colorization). Both approach have their advantages and drawbacks. In this thesis, we design a variational model for exemplar-based colorization which is extended to a method unifying the manual colorization and the exemplar-based one. Finally, we describe two variational models to colorize videos in interaction with the user
6

Gabarrou, Marion. "Développement d’un algorithme de faisceau non convexe avec contrôle de proximité pour l’optimisation de lois de commande structurées." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0030/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse développe une méthode de faisceau non convexe pour la minimisation de fonctions localement lipschitziennes lower C1 puis l’applique à des problèmes de synthèse de lois de commande structurées issus de l’industrie aéronautique. Ici loi de commande structurée fait référence à une architecture de contrôle, qui se compose d’éléments comme les PIDs, combinés avec des filtres variés, et comprenant beaucoup moins de paramètres de réglage qu’un contrôleur d’ordre plein. Ce type de problème peut se formuler dans le cadre théorique et général de la programmation non convexe et non lisse. Parmi les techniques numériques efficaces pour résoudre ces problèmes non lisses, nous avons dans ce travail, opté pour les méthodes de faisceau, convenablement étendues au cas non convexe. Celles-ci utilisent un oracle qui, en chaque itéré x, retourne la valeur de la fonction et un sous-gradient de Clarke arbitraire. Afin de générer un pas de descente satisfaisant à partir de l’itéré sérieux courant, ces techniques stockent et accumulent de l’information, dans ce que l’on appelle le faisceau, obtenu à partir d’évaluations successives de l’oracle à chaque pas d’essai insatisfaisant. Dans cette thèse, on propose de construire le faisceau en décalant vers le bas une tangente de l’objectif en un pas d’essai ne constituant pas un pas de descente satisfaisant. Le décalage est indispensable dans le cas non convexe pour préserver la consistance, on dit encore l’exactitude, du modèle vis à vis de l’objectif. L’algorithme développé est validé sur un problème de synthèse conjointe du pilote automatique et de la loi des commandes de vol d’un avion civil en un point de vol donné et sur un problème de synthèse de loi de commande par séquencement de gain pour le contrôle longitudinal dans une enveloppe de vol
This thesis develops a non convex bundle method for the minimization of lower C1 locally Lipschitz functions which it then applies to the synthesis of structured control laws for problems arising in aerospace control. Here a structured control law refers to a control architecture preferred by practitioners, which consist of elements like PIDs, combined with various filters, featuring significantly less tunable parameters than a full-order controller. This type of problem can be formulated under the theoretical and general framework of non convex and non smooth programming. Among the efficient numerical techniques to solve such non smooth problems, we have in this work opted for bundle methods, suitably extended to address non-convex optimization programs. Bundle methods use oracles which at every iterate x return the function value and one unspecified Clarke subgradient. In order to generate descent steps away from a current serious iterate, these techniques hinge on storing and accumulating information, called the bundle, obtained from successive evaluations of the oracle along the unsuccessful trial steps. In this thesis, we propose to build the bundle by shifting down a tangent of the objective at a trial step which is not a satisfactory descent step. The shift is essential in the non convex case in order to preserve the consistency, named also the exactitude, of the model with regard to the objective. The developed algorithm is validated on a synthesis problem combining the automatic pilot and the flight control law of a civil aircraft at a given flying point ; and a gain scheduled control law synthesis for the longitudinal control in a flight envelope
7

Hoang, Thi Minh Phuong. "Optimisation des temps de calculs dans le domaine de la simulation par éléments discrets pour des applications ferroviaires." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2011. http://tel.archives-ouvertes.fr/tel-00726199.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dégradation géométrique de la voie ballastée sous circulation commerciale nécessite des opérations de maintenance fréquentes et onéreuses. La caractérisation du comportement des procédés de maintenance comme le bourrage, la stabilisation dynamique, est nécessaire pour proposer des améliorations en terme de méthode, paramétrage pour augmenter la pérennité des travaux. La simulation numérique d'une portion de voie soumise à un bourrage ou une stabilisation dynamique permet de comprendre les phénomènes physiques mis en jeu dans le ballast. Toutefois, la complexité numérique de ce problème concernant l'étude de systèmes à très grand nombre de grains et en temps de sollicitation long, demande donc une attention particulière pour une résolution à moindre coût. L'objectif de cette thèse est de développer un outil de calcul numérique performant qui permet de réaliser des calculs dédiés à ce grand problème granulaire moins consommateur en temps. La méthodologie utilisée ici se base sur l'approche Non Smooth Contact Dynamics (NSCD) avec une discrétisation par Éléments Discrets (DEM). Dans ce cadre, une méthode de décomposition de domaine (DDM) alliée à une parallélisation adaptée en environnement à mémoire partagée utilisant OpenMP sont appliquées pour améliorer l'efficacité de la simulation numérique.
8

Zheng, Yuling. "Algorithmes bayésiens variationnels accélérés et applications aux problèmes inverses de grande taille." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112354/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de cette thèse, notre préoccupation principale est de développer des approches non supervisées permettant de résoudre des problèmes de grande taille le plus efficacement possible. Pour ce faire, nous avons considéré des approches bayésiennes qui permettent d'estimer conjointement les paramètres de la méthode avec l'objet d'intérêt. Dans ce cadre, la difficulté principale est que la loi a posteriori est en général complexe. Pour résoudre ce problème, nous nous sommes intéressés à l'approximation bayésienne variationnelle (BV) qui offre une approximation séparable de la loi a posteriori. Néanmoins, les méthodes d’approximation BV classiques souffrent d’une vitesse de convergence faible. La première contribution de cette thèse consiste à transposer les méthodes d'optimisation par sous-espace dans l'espace fonctionnel impliqué dans le cadre BV, ce qui nous permet de proposer une nouvelle méthode d'approximation BV. Nous avons montré l’efficacité de notre nouvelle méthode par les comparaisons avec les approches de l’état de l’art.Nous avons voulu ensuite confronter notre nouvelle méthodologie à des problèmes de traitement d'images de grande taille. De plus nous avons voulu favoriser les images régulières par morceau. Nous avons donc considéré un a priori de Variation Total (TV) et un autre a priori à variables cachées ressemblant à un mélange scalaire de gaussiennes par changement de positions. Avec ces deux modèles a priori, en appliquant notre méthode d’approximation BV, nous avons développé deux approches non-supervisées rapides et bien adaptées aux images régulières par morceau.En effet, les deux lois a priori introduites précédemment sont corrélées ce qui rend l'estimation des paramètres de méthode très compliquée : nous sommes souvent confronté à une fonction de partition non explicite. Pour contourner ce problème, nous avons considéré ensuite de travailler dans le domaine des ondelettes. Comme les coefficients d'ondelettes des images naturelles sont généralement parcimonieux, nous avons considéré des lois de la famille de mélange scalaire de gaussiennes par changement d'échelle (GSM) pour décrire la parcimonie. Une autre contribution est donc de développer une approche non-supervisée pour les lois de la famille GSM dont la densité est explicitement connue, en utilisant la méthode d'approximation BV proposée
In this thesis, our main objective is to develop efficient unsupervised approaches for large dimensional problems. To do this, we consider Bayesian approaches, which allow us to jointly estimate regularization parameters and the object of interest. In this context, the main difficulty is that the posterior distribution is generally complex. To tackle this problem, we consider variational Bayesian (VB) approximation, which provides a separable approximation of the posterior distribution. Nevertheless, classical VB methods suffer from slow convergence speed. The first contribution of this thesis is to transpose the subspace optimization methods to the functional space involved in VB framework, which allows us to propose a new VB approximation method. We have shown the efficiency of the proposed method by comparisons with the state of the art approaches. Then we consider the application of our new methodology to large dimensional problems in image processing. Moreover, we are interested in piecewise smooth images. As a result, we have considered a Total Variation (TV) prior and a Gaussian location mixture-like hidden variable model. With these two priors, using our VB approximation method, we have developed two fast unsupervised approaches well adapted to piecewise smooth images.In fact, the priors introduced above are correlated which makes the estimation of regularization parameters very complicated: we often have a non-explicit partition function. To sidestep this problem, we have considered working in the wavelet domain. As the wavelet coefficients of natural images are generally sparse, we considered prior distributions of the Gaussian scale mixture family to enforce sparsity. Another contribution is therefore the development of an unsupervised approach for a prior distribution of the GSM family whose density is explicitly known, using the proposed VB approximation method

Частини книг з теми "Non-smooth optimisation":

1

Zeng, Tongyan, Essam F. Abo-Serie, Manus Henry, and James Jewkes. "Thermal Optimisation Model for Cooling Channel Design Using the Adjoint Method in 3D Printed Aluminium Die-Casting Tools." In Springer Proceedings in Energy, 333–40. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-30960-1_31.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
AbstractIn the present study, the adjoint method is introduced to the optimisation of the corner cooling element in two baseline cooling designs for a mould cavity, as examples of the Aluminium metal die-casting process. First, a steady thermal model simulating the Aluminium die-casting process is introduced for the two-corner cooling design scenario. This steady model serves as the first iteration of the optimised model using the adjoint method. A dual-parameter objective function targets the interfacial temperature standard deviation and pressure drop across the internal cooling region. For both design cases, multi-iterative deformation cycles of the corner cooling configurations result in optimised designs with non-uniform cross-section geometries and smooth surface finishing. Numerical simulations of the resulting designs show improvements in uniform cooling across the mould/cast interfacial contact surface by 66.13% and 92.65%, while the optimised pressure drop increases coolant fluid flow by 25.81% and 20.35% respectively. This technique has been applied to optimise the complex cooling system for an industrial high-pressure aluminium die-casting (HPADC) tool (Zeng et al. in SAE Technical Paper 2022-01-0246, 2022, [1]). Production line experience demonstrates that the optimised designs have three times the operational life compared to conventional mould designs, providing a significant reduction in manufacturing and operation costs.
2

Borwein, Jonathan M., and Warren B. Moors. "Non-smooth analysis, optimisation theory and Banach space theory." In Open Problems in Topology II, 549–59. Elsevier, 2007. http://dx.doi.org/10.1016/b978-044452208-5/50050-8.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Non-smooth optimisation":

1

Duckitt, Sam, Chiara Bisagni, and Shahrokh Shahpar. "Parametric Bird Strike Study of a Transonic Rotor Using Isogeometric Analysis." In ASME Turbo Expo 2016: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2016. http://dx.doi.org/10.1115/gt2016-57464.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This paper investigates the use of isogeometric analysis (IGA) to study high velocity impact on a transonic compressor rotor resulting from a bird strike. An approach is developed for creating volumetric NURBS blade models which are suitable for IGA. A newly implemented 3D solid NURBS element within the development version of LS-Dyna is validated against finite elements for the NASA rotor 37 under a steady centrifugal load. The smoothed particle hydrodynamics (SPH) method is then used to simulate impact from a bird strike. As a preliminary assessment for multi-disciplinary optimisation (MDO), with the objective to improve aerodynamic performance whilst satisfying mechanical constraints from impact, a number of different blade designs are created by modifying the NURBS control points directly. Hence the control points used in analysis can also be used in the design space. This approach eliminates the need for re-meshing, highlighting the advantages that IGA can bring to design optimisation, since without filtering, moving finite element nodes can result in non-smooth geometries. NURBS parametrisations are also more efficient resulting in fewer design variables, thereby accelerating the optimisation process. The effect of blade sweep, lean, twist and thickness on the impact response are investigated. The results in this paper show the promise that IGA holds in this field but some limitations of the current LS-Dyna implementation are also discussed.
2

Straccia, Mattia, and Volker Gümmer. "Coupling of Endwall and Aerofoil Optimisation on a Low-Speed Compressor Tandem Stator." In ASME Turbo Expo 2021: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/gt2021-59058.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Abstract The scope of this paper is to provide clarity over fundamental effects of non-axisymmetric endwall contouring in a highly-loaded compressor tandem stator. Specifically, the focus of the research will be the influence that aerofoil optimization and end-wall contouring have on each other, and how a combined optimization of the two simultaneously affects the final design of the optimized geometry. The reference geometry used in this research is a standard tandem vane arrangement with smooth axi-symmetric endwalls and designed to represent a datum stage configuration for future investigations of such blade geometries, experimental work on a low-speed research compressor being a next step. The optimization was performed using an in-house developed routine coupled with Auto-Opti, an automated optimizer based on an evolutionary strategy algorithm, developed by the DLR Institute of Propulsion Technology. The entire optimization was conducted solely on the stator, modeled as an annular cascade. This paper reports about a thorough flow field analysis of the optimized geometry in order to understand local mechanisms occurring with non-axisymmetric contouring in the tandem stator passage flow field and its overall performance. Furthermore, it describes and explains the effect that the aerofoil optimization has on the contoured hub surface shape, compared to an optimization process, which is only applied to the hub contouring. In particular, the results clarify how endwall flow field improvements reduce the degree of required aerofoil deformation, and show that the new blade shape is better adapted to the contoured endwall. The 3D endwall flow field has been investigated in order to understand how the optimized geometry modifies the magnitude of the cross-passage flow and reduces the size of the trailing edge corner vortex of the front and rear tandem vane. The paper concludes with some guidelines on how endwall contouring and near endwall aerofoil section design and optimization can be applied most effectively.
3

Neely, Andrew J., Peter T. Ireland, and Les R. Harper. "Heat Transfer Coefficient Distributions for the Convective Cooling of Non-Cylindrical Geometries in Crossflow Using Extended Surfaces." In ASME 1997 International Gas Turbine and Aeroengine Congress and Exhibition. American Society of Mechanical Engineers, 1997. http://dx.doi.org/10.1115/97-gt-379.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
An experimental investigation of the performance of extended fin surfaces for the forced convective cooling of a range of engine component geometries in crossflow is reported. The experiments were undertaken to measure the surface heat transfer coefficient distributions of external finning around non-cylindrical geometries for use in aviation gas turbines in which the cooling performance/mass ratio must be maximised. The geometries examined were a box (square with rounded corners), a flute (rectangle with circular ends) and a 30° wedge. These models were sized to have equivalent cross sectional area to allow a direct comparison of performance. Perspex models coated with thermochromic liquid crystal were tested at a range of Reynolds numbers in a heat transfer wind tunnel in which a step change in flow temperature was used to measure the transient thermal behaviour of the fins. This technique enables the full surface mapping of local heat transfer coefficients on the surface of the fins. These measurements are compared with those for the equivalent smooth geometries and also with empirical calculations from the literature where available. A comparison with previous cylindrical measurements is also made. Knowledge of the distributions of local heat transfer coefficients enables the optimisation of the geometry through strategies such as baffling of the fins. Some examples of these strategies have been implemented and the results are reported. The finned geometries are seen to outperform the unfinned geometries (by factors greater than 3) though by factors less than simply the increase in area. The enhancement in h results because the increased surface area of the fins more than outweighs the decrease in local h on the fin surface as compared to the smooth geometries.
4

Gro¨nstedt, Tomas, and Markus Wallin. "A Comparative Study of Genetic Algorithms and Gradient Methods for RM12 Turbofan Engine Diagnostics and Performance Estimation." In ASME Turbo Expo 2004: Power for Land, Sea, and Air. ASMEDC, 2004. http://dx.doi.org/10.1115/gt2004-53591.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Recent work on gas turbine diagnostics based on optimisation techniques advocates two different approaches: 1) Stochastic optimisation, including Genetic Algorithm techniques, for its robustness when optimising objective functions with many local optima and 2) Gradient based methods mainly for their computational efficiency. For smooth and single optimum functions, gradient methods are known to provide superior numerical performance. This paper addresses the key issue for method selection, i.e. whether multiple local optima may occur when the optimisation approach is applied to real engine testing. Two performance test data sets for the RM12 low bypass ratio turbofan engine, powering the Swedish Fighter Gripen, have been analysed. One set of data was recorded during performance testing of a highly degraded engine. This engine has been subjected to Accelerated Mission Testing (AMT) cycles corresponding to more than 4000 hours of run time. The other data set was recorded for a development engine with less than 200 hours of operation. The search for multiple optima was performed starting from more than 100 extreme points. Not a single case of multi-modality was encountered, i.e. one unique solution for each of the two data sets was consistently obtained. The RM12 engine cycle is typical for a modern fighter engine, implying that the obtained results can be transferred to, at least, most low bypass ratio turbofan engines. The paper goes on to describe the numerical difficulties that had to be resolved to obtain efficient and robust performance by the gradient solvers. Ill conditioning and noise may, as illustrated on a model problem, introduce local optima without a correspondence in the gas turbine physics. Numerical methods exploiting the special problem structure represented by a non-linear least squares formulation is given special attention. Finally, a mixed norm allowing for both robustness and numerical efficiency is suggested.
5

Liu, Yiyan, Sinan Acikgoz, and Harvey Burd. "Terrestrial Laser Scanning based deformation monitoring for masonry buildings subjected to ground movements induced by underground construction." In 5th Joint International Symposium on Deformation Monitoring. Valencia: Editorial de la Universitat Politècnica de València, 2022. http://dx.doi.org/10.4995/jisdm2022.2022.13872.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tunnelling and deep excavation activities cause ground movements. Monitoring the influence of these ground movements on nearby surface assets is a major component of urban underground construction projects. Such projects often require large-scale and comprehensive monitoring of nearby buildings to track displacements and identify structural damage. Masonry assets are particularly vulnerable to ground movements due to the low tensile strength of the material; these structures may experience unsightly cracking and structural stability issues. Current monitoring practice for these buildings is labour intensive and cannot fully characterise the response of the assets due to the limited number of measurement points. This paper presents a non-contact monitoring solution using terrestrial laser scan (TLS) data, which develops a modified non-rigid iterative closest point (N-ICP) algorithm. This algorithm optimises the displacement fields by establishing point to point correspondences that penalise non-smooth deformations and deviations from landmarks (i.e. feature points where displacements are known). The algorithm outputs rich 3D displacement fields that can be used in established assessment and decision-making procedures. To demonstrate this algorithm's ability to estimate 3D displacement fields from point clouds, several synthetic datasets are processed in this study. The results demonstrate the algorithm's potential for recovering underlying deformations with the help of landmarks and optimisation weightings.

До бібліографії