Literatura académica sobre el tema "Régularisation implicite"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Régularisation implicite".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Régularisation implicite"

1

Neveu, Emilie, Laurent Debreu y François-Xavier Le Dimet. "Multigrid methods and data assimilation ― Convergence study and first experiments on non-linear equations". Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (21 de agosto de 2011). http://dx.doi.org/10.46298/arima.1944.

Texto completo
Resumen
International audience In order to limit the computational cost of the variational data assimilation process, we investigate the use of multigrid methods to solve the associated optimal control system. On a linear advection equation, we study the impact of the regularization term and the discretization errors on the efficiency of the coarse grid correction step introduced by the multigrid method. We show that even if for a perfect numerical model the optimal control problem leads to the solution of an elliptic system, discretization errors introduce implicit diffusion that can alter the success of the multigrid methods. Then we test the multigrids configuration and the influence of the algorithmic parameters on a non-linear Burgers equation to show that the algorithm is robust and converges much faster than the monogrid one. Afin de limiter le coût de calcul lié aux méthodes variationnelles d’assimilation de données, nous nous intéressons ici à l’utilisation de méthodes multigrilles pour la résolution de systèmes de contrôle optimal. Sur un modèle simple d’advection linéaire, nous étudions l’impact du terme de régularisation du contrôle optimal ainsi que l’impact des erreurs de discrétisation sur l’efficacité de la correction grille grossière introduite par cette méthode. En particulier, nous montrons que pour un modèle numérique parfait, le problème de contrôle optimal est elliptique mais que les erreurs de discrétisation introduisant une diffusion implicite peuvent altérer les performances de la méthode multigrille. Enfin, sur une équation de Burgers, non linéaire, nous étudions l’influence des différents paramètres inhérents aux méthodes multigrilles et montrons que ces méthodes sont robustes et convergent beaucoup plus rapidement que les méthodes monogrilles.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Régularisation implicite"

1

Belhachmi, Ayoub. "Une méthode implicite pour la construction des modèles géologiques complexes via une interpolation à l'aide des splines et une régularisation basée sur les équations aux dérivées partielles". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5000.

Texto completo
Resumen
La construction d'un géomodèle numérique est une étape clé dans l'étude et l'exploration du sous-sol. Ces modèles sont construits à partir de données sismiques ou de puits, qui forment un ensemble de points de données associés à des valeurs correspondant à leurs âges géologiques. Cette tâche consiste à construire une fonction implicite, également appelée fonction stratigraphique, qui interpole cet ensemble de points de données. Souvent, les données disponibles sont rares et bruitées, ce qui rend cette tâche difficile, principalement pour les réservoirs où les structures géologiques sont complexes avec plusieurs discontinuités. Pour résoudre ce problème, le problème d'interpolation est généralement complété par un terme de régularisation qui impose un comportement régulier de la fonction implicite. Dans cette thèse, nous proposons une nouvelle méthode pour calculer la fonction stratigraphique qui représente les couches géologiques dans des contextes arbitraires. Dans cette méthode, les données sont interpolées par des splines Powell-Sabin C^1 quadratiques par morceaux et la fonction peut être régularisée via de nombreuses énergies de régularisation. La méthode est discrétisée en éléments finis sur un maillage triangulaire conforme aux failles géologiques. Par rapport aux méthodes d'interpolation classiques, l'utilisation de splines quadratiques par morceaux présente deux avantages majeurs. Premièrement, une meilleure approximation des surfaces stratigraphiques présentant de fortes courbures. Deuxièmement, une réduction de la résolution du maillage, tout en générant des surfaces plus lisses et plus régulières.La régularisation de la fonction est la composante la plus difficile de toute approche de modélisation implicite. Souvent, les méthodes classiques produisent des modèles géologiques incohérents, en particulier pour les données présentant de fortes variations d'épaisseur, et des effets de bulles sont généralement observés. Pour résoudre ce problème, nous introduisons deux nouvelles énergies de régularisation liées à deux EDPs fondamentales, sous leur forme générale avec des coefficients variants spatialement. Ces EDPs sont l'équation de diffusion anisotrope et l'équation de flexion d'une plaque mince anisotrope. Dans la première approche, le tenseur de diffusion est introduit et adapté de manière itérative aux variations et à l'anisotropie des données. Dans la seconde, le tenseur de rigidité est adapté de manière itérative aux variations et à l'anisotropie des données. Nous démontrons l'efficacité des méthodes proposées en 2D, spécifiquement sur des coupes transversales de modèles géologiques avec des réseaux de failles complexes et des couches géologiques présentant des variations d'épaisseur
The construction of a geological numerical model is a key step in the study and exploration of the subsurface. These models are constructed from seismic or well data, which consist of data points associated with values corresponding to their geological ages. This task involves constructing an implicit function, known also as stratigraphic function, which interpolates this set of data points. Often the available data are sparse and noisy, which makes this task difficult, mainly for reservoirs where the geological structures are complex with distinct discontinuities and unconformities. To address this, the interpolation problem is typically supplemented with a regularization term that enforces a regular behaviour of the implicit function. In this thesis, we propose a new method to compute the stratigraphic function that represents geological layers in arbitrary settings. In this method, the data are interpolated by piecewise quadratic C^1 Powell-Sabin splines and the function can be regularized via many regularization energies. The method is discretized in finite elements on a triangular mesh conforming to the geological faults. Compared to classical interpolation methods, the use of piecewise quadratic splines has two major advantages. First, a better handling of stratigraphic surfaces with strong curvatures. Second, a reduction in mesh resolution, while generating surfaces of higher smoothness and regularity.The regularization of the function is the most difficult component of any implicit modeling approach. Often, classical methods produce inconsistent geological models, in particular for data with high thickness variation, and bubble effects are generally observed. To handle this problem, we introduce two new regularization energies that are linked to two fundamental PDEs, in their general form with spatially varying coefficients. These PDEs are the anisotropic diffusion equation and the equation that describes the bending of an anisotropic thin plate. In the first approach, the diffusion tensor is introduced and iteratively adapted to the variations and anisotropy of the data. In the second, the rigidity tensor is iteratively adapted to the variations and anisotropy in the data. We demonstrate the effectiveness of the proposed methods in 2D, specifically on cross-sections of geological models with complex fault networks and thickness variations in the layers
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ayme, Alexis. "Supervised learning with missing data : a non-asymptotic point of view". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS252.

Texto completo
Resumen
Les valeurs manquantes sont courantes dans la plupart des ensembles de données du monde réel, en raison de la combinaison de sources multiples et d'informations intrinsèquement manquantes, telles que des défaillances de capteurs ou des questions d'enquête sans réponse. La présence de valeurs manquantes empêche souvent l'application d'algorithmes d'apprentissage standard. Cette thèse examinevaleurs manquantes dans un contexte de prédiction, visant à obtenir des prédictions précises malgré l'occurrence de données manquantes dans les données d'apprentissage et de test. L'objectif de cette thèse est d'analyser théoriquement des algorithmes spécifiques pour obtenir des garanties d'échantillons finis. Nous dérivons des bornes inférieures minimax sur le risque des prédictions linéaires en présence de valeurs manquantes. Ces bornes inférieures dépendent de la distribution du motif de valeurs manquantes et peuvent croître de manière exponentielle avec la dimension. Nous proposons une méthode très simple consistant à appliquer la procédure des moindres carrés uniquement aux motifs de valeurs manquantes les plus fréquents. Une telle méthode simple se révèle être une procédure presque minimax-optimale, qui s'écarte de l'algorithme des moindres carrés appliqué à tous les motifs de valeurs manquantes. Par la suite, nous explorons la méthode de l'imputation puis régression, où l'imputation est effectuée en utilisant l'imputation naïve par zéro, et l'étape de régression est réalisée via des modèles linéaires, dont les paramètres sont appris via la descente de gradient stochastique. Nous démontrons que cette méthode très simple offre de fortes garanties pour des échantillons finis dans des contextes de grande dimension. Plus précisément, nous montrons que le biais de cette méthode est inférieur au biais de la régression ridge. Étant donné que la régression ridge est souvent utilisée en haute dimension, cela prouve que le biais des données manquantes (via l'imputation par zéro) est négligeable dans certains contextes de grande dimension. Enfin, nous étudions différents algorithmes pour gérer la classification linéaire en présence de données manquantes (régression logistique, perceptron, LDA). Nous prouvons que la LDA est le seul modèle qui peut être valide pour des données complètes et manquantes dans certains contextes génériques
Missing values are common in most real-world data sets due to the combination of multiple sources andinherently missing information, such as sensor failures or unanswered survey questions. The presenceof missing values often prevents the application of standard learning algorithms. This thesis examinesmissing values in a prediction context, aiming to achieve accurate predictions despite the occurrence ofmissing data in both training and test datasets. The focus of this thesis is to theoretically analyze specific algorithms to obtain finite-sample guarantees. We derive minimax lower bounds on the excess risk of linear predictions in presence of missing values.Such lower bounds depend on the distribution of the missing pattern, and can grow exponentially withthe dimension. We propose a very simple method consisting in applying Least-Square procedure onthe most frequent missing patterns only. Such a simple method turns out to be near minimax-optimalprocedure, which departs from the Least-Square algorithm applied to all missing patterns. Followingthis, we explore the impute-then-regress method, where imputation is performed using the naive zeroimputation, and the regression step is carried out via linear models, whose parameters are learned viastochastic gradient descent. We demonstrate that this very simple method offers strong finite-sampleguarantees in high-dimensional settings. Specifically, we show that the bias of this method is lowerthan the bias of ridge regression. As ridge regression is often used in high dimensions, this proves thatthe bias of missing data (via zero imputation) is negligible in some high-dimensional settings. Thesefindings are illustrated using random features models, which help us to precisely understand the role ofdimensionality. Finally, we study different algorithm to handle linear classification in presence of missingdata (logistic regression, perceptron, LDA). We prove that LDA is the only model that can be valid forboth complete and missing data for some generic settings
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Samozino, Marie. "Voronoi Centred Radial Basis Functions". Phd thesis, Université de Nice Sophia-Antipolis, 2007. http://tel.archives-ouvertes.fr/tel-00336379.

Texto completo
Resumen
Cette thèse s'inscrit dans la problématique de la reconstruction de surfaces à partir de nuages de points. Les récentes avancées faites dans le domaine de l'acquisition de formes 3D à l'aide de scanners donnent lieu à de nouveaux besoins en termes d'algorithmes de reconstruction. Il faut être capable de traiter de grands nuages de points bruités tout en donnant une représentation compacte de la surface reconstruite.
La surface est reconstruite comme le niveau zéro d'une fonction. Représenter une surface implicitement en utilisant des fonctions de base radiales (Radial Basis Functions) est devenu une approche standard ces dix dernières années. Une problématique intéressante est la réduction du nombre de fonctions de base pour obtenir une représentation la plus compacte possible et réduire les temps d'évaluation.
Réduire le nombre de fonctions de base revient à réduire le nombre de points (centres) sur lesquels elles sont centrées. L'objectif que l'on s'est fixé consiste à sélectionner un "petit" ensemble de centres, les plus pertinents possible. Pour réduire le nombre de centres tout en gardant un maximum d'information, nous nous sommes affranchis de la correspondance entre centres des fonctions et points de donnée, qui est imposée dans la quasi-totalité des approches RBF. Au contraire, nous avons décidé de placer les centres sur l'axe médian de l'ensemble des points de donnée et de montrer que ce choix était approprié.
Pour cela, nous avons utilisé les outils donnés par la géométrie algorithmique et approximé l'axe médian par un sous-ensemble des sommets du diagramme de Voronoi des points de donnée. Nous avons aussi proposé deux approches différentes qui échantillonnent de manière appropriée l'axe médian pour adapter le niveau de détail de la surface reconstruite au budget de centres alloué par l'utilisateur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Chamoret, Dominique. "Modélisation du contact : nouvelles approches numériques". Ecully, Ecole centrale de Lyon, 2002. http://bibli.ec-lyon.fr/exl-doc/TH_T1897_dchamoret.pdf.

Texto completo
Resumen
Ce travail avait pour objectif de développer, dans une approche implicite, des algorithmes de contact susceptibles de s'adapter à la plupart de situations rencontrées dans l'industrie. Nous proposons trois nouveaux algorithmes concernant la régularisation des surfaces de contact, l'adaptation du paramètre de pénalité et l'ajustement de l'incrément de chargement. La première approche que nous proposons consiste à régulariser la surface de contact en utilisant la technique d'approximation diffuse. Pour le traitement du contact normal, nous avons choisi d'utiliser la méthode de pénalité pour son efficacité et sa simplicité de mise en œuvre. Nous proposons une stratégie originale de détermination d'un paramètre optimal qui repose sur une notion d'interpénétration admissible entre les corps en contact. Le dernier algorithme proposé concerne l'ajustement de l'incrément de chargement. L'idée principale de la stratégie que nous proposons est de limiter le nombre de changements de statuts de contact sur un pas de chargement
This work has been done in collaboration between the Laboratoire de Tribologie et Dynamique des Systèmes (UMR 5513 CNRS/ECL/ENISE) and the company ESI Sofware. The aim is to develop the modelling of 3D contact in an implicit approach and to implement algorithms likely to adapt to most of situations met in industry. With this intention we propose three new algorithms concerning the regularization of contact surfaces, the adaptation of the penalty parameter and the adjustment of the load step. The numerical treatment of contact problems generates many difficulties. These problems come from strong geometric and material nonlinearities. Using the finite element method, the contact interface is represented by a surface only piecewise differentiable. The strategy we develop determines a smooth contact surface by using only the data of the nodes of the initial finite element mesh thanks to the technique of diffuse approximation. We have chosen to use the penalty method to take into account contact constraints but the optimum choice of the penalty parameter is often very difficult because it depends on the local rigidity of the structure. We propose an original strategy to determine an optimal parameter based on the notion of acceptable interpenetration between bodies in contact. The last algorithm proposed relates to the adjustment of the load step. The main idea of the method we develop is to limit the number of changes of contact status in each load step
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Samozino, Marie. "Voronoi Centered Radial Basis Functions". Phd thesis, Université de Nice Sophia-Antipolis, 2007. http://tel.archives-ouvertes.fr/tel-00178274.

Texto completo
Resumen
Cette thèse s´inscrit dans la problématique de la reconstruction de surfaces à partir de nuages de points. Les récentes avancées faites dans le domaine de l´acquisition de formes 3D à l´aide de scanners donnent lieu à de nouveaux besoins en termes d´algorithmes de reconstruction. Il faut être capable de traiter de grands nuages de points bruités tout en donnant une représentation compacte de la surface reconstruite. La surface est reconstruite comme le niveau zéro d´une fonction. Représenter une surface implicitement en utilisant des fonctions de base radiales (Radial Basis Functions) est devenu une approche standard ces dix dernières années. Une problématique intéressante est la réduction du nombre de fonctions de base pour obtenir une représentation la plus compacte possible et réduire les temps d´évaluation. Réduire le nombre de fonctions de base revient à réduire le nombre de points (centres) sur lesquels elles sont centrées. L´objectif que l´on s´est fixé consiste à sélectionner un "petit" ensemble de centres, les plus pertinents possible. Pour réduire le nombre de centres tout en gardant un maximum d´information, nous nous sommes affranchis de la correspondance entre centres des fonctions et points de donnée, qui est imposée dans la quasi-totalité des approches RBF. Au contraire, nous avons décidé de placer les centres sur l´axe médian de l´ensemble des points de donnée et de montrer que ce choix était approprié. Pour cela, nous avons utilisé les outils donnés par la géométrie algorithmique et approximé l´axe médian par un sous-ensemble des sommets du diagramme de Voronoi des points de donnée. Nous avons aussi proposé deux approches diférentes qui échantillonnent de manière appropriée l´axe médian pour adapter le niveau de détail de la surface reconstruite au budget de centres alloué par l´utilisateur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Foucault, Alexandre. "Modélisation du comportement cyclique des ouvrages en terre intégrant des techniques de régularisation". Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00534665.

Texto completo
Resumen
L'objectif technique majeur de cette thèse se rapporte au développement d'un outilde simulation numérique fiable et robuste adapté à la maîtrise et la connaissance dufonctionnement mécanique des ouvrages géotechniques. Cet outil de simulation doitnotamment permettre une maîtrise des scénarii les plus pénalisants pour leur tenue,notamment sous l'aléa sismique.La qualité des résultats d'un tel outil dans le cadre de la méthode des éléments finisest fonction du modèle de comportement utilisé, de la qualité de l'intégration dumodèle et de sa résolution numérique. Dans le cadre de ce travail, le modèleélastoplastique de comportement cyclique des sols de l'ECP (dit de Hujeux) a étéintroduit dans Code_Aster selon un schéma d'intégration implicite, permettant ainsiune représentation fine et précise des phénomènes mis en jeu durant l'aléasismique. Ce modèle possède également l'avantage d'être adapté au comportementde différents types de sols dans le cadre des milieux poreux sous l'hypothèse despetites déformations. Après validation sur des chemins de chargement variés, lemodèle est à présent utilisé pour la simulation de la construction par couches, de lamise en eau et de la tenue sismique de barrages en terre.Le caractère non standard et adoucissant de ce modèle conduit à mettre en oeuvredes techniques de régularisation pour résoudre le problème de dépendancepathologique des résultats aux maillages lors de l'apparition de modes de ruinelocalisée. Le modèle de second gradient de dilatation est utilisé en complément aumodèle de comportement de Hujeux pour contrôler la largeur des bandes delocalisation apparaissant sur les structures étudiées. La prise en compte d'unecinématique enrichie permet de rendre objectives aux maillages les réponses desstructures durant leur phase d'adoucissement mais n'instaure pas l'unicité dessolutions aux problèmes posés suite aux instabilités. Dans le cadre d'essaisbiaxiaux drainés sur des matériaux dilatants exprimés au sein des milieux dusecond gradient de dilatation, il est apparu une dépendance de la largeur desbandes de cisaillement à l'état de contraintes initial en plus des propriétés desmatériaux.A partir d'un exemple analytique d'une bande de matériau cisaillée, cettedépendance a pu être exprimée, comparée et maîtrisée en fonction des paramètresde régularisation par rapport aux résultats des simulations numériques. L'extensionde cette approche à un cas de stabilité de pente sous chargement d'une fondationsuperficielle a ensuite été entrepris. La dépendance des largeurs de bandes à l'étatde contraintes initial est apparue comme un élément clé de la maîtrise du couplageentre le modèle de second gradient de dilatation et les modèles de type Cam-Clay
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Laporte, Léa. "La sélection de variables en apprentissage d'ordonnancement pour la recherche d'information : vers une approche contextuelle". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2170/.

Texto completo
Resumen
L'apprentissage d'ordonnancement, ou learning-to-rank, consiste à optimiser automatiquement une fonction d'ordonnancement apprise à l'aide d'un algorithme à partir de données d'apprentissage. Les approches existantes présentent deux limites. D'une part, le nombre de caractéristiques utilisées est généralement élevé, de quelques centaines à plusieurs milliers, ce qui pose des problèmes de qualité et de volumétrie. D'autre part, une seule fonction est apprise pour l'ensemble des requêtes. Ainsi, l'apprentissage d'ordonnancement ne prend pas en compte le type de besoin ou le contexte de la recherche. Nos travaux portent sur l'utilisation de la sélection de variables en apprentissage d'ordonnancement pour résoudre à la fois les problèmes de la volumétrie et de l'adaptation au contexte. Nous proposons cinq algorithmes de sélection de variables basés sur les Séparateurs à Vaste Marge (SVM) parcimonieux. Trois sont des approches de repondération de la norme L2, une résout un problème d'optimisation en norme L1 et la dernière considère des régularisations non convexes. Nos approches donnent de meilleurs résultats que l'état de l'art sur les jeux de données de référence. Elles sont plus parcimonieuses et plus rapides tout en permettant d'obtenir des performances identiques en matière de RI. Nous évaluons également nos approches sur un jeu de données issu du moteur commercial Nomao. Les résultats confirment la performance de nos algorithmes. Nous proposons dans ce cadre une méthodologie d'évaluation de la pertinence à partir des clics des utilisateurs pour le cas non étudié dans la littérature des documents multi-cliquables (cartes). Enfin, nous proposons un système d'ordonnancement adaptatif dépendant des requêtes basé sur la sélection de variables. Ce système apprend des fonctions d'ordonnancement spécifiques à un contexte donné, en considérant des groupes de requêtes et les caractéristiques obtenues par sélection pour chacun d'eux
Learning-to-rank aims at automatically optimizing a ranking function learned on training data by a machine learning algorithm. Existing approaches have two major drawbacks. Firstly, the ranking functions can use several thousands of features, which is an issue since algorithms have to deal with large scale data. This can also have a negative impact on the ranking quality. Secondly, algorithms learn an unique fonction for all queries. Then, nor the kind of user need neither the context of the query are taken into account in the ranking process. Our works focus on solving the large-scale issue and the context-aware issue by using feature selection methods dedicated to learning-to-rank. We propose five feature selection algorithms based on sparse Support Vector Machines (SVM). Three proceed to feature selection by reweighting the L2-norm, one solves a L1-regularized problem whereas the last algorithm consider nonconvex regularizations. Our methods are faster and sparser than state-of-the-art algorithms on benchmark datasets, while providing similar performances in terms of RI measures. We also evaluate our approches on a commercial dataset. Experimentations confirm the previous results. We propose in this context a relevance model based on users clicks, in the special case of multi-clickable documents. Finally, we propose an adaptative and query-dependent ranking system based on feature selection. This system considers several clusters of queries, each group defines a context. For each cluster, the system selects a group of features to learn a context-aware ranking function
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Estecahandy, Elodie. "Contribution à l'analyse mathématique et à la résolution numérique d'un problème inverse de scattering élasto-acoustique". Phd thesis, Université de Pau et des Pays de l'Adour, 2013. http://tel.archives-ouvertes.fr/tel-00880628.

Texto completo
Resumen
La détermination de la forme d'un obstacle élastique immergé dans un milieu fluide à partir de mesures du champ d'onde diffracté est un problème d'un vif intérêt dans de nombreux domaines tels que le sonar, l'exploration géophysique et l'imagerie médicale. A cause de son caractère non-linéaire et mal posé, ce problème inverse de l'obstacle (IOP) est très difficile à résoudre, particulièrement d'un point de vue numérique. De plus, son étude requiert la compréhension de la théorie du problème de diffraction direct (DP) associé, et la maîtrise des méthodes de résolution correspondantes. Le travail accompli ici se rapporte à l'analyse mathématique et numérique du DP élasto-acoustique et de l'IOP. En particulier, nous avons développé un code de simulation numérique performant pour la propagation des ondes associée à ce type de milieux, basé sur une méthode de type DG qui emploie des éléments finis d'ordre supérieur et des éléments courbes à l'interface afin de mieux représenter l'interaction fluide-structure, et nous l'appliquons à la reconstruction d'objets par la mise en oeuvre d'une méthode de Newton régularisée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía