Dissertations / Theses on the topic 'Modèles de calcul non standards'

To see the other types of publications on this topic, follow the link: Modèles de calcul non standards.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles de calcul non standards.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Emmanuel, Aurélien. "Courbes d'accumulations des machines à signaux." Electronic Thesis or Diss., Orléans, 2023. http://www.theses.fr/2023ORLE1079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans l'étude d'un modèle de calcul géométrique : les machines à signaux. Nous y montrons comment tracer des graphes de fonctions à l'aide d'arbres unaire-binaires. Dans le monde des automates cellulaires, il est souvent question de particules ou signaux : des structures périodiques dans le temps et l'espace, autrement dit des structures qui se déplacent à vitesse constante. Lorsque plusieurs signaux se rencontrent, une collision a lieu, et les signaux entrant peuvent continuer, disparaître ou laisser place à d'autres signaux, en fonctions des règles de l'automate cellulaire. Les machines à signaux sont un modèle de calcul qui reprend ces signaux comme briques de base. Visualisées dans un diagramme espace-temps, l'espace en axe horizontal et le temps vertical s'écoulant vers le haut, ce modèle revient à calculer par le dessin de segments et demi-droites colorés. On trace, de bas en haut, des segments jusqu'à ce que deux ou plus s'intersectent, et l'on démarre alors de nouveau segments, en fonctions de règles prédéfinies. Par rapport aux automates cellulaires, les machines à signaux permettent l'émergence d'un nouveau phénomène : la densité des signaux peut être arbitrairement grande et même infinie, y compris en partant d'une configuration initiale de densité finie. De tels points du diagramme espace-temps, des points au voisinage desquels se trouvent une infinité de signaux, sont appelés points d'accumulation. Ce nouveau phénomène permet de définir de nouveau problèmes, géométriquement. Par exemple : quels sont les points d'accumulations isolés possibles en utilisant des positions initiales et des vitesses rationnelles ? Peut-on faire en sorte que l'ensemble des points d'accumulation forment un segment ? un ensemble de Cantor ? Dans cette thèse, nous nous attelons à caractériser des graphes de fonctions qu'il est possible de dessiner par un ensemble d'accumulation. Elle s'inscrit dans l'exploration de la puissance de calcul des machines à signaux, qui s'inscrit plus généralement dans l'étude de la puissance de calcul de modèles non standards. Nous y montrons que les fonctions d'un segment compact de la droite réelle dont le graphe coïncide avec l'ensemble d'accumulation d'une machine à signaux sont exactement les fonctions continues. Nous montrons plus généralement comment les machines à signaux peuvent dessiner n'importe quel fonction semi-continue inférieurement. Nous étudions aussi la question sous des contraintes de calculabilité, avec le résultat suivant : si un diagramme de machine à signaux calculable coïncide avec le graphe d'un fonction suffisamment lipschitzienne, cette fonction est limite calculable d'une suite croissante de fonctions en escalier rationnelles
This thesis studies a geometric computational model: signal machines. We show how to draw function graphs using-binary trees. In the world of cellular automata, we often consider particles or signals: structures that are periodic in time and space, that is, structures that move at constant speed. When several signals meet, a collision occurs, and the incoming signals can continue, disappear, or give rise to new signals, depending on the rules of the cellular automaton. Signal-machines are a computational model that takes these signals as basic building blocks. Visualized in a space-time diagram, with space on the horizontal axis and time running upwards, this model consists of calculating by drawing segments and half-lines. We draw segments upwards until two or more intersect, and then start new segments, according to predefined rules. Compared to cellular automata, signal-machines allow for the emergence of a new phenomenon: the density of signals can be arbitrarily large, even infinite, even when starting from a finite initial configuration. Such points in the space-time diagram, whose neighborhoods contain an infinity of signals, are called accumulation points.This new phenomenon allows us to define new problems geometrically. For example, what are the isolated accumulation points that can be achieved using rational initial positions and rational velocities? Can we make so the set of accumulation points is a segment? A Cantor set? In this thesis, we tackle the problem of characterizing the function graphs that can be drawn using an accumulation set. This work fits into the exploration of the computational power of signal-machines, which in turn fits into the study of the computational power of non-standard models. We show that the functions from a compact segment of the line of Real numbers whose graph coincides with the accumulation set of a signal machine are exactly the continuous functions. More generally, we show how signal machines can draw any lower semicontinuous function. We also study the question under computational constraints, with the following result: if a computable signal-machine diagram coincides with the graph of a Lipschitz-function of sufficiently small Lipschitz coefficient, then that function is the limit of a growing and computable sequence of rational step functions
2

Pégny, Maël. "Sur les limites empiriques du calcul : calculabilité, complexité et physique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010673/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant ces dernières décennies, la communauté informatique a montré un intérêt grandissant pour les modèles de calcul non-standard, inspirés par des phénomènes physiques, biologiques ou chimiques. Les propriétés exactes de ces modèles ont parfois été l'objet de controverses: que calculent-ils? Et à quelle vitesse? Les enjeux de ces questions sont renforcés par la possibilité que certains de ces modèles pourraient transgresser les limites acceptées du calcul, en violant soit la thèse de Church-Turing soit la thèse de Church-Turing étendue. La possibilité de réaliser physiquement ces modèles a notamment été au coeur des débats. Ainsi, des considérations empiriques semblent introduites dans les fondements même de la calculabilité et de la complexité computationnelle, deux théories qui auraient été précédemment considérées comme des parties purement a priori de la logique et de l'informatique. Par conséquent, ce travail est consacré à la question suivante : les limites du calcul reposent-elles sur des fondements empiriques? Et si oui, quels sont-ils? Pour ce faire, nous examinons tout d'abord la signification précise des limites du calcul, et articulons une conception épistémique du calcul, permettant la comparaison des modèles les plus variés. Nous répondrons à la première question par l'affirmative, grâce à un examen détaillé des débats entourant la faisabilité des modèles non-standard. Enfin, nous montrerons les incertitudes entourant la deuxième question dans l'état actuel de la recherche, en montrant les difficultés de la traduction des concepts computationnels en limites physiques
Recent years have seen a surge in the interest for non-standard computational models, inspired by physical, biological or chemical phenomena. The exact properties of some of these models have been a topic of somewhat heated discussion: what do they compute? And how fast do they compute? The stakes of these questions were heightened by the claim that these models would violate the accepted limits of computation, by violating the Church-Turing Thesis or the Extended Church-Turing Thesis. To answer these questions, the physical realizability of some of those models - or lack thereof - has often been put at the center of the argument. It thus seems that empirical considerations have been introduced into the very foundations of computability and computational complexity theory, both subjects that would have been previously considered purely a priori parts of logic and computer science. Consequently, this dissertation is dedicated to the following question: do computability and computational complexity theory rest on empirical foundations? If yes, what are these foundations? We will first examine the precise meaning of those limits of computation, and articulate a philosophical conception of computation able to make sense of this variety of models. We then answer the first question by the affirmative, through a careful examination of current debates around non-standard models. We show the various difficulties surrounding the second question, and study how they stem from the complex translation of computational concepts into physical limitations
3

Bizouard, Vincent. "Calculs de précision dans un modèle supersymétrique non minimal." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAY075/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Malgré les nombreux succès du Modèle Standard de la physique des particules, plusieurs éléments montrent qu'il ne s'agit que d'une théorie effective à basse énergie. En effet, la masse des neutrinos et la matière noire ne sont pas expliqués dans ce modèle, qui ne prend pas en compte non plus la gravitation dont la version quantique n'a toujours pas été établie. De plus, les divergences quadratiques des corrections à la masse du boson de Higgs dans ce modèle pose un problème de naturalité. Tous ces problèmes indiquent la nécessité de trouver une nouvelle physique, qui doit être décrite par une extension du Modèle Standard. Une des possibilités est d'ajouter une nouvelle symétrie de l'espace-temps, la Supersymétrie, reliant les bosons et le fermions. Dans son extension miminale, la Supersymétrie permet déjà de résoudre le problème de la matière noire en proposant un candidat naturel, le neutralino, et de supprimer les dangereuses corrections quadratiques à la masse du boson de Higgs.Dans cette thèse, les travaux se sont concentrés sur une extension supersymétrique non minimale du Modèle Standard, le NMSSM. Afin de confronter la théorie aux expériences, il est nécessaire de calculer précisément les différentes observables. Ces calculs étant complexes, il est naturel de les automatiser, ce qui a été réalisé à l'aide du code SloopS. Avec ce code, nous avons pu dans un premier temps nous intéresser à la désintégration du boson de Higgs en un photon et un boson Z. Ce mode de désintégration a la particularité d'être généré directement à une boucle, ce qui le rend sensible à la présence de nouvelles particules. Il a commencé à être mesuré lors du Run 1 du LHC et les données vont continuer à s'accumuler avec le Run actuel (Run 2). La possibilité d'une déviation du signal mesuré avec celui prédit par le modèle Standard, requiert donc une analyse théorique préliminaire, que nous avons effectué dans le cadre du NMSSM. Nous nous sommes ensuite intéressé aux corrections radiatives pour des processus plus généraux.Il a d'abord fallu réaliser et implémenter la renormalisation dans SloopS afin de réguler les divergences apparaissant dans ces calculs à une boucle. Puis nous avons pu utiliser le modèle renormalisé pour calculer les corrections radiatives aux masses et largeurs de désintégration des différentes particules supersymétriques et des bosons de Higgs, en comparant les résultats obtenus dans différents schémas de renormalisation
Although the Standard Model has been very successful so far, it presents several limitations showing that it is only an effective low energy theory. For example, the neutrino masses or dark matter are not predicted in this model. Gravity is also not taken into account and we expect that it plays a quantum role at energies around the Planck mass. Moreover, radiative corrections to the Higgs boson mass suffer from quadratic divergences. All these problems underline the fact that new physics should appear, and this has to be described by an extension of the Standard Model. One well-motivated possibility is to add a new space-time symetry, called Supersymmetry, which link bosons and fermions. In its minimal extension, Supersymmetry can already solve the dark matter paradox with a natural candidate, the neutralino, and provide a cancellation of the dangerous quadratic corrections to the Higgs boson mass.In this thesis, we focussed on the Next-to-Minimal SuperSymmetric extension of the Standard Model, the NMSSM. To compare theoretical predictions with experiments, physical observables must be computed precisely. Since these calculations are long and complex, automatisation is desirable. This was done by developping SloopS, a program to compute one-loop decay width and cross-section at one-loop order in Supersymmetry. With this code, we first analysed the decay of the Higgs boson in a photon and a Z boson. This decay mode is induced at the quantum level and thus is an interesting probe of new physics. Its measurement has been started during Run 1 of the LHC and is continued now in Run 2. The possibility of deviation between the measured signal strength and the one predicted by the Standard Model motivates a careful theoretical analysis in beyond Standard Models which we realised within the NMSSM. Our goal was to compute radiative corrections for any process in this model. To cancel the ultraviolet divergences appearing in higher order computations, we had to carry out and implement the renormalisation of the NMSSM in SloopS. Finally, it was possible to use the renormalised model to compute radiatives corrections to masses and decay widths of Higgs bosons and supersymmetric particles in the NMSSM and to compare the results between different renormalisation schemes
4

Boughattas, Sedki. "L'Arithmétique ouverte et ses modèles non-standards." Paris 7, 1987. http://www.theses.fr/1987PA077044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On montre que, dans le langage forme par les symboles d'addition, de multiplication, de successeur, de relation d'ordre et la constante zéro, la théorie de l'induction pour les formules ouvertes est non-finiment axiomatisable. On apporte la réponse à des questions relatives aux sous-systèmes de cette arithmétique, posées par Shepherdson et par Macintyre
5

Ren, Chengfang. "Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112167/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels
In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems
6

Kechid, Mounir. "La programmation dynamique non-serial dans les modèles de calcul parallèle BSP/CGM." Amiens, 2009. http://www.theses.fr/2009AMIE0110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous assistons cette décennie à une tendance (migration) du hardware parallèle vers les systèmes multiprocesseurs à gros-grain. Cependant, la majorité du logiciel parallèle traditionnel est conçue pour des systèmes grain-fin et pour des machines à mémoire partagée. L'un des principaux défis actuels des chercheurs en conception d'algorithmes parallèles est de réduire cette incompatibilité dite « écart logiciel-matériel ». Un grand intérêt est ainsi porté à la conception d'algorithmes parallèles efficaces pour les multiprocesseurs gros-grain. C'est dans ce cadre que s'inscrit cette thèse. Nous utilisons le modèle de calcul parallèle BSP/CGM (Bulk synchronous parallel Coarse Grained Multicomputers) pour concevoir des solutions pour des problèmes faisant appel à la technique de programmation dynamique. Nous nous intéressons à un échantillon typique de la programmation dynamique du type polyadique non-serial qui est caractérisée par une très forte dépendance de calculs. Il s'agit d'une importante classe de problèmes largement utilisés dans les applications à haute performance (tel que : le problème d'ordonnancement de produit de chaîne de matrices : OPCM, le problème de l'arbre binaire de recherche optimale : ABRO, le problème de triangulation de polygones convexe : TPC. . . ). Nous présentons tout d'abord une étude détaillée de l'outil de conception, i. E. Le modèle BSP/CGM, ainsi qu'une proposition de raffinement du modèle de coût BSP en vue d'améliorer son exactitude de prédiction. Nous présentons ensuite une solution BSP/CGM générique pour la classe de problèmes précitée. Enfin, après une étude des contraintes de l'accélération de cette solution générique dans le modèle BSP/CGM, pour les problèmes OPCM et ABRO, deux algorithmes BSP/CGM accélérés sont proposés
We attend this decade a trend (migration) of the parallel hardware towards coarse-grain multiprocessor systems. However, the majority of the traditional parallel software is designed for fine-grain system and for shared memory machines. One of the main current challenges of the researchers in design of parallel algorithms is to reduce this incompatibility said “software-hardware gap”. Big interest is so focused on the design of efficient parallel algorithms for coarse-grain multi-processors systems. It's in this context that this thesis contributes. We use the BSP/CGM parallel computing model (Bulk synchronous parallel Coarse Grained Multicomputer) to design solutions for problems using dynamic programming approach. We are interested in a typical sample of the dynamic programming polyadic non-serial which is characterized by a very strong dependence of calculations. It is about an important class of problems widely used in the high-performance applications (MCOP: the matrix chain ordering problem, OBST: the optimal binary search tree problem, CTP: the convex polygons triangulation). We firstly present a detailed study of the design tools, i. E. BSP/CGM model, as well as a proposition of refinement of the BSP cost model to improve its prediction accuracy. We present then a generic BSP/CGM solution for the aforesaid problems class. At the end, after a study of the constraints of the acceleration of this generic solution in BSP/CGM model for the problems MCOP and OBST, two accelerated BSP/CGM algorithms are proposed
7

Pétrino, Paule. "Mise au point d'une méthode prédictive de calcul des viscosités des mélanges liquides non ioniques." Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX3A004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Daouia, Abdelaati. "Analyse non-paramétrique des frontières de production et des mesures d'efficacité à l'aide de quantiles conditionnels non-standards." Toulouse 1, 2003. http://www.theses.fr/2003TOU10049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux réalisés dans cette thèse mettent en lumière le rôle central que jouent les quantiles de la loi conditionnelle non-standard dans l'analyse de frontière et d'efficacité. Le chapitre 1 introduit la problématique et place le problème de l'estimation du support d'une loi multivariée dans le contexte d'analyse d'efficacité et met en perspective l'apport de la thèse
The present thesis is a part of the literature of nonparametric frontier and efficiency estimation in that we instigate this problem. Chapter 1 introduces a mathematical formulation of the problem of efficiency measurement showing its connection with the problem of estimating the support of a multivariate distribution, and summarizes the contributions of this dissertation
9

Cois, Olivier. "Systèmes linéaires non entiers et identification par modèle non entier : application en thermique." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12534.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème général des travaux qui font l'objet de ce mémoire concerne la représentation et l'identification de système par modèle non entier. Le premier chapitre commence par rappeler les définitions et principales propriétés des opérateurs différentiels non entiers. Le deuxième chapitre propose une représentation continue dans un espace d'état généralisé d'un système linéaire non entier complexe, scalaire ou multivariable. Un théorème de stabilité est établi. Le troisième chapitre traite de l'application de l'opérateur de dérivation non entière à la modélisation de phénomènes de diffusion, le champ applicatif retenu étant celui de la thermique. L'étude du transfert de chaleur dans six milieux semi-infinis et finis, ainsi que la détermination d'approximations sous la forme de transmittances entières et non entières constitue la contribution principale de ce chapitre. Le quatrième chapitre est consacré à l'identification par modèle non entier. Portant sur une équation différentielle non entière, deux types de méthodes d'estimation paramétriques sont présentés : les méthodes à erreur d'équation et les méthodes à erreur de sortie. Le dernier chapitre propose une application de l'identification par modèle non entier à la résolution d'un problème inverse en thermique. L'exemple d'illustration retenu consiste en l'estimation des conditions thermiques de coupe en usinage par tournage
This thesis deals with system representation and identification by fractional models. Chapter 1 recalls the definitions and main properties of the fractional operators. Chapter 2 proposes the study of a continuous MIMO complex-fractional system through a generalized state space representation. A stability theorem is established from the output analytical expression. Chapter 3 deals with the modeling of diffusive processes using fractional differentiation operators. The heat transfer trough 6 different finite and semi-infinite media is studied. Approximations using integer or fractional transfer functions are then established and compared. Chapter 4 is devoted to system identification by fractional model. Equation error methods as well as output error methods are developed. Finally, chapter 5 gives an application of system identification to the solving of a thermal inverse problem. An example, consisting of the estimation of the thermal cut conditions, is given
10

BERGA, ABDELMAJID. "Calcul elastoplastique des sols a lois non associees par elements finis base sur l'approche des materiaux standards implicites." Compiègne, 1993. http://www.theses.fr/1993COMP595S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'experience montre que le sol a un comportement non-standard. Cependant, les theoremes de l'analyse limite ne sont pas applicables sur un tel materiau demuni de la loi de normalite. La methode du materiau standard implicite permet de retrouver pour le comportement non-standard, la loi de normalite mais sous forme implicite. Ceci permet, notamment, de generaliser les theoremes de l'analyse limite au materiau non-standard. Une ecriture adequate de la loi constitutive incrementale permet de proposer un nouvel algorithme base sur un operateur symetrique et defini-positif a l'inverse de la matrice tangente conventionnelle quelconque. D'ou un meilleur conditionnement du systeme et un gain en temps de calcul. Ces developpements sont integres dans un environnement element fini d'architecture moderne et convivial en terme d'interactivite, de strategie de pilotage et de controle pour le calcul elastoplastique des massifs de sols. Les applications numeriques traites montrent la sensibilite de la charge limite au caractere non associatif de la loi
11

Riga, Candia. "Calcul fonctionnel non-anticipatif et applications en finance." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066737/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse développe une approche trajectorielle pour la modélisation des marchés financiers en temps continu, sans faire appel à des hypothèses probabilistes ou à des modèles stochastiques. À l'aide du calcul fonctionnel non-anticipatif, nous identifions une classe spéciale de stratégies de trading que nous prouvons être auto-finançantes, selon une notion trajectorielle introduite dans cette thèse, et dont le gain peut être calculé trajectoire par trajectoire comme limite de sommes de Riemann. Avec ces outils, nous proposons un cadre analytique pour analyser la performance et la robustesse de stratégies de couverture dynamique de produits dérivés path-dependent sur en ensemble de scénarios. Ce cadre ne demande aucune hypothèse probabiliste sur la dynamique du processus sous-jacent. Il généralise donc les résultats précédents sur la robustesse de stratégies de couverture dans des modèles de diffusion. Nous obtenons une formule explicite pour l'erreur de couverture dans chaque scénario et nous fournissons des conditions suffisantes qui impliquent la robustesse de la couverture delta-neutre. Nous montrons que la robustesse peut être obtenue dans un ensemble ample de modèles de prix de martingale exponentielle de carré intégrable, avec une condition de convexité verticale sur le payoff. Nous remarquons que les discontinuités de la trajectoire de prix détériorent la performance de la couverture. Le dernier chapitre, indépendant du reste de la thèse, est une étude en collaboration avec Andrea Pascucci et Stefano Pagliarani, où nous proposons une nouvelle méthode pour l'approximation analytique dans des modèles à volatilité locale avec des sauts de type Lévy
This thesis develops a mathematical framework for the analysis of continuous-time trading strategies which, in contrast to the classical setting of continuous-time finance, does not rely on stochastic integrals or other probabilistic notions.Using the `non-anticipative functional calculus', we first develop a pathwise definition of the gain process for a large class of continuous-time trading strategies which includes delta-hedging strategies, as well as a pathwise definition of the self-financing condition. Using these concepts, we propose a framework for analyzing the performance and robustness of delta-hedging strategies for path-dependent derivatives across a given set of scenarios. Our setting allows for general path-dependent payoffs and does not require any probabilistic assumption on the dynamics of the underlying asset, thereby extending previous results on robustness of hedging strategies in the setting of diffusion models. We obtain a pathwise formula for the hedging error for a general path-dependent derivative and provide sufficient conditions ensuring the robustness of the delta-hedge. We show in particular that robust hedges may be obtained in a large class of continuous exponential martingale models under a vertical convexity condition on the payoff functional. We also show that discontinuities in the underlying asset always deteriorate the hedging performance. These results are applied to the case of Asian options and barrier options. The last chapter, independent of the rest of the thesis, proposes a novel method, jointly developed with Andrea Pascucci and Stefano Pagliarani, for analytical approximations in local volatility models with Lévy jumps
12

Le, Bodic Pierre. "Variantes non standards de problèmes d'optimisation combinatoire." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112190.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est composée de deux parties, chacune portant sur un sous-domaine de l'optimisation combinatoire a priori distant de l'autre. Le premier thème de recherche abordé est la programmation biniveau stochastique. Se cachent derrière ce terme deux sujets de recherche relativement peu étudiés conjointement, à savoir d'un côté la programmation stochastique, et de l'autre la programmation biniveau. La programmation mathématique (PM) regroupe un ensemble de méthodes de modélisation et de résolution, pouvant être utilisées pour traiter des problèmes pratiques que se posent des décideurs. La programmation stochastique et la programmation biniveau sont deux sous-domaines de la PM, permettant chacun de modéliser un aspect particulier de ces problèmes pratiques. Nous élaborons un modèle mathématique issu d'un problème appliqué, où les aspects biniveau et stochastique sont tous deux sollicités, puis procédons à une série de transformations du modèle. Une méthode de résolution est proposée pour le PM résultant. Nous démontrons alors théoriquement et vérifions expérimentalement la convergence de cette méthode. Cet algorithme peut être utilisé pour résoudre d'autres programmes biniveaux que celui qui est proposé.Le second thème de recherche de cette thèse s'intitule "problèmes de coupe et de couverture partielles dans les graphes". Les problèmes de coupe et de couverture sont parmi les problèmes de graphe les plus étudiés du point de vue complexité et algorithmique. Nous considérons certains de ces problèmes dans une variante partielle, c'est-à-dire que la propriété de coupe ou de couverture dont il est question doit être vérifiée partiellement, selon un paramètre donné, et non plus complètement comme c'est le cas pour les problèmes originels. Précisément, les problèmes étudiés sont le problème de multicoupe partielle, de coupe multiterminale partielle, et de l'ensemble dominant partiel. Les versions sommets des ces problèmes sont également considérés. Notons que les problèmes en variante partielle généralisent les problèmes non partiels. Nous donnons des algorithmes exacts lorsque cela est possible, prouvons la NP-difficulté de certaines variantes, et fournissons des algorithmes approchés dans des cas assez généraux
This thesis is composed of two parts, each part belonging to a sub-domain of combinatorial optimization a priori distant from the other. The first research subject is stochastic bilevel programming. This term regroups two research subject rarely studied together, namely stochastic programming on the one hand, and bilevel programming on the other hand. Mathematical Programming (MP) is a set of modelisation and resolution methods, that can be used to tackle practical problems and help take decisions. Stochastic programming and bilevel programming are two sub-domains of MP, each one of them being able to model a specific aspect of these practical problems. Starting from a practical problem, we design a mathematical model where the bilevel and stochastic aspects are used together, then apply a series of transformations to this model. A resolution method is proposed for the resulting MP. We then theoretically prove and numerically verify that this method converges. This algorithm can be used to solve other bilevel programs than the ones we study.The second research subject in this thesis is called "partial cut and cover problems in graphs". Cut and cover problems are among the most studied from the complexity and algorithmical point of view. We consider some of these problems in a partial variant, which means that the cut or cover property that is looked into must be verified partially, according to a given parameter, and not completely, as it was the case with the original problems. More precisely, the problems that we study are the partial multicut, the partial multiterminal cut, and the partial dominating set. Versions of these problems were vertices are
13

Rota, Nodari Simona. "Etude mathématique de modèles non linéaires issus de la physique quantique relativiste." Paris 9, 2011. http://basepub.dauphine.fr/xmlui/handle/123456789/7233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à l’étude de deux modèles quantiques relativistes non linéaires. Dans la première partie, nous démontrons par une méthode de perturbation l’existence de solutions des équations d’Einstein–Dirac–Maxwell pour un système statique, à symétrie sphérique de deux fermions dans un état singulet et avec un couplage électromagnétique faible. Dans la seconde partie, nous étudions un modèle de champ moyen relativiste qui décrit le comportement des nucléons à l’intérieur du noyau atomique. Nous proposons une condition qui garantit l’existence d’une solution d’énergie minimale des équations de champ moyen relativiste dans un cas statique ; plus précisément, nous obtenons un résultat qui lie l’existence de points critiques d’une fonctionnelle d’énergie fortement indéfinie et les inégalités de concentration-compacité strictes
This thesis is devoted to the study of two nonlinear relativistic quantum models. In the first part, we prove by a perturbation method the existence of solutions of the coupled Einstein–Dirac–Maxwell equations for a static, spherically symmetric system of two fermions in a singlet spinor state and for a weak electromagnetic coupling. In the second part, we study a relativistic mean-field model that describes the behavior of nucleons in the atomic nucleus. We provide a condition that ensures the existence of a ground state solution of the relativistic mean-field equations in a static case; in particular, we relate the existence of critical points of a strongly indefinite energy functional to strict concentration-compactness inequalities
14

Dolejší, Vít. "Sur les méthodes combinant des volumes finis et des éléments finis pour le calcul d'écoulements compressibles sur des maillages non structurés." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX22123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Munch, Guillaume. "Syntaxe et modèles d'une composition non-associative des programmes et des preuves." Paris 7, 2013. http://www.theses.fr/2013PA077130.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse contribue à la compréhension de la nature, du rôle et des mécanismes de la polarisation dans les langages de programmation, en théorie de la preuve et dans les modèles catégoriels. La polarisation correspond à l'idée que la condition d'associativité de la composition peut être relâchée, comme on le montre à travers un résultat qui relie les duploïdes, notre modèle direct de la polarisation, aux adjonctions. En conséquence, la polarisation sous-tend de nombreux modèles du calcul, ce que l'on souligne encore en montrant comment les modèles par passage de continuation pour des opérateurs de contrôle délimité se décomposent en trois étapes fondamentales. Elle explique également des phénomènes de constructivité en théorie de la démonstration, ce que l'on illustre en donnant une interprétation selon le principe de la formule comme type à la polarisation en général et à une négation involutive en particulier. Notre approche est basée sur une représentation interactive des démonstrations et des programmes à base de termes (calcul L), qui met en évidence la structure des polarités. Celle-ci est basée sur la correspondance entre les machines abstraites et les calculs de séquents, et vise à synthétiser diverses directions: la modélisation du contrôle, de l'ordre d'évaluation et des effets dans les langages de programmation, la quête d'un lien entre la dualité catégorielle et les continuations, et l'approche interactive de la constructivité en théorie de la preuve. On introduit notre technique en supposant uniquement une connaissance élémentaire du lambda-calcul simplement typé et de la réécriture
The thesis is a contribution to the understanding of the nature, role, and mechanisms of polarisation in programming languages, proof theory and categorical models. Polarisation corresponds to the idea that we can relax the associativity of composition, as we show by relating duploids, our direct model of polarisation, to adjunctions. As a consequence, polarisation underlies many models of computation, which we further show by decomposing continuation-passing-style models of delimited control in three fondamental steps which allowing us to reconstruct four call-by-name variants of the shift and reset operators. It also explains constructiveness-related phenomena in proof theory, which we illustrate by providing a formulae-as-types interpretation for polarisation in general and for an involutive negation in particular. The cornerstone of our approach is an interactive term-based représentation of proofs and programs (L calculi) which exposes the structure of polarities. It is based on the correspondence between abstract machines and sequent calculi, and it aims at synthesising various trends: the modelling of control, evaluation order and effects in programming languages, the quest for a relationship between categorical duality and continuations, and the interactive notion of construction in proof theory. We give a gentle introduction to our approach which only assumes elementary knowledge of simply-typed lambda calculus and rewriting
16

Baron, Céline. "Contribution à l'estimation de paramètres physiques à l'aide de modèles d'ordre réduit." Poitiers, 2003. http://www.theses.fr/2003POIT2349.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche relatés dans ce mémoire concernent une méthodologie permettant à la fois de déterminer un domaine d'incertitude paramétrique et d'estimer les paramètres physiques d'un système à l'aide d'un modèle d'ordre réduit. La méthodologie permettant de déterminer un domaine d'incertitude paramétrique a été développée dans une hypothèse d'erreur bornée et s'apparentée à l'approche identification globale, définie par J. RICHALET. Ce domaine est en fait un ellipsoi͏̈de isocritère résultant de la minimisation d'un critère quadratique. Nous avons également développé une méthodologie permettant d'estimer les paramètres physiques d'un système à l'aide d'un modèle d'ordre réduit. L'erreur de modélisation, génératrice d'un biais déterministe de l'estimateur, est prise en compte à l'aide d'un modèle boîte noire contraint. Ces contraintes sont introduites à l'aide des moments temporels et fréquentiels. Des exemples d'applications permettent de tester et de valider ces méthodologies
The works presented in the thesis dissertation deal with a methdology for the determination of uncertainty parametric domains and for the estimation of physical parameters using reduced order models. Firstly, we present a methodology for the determination of uncertainty parametric domains with a hypothesis of bounded error. This method is based on global identification approach defined by J. RICHALET. Uncertainty domains correspond to iso-criterion curves given by the minimization of the quadratic criterion. We also present a methodology for the estimation of physical parameters using reduced order models. Modelling error, responsible of a deterministic bias of the estimator, is taken into account using a constrained black box model. These constraints are introduced using time moments or frequency ones. Application examples are used to validate this methodology
17

Bensalem, Hadjira. "Calcul non linéaire des structures en béton : cas particulier du béton soumis au feu." Electronic Thesis or Diss., Université Grenoble Alpes, 2022. https://thares.univ-grenoble-alpes.fr/2022GRALI014.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les incendies graves qui se sont produits ces dernières décennies sur des ouvrages d’art ou d’habitation en béton tels ceux du tunnel sous la Manche (1996) ou du Mont Blanc (1999) ont mis au premier plan de l’actualité la problématique du béton soumis au feu et ses conséquences. Le béton ordinaire est cependant réputé pour sa bonne tenue au feu. Mais l’apparition et l’utilisation de bétons à hautes performances ou à ultra-hautes performances, tout en résolvant des problèmes techniques inédits, posent en même temps le problème de leur plus grande sensibilité au feu du fait de leur plus grande compacité. La présente étude est une contribution à la compréhension des processus de dégradations thermiques par une approche expérimentale et numérique. Dans l’approche expérimentale, des éprouvettes-dalle de béton à hautes performances formulé à base de sable normalisé et instrumentés de thermocouples ont été soumises à des essais d’écaillage thermique en suivant la courbe de température d’incendie standard ISO834 de l’Eurocode 2. Différentes données thermiques et évènementielles récoltées pendant et après les essais ont été analysées. Le temps au premier éclat, la température du four et celle du béton au premier éclat ainsi que les débris produits ont été caractérisés. En utilisant certains des résultats expérimentaux comme données d’entrée, la modélisation numérique a permis de déterminer de façon satisfaisante le champ de température dans les éprouvettes au cours des essais. Dans certains cas, le recours à la technique de l’analyse par méthode inverse a été nécessaire. En utilisant par la suite l’approche thermomécanique et en s’appuyant sur la loi de comportement d’endommagement isotrope de Mazars, il a été possible de calculer en particulier le champ d’endommagement dans les éprouvettes-dalles au cours des différents essais. La confrontation des résultats de la modélisation numérique avec ceux de l’expérience a montré que le champ d’endommagement modélisé est de nature à rendre compte des dégradations thermiques observées au cours des essais aussi bien en termes d’étendue que de profondeur
The serious fires that have occurred in recent decades on concrete structures or housing such as those in the Channel Tunnel (1996) or Mont Blanc (1999) have brought the issue to the fore of concrete subjected to fire and its consequences. Ordinary concrete is, however, renowned for its good fire resistance. But the appearance and use of high-performance or ultra-high-performance concretes, while solving unprecedented technical problems, simultaneously pose the problem of their greater sensitivity to fire due to their greater compactness. This study is a contribution to the understanding of thermal degradation processes by an experimental and numerical approach. In the experimental approach, high performance concrete specimens-slabs formulated from standardized sand and instrumented with thermocouples were subjected to thermal spalling tests following the standard ISO834 fire temperature curve of the Eurocode 2. Different thermal and event data collected during and after the tests were analyzed. The time to first burst, the temperature of the furnace and that of the concrete to the first burst as well as the debris produced were characterized. Using some of the experimental results as input data, numerical modeling allowed the temperature field in the specimens to be determined satisfactorily during testing. In some cases, the use of the technique of analysis by reverse method has been necessary. By subsequently using the thermomechanical approach and by relying on Mazars's isotropic damage behavior law, it was possible to calculate in particular the damage field in the test specimens-slabs during the various tests. The comparison of the results of the numerical modeling with those of the experiment showed that the modeled damage field is likely to account for the thermal degradations observed during the tests both in terms of extent and depth
18

Noiret, Céline. "Utilisation du calcul formel pour l'identifiabilité de modèles paramètriques et nouveaux algorithmes en estimation de paramètres." Compiègne, 2000. http://www.theses.fr/2000COMP1303.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avant d'estimer les paramètres intervenant dans des systèmes dynamiques, linéaires ou non-linéaires, contrôlés ou non contrôlés, nous devons effectuer une étude d'identifiabilité, notion dont les différentes définitions sont rappelées dans le premier chapitre de cette thèse. Pour mener cette étude, diverses méthodes sont disponibles dans la littérature mais peu d'entre elles fournissent une caractérisation de l' identifiabilité. De plus, les calculs engendrés sont en général difficiles à mener. Un des objectifs de cette thèse a donc été de créer un logiciel quasi automatique testant l' identifiabilité. Nous avons donc pour cela développé trois méthodes: méthode entrée-sortie, méthode des similarités et méthode des invariants. La dernière méthode, basée sur une idée de M. Petitot, est entièrement nouvelle; la première a été introduite par F. Ollivier et la seconde par Tarn et Tunali. Ces trois méthodes ont été implantées en MAPLE, à l'aide entre autres du package diffalg, et nous les avons justifiées en nous basant sur des notions d'algèbre différentielle. La seconde partie de ce travail est une partie numérique. Nous avons tout d'abord fait un lien entre l'étape du test d'identifiabilité et celle de l'identification. Pour cela, nous avons introduit plusieurs critères faisant intervenir les équations entrée-sortie ou leur équivalent. Chaque critère a été expérimenté sur des modèles de pharmacocinétique. Ces méthodes fournissent en général une première estimation des paramètres qui peut être utilisée comme point de départ d'algorithmes itératifs spécialisés dans l'étude des problèmes mal posés: la régularisation de Tikhonov et les moindres carrés pondérés dont le poids est déterminé grâce à des LM! (inégalité matricielle affine). Chacune de ces méthodes locales a été testée sur les modèles précédents. La méthode la plus efficace s'est avérée la méthode de régularisation dans le cas de trajectoires peu bruitées et celle des moindres carrés pondérés dans celui de trajectoires plus perturbées.
19

HOANG, HUY KHANH. "Apport du non-determinisme dans les langages de requetes." Paris 1, 1997. http://www.theses.fr/1997PA010062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons un mecanisme de non-determinisme restreint pour definir des langages de requetes. Ce mecanisme est base sur un constructeur de choix, appele choix symetrique, qui s'applique seulement sur des ensembles contenant des elements symetriques, c'est a dire des elements de la base de donnees qui sont indistinguables au niveau conceptuel. Ce mecanisme nous permet de definir un langage de requetes deterministe dont le pouvoir d'expression est strictement plus grand que celui de fixpoint avec count , considere jusqu'ici comme "la meilleure approximation" de dbptime. Ce langage est base d'une part sur une extension de la logique du point fixe inflationniste avec un constructeur de choix symetrique, et d'autre part , sur l'introduction d'un operateur de reduction logique qui permet l'augmentation du pouvoir d'expression.
20

Khouaja, Anis. "Modélisation et identification de systèmes non-linéaires à l'aide de modèles de volterra à complexité réduite." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00090557.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'identification des systèmes dynamiques non linéaires à partir d'un ensemble de données entrée/sortie est d'une importance fondamentale pour les applications pratiques puisque beaucoup de systèmes physiques possèdent des caractéristiques non linéaires. La structure du modèle de Volterra peut être utilisée pour représenter une classe générale de systèmes non linéaires. Cependant, l'usage pratique d'une telle représentation est souvent limité à cause du grand nombre de paramètres associé à une telle structure. Pour pallier à cet inconvénient, plusieurs solutions sont proposées dans cette thèse. La première utilise des développements en série des différents noyaux sur des bases de fonctions orthogonales. La deuxième est basée sur l'utilisation de techniques faisant appel à des décompositions d'ordre réduit des tenseurs relatifs aux noyaux d'ordre supérieur ou égal à trois. Diverses bases de fonctions (Laguerre, Kautz et Bases Orthogonales Généralisées (BOG)) sont tout d'abord étudiées en vue de leur utilisation pour la modélisation des systèmes linéaires puis pour la représentation des noyaux de modèle de Volterra. Le problème d'identification comporte plusieurs volets : détermination des pôles caractéristiques des bases de fonctions orthogonales, de l'ordre des développements des différents noyaux, des coefficients de Fourier du développement et de l'incertitude relative à ces coefficients. Une représentation d'état associée à un développement sur une base de fonctions orthogonales généralisées est développée puis utilisée pour la construction de prédicteurs de la sortie du système ainsi modélisé. Ensuite, plusieurs décompositions tensorielles sont étudiées. La décomposition PARAFAC est plus particulièrement considérée. Des modèles de Volterra à complexité réduite inspirés de cette technique sont proposés. En considérant le noyau quadratique de Volterra comme une matrice et les autres noyaux comme des tenseurs d'ordres supérieurs à deux, nous utilisons une décomposition à l'aide des valeurs singulières (SVD) pour le noyau quadratique et la décomposition PARAFAC pour les noyaux d'ordres supérieurs à deux afin de construire le modèle réduit de Volterra appelé SVD-PARAFAC-Volterra. Un nouvel algorithme appelé ARLS (Alternating Recursive Least Squares) est présenté. Cet algorithme essentiellement basé sur la technique RLS appliquée d'une manière alternée estime les paramètres de tels modèles de Volterra. Enfin, de nouvelles méthodes d'identification robuste dites à erreur bornée sont présentées. Elles sont utilisées pour l'identification de modèles linéaires issus des BOG, travail qui vise à étendre au cas des systèmes non linéaires incertains des résultats obtenus récemment pour des systèmes linéaires incertains. Parmi les techniques d'identification à erreur bornée présentées, l'approche polytopique est plus particulièrement considérée. Cette approche nous permet d'estimer les intervalles d'incertitude des coefficients de Fourier du développement sur les différentes bases orthogonales étudiées. Ces mêmes méthodes d'identification sont utilisées aussi afin d'identifier les intervalles d'incertitude des paramètres du modèle SVD-PARAFAC-Volterra. Les méthodes proposées permettent de réaliser une importante réduction de complexité numérique et un gain en temps de calcul considérables.
21

Payet, Jimmy. "États fondamentaux dans l'approximation quasi-classique pour des modèles d'électrodynamique quantique non relativiste." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, on s'intéresse à des modèles de théorie quantique des champs décrivant les interactions entre une particule non relativiste et un champ de radiation quantifié. En particulier, on s'intéresse à la minimisation de l'énergie quasi-classique des modèles considérés, c'est-à-dire l'énergie du système lorsque le champ se trouve dans un état cohérent. Un premier résultat concerne le modèle spin-boson, c'est un modèle simple (mais non trivial) où la particule non relativiste est décrite par un système de dimension finie et est couplée linéairement à un champ quantifié scalaire. On obtient pour ce modèle une expression explicite de l'énergie fondamentale quasi-classique et de l'ensemble des minimiseurs, pour toute valeur de la constante de couplage. On montre également que l'ensemble des minimiseurs est trivial si la constante de couplage est inférieure à une valeur critique. D'autre part, on obtient l'existence d'un état fondamental pour l'énergie lorsque le champ se trouve dans une superposition de deux états cohérents. On considère ensuite des modèles pour lesquels la particule non relativiste est décrite par un opérateur de Schrödinger. Dans le cas où le couplage entre la particule et le champ est linéaire en les opérateurs de création et d'annihilation (modèle de Nelson, modèle du Polaron), on montre l'existence et l'unicité d'un état fondamental quasi-classique associé à l'énergie quasi-classique, à symétrie de phase près. On suppose le potentiel extérieur confinant ou liant et nous n'imposons pas de troncature ultraviolette dans la définition de la fonctionnelle d'énergie. Nous obtenons ensuite un développement asymptotique de l'énergie fondamentale quasi-classique lorsque le paramètre de couplage tend vers 0. Enfin, en faisant dépendre l'énergie du paramètre ultraviolet, on montre que les états fondamentaux, ainsi que les énergies fondamentales associées convergent dans la limite ultraviolette. Dans le cas du modèle standard de l'électrodynamique quantique non relativiste, sous des hypothèses similaires, on montre l'existence d'un état fondamental quasi-classique. Nous obtenons aussi un développement asymptotique lorsque le paramètre de couplage tend vers 0 et la convergence dans la limite ultraviolette de l'énergie fondamentale
In this thesis, we study quantum field theory models that describe the interactions between a non-relativistic particle and a quantized radiation field. In particular, we focus on the minimization of the quasi-classical energy of the considered models, i.e. the energy of the system when the field is in a coherent state. A first result concerns the Spin-boson model. It is a simple (but non-trivial) model where the non-relativistic particle is described by a finite dimensional system and is linearly coupled to a quantized scalar field. We obtain an explicit expression for the quasi-classical ground state energy and the set of minimizers for this model, for any values of the coupling constant. We also prove that the set of minimizers is trivial when the coupling constant is below a critical value. We also obtain the existence of a ground state for the energy when the field is in a superposition of two coherent states.Next, we consider models where the non-relativistic particle is described by a Schrödinger operator. In the case where the coupling between the particle and the field is linear in the creation and annihilation operators (Nelson model, polaron model for instance), we show the existence and uniqueness of a quasi-classical ground state associated with the quasi-classical energy, up to a phase symmetry. We consider a general external potential, either bindind or confining, and do not impose an ultraviolet cutoff in the definition of the energy functional. Then, we obtain an asymptotic expansion of the quasi-classical ground state energy as the coupling parameter goes to 0. Finally, by making the energy depend on the ultraviolet parameter, we prove that the ground states and associated ground state energies converge in the ultraviolet limit. In the case of the standard model of non-relativistic quantum electrodynamics with a spin, under similar assumptions, we show the existence of a quasi-classical ground state. We also obtain an asymptotic expansion as the coupling parameter tends to 0 and the convergence of the ground state energies in the ultraviolet limit
22

Benchellal, Amel. "Modélisation des interfaces de diffusion à l'aide d'opérateurs d' intégration fractionnaires." Poitiers, 2008. http://www.theses.fr/2008POIT2256.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce mémoire porte sur l’approximation des systèmes de diffusion à l’aide de modèles fractionnaires. Ce travail s’appuie sur la définition d’un opérateur d’intégration fractionnaire qui permet de généraliser la procédure de simulation des systèmes différentiels conventionnels à ceux des systèmes fractionnaires. La première partie a été consacrée à l’étude d’un modèle à deux opérateurs d’intégration fractionnaires. Ce modèle offre une très bonne qualité d’approximation aussi bien en fréquentiel qu’en temporel. Les résultats d’identification montrent que ce modèle est capable de s’adapter à la géométrie du processus de diffusion étudié. Pour une modélisation plus compacte et parcimonieuse, un nouvel opérateur à ordre variant avec la fréquence a été défini. Il permet de définir un modèle à un intégrateur fractionnaire, offrant les mêmes qualités d’approximation que le modèle précédent. Finalement, une simplification de cet opérateur est proposée, en conservant les mêmes qualités d’approximation. Les différents modèles définis ont été validés sur des données réelles : cas de la modélisation des effets de fréquence sur la machine asynchrone puis sur un pilote de transfert de la chaleur
The research presented in this thesis deals with the approximation of diffusion systems with fractional models. This work is based on the definition of a fractional integration operator, which allows to generalise the numerical simulation procedure of conventional differential systems to those of fractional ones. The first part was devoted to the study of a model with two fractional integration operators. This model offers a very good approximation in both frequency and time domains. The identification results obtained from the heat transfer simulation show that this model is able to adapt to the geometry of studied diffusion processes. For a more compact and parsimonious model, a new fractional integrator with a variable order according to the frequency has been defined. It allows to define a model with one fractional integrator, which offers the same approximation qualities of the previously model. Finally, a simplification of this last operator is proposed while retaining the same approximation qualities. Several models defined were validated on real data: the case of modelling of skin effect machines and the case of pilot heat transfer
23

Avalos, Marta. "Modèles additifs parcimonieux." Phd thesis, Université de Technologie de Compiègne, 2004. http://tel.archives-ouvertes.fr/tel-00008802.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux algorithmes d'estimation fonctionnelle existent pour l'apprentissage statistique supervisé. Cependant, ils ont pour la plupart été développés dans le but de fournir des estimateurs précis, sans considérer l'interprétabilité de la solution. Les modèles additifs permettent d'expliquer les prédictions simplement, en ne faisant intervenir qu'une variable explicative à la fois, mais ils sont difficiles à mettre en ouvre. Cette thèse est consacrée au développement d'un algorithme d'estimation des modèles additifs. D'une part, leur utilisation y est simplifiée, car le réglage de la complexité est en grande partie intégré dans la phase d'estimation des paramètres. D'autre part, l'interprétabilité est favorisée par une tendance à éliminer automatiquement les variables les moins pertinentes. Des stratégies d'accélération des calculs sont également proposées. Une approximation du nombre effectif de paramètres permet l'utilisation de critères analytiques de sélection de modèle. Sa validité est testée par des simulations et sur des données réelles.
24

Munch-Maccagnoni, Guillaume. "Syntaxe et modèles d'une composition non-associative des programmes et des preuves." Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00918642.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse contribue à la compréhension de la nature, du rôle et des mécanismes de la polarisation dans les langages de programmation, en théorie de la preuve et dans les modèles catégoriels. La polarisation correspond à l'idée que la condition d'associativité de la composition peut être relâchée, comme on le montre à travers un résultat qui relie les duploïdes, notre modèle direct de la polarisation, aux adjonctions. En conséquence, la polarisation sous-tend de nombreux modèles du calcul, ce que l'on souligne encore en montrant comment les modèles par passage de continuation pour des opérateurs de contrôle délimité se décomposent en trois étapes fondamentales. Elle explique également des phénomènes de constructivité en théorie de la démonstration, ce que l'on illustre en donnant une interprétation selon le principe de la formule comme type à la polarisation en général et à une négation involutive en particulier. Notre approche est basée sur une représentation interactive des démonstrations et des programmes à base de termes (calcul L), qui met en évidence la structure des polarités. Celle-ci est basée sur la correspondance entre les machines abstraites et les calculs de séquents, et vise à synthétiser diverses directions : la modélisation du contrôle, de l'ordre d'évaluation et des effets dans les langages de programmation, la quête d'un lien entre la dualité catégorielle et les continuations, et l'approche interactive de la constructivité en théorie de la preuve. On introduit notre technique en supposant uniquement une connaissance élémentaire du λ-calcul simplement typé et de la réécriture.
25

Iacomi, Marius. "Calculs non-perturbatifs en théorie des champs bidimensionnelle." Montpellier 2, 1997. http://www.theses.fr/1997MON20240.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans les deux parties du travail on expose des resultats interessants obtenus dans le cadre de deux theories des champs bidimensionnelles avec des techniques differentes - la methode variationnelle pour le modele de gross-neveu et les transformations analytiques des coefficients d'une equation de liouville en theorie des cordes. La premiere partie, en tant qu'amelioration des travaux precedents sur le meme sujet, met en evidence les limites de precision auxquelles il faut s'attendre dans le cas particulier considere et permet d'estimer l'ordre de grandeur des ecarts par rapport aux vraies valeurs dans d'autres domaines d'applicabilite de la methode. On obtient des valeurs ameliorees pour les quantites calculables dans le modele de gross-neveu (masse du fermion, energie de l'etat fondamental), tout en tenant compte de la renormalisabilite de celui-ci. La methode est appliquee de maniere coherente, prouvant la comptabilite avec le groupe de renormalisation. Des techniques mathematiques poussees (notamment les approximation par des pades) sont utilisees pour reduire encore les ecarts par rapport aux vraies valeurs. La deuxieme partie met en evidence des proprietes speciales de l'equation de liouville en theorie des cordes : soluble dans un cas particulier, il s'avere possible de generer une infinite de solutions a partir de celle-ci, solutions qui s'organisent dans un reseau. On decrit l'obtention d'une equation maitresse qui est reliee a la fonction a quatre points et on montre comment on trouve la solution particuliere. Avec l'aide de quelques transformations de l'equation de depart, on genere un reseau de solutions correspondant a des impulsions externes differentes, ce qui permet de calculer en principe la fonction a quatre points pour une classe tres large de valeurs pour les impulsions externes. A partir de cette solution, on peut obtenir egalement des solutions correspondant a une equation de schrodinger dependante du temps, avec un nombre fini de bandes interdites.
26

Derfoul, Ratiba. "Intégration des données de sismique 4D dans les modèles de réservoir : recalage d'images fondé sur l'élasticité non linéraire." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00924825.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans une première partie, nous proposons une méthodologie innovante pour la comparaison d'images en ingénierie de réservoir. L'objectif est de pouvoir comparer des cubes sismiques obtenus par simulation avec ceux observés sur un champ pétrolier, dans le but de construire un modèle représentatif de la réalité. Nous développons une formulation fondée sur du filtrage, de la classification statistique et de la segmentation d'images. Ses performances sont mises en avant sur des cas réalistes. Dans une seconde partie, nous nous intéressons aux méthodes de recalage d'images utilisées en imagerie médicale pour mettre en correspondance des images. Nous introduisons deux nouveaux modèles de recalage fondés sur l'élasticité non linéaire, où les formes sont appréhendées comme des matériaux de type Saint Venant-Kirchhoff et Ciarlet-Geymonat. Nous justifions théoriquement l'existence de solutions ainsi que la résolution numérique. Le potentiel de ces méthodes est illustré sur des images médicales.
27

Botella, Arnaud. "Génération de maillages non structurés volumiques de modèles géologiques pour la simulation de phénomènes physiques." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0097/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les objectifs principaux de la géomodélisation sont la représentation et la compréhension du sous-sol. Les structures géologiques ont un rôle important pour comprendre et prédire son comportement physique. Nous avons défini un modèle géologique comme étant composé d'un ensemble de structures et de leurs connexions. Les maillages sont des supports numériques servant à résoudre les équations modélisant la physique du sous-sol. Il est donc important de construire un maillage représentant un modèle géologique afin de prendre en compte l'impact de ces structures dans les phénomènes du sous-sol. L'objectif de cette thèse est de développer des méthodes de maillage volumique pour les modèles géologiques. Nous proposons une méthode de génération de maillages non structurés volumiques permettant de construire deux types de maillages : un maillage tétraédrique et un maillage hex-dominant (c'est-à-dire composé de tétraèdres, prismes à base triangulaire, pyramides à base quadrilatérale et hexaèdres). Cette méthode génère dans un premier temps un maillage tétraédrique qui peut respecter différents types de données : (1) un modèle géologique défini par frontières afin de capturer les structures dans le maillage volumique, (2) des trajectoires de puits représentées par un ensemble de segments, (3) une propriété de taille d'éléments afin de contrôler la longueur des arêtes des éléments et (4) un champ de directions pour contrôler des alignements de sommets/éléments dans le maillage afin de favoriser certaines caractéristiques comme des éléments possédant des angles droits. Dans un deuxième temps, ce maillage tétraédrique peut être transformé en un maillage multi-éléments. La méthode reconnaît des relations combinatoires entre tétraèdres permettant l'identification de nouveaux éléments comme les prismes, les pyramides et les hexaèdres. Cette méthode est ensuite utilisée pour générer des maillages aux caractéristiques spécifiques correspondant à une application donnée afin de limiter les erreurs lors du calcul numérique. Plusieurs domaines d'applications sont considérés tels que les simulations géomécaniques, d'écoulements et de propagation d'ondes sismiques
The geomodeling main goals are to represent and understand the subsurface. The geological structures have an important role for understanding and predicting its physical behavior. We defined a geological model as a set of structures and their connections. The meshes are numerical supports to solve the equations modeling the subsurface physics. So it is important to build a mesh representing a geological model to take into account the impact of these structures on the subsurface phenomena. The objective of this thesis is to develop volumetric meshing methods for geological models. We propose a volumetric unstructured meshing method to build two mesh types: an adaptive tetrahedral mesh and an hex-dominant mesh (i.e. made of tetrahedra, triangular prisms, quadrilateral pyramids and hexahedra). This method generates first a tetrahedral mesh that can respect different types of data: (1) a geological model defined by its boundaries to capture the structures in the volumetric mesh, (2) well paths represented as a set of segments, (3) a mesh size property to control the mesh element edge length and (4) a direction field to control vertex/element alignments inside the mesh to increase some features such as elements with right angles. Then, this tetrahedral mesh can be transformed in a mixed-element mesh. The method recognizes combinatorial relationships between tetrahedra to identify new elements such as prisms, pyramids and hexahedra. This method is then used to generate meshes whose features correspond to a given application in order to reduce errors during numerical computation. Several application domains are considered such as geomechanical, ow and wave propagation simulations
28

Bouby, Céline. "Adaptation élastoplastique de structures sous chargements variables avec règle d'écrouissage cinématique non linéaire et non associée." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00109296.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'introduction de l'écrouissage dans l'étude de l'adaptation élastoplastique est abordée ici, en particulier lorsque celle-ci impose de se placer en plasticité non associée. Le cadre des matériaux standards généralisés (MSG) n'étant plus adapté dans ce dernier cas, une approche alternative, fournie par le concept de matériaux standards implicites (MSI), est alors utilisée. En particulier, on présente dans ce travail l'étude d'exemples caractéristiques en adaptation élastoplastique par le modèle des MSI, soit par l'approche du bipotentiel.
Un premier exemple concernant une éprouvette sous traction constante et torsion alternée est traité en utilisant la méthode pas à pas puis dans le cadre des MSI. La confrontation des résultats porte aussi bien sur le facteur d'adaptation que sur les contraintes internes. La comparaison entre les prédictions du calcul incrémental et celles de la solution analytique puis de la programmation mathématique, construites par l'approche du bipotentiel, montre une très bonne concordance.
La deuxième partie de l'étude est consacrée aux structures de type coques minces. Après avoir constaté que l'implémentation du problème de borne statique dans le cas de l'écrouissage cinématique linéaire limité nécessite d'imposer explicitement la limitation des contraintes internes pour que les résultats soient mécaniquement acceptables, il est montré que le cadre des MSI permet de construire un problème de borne cinématique. Son implémentation donne un encadrement très précis du facteur d'adaptation entre les facteurs cinématique et statique. Enfin, une règle d'écrouissage cinématique non linéaire et un bipotentiel sont construits pour les coques minces.
29

Hay, Alexander. "Étude des stratégies d'estimation d'erreur numérique et d'adaptation locale de maillages non-structurés pour les équations de Navier-Stokes en moyenne de Reynolds." Nantes, 2004. http://www.theses.fr/2004NANT2002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On s'intéresse dans ce travail de thèse aux solutions numériques des équations de Navier-Stokes en moyenne de Reynolds obtenues à partir du solveur ISIS. Celui-ci est basé sur une discrétisation volumes finis précise à l'ordre 2 en temps et en espace pour des maillages non-structurés composés de volumes de contrôle de forme arbitraire. L'objectif de ce travail de thèse est de développer et d'étudier une méthode d'adaptation locale de maillages pour atteindre une solution de précision prédéterminée et uniforme au cours d'un processus automatique en minimisant les coûts de calcul et l'effort humain. L'utilisation d'une structure de donnée adéquate permet de rendre la procédure dynamique notamment par l'utilisation de connectivités de parenté entre les éléments. L'adaptation des maillages s'effectue de manière très générale puisque la taille caractéristique locale des grilles de calcul peut être augmentée ou diminuée. Le déraffinement des maillages s'effectue selon des algorithmes d'agglomération. Pour piloter cette procédure, on examine différentes stratégies d'estimation a posteriori de l'erreur de discrétisation permettant de traiter l'ensemble des problèmes avec un critère unique et objectif pour le contrôle conjoint de la précision et de l'effort de calcul. Les différentes méthodes sont étudiées et leurs capacités évaluées. On considère notamment une méthodologie basée sur la formation et la résolution d'une équation linéarisée de transport de l'erreur qui présente un terme source correspondant au résidu différentiel du problème primal dont on effectue une évaluation d'ordre élevé. L'ensemble de la procédure est finalement appliqué au traitement d'écoulements stationnaires turbulents et instationnaires à surface libre sur des géométries de complexité relativement importante. La quantification de l'efficacité de la méthode révèle des gains importants en temps CPU.
30

Gagnaire-Renou, Elodie. "Amélioration de la modélisation spectrale des états de mer par un calcul quasi-exact des interactions non-linéaires vague-vague." Phd thesis, Université du Sud Toulon Var, 2009. http://tel.archives-ouvertes.fr/tel-00595353.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modèles numériques d'état de mer décrivent l'évolution du spectre d'énergie de l'état de mer sous l'action conjointe de plusieurs processus physiques qui apportent, dissipent ou transfèrent de l'énergie. Une meilleure prise en compte des interactions non-linéaires entre quadruplets de fréquences de vagues est essentielle à l'amélioration des modèles d'état de mer. Sur la base d'une approche proposée par Lavrenov (2001), nous avons développé et optimisé une méthode de calcul quasi-exacte des interactions non-linéaires vague-vague en grande profondeur d'eau. Cette approche, nommée GQM (" Gaussian Quadrature Method "), est basée sur l'utilisation de quadratures de Gauss, et permet d'obtenir des estimations très précises du terme de transfert non-linéaire à des coûts de calcul raisonnables. A l'aide de cette méthode, nous nous sommes d'abord intéressés à la modélisation de l'évolution temporelle du spectre des vagues dans un cas homogène et sans forçage. Dans un second temps, l'introduction de différents termes de forçage par le vent et de dissipation par moutonnement nous a permis de montrer la sensibilité du spectre des vagues aux modèles choisis. Des situations plus proches de la réalité mais conservant une géométrie simple (fetch limité, fetch oblique) ont ensuite été modélisées en prenant en compte la propagation spatiale des vagues. Nous avons notamment comparé les résultats du modèle à des mesures issues de la campagne SHOWEX de 1999 (Duck, NC, USA). Les travaux effectués confirment d'une part la nécessité de modéliser de façon précise les interactions nonlinéaires dans les modèles spectraux d'états de mer et montrent d'autre part la faisabilité de ces améliorations grâce à la méthode GQM et l'algorithme de calcul mis au point au cours de la thèse.
31

Bouilloc, Thomas. "Applications de décompositions tensorielles à l'identification de modèles de Volterra et aux systèmes de communication MIMO-CDMA." Nice, 2011. http://www.theses.fr/2011NICE4048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les décompositions tensorielles font l’objet d’intérêts croissants, dans de nombreux domaines d’application, notamment le traitement du signal, depuis plusieurs années. Ce succès s’explique par la nature multidimensionnelle des données à traiter, comme c’est le cas par exemple, pour les signaux émis et reçus dans les systèmes de communication sans fil. Ce succès croissant s’explique également par les propriétés mathématiques que présentent les outils tensoriels, notamment en termes d’unicité. Dans une première partie, nous abordons les opérations et modèles tensoriels requis pour les présents travaux de thèse. Dans une seconde partie, nous traitons de nouvelles méthodes permettant de réduire la complexité paramétrique des modèles de Volterra complexes. En considérant les noyaux de Volterra d’ordre supérieur à un comme des tenseurs symétriques, nous utilisons plusieurs décompositions tensorielles pour réduire considérablement la complexité paramétrique des noyaux. Une étude comparative, par l’intermédiaire de simulations de Monte Carlo, évalue les performances des algorithmes mis en œuvre en termes de précision, de complexité, et de sensibilité au bruit. Par la suite, en considérant les noyaux de Volterra d’ordre supérieur à un comme des tenseurs symétriques, nous utilisons la décomposition CP/PARAFAC pour formuler les modèles de Volterra-PARAFAC, qui impliquent une réduction de complexité paramétrique considérable. Nous montrons que ces modèles peuvent être vus comme une série de modèles de Wiener mis en parallèle. Finalement, nous proposons trois méthodes d’identification récursives : le filtre de Kalman étendu complexe (ECKF), l’algorithme des moindres carrés moyens complexe (CLMS), puis sa version normalisée (NCLMS). Des résultats de simulation de Monte Carlo sont présentés pour illustrer les performances des algorithmes d’estimation proposés dans le cas de systèmes de Volterra complexes cubiques excités par des signaux de communication PSK. Nous étendrons les résultats précédents au cas des modèles de Volterra passe-bande, utilisés pour la modélisation de canaux non linéaires. Ainsi, nous développons une nouvelle classe de modèles de Volterra, appelés modèles de Volterra-PARAFAC passe-bande, de complexité paramétrique réduite, en faisant appel à une décomposition CP/PARAFAC doublement symétrique des noyaux de Volterra. Des algorithmes adaptatifs similaires au cas des modèles de Volterra-PARAFAC sont proposés pour l’estimation paramétrique des modèles de Volterra-PARAFAC passe-bande. Des résultats de simulation illustrent le comportement des méthodes d’identification proposées. Dans un premier temps, nous considérons un système de communication coopératif, en supposant que les matrices de code des utilisateurs sont mutuellement orthogonales et connues à la réception. Cette hypothèse nous permet de séparer et décoder simultanément les signaux des utilisateurs, ce qui nous amène à considérer deux approches : une approche semi-aveugle avec estimation du canal durant une phase d’apprentissage, suivie d’une récupération des symboles pour chaque utilisateur, pendant une phase aveugle ; une approche aveugle, caractérisée par une seule phase, qui estime de manière conjointe le canal et des symboles, pour chaque utilisateur. Des résultats de simulation sont fournis pour illustrer les performances des récepteurs aveugles et semi-aveugles. Nous considérons également le cas de figure où les matrices de code des utilisateurs sont inconnues à la réception. Ainsi nous proposons une approche semi-aveugle avec une phase d’apprentissage qui estime conjointement les matrices de code et de canal des utilisateurs, suivie d’une phase aveugle qui récupère leurs symboles
This thesis concerns both the theoretical and constructive resolution of inverse problems for isotropic diffusion equation in planar domains, simply and doubly connected. From partial Cauchy boundary data (potential, flux), we look for those quantities on the remaining part of the boundary, where no information is available, as well as inside the domain. The proposed approach proceed by considering solutions to the diffusion equation as real parts of complex valued solutions to some conjugated Beltrami equation. These particular generalized analytic functions allow to introduce Hardy classes, where the inverse problems is stated as a best constrained approximation issue (bounded extremal problem), and thereby is regularized. Hence, existence and smoothness properties, together with density results of traces on the boundary, ensure well-posedness. An application is studied, to a free boundary problem for magnetically confined plasma in the tokamak Tore Supra (CEA-IRFM Caldarache). The resolution of the approximation problem on a suitable basis of functions (toroidal harmonics) lead to a qualification criterion for the estimated plasma boundary. A descent algorithm makes it decrease, and refines the estimations. The methods do not require any integration of the solution in the overall domain. It furnishes very accurate numerical results, and could be extended to other devices, like JET ou ITER
32

Hinojosa, Rehbein Jorge Andrés. "Sur la robustesse d'une méthode de décomposition de domaine mixte avec relocalisation non linéaire pour le traitement des instabilités géométriques dans les grandes structures raidies." Thesis, Cachan, Ecole normale supérieure, 2012. http://www.theses.fr/2012DENS0010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de thèse portent sur l'évaluation et la robustesse des stratégies adaptées pour la simulation de grandes structures avec non-linéarités non équitablement réparties, tels le flambage local, et des non-linéarités globales dans les structures aéronautiques. La stratégie dite de « relocalisation non-linéaire » permet l'introduction de schémas de résolution non-linéaire par sous-structure au sein des méthodes de décomposition de domaine classiques.Dans un premier temps, les performances et la robustesse de la méthode sont présentées sur des exemples de structures représentatives des cas industriels. Dans un second temps, la stratégie est complètement parallélisée et des études de « speed-up » et de « extensibilité » sont menées. Enfin, la méthode est testée sur des structures réalistes et de grandes tailles
The thesis work focus on the evaluation and the robustness of adapted strategies for the simulation of large structures with not equitably distributed nonlinearities, like local buckling, and global nonlinearities on aeronautical structures. The nonlinear relocalization strategy allows the introduction of nonlinear solving schemes in the sub-structures of the classical domain decomposition methods.At a first step, the performances and the robustness of the method are analysed on academic examples. Then, the strategy is parallelized and studies of speed-up and extensibility are carried out. Finally, the method is tested on larger and more realistic structures
33

Deng, Xiaoguang. "Développement d'un outil d'aide à la conception des matériaux fibreux multifonctionnels par les techniques de calcul avancé." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10111/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Sous la pression de la compétition internationale de plus en plus intense, le développement de nouveaux produits avec un cycle de conception minimal est un sujet qui touche de près de nombreux industriels. Une conception rapide de produits satisfaisant aux besoins diversifiés des consommateurs est une clé essentielle pour la réussite de l'entreprise. Dans ce contexte, des outils de «prototypage rapide» ont été développés et utilisés pour prédire la performance du produit et des procédés étudiés. En s'appuyant sur les techniques de modélisation informatique, ces outils permettent de concevoir des prototypes représentatifs proches des critères de qualité prédéfinis dans le cahier des charges fonctionnel avec un nombre limité d'essais et de mesures. Ce mémoire présente les travaux de recherche réalisés au cours de ma thèse doctorale, inscrits dans le cadre du développement d'un outil d'aide à la conception des matériaux multifonctionnels, permettant de réaliser dans un temps limité des prototypes adaptés aux besoins des clients. Cet outil a pour objectif de mesurer l'influence des facteurs de conception (matière première, paramètres du procédé, et paramètres de structure des matériaux), de déterminer l'espace de fonctionnement pertinent (les intervalles optimaux des facteurs de conception sélectionnés) relatif au procédé de fabrication, et d'évaluer la qualité globale des prototypes fabriqués en utilisant des approches d'aide à la décision multicritère
Face to the more and more intensive international concurrence, how to develop the new products with a minimum life cycle design is an interesting topic for many industries. A quick product development meeting the vary consumer's requirements is a critical key for the success of the company. ln this context, the tools of « rapid prototyping» have been developed and used for forecasting the performance of product and process. Using the computer modelling techniques, these tools permit to realise the representative prototypes close to the quality features predefined in the functional specifications with a limited trails and measures. This PHD thesis presents the research works in the filed of developing a design support tool for multifunctional materials. It permits to realise the prototypes adapted to the client's need with a limited time. This tool aims at measuring the relevance of design factors (raw material, process parameters and structural parameters), determining the relevant operation settings (acceptable range of design factors) related to the manufacturing process, and evaluating the global quality of prototypes using the multicriteria decision support methods
34

Caire, François. "Les équations de Maxwell covariantes pour le calcul rapide des champs diffractés par des conducteurs complexes. Application au Contrôle Non Destructif par courants de Foucault." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112284/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse a pour objectif de fournir un outil de modélisation rapide de l'interaction d'une source électromagnétique 3D avec une pièce de géométrie ou de propriétés physiques complexes dans le domaine des basses fréquences (régime quasi-statique). La principale application est la simulation d'un procédé de Contrôle Non Destructif (CND) d'une pièce conductrice présentant une surface ou des propriétés physiques perturbées. La plateforme logicielle CIVA, comportant un module dédié à la simulation des procédés de CND par courants de Foucault intègre à l’heure actuelle des modèles semi-analytiques limités aux géométries canoniques : pièces planes, cylindriques. Afin de lever ce verrou, le formalisme des équations de Maxwell covariantes, déjà très utilisé dans le domaine optique pour la caractérisation des réseaux de diffraction (méthode des coordonnées curvilignes) est étendu au régime quasi-statique. L’utilisation d’un nouveau système de coordonnées curvilignes non-orthogonal associé à la géométrie de la pièce conduit à écrire très facilement et de manière analytique les conditions de passage aux interfaces de formes complexes. La résolution numérique des équations de Maxwell sous leur forme covariante est abordée par une approche modale qui repose sur le calcul préalable de solutions propres d’un système d’équations différentielles en absence de source. La représentation des composantes du champ électromagnétique à partir de deux fonctions de potentiels du second ordre (SOVP) ou potentiels de Hertz dans des systèmes de coordonnées canoniques est d’abord étendue au système de coordonnées curvilignes. On obtient alors les expansions modales des composantes covariantes et contra-variantes du champ électromagnétique. Les coefficients de ces expansions modales sont déterminés ensuite en introduisant le champ d’excitation et en imposant les conditions de passage adéquates entre les différents milieux. Cette approche est ensuite couplée d'une part à un algorithme récursif (les paramètres S) afin de prendre en compte la présence d'interfaces internes complexes dans la pièce, et d'autre part à une méthode numérique d'ordre élevé (Méthode pseudo-Spectrale) afin de prendre en compte de façon rigoureuse des variations des propriétés physiques (perméabilité magnétique et/ou conductivité électrique...) du matériau avec la profondeur. La validation de la méthode numérique proposée s’appuie sur des comparaisons avec des données simulées à l'aide d'un logiciel commercial de calcul par éléments finis et des données expérimentales obtenues au laboratoire. En outre, les codes développés ont été intégrés à une version de développement de la plateforme CIVA afin de répondre aux besoins des partenaires dans le cadre du projet européen SIMPOSIUM
This PhD work concerns the development of fast numerical tools, dedicated to the computation of the electromagnetic interaction between a low frequency 3D current source and a complex conductor, presenting rough interfaces and/or conductivity (and/or permeability) variations. The main application is the simulation of the Eddy Current non-destructive testing process applied to complex specimens. Indeed, the existing semi-analytical models currently available in the CIVA simulation platform are limited to canonical geometries. The method we propose here is based on the covariant Maxwell equations, which allow us to consider the physical equations and relationships in a non-orthogonal coordinate system depending on the geometry of the specimen. Historically, this method (cf. C-method) has been developed in the framework of optical applications, particularly for the characterization of diffraction gratings. Here, we transpose this formalism into the quasi-static regime and we thus develop an innovative formulation of the Second Order Vector Potential formalism, widely used for the computation of the quasi-static fields in canonical geometries. Then, we determine numerically a set of modal solutions of the source-free Maxwell equations in the coordinate system introduced, and this allows us to represent the unknown fields as modal expansions in source-free domains. Then, the coefficients of these expansions are computed by introducing the source fields and enforcing the boundary conditions that the total fields must verify at the interfaces between media. In order to tackle the case of a layered conductor presenting rough interfaces, the generalized SOVP formalism is coupled with a recursive algorithm called the S-matrices. On the other hand, the application case of a complex shape specimen with depth-varying physical properties is treated by coupling the modal method we developed with a high-order numerical method: pseudo-spectral method. The validation of these codes is carried out numerically by comparison with a commercial finite element software in some particular configurations. Besides, the homogeneous case is also validated by comparison with experimental data
35

Le, Treust Loïc. "Méthodes variationnelles et topologiques pour l'étude de modèles non liénaires issus de la mécanique relativiste." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00908953.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'étude de modèles non linéaires issus de la mécanique quantique relativiste.Dans la première partie, nous démontrons à l'aide d'une méthode de tir l'existence d'une infinité de solutions d'équations de Dirac non linéaires provenant d'un modèle de hadrons et d'un modèle de la physique des noyaux.Dans la seconde partie, nous prouvons par des méthodes variationnelles l'existence d'un état fondamental et d'états excités pour deux modèles de la physique des hadrons. Par la suite, nous étudions la transition de phase reliant les deux modèles grâce à la Gamma-convergence.La dernière partie est consacrée à l'étude d'un autre modèle de hadrons dans lequel les fonctions d'onde des quarks sont parfaitement localisées. Nous énonçons quelques résultats préliminaires que nous avons obtenus.
36

Chmaycem, Ghada. "Étude des équations des milieux poreux et des modèles de cloques." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1080/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, deux problèmes complètement indépendants sont étudiés. Le premier sujet porte sur l'analyse mathématique d'un modèle simple de délamination de films minces et d'apparition de cloques. Le second sujet est une étude fine de l'équation des milieux poreux motivée par des problèmes d'intrusion saline. Dans le premier sujet de ce travail, nous considérons un modèle variationnel simple unidimensionnel décrivant la délamination de films minces sous l'effet d'un refroidissement. Nous caractérisons les minimiseurs globaux qui correspondent à trois types de films: non-délaminés, partiellement délaminés (appelés cloques) ou bien complètement délaminés. Deux paramètres jouent un rôle crucial dans un tel phénomène : la longueur du film et la température. Dans le plan de phase de ces deux derniers, nous classifions l'ensemble des minimiseurs. Comme conséquence de notre analyse, nous identifions explicitement les cloques les plus petites pour ce modèle. Dans le deuxième sujet, nous répondons d'abord à une question ouverte depuis longtemps concernant l'existence de nouvelles contractions pour l'équation de type milieux poreux. Pour m>0, nous nous sommes intéressés à des solutions positives de l'équation suivanteU_t=Delta U^m. Pour 0
In this thesis, we study two completely independent problems. The first one focuses on a simple mathematical model of thin films delamination and blistering analysis. In the second one, we are interested in the study of the porous medium equation motivated by seawater intrusion problems. In the first part of this work, we consider a simple one-dimensional variational model, describing the delamination of thin films under cooling. We characterize the global minimizers, which correspond to films of three possible types : non delaminated, partially delaminated (called blisters), or fully delaminated. Two parameters play an important role : the length of the film and the cooling parameter. In the phase plane of those two parameters, we classify all the minimizers. As a consequence of our analysis, we identify explicitly the smallest possible blisters for this model. In the second part, we answer a long standing open question about the existence of new contractions for porous medium type equations. For m>0, we consider nonnegative solutions U(t,x) of the following equationU_t=Delta U^m.For 0
37

Aymard, Benjamin. "Simulation numérique d'un modèle multi-échelle de cinétique cellulaire formulé à partir d'équations de transport non conservatives." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066254/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse porte sur la calibration d'un modèle biomathématique multi-échelle expliquant le phénomène de sélection des follicules ovariens à partir du niveau cellulaire. Le modèle EDP consiste en un système hyperbolique quasi linéaire de grande taille gouvernant l'évolution des fonctions de densité cellulaire pour une cohorte de follicules (en pratique, une vingtaine).Les équations sont couplées de manière non locale par l'intermédiaire de termes de contrôle faisant intervenir les moments de la solution, intégrée à l'échelle mésoscopique et macroscopique. Trois chapitres de la thèse présentent, sous forme d'articles publiés, la méthode développée pour simuler numériquement ce modèle. Elle est conçue pour être implémentée sur une architecture parallèle. Les EDP sont discrétisées avec un schéma Volumes Finis sur un maillage adaptatif piloté par une analyse multirésolution. Le modèle présente des discontinuités de flux aux interfaces entre les différents états cellulaires, qui nécessitent la mise en ½uvre d'un couplage spécifique, compatible avec le schéma d'ordre élevé et le raffinement de maillage.Un chapitre de la thèse est dévolu à la méthode de calibration, qui consiste à traduire les connaissances biologiques en contraintes sur les paramètres et sur les sorties du modèle. Le caractère multi-échelle est là encore crucial. Les paramètres interviennent au niveau microscopique dans les équations gouvernant l'évolution des densités de cellules au sein de chaque follicule, alors que les données biologiques quantitatives sont disponibles aux niveaux mésoscopique et macroscopique
The thesis focuses on the numerical simulation of a biomathematical, multiscale model explaining the phenomenon of selection within the population of ovarian follicles, and grounded on a cellular basis. The PDE model consists of a large dimension hyperbolic quasilinear system governing the evolution of cell density functions for a cohort of follicles (around twenty in practice).The equations are coupled in a nonlocal way by control terms involving moments of the solution, defined on either the mesoscopic or macroscopic scale.Three chapters of the thesis, presented in the form of articles, develop the method used to simulate the model numerically. The numerical code is implemented on a parallel architecture. PDEs are discretized with a Finite Volume scheme on an adaptive mesh driven by a multiresolution analysis. Flux discontinuities, at the interfaces between different cellular states, require a specific treatment to be compatible with the high order numerical scheme and mesh refinement.A chapter of the thesis is devoted to the calibration method, which translates the biological knowledge into constraints on the parameters and model outputs. The multiscale character is crucial, since parameters are used at the microscopic level in the equations governing the evolution of the density of cells within each follicle, whereas quantitative biological data are rather available at the mesoscopic and macroscopic levels.The last chapter of the thesis focuses on the analysis of computational performances of the parallel code, based on statistical methods inspired from the field of uncertainty quantification
38

Lacour, Catherine. "Analyse et résolution numérique de méthodes de sous-domaines non conformes pour des problèmes de plaques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1997. http://tel.archives-ouvertes.fr/tel-00369578.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour objet l'étude d'une méthode de décomposition de domaines: la méthode des éléments avec joints. L'un des atouts de la méthode des él\éments avec joints, et une de ses premières motivations, est qu'elle offre la possibilité de traiter des géométries complexes et de raccorder des maillages non conformes. La méthode des éléments avec joints est une méthode sans recouvrement, parallélisable. De manière générale, une fois le domaine divisé en sous-domaines, on utilise sur chacun de ces sous-domaines une discrétisation en é\éments finis avec des maillages qui ne coincident pas aux interfaces. La méthode des éléments avec joints utilise une formulation hybride des équations du problème de départ qui repose sur l'introduction de multiplicateurs de Lagrange $\lambda$ pour traiter la contrainte de continuité aux interfaces entre les sous-domaines. Le problème hybride est résolu par la méthode du gradient conjugué. Afin de faciliter la convergence de ce solveur, différents préconditionneurs ont été étudiés. Le premier est une extension au cas non conforme du préconditionneur condensé, le deuxième est basé sur la construction de bases hiérarchiques de l'espace des multiplicateurs de Lagrange, le troisième est un préconditionneur par blocs. Finalement, une étude approfondie de l'extension de la méthode des éléments avec joints aux modèles de plaques D.K.T. a été réalis\ée du point de vue de l'analyse numérique (étude de la convergence) et de l'implémentation.
39

Parisot, Martin. "Modélisation intermédiaire entre équations cinétiques et limites hydrodynamiques : dérivation, analyse et simulations." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10052/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est consacré à l’étude d’un problème issu de la physique des plasmas : le transfert thermique des électrons dans un plasma proche de l’équilibre Maxwellien. Dans un premier temps, le régime asymptotique de Spitzer-Härm est étudié. Un modèle proposé par Schurtz et Nicolaï est situé dans le contexte des limites hydrodynamiques hors du cadre strictement asymptotique et analysé. Le lien avec les modèles non-locaux de Luciani et Mora est établi, ainsi que des propriétés mathématiques comme le principe du maximum et la dissipation d’entropie. Ensuite, une dérivation formelle à partir des équations de Vlasov est proposée. Une hiérarchie de modèles intermédiaires entre les équations cinétiques et la limite hydrodynamique est décrite. Notamment, un nouveau système hydrodynamique, de nature intégro-différentielle, est proposé. Le système de Schurtz et Nicolaï apparaît comme une simplification du système issu de la dérivation. L’existence et l’unicité de la solution du système non stationnaire sont établies dans un cadre simplifié. La dernière partie est consacrée à la mise en oeuvre d’un schéma numérique spécifique pour résoudre ces modèles. On propose une approche par volumes finis pouvant être efficace sur des maillages non-structurés. La précision de ce schéma permet de capturer des effets spécifiques de nature cinétique, qui ne peuvent être reproduits par le modèle asymptotique de Spitzer–Härm. La consistance de ce schéma avec celui de l’équation de Spitzer–Härm est mise en évidence, ouvrant la voie a des stratégies de couplage entre les deux modélisations
This work is devoted to the study of a problem resulting from plasma physics: heat transfer of electrons in a plasma close to Maxwellian equilibrium. Firstly, the asymptotic regime of Spitzer-Harm is studied. A model proposed by Schurtz and Nicolai is analyzed and located in the context of hydrodynamic limits outside of the strictly asymptotic. The link to non-local models of Luciani and Mora is established, as well as the mathematical properties such as the principle of maximum and entropy dissipation. Then, a formal derivation from the Vlasov equations is proposed. A hierarchy of intermediate models between the kinetic equations and the hydrodynamic limit is described. In particular, a new system hydrodynamics, integro-differential by nature, is proposed. The system Schurtz and Nicolai appears as a simplification of the system resulting from the diversion. The existence and uniqueness of the solution of the nonstationary system are established in a simplified framework.The last part is devoted to the implementation of a specific numerical scheme for solving these models. We propose a finite volume approach can be effective on unstructured grids. The accuracy of this scheme to capture specific effects such as kinetic, which may not be reproduced by the asymptotic Spitzer-Harm model. The consistency of this pattern with that of the Spitzer-Harm equation is highlighted, paving the way for a strategy of coupling between the two models
40

Kardous, Zohra. "Sur la modélisation et la commande multimodèle des processus complexes et/ou incertains." Ecole Centrale de Lille, 2004. http://www.theses.fr/2004ECLI0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire porte sur la modélisation et la commande multimodèle des systèmes complexes incertains. L'approche envisagée s'appuie sur le principe de génération de bases de modèles pouvant être locaux ou génériques déterminés suivant des procédures exploitant l'approche algébrique de Kharitonov. Le nombre de modèles génériques est limité à quatre ou cinq. L'évaluation de la pertinence des modèles est assurée au moyen de validités calculées en ligne en se référant aux réponses du processus. De telles validités sont utilisées pour générer la commande multimodèle selon une stratégie par fusion. Deux méthodes de fusion sont alors proposées; une fusion au niveau des commandes élémentaires et une autre au niveau des paramètres de commande. Une stratégie de synthèse d'un observateur multimodèle a été également formulée en s'inspirant de la structure de commande multimodèle étudiée. Les validités utilisées étant exprimées en fonction de résidus, de nouvelles formulations des résidus ont été proposées en vue d'améliorer les performances des lois de commande et d'observation d'état développées. Une étude concernant la stabilité et la stabilisation des systèmes mutimodèles a été menée avec ou sans observateur d'état. Dans ce cadre, un ensemble de critères de stabilité et de stabilisabilité a été proposé. Ces critères se présentent sous la forme de contraintes LMI dépendant des paramètres de commande et d'observation. Leur résolution conduit à la détermination des gains de retour d'état et des gains d'observation recherchés. L'étude de la stabilisation et de l'observation d'état multimodèles de deux processus physiques a permis de confirmer l'intérêt pratique des approches proposées.
41

Monteil, François. "Étude d'une structure multicapteur à courants de Foucault : utilisation en capteur proximétrique pour un système de suivi de profil." Paris 11, 1987. http://www.theses.fr/1987PA112315.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un système de perception de l'environnement d'un robot est nécessaire si l'on désire que ce dernier soit suffisamment adaptatif, c'est à dire puisse réaliser un ensemble assez vaste de tâches différentes. Cette adaptation peut se réaliser à l'aide de capteurs proximétriques ou de capteurs globaux de vision. Le choix entre les différents types de capteurs est discuté dans ce mémoire. Nous avons choisi d'étudier un capteur proximétrique à courants de Foucault. En effet, l'association de plusieurs capteurs élémentaires de ce type, permet de relever le profil d'une surface métallique. Ce type de capteur est donc a priori intéressant pour des applications telles que le soudage robotise, l'ébavurage. Compte tenu des contraintes de l'environnement, nous dégageons la structure que doit avoir un tel capteur. Le système électronique associé au capteur est alors décrit. Nous donnons aussi les différentes causes de dérives de ce capteur, en indiquant les moyens de les corriger. Afin de pouvoir retrouver les paramètres du profil, il est nécessaire de connaître la relation environnement-capteur. Une modélisation dipôlaire du capteur permet de déterminer cette relation d'une part, et d'autre part de tirer des enseignements sur les paramètres de construction. Le modèle physique obtenu permet, à partir des relations générales qu'il fournit, d'obtenir un modèle fonctionnel du capteur. Nous l'établissons dans le cas particulier de profils d'entrée avec de faibles variations autour d'une hauteur moyenne puis dans le cas général. Les algorithmes d'identification des paramètres de ce modèle sont également présentés. Enfin, suivant le type d'application envisagée pour ce capteur, nous donnons les algorithmes de déconvolution permettant de recréer l'image réelle ou de fournir les paramètres nécessaires à la commande du robot et du procédé de soudage.
42

Tournier, Pierre-Henri. "Absorption de l'eau et des nutriments par les racines des plantes : modélisation, analyse et simulation." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte du développement d'une agriculture durable visant à préserver les ressources naturelles et les écosystèmes, il s'avère nécessaire d'approfondir notre compréhension des processus souterrains et des interactions entre le sol et les racines des plantes.Dans cette thèse, on utilise des outils mathématiques et numériques pour développer des modèles mécanistiques explicites du mouvement de l'eau et des nutriments dans le sol et de l'absorption racinaire, gouvernés par des équations aux dérivées partielles non linéaires. Un accent est mis sur la prise en compte explicite de la géométrie du système racinaire et des processus à petite échelle survenant dans la rhizosphère, qui jouent un rôle majeur dans l'absorption racinaire.La première étude est dédiée à l'analyse mathématique d'un modèle d'absorption du phosphore (P) par les racines des plantes. L'évolution de la concentration de P dans la solution du sol est gouvernée par une équation de convection-diffusion avec une condition aux limites non linéaire à la surface de la racine, que l'on considère ici comme un bord du domaine du sol. On formule ensuite un problème d'optimisation de forme visant à trouver les formes racinaires qui maximisent l'absorption de P.La seconde partie de cette thèse montre comment on peut tirer avantage des récents progrès du calcul scientifique dans le domaine de l'adaptation de maillage non structuré et du calcul parallèle afin de développer des modèles numériques du mouvement de l'eau et des solutés et de l'absorption racinaire à l'échelle de la plante, tout en prenant en compte les phénomènes locaux survenant à l'échelle de la racine unique
In the context of the development of sustainable agriculture aiming at preserving natural resources and ecosystems, it is necessary to improve our understanding of underground processes and interactions between soil and plant roots.In this thesis, we use mathematical and numerical tools to develop explicit mechanistic models of soil water and solute movement accounting for root water and nutrient uptake and governed by nonlinear partial differential equations. An emphasis is put on resolving the geometry of the root system as well as small scale processes occurring in the rhizosphere, which play a major role in plant root uptake.The first study is dedicated to the mathematical analysis of a model of phosphorus (P) uptake by plant roots. The evolution of the concentration of P in the soil solution is governed by a convection-diffusion equation with a nonlinear boundary condition at the root surface, which is included as a boundary of the soil domain. A shape optimization problem is formulated that aims at finding root shapes maximizing P uptake.The second part of this thesis shows how we can take advantage of the recent advances of scientific computing in the field of unstructured mesh adaptation and parallel computing to develop numerical models of soil water and solute movement with root water and nutrient uptake at the plant scale while taking into account local processes at the single root scale
43

Ruoppolo, Domenico. "Relational graph models and Morris's observability : resource-sensitive semantic investigations on the untyped λ-calculus." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCD069/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse contribue à l’étude du λ-calcul non-typé de Church, un système de réécriture dont la règle principale est la β-réduction (formalisant l’exécution d’un programme). Nous nous concentrons sur la sémantique dénotationnelle, l’étude de modèles du λ-calcul interprétant de la même façon les λ-termes β-convertibles. On examine la sémantique relationnelle, une sémantique sensible aux ressources qui interprète les λ-termes comme des relations avec les entrées regroupées en multi-ensembles. Nous définissons une classe de modèles relationnels, les modèles de graphe relationnels (rgm’s), que nous étudions avec une approche issue de la théorie des types et de la démonstration, par le biais de certains systèmes de types avec intersection non-idémpotente. D’abord, nous découvrons la plus petite et la plus grande λ–théorie (théorie équationnelle étendant la β-conversion) représentées dans la classe. Ensuite, nous utilisons les rgm’s afin de résoudre le problème de l’adéquation complète pour la λ–théorie observationnelle de Morris, à savoir l’équivalence contextuelle de programmes que l’on obtient lorsqu’on prend les β-formes normales comme sorties observables. On résoudre le problème de différentes façons. En caractérisant la β-normalisabilité avec les types, nous découvrons une infinité de rgm’s complètement adéquats, que nous appelons uniformément sans fond. Puis, nous résolvons le problème de façon exhaustive, en prouvant qu’un rgm est complètement adéquat pour l’observabilité de Morris si et seulement si il est extensionnel (il modèle l’ŋ-conversion) et λ-König. Moralement un rgm est λ-König si tout arbre récursif infini a une branche infinie témoignée par un type non-bien-fondé
This thesis is a contribution to the study of Church’s untyped λ-calculus, a term rewritingsystem having the β-reduction (the formal counterpart of the idea of execution of programs) asmain rule. The focus is on denotational semantics, namely the investigation of mathematical models of the λ-calculus giving the same denotation to β-convertible λ-terms. We investigate relational semantics, a resource-sensitive semantics interpreting λ-terms as relations,with their inputs grouped together in multisets. We define a large class of relational models,called relational graph models (rgm’s), and we study them in a type/proof-theoretical way, using some non-idempotent intersection type systems. Firstly, we find the minimal and maximal λ-theories (equational theories extending -conversion) represented by the class.Then we use rgm’s to solve the full abstraction problem for Morris’s observational λ-theory,the contextual equivalence of programs that one gets by taking the β-normal forms asobservable outputs. We solve the problem in different ways. Through a type-theoretical characterization of β-normalizability, we find infinitely many fully abstract rgm’s, that wecall uniformly bottomless.We then give an exhaustive answer to the problem, by showing thatan rgm is fully abstract for Morris’s observability if and only if it is extensional (a model of ŋ-conversion) and λ-König. Intuitively an rgm is λ-König when every infinite computable tree has an infinite branch witnessed by some type of the model, where the witnessing is a property of non-well-foundedness on the type
44

Khemane, Firas. "Estimation fréquentielle par modèle non entier et approche ensembliste : application à la modélisation de la dynamique du conducteur." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2010BOR14282/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse traite de la modélisation de systèmes par fonctions de transfert non entières à partir de données fréquentielles incertaines et bornées. A cet effet, les définitions d'intégration et de dérivation non entières sont d'abord étendues aux intervalles. Puis des approches ensemblistes sont appliquées pour l'estimation de l'ensemble des coefficients et des ordres de dérivation sous la forme d'intervalles. Ces approches s'appliquent pour l'estimation des paramètres de systèmes linéaires invariants dans le temps (LTI) certains, systèmes LTI incertains et systèmes linéaires à paramètres variant dans le temps (LPV). L'estimation paramétrique par approche ensembliste est particulièrement adaptée à la modélisation de la dynamique du conducteur, car les études sur un, voire plusieurs, individus montrent que les réactions recueillies ne sont jamais identiques mais varient d'une expérience à l'autre, voire d'un individu à l'autre
This thesis deals with system identification and modeling of fractional transfer functions using bounded and uncertain frequency responses. Therefor, both of fractional differentiation and integration definitions are extended into intervals. Set membership approaches are then applied to estimate coefficients and derivative orders as intervals. These methods are applied to estimate certain Linear Time Invariant systems (LTI), uncertain LTI systems and Linear Parameter Varying systems (LPV). They are notably adopted to model driver's dynamics, since most of studies on one or several individuals shave shown that the collected reactions are not identical and are varying from an experiment to another
45

Brasco, Lorenzo. "Geodesics and PDE methods in transport models." Phd thesis, Université Paris Dauphine - Paris IX, 2010. http://tel.archives-ouvertes.fr/tel-00578447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est dédiée à l'étude des problèmes de transport optimal, alternatifs au problème de Monge-Kantorovich : ils apparaissent naturellement dans des applications pratiques, telles que la conception des réseaux de transport optimal ou la modélisation des problèmes de circulation urbaine. En particulier, nous considérons des problèmes où le coût du transport a une dèpendance non linèaire de la masse : typiquement dans ce type de problèmes, le côut pour déplacer une masse $m$ pour une longueur $\ell$ est $\varphi(m)\, \ell$, où $\varphi$ est une fonction assignée, obtenant ainsi un coût total de type $\sum\varphi(m) \ell$. \par Deux cas importants sont abordés en détail dans ce travail : le cas où la fonction $\varphi$ est subadditive (transport branché), de sorte que la masse a intérêt à voyager ensemble, de manière à réduire le coût total; le cas où $\varphi$ est superadditive (transport congestionné), où au contraire, la masse tend à diffuser autant que possible. \par Dans le cas du transport branché, nous introduisons deux nouveaux modèles: dans le premièr, le transport est décrit par des courbes de mesures de probabilité que minimisent une fonctionnelle de type géodésique (avec un coefficient que pénalise le mesures qui ne sont pas atomiques). Le second est plus dans l'esprit de la formulation de Benamou et Brenier pour les distances de Wasserstein : en particulier, le transport est décrit par paires de ``courbe de mesures--champ de vitesse'', liées par l'équation de continuité, qui minimisent une énergie adéquate (non convexe). Pour les deux modèles, on démontre l'existence de configurations minimales et l'équivalence avec d'autres formulations existantes dans la littèrature. \par En ce qui concerne le cas du transport congestionné, nous passons en revue deux modèles déjà existants, afin de prouver leur équivalence: alors que le premier de ces modèles peut être considéré comme une approche Lagrangienne du problème et il a des liens intéressants avec des questions d'équilibre pour la circulation urbaine, le second est un problème d'optimisation convexe avec contraintes de divergence. \par La preuve de l'équivalence entre les deux modèles constitue le corps principal de la deuxième partie de cette thèse et contient différents éléments d'intérêt, y compris: la théorie des flots des champs de vecteurs peu réguliers (DiPerna-Lions), la construction de Dacorogna et Moser pour les applications de transport et en particulier les résultats de régularité (que nous prouvons ici) pour une équation elliptique très dégénérés, qui ne semble pas avoir été beaucoup étudiée.
46

Brasco, Lorenzo. "Geodesics and PDE methods in transport models." Phd thesis, Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est dédiée à l'étude des problèmes de transport optimal, alternative au problème de Monge-Kantorovich : ils apparaissent naturellement dans des applications pratiques, telles que la conception des réseaux de transport optimal ou la modélisation des problèmes de circulation urbaine. En particulier, nous considérons des problèmes où le coût du transport a une dèpendance non linèaire de la masse : typiquement dans ce type de problèmes, le coût pour déplacer une masse m pour une longueur ℓ est φ (m) ℓ, où φ est une fonction assignée, obtenant ainsi un coût total de type Σ φ (m) ℓ. Deux cas importants sont abordés en détail dans ce travail : le cas où la fonction φ est subadditive (transport ramifié), de sorte que la masse a intérêt à voyager ensemble, de manière à réduire le coût total; le cas où φ est superadditive (transport congestionné), où au contraire, la masse tend à diffuser autant que possible. Dans le cas du transport ramifié, nous introduisons deux nouveaux modèles: dans le premièr, le transport est décrit par des courbes de mesures de probabilité que minimisent une fonctionnelle de type géodésique (avec un coefficient que pénalise le mesures qui ne sont pas atomiques). Le second est plus dans l'esprit de la formulation de Benamou et Brenier pour les distances de Wasserstein, en particulier, le transport est décrit par paires de ``courbe de mesures--champ de vitesse'', liées par l'équation de continuité, qui minimisent une énergie adéquate (non convexe). Pour les deux modèles, on démontre l'existence de configurations minimales et l'équivalence avec d'autres formulations existantes dans la littèrature. En ce qui concerne le cas du transport congestionné, nous passons en revue deux modèles déjà existants, afin de prouver leur équivalence: alors que le premier de ces modèles peut être considéré comme une approche Lagrangienne du problème et il a des liens intéressants avec des questions d'équilibre pour la circulation urbaine, le second est un problème d'optimisation convexe avec contraintes de divergence par La preuve de l'équivalence entre les deux modèles constitue le corps principal de la deuxième partie de cette thèse et contient différents éléments d'intérêt, y compris: la théorie des flots des champs de vecteurs peu réguliers (DiPerna-Lions), la construction de Dacorogna et Moser pour les applications de transport et en particulier les résultats de régularité (que nous prouvons ici) pour une équation elliptique très dégénérés, qui ne semble pas avoir été beaucoup étudiée
This thesis is devoted to to the study of optimal transport problems, alternative to the so called Monge-Kantorovich one: they naturally arise in some real world applications, like in the design of optimal transportation networks or in urban traffic modeling. More precisely, we consider problems where the transport cost has a nonlinear dependence on the mass: typically in this type of problems, to move a mass m for a distance ℓ costs φ (m) ℓ, where φ is a given function, thus giving rise to a total cost of the type Σ φ (m) ℓ. Two interesting cases are widely addressed in this work: the case where φ is subadditive (branched transport), so that masses have the interest to travel together in order to lower the total cost; the case of φ being superadditive (congested transport), where on the contrary the mass tends to be as widespread as possible. In the case of branched transport, we introduce two new dynamical models: in the first one, the transport is described through the employ of curves of probabilty measures minimizing a length-type functional (with a weight function penalizing non atomic measures). On the other hand, the secon model is much more in the spirit of the celebrated Benamou-Brenier formulation for Wasserstein distances: in particular, the transport is described by means of pairs ``curve of measures--velocity vector field'', satisfying the continuity equation and minimizing a suitable dynamical energy (which is a non convex one, actually). For both models we prove existence of minimal configurations and equivalence with other modelizations existing in literature. Concerning the case of congested transport, we review in great details two already existing models, proving their equivalence: while the first one can be viewed as a Lagrangian approach to the problem and it has some interesting links with traffic equilibrium issues, the second one is a divergence-constrained convex optimization problem. The proof of this equivalence represents the central core of the second part of the work and contains various points of interest: among them, the DiPerna-Lions theory of flows of weakly differentiable vector fields, the Dacorogna-Moser construction for transport maps and, above all, some regularity estimates (that we derive here) for a very degenerate elliptic equation, that seems to be quite unexplored
Questa tesi è dedicata allo studio di problemi di trasporto ottimo, alternativi al cosiddetto problema di Monge-Kantorovich: essi appaiono in modo naturale in alcune applicazioni concrete, come nel disegno di reti ottimali di trasporto o nella modellizzazione di problemi di traffico urbano. In particolare, si considerano problemi in cui il costo di trasporto ha una dipendenza non lineare dalla massa: tipicamente in questo tipo di problemi, muovere una massa m per un tratto di lunghezza ℓ costa φ (m) ℓ, dove φ è una funzione assegnata, dando perciò luogo ad un costo totale del tipo Σ φ (m) ℓ. Due casi significativi vengono ampiamente trattati in questo lavoro: il caso in cui la funzione φ è subadditiva (trasporto ramificato), ragion per cui le masse hanno maggiore interesse a viaggiare insieme, in modo da diminuire il costo totale; il caso in cui φ è superadditiva (trasporto congestionato), dove al contrario la massa tende a diffondersi quanto più possibile. Nel caso del trasporto ramificato, si introducono due nuovi modelli dinamici: nel primo il trasporto è descritto da curve di misure di probabilità che minimizzano un funzionale di tipo geodetico (con un coefficiente penalizzante le misure non atomiche). Il secondo invece è maggiormente nello spirito della formulazione data da Benamou e Brenier per le distanze di Wasserstein: in particolare, il trasporto è descritto per mezzo di coppie ``curva di misure--campo di velocità'', legate dall'equazione di continuità, che minimizzano un'opportuna energia (non convessa). Per entrambi i modelli, si mostra l'esistenza di configurazioni minimali e si prova l'equivalenza con altre formulazioni esistenti in letteratura. Per quanto riguarda il caso del trasporto congestionato, si rivedono in dettaglio due modelli già esistenti, provandone l'equivalenza: mentre il primo di questi modelli può essere visto come un approccio Lagrangiano al problema ed ha interessanti legami con questioni di equilibrio per il traffico urbano, il secondo è un problema di ottimizzazione convessa con vincolo di divergenza. La dimostrazione dell'equivalenza tra i due modelli costituisce il corpo centrale della seconda parte del lavoro e contiene vari elementi di interesse, tra questi: la teoria dei flussi di campi vettoriali poco regolari di DiPerna e Lions, la costruzione di Dacorogna e Moser per mappe di trasporto e soprattutto dei risultati di regolarità (che quivi ricaviamo) per un'equazione ellittica molto degenere, che non sembra essere stata molto studiata
47

Xia, Liang. "Towards optimal design of multiscale nonlinear structures : reduced-order modeling approaches." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2230/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal est de faire premiers pas vers la conception topologique de structures hétérogènes à comportement non-linéaires. Le deuxième objectif est d’optimiser simultanément la topologie de la structure et du matériau. Il requiert la combinaison des méthodes de conception optimale et des approches de modélisation multi-échelle. En raison des lourdes exigences de calcul, nous avons introduit des techniques de réduction de modèle et de calcul parallèle. Nous avons développé tout d’abord un cadre de conception multi-échelle constitué de l’optimisation topologique et la modélisation multi-échelle. Ce cadre fournit un outil automatique pour des structures dont le modèle de matériau sous-jacent est directement régi par la géométrie de la microstructure réaliste et des lois de comportement microscopiques. Nous avons ensuite étendu le cadre en introduisant des variables supplémentaires à l’échelle microscopique pour effectuer la conception simultanée de la structure et de la microstructure. En ce qui concerne les exigences de calcul et de stockage de données en raison de multiples réalisations de calcul multi-échelle sur les configurations similaires, nous avons introduit: les approches de réduction de modèle. Nous avons développé un substitut d'apprentissage adaptatif pour le cas de l’élasticité non-linéaire. Pour viscoplasticité, nous avons collaboré avec le Professeur Felix Fritzen de l’Université de Stuttgart en utilisant son modèle de réduction avec la programmation parallèle sur GPU. Nous avons également adopté une autre approche basée sur le potentiel de réduction issue de la littérature pour améliorer l’efficacité de la conception simultanée
High-performance heterogeneous materials have been increasingly used nowadays for their advantageous overall characteristics resulting in superior structural mechanical performance. The pronounced heterogeneities of materials have significant impact on the structural behavior that one needs to account for both material microscopic heterogeneities and constituent behaviors to achieve reliable structural designs. Meanwhile, the fast progress of material science and the latest development of 3D printing techniques make it possible to generate more innovative, lightweight, and structurally efficient designs through controlling the composition and the microstructure of material at the microscopic scale. In this thesis, we have made first attempts towards topology optimization design of multiscale nonlinear structures, including design of highly heterogeneous structures, material microstructural design, and simultaneous design of structure and materials. We have primarily developed a multiscale design framework, constituted of two key ingredients : multiscale modeling for structural performance simulation and topology optimization forstructural design. With regard to the first ingredient, we employ the first-order computational homogenization method FE2 to bridge structural and material scales. With regard to the second ingredient, we apply the method Bi-directional Evolutionary Structural Optimization (BESO) to perform topology optimization. In contrast to the conventional nonlinear design of homogeneous structures, this design framework provides an automatic design tool for nonlinear highly heterogeneous structures of which the underlying material model is governed directly by the realistic microstructural geometry and the microscopic constitutive laws. Note that the FE2 method is extremely expensive in terms of computing time and storage requirement. The dilemma of heavy computational burden is even more pronounced when it comes to topology optimization : not only is it required to solve the time-consuming multiscale problem once, but for many different realizations of the structural topology. Meanwhile we note that the optimization process requires multiple design loops involving similar or even repeated computations at the microscopic scale. For these reasons, we introduce to the design framework a third ingredient : reduced-order modeling (ROM). We develop an adaptive surrogate model using snapshot Proper Orthogonal Decomposition (POD) and Diffuse Approximation to substitute the microscopic solutions. The surrogate model is initially built by the first design iteration and updated adaptively in the subsequent design iterations. This surrogate model has shown promising performance in terms of reducing computing cost and modeling accuracy when applied to the design framework for nonlinear elastic cases. As for more severe material nonlinearity, we employ directly an established method potential based Reduced Basis Model Order Reduction (pRBMOR). The key idea of pRBMOR is to approximate the internal variables of the dissipative material by a precomputed reduced basis computed from snapshot POD. To drastically accelerate the computing procedure, pRBMOR has been implemented by parallelization on modern Graphics Processing Units (GPUs). The implementation of pRBMOR with GPU acceleration enables us to realize the design of multiscale elastoviscoplastic structures using the previously developed design framework inrealistic computing time and with affordable memory requirement. We have so far assumed a fixed material microstructure at the microscopic scale. The remaining part of the thesis is dedicated to simultaneous design of both macroscopic structure and microscopic materials. By the previously established multiscale design framework, we have topology variables and volume constraints defined at both scales
48

Scotti, Simone. "Applications of the error theory using Dirichlet forms." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00349241.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis is devoted to the study of the applications of the error theory using Dirichlet forms. Our work is split into three parts. The first one deals with the models described by stochastic differential equations. After a short technical chapter, an innovative model for order books is proposed. We assume that the bid-ask spread is not an imperfection, but an intrinsic property of exchange markets instead. The uncertainty is carried by the Brownian motion guiding the asset. We find that spread evolutions can be evaluated using closed formulae and we estimate the impact of the underlying uncertainty on the related contingent claims. Afterwards, we deal with the PBS model, a new model to price European options. The seminal idea is to distinguish the market volatility with respect to the parameter used by traders for hedging. We assume the former constant, while the latter volatility being an erroneous subjective estimation of the former. We prove that this model anticipates a bid-ask spread and a smiled implied volatility curve. Major properties of this model are the existence of closed formulae for prices, the impact of the underlying drift and an efficient calibration strategy. The second part deals with the models described by partial differential equations. Linear and non-linear PDEs are examined separately. In the first case, we show some interesting relations between the error and wavelets theories. When non-linear PDEs are concerned, we study the sensitivity of the solution using error theory. Except when exact solution exists, two possible approaches are detailed: first, we analyze the sensitivity obtained by taking "derivatives" of the discrete governing equations. Then, we study the PDEs solved by the sensitivity of the theoretical solutions. In both cases, we show that sharp and bias solve linear PDE depending on the solution of the former PDE itself and we suggest algorithms to evaluate numerically the sensitivities. Finally, the third part is devoted to stochastic partial differential equations. Our analysis is split into two chapters. First, we study the transmission of an uncertainty, present on starting conditions, on the solution of SPDE. Then, we analyze the impact of a perturbation of the functional terms of SPDE and the coefficient of the related Green function. In both cases, we show that the sharp and bias verify linear SPDE depending on the solution of the former SPDE itself
49

Bonnet, Benoît. "Optimal control in Wasserstein spaces." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0442.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une vaste quantité d'outils mathématiques permettant la modélisation et l'analyse des problèmes multi-agents ont récemment été développés dans le cadre de la théorie du transport optimal. Dans cette thèse, nous étendons pour la première fois plusieurs de ces concepts à des problématiques issues de la théorie du contrôle. Nous démontrons plusieurs résultats sur ce sujet, notamment des conditions nécessaires d'optimalité de type Pontryagin dans les espaces de Wasserstein, des conditions assurant la régularité intrinsèque de solutions optimales, des conditions suffisantes pour l'émergence de différents motifs, ainsi qu'un résultat auxiliaire à propos des arrangements de certaines singularités en géométrie sous-Riemannienne
A wealth of mathematical tools allowing to model and analyse multi-agent systems has been brought forth as a consequence of recent developments in optimal transport theory. In this thesis, we extend for the first time several of these concepts to the framework of control theory. We prove several results on this topic, including Pontryagin optimality necessary conditions in Wasserstein spaces, intrinsic regularity properties of optimal solutions, sufficient conditions for different kinds of pattern formation, and an auxiliary result pertaining to singularity arrangements in Sub-Riemannian geometry
50

Mourad, Aya. "Identification de la conductivité hydraulique pour un problème d'intrusion saline : Comparaison entre l'approche déterministe et l'approche stochastique." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0465/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème de cette thèse est l'identification de paramètres tels que la conductivité hydraulique, K, pour un problème d'intrusion marine dans un aquifère isotrope et libre. Plus précisément, il s'agit d'estimer la conductivité hydraulique en fonction d'observations ou de mesures sur le terrain faites sur les profondeurs des interfaces (h, h₁), entre l'eau douce et l'eau salée et entre le milieu saturé et la zone insaturée. Le problème d'intrusion marine consiste en un système à dérivée croisée d'edps de type paraboliques décrivant l'évolution de h et de h₁. Le problème inverse est formulé en un problème d'optimisation où la fonction coût minimise l'écart quadratique entre les mesures des profondeurs des interfaces et celles fournies par le modèle. Nous considérons le problème exact comme une contrainte pour le problème d'optimisation et nous introduisons le Lagrangien associé à la fonction coût. Nous démontrons alors que le système d'optimalité a au moins une solution, les princcipales difficultés étant de trouver le bon ensemble pour les paramètres admissibles et de prouver la différentiabilité de l'application qui associe (h(K), h₁(K₁)) à K. Ceci constitue le premier résultat de la thèse. Le second résultat concerne l'implémentation numérique du problème d'optimisation. Notons tout d'abord que, concrètement, nous ne disposons que d'observations ponctuelles (en espace et en temps) correspondant aux nombres de puits de monitoring. Nous approchons donc la fonction coût par une formule de quadrature qui est ensuite minimisée en ultilisant l'algorithme de la variable à mémoire limitée (BLMVM). Par ailleurs, le problème exact et le problème adjoint sont discrétisés en espace par une méthode éléments finis P₁-Lagrange combinée à un schéma semi-implicite en temps. Une analyse de ce schéma nous permet de prouver qu'il est d'ordre 1 en temps et en espace. Certains résultats numériques sont présentés pour illustrer la capacité de la méthode à déterminer les paramètres inconnus. Dans la troisième partie de la thèse, nous considérons la conductivité hydraulique comme un paramètre stochastique. Pour réaliser une étude numérique rigoureuse des effets stochastiques sur le problème d'intrusion marine, nous utilisons les développements de Wiener pour tenir compte des variables aléatoires. Le système initiale est alors transformé en une suite de systèmes déterministes qu'on résout pour chaque coefficient stochastique du développement de Wiener
This thesis is concerned with the identification, from observations or field measurements, of the hydraulic conductivity K for the saltwater intrusion problem involving a nonhomogeneous, isotropic and free aquifer. The involved PDE model is a coupled system of nonlinear parabolic equations completed by boudary and initial conditions, as well as compatibility conditions on the data. The main unknowns are the saltwater/freshwater interface depth and the elevation of upper surface of the aquifer. The inverse problem is formulated as the optimization problem where the cost function is a least square functional measuring the discrepancy between experimental interfaces depths and those provided by the model. Considering the exact problem as a constraint for the optimization problem and introducing the Lagrangian associated with the cost function, we prove that the optimality system has at least one solution. The main difficulties are to find the set of all eligible parameters and to prove the differentiability of the operator associating to the hydraulic conductivity K, the state variables (h, h₁). This is the first result of the thesis. The second result concerns the numerical implementation of the optimization problem. We first note that concretely, we only have specific observations (in space and in time) corresponding to the number of monitoring wells, we then adapt the previous results to the case of discrete observations data. The gradient of the cost function is computed thanks to an approximate formula in order to take into account the discrete observations data. The cost functions then is minimized by using a method based on BLMVM algorithm. On the other hand, the exact problem and the adjoint problem are discretized in space by a P₁-Lagrange finite element method combined with a semi-implicit time discretization scheme. Some numerical results are presented to illustrate the ability of the method to determine the unknown parameters. In the third part of the thesis we consider the hydraulic conductivity as a stochastic parameter. To perform a rigorous numerical study of stochastic effects on the saltwater intrusion problem, we use the spectral decomposition and the stochastic variational problem is reformulated to a set of deterministic variational problems to be solved for each Wiener polynomial chaos

To the bibliography