Дисертації з теми "Méthodes second ordre"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Méthodes second ordre.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-43 дисертацій для дослідження на тему "Méthodes second ordre".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Etcheverlepo, Adrien. "Développement de méthodes de domaines fictifs au second ordre." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821897.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La simulation d'écoulements dans des géométries complexes nécessite la création de maillages parfois difficile à réaliser. La méthode de pénalisation proposée dans ce travail permet de simplifier cette étape. En effet, la résolution des équations qui gouvernent l'écoulement se fait sur un maillage plus simple mais non-adapté à la géométrie du problème. Les conditions aux limites sur les parties du domaine physique immergées dans le maillage sont prises en compte à travers l'ajout d'un terme de pénalisation dans les équations. Nous nous sommes intéressés à l'approximation du terme de pénalisation pour une discrétisation par volumes finis sur maillages décalés et colocatifs. Les cas tests de vérification réalisés attestent d'un ordre de convergence spatial égal à 2 pour la méthode de pénalisation appliquée à la résolution d'une équation de type Poisson ou des équations de Navier-Stokes. Enfin, on présente les résultats obtenus pour la simulation d'écoulements turbulents autour d'un cylindre à Re=3900 et à l'intérieur d'une partie d'un assemblage combustible à Re=9500.
2

Gesbert, David. "Egalisation et identification multi-voies : méthodes auto-adaptatives au second-ordre." Paris, ENST, 1997. http://www.theses.fr/1997ENST0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous abordons le problème de l'égalisation autodidacte, dans le cadre récent des traitements n'exploitant que les moments du second-ordre (corrélations). Nous supposons pour cela que la source discrète transmise est vue au travers de plusieurs voies, issues du sur échantillonnage temporel ou spatial d'un seul canal. Dans le cas bloc, nous montrons que l'approche prédiction linéaire, simple et robuste en multivoies, peut être encore améliorée en généralisant le formalisme de prédiction. L'algorithme de prédiction multi-pas est proposé, pour l'identification de canal par blocs. La part la plus importante du travail est cependant consacrée au problèmes importants de l'égalisation et identification adaptatives au second-ordre. Nous insistons sur la question de la robustesse vis-à-vis des problèmes de : bruit additif, estimation de l'ordre des canaux, diversité de canal et choix du retard en égalisation. Quatre nouveaux algorithmes sont proposés : -le premier ressoude le problème de de bruitage pose par la mise en œuvre adaptative de la prédiction, l'algorithme propose fonctionne aussi dans d'autres contextes que celui de l'égalisation. -le deuxième algorithme, appelé emr, constitue une technique nouvelle pour l'égalisation linéaire, qui présente des avantages sur les techniques concurrentes : le critère est quadratique et l'implantation est très flexible. L'implantation rls de emr permet la convergence en une centaine d'itérations seulement !, contre quelques milliers pour une technique d'égalisation traditionnelle. -enfin, nous explorons une troisième voie basée sur la recherche conjointe canal/données, qui s'apparente aux techniques a maximum de vraisemblance, mais qui s'en différencie par l'utilisation de traitements linéaires, moins couteux. Des propriétés d'optimalité et de robustesse, complètement spécifiques au cadre multivoies, sont mises à jour.
3

Halard, Matthieu. "Méthodes du second ordre pour la conception optimale en élasticité non-linéaire." Paris 9, 1999. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1999PA090029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception optimale de structures élastiques non-linéaires se heurte d'abord au cout de résolution de l'équation d'équilibre soit une vingtaine d'itérations de Newton comprenant une factorisation de la matrice de raideur tangente et une descente-remontée ; puis au mauvais conditionnement du critère à optimiser vis-à-vis des variables de conception ; enfin au traitement des contraintes de conception parfois impératives même au cours de l'optimisation. Les deux premiers points sont résolus en appliquant une méthode de type Newton au système d'optimalité, dans lequel les variables de conception et d'état sont les inconnues. L'algorithme hybride adjoint-direct est techniquement réalisable avec des calculs analytiques de gradients et des dérivées secondes du lagrangien approchées par différences finies. La recherche linéaire dans la direction de Newton est remplacée par une recherche sur un arc linéaire ou parabolique collant à la courbe d'équilibre de l'espace conception-état, afin de se rapprocher d'une méthode de Newton réduite à l'espace de conception. La convergence rapide se voit sur les résultats. Le dernier point est abordé par l'étude d'une méthode de points intérieurs dans laquelle la direction de recherche est déviée vers l'intérieur du domaine de conception pour accroitre la robustesse de l'algorithme. Nous élaborons un autre calcul de déflexion, itératif, fournissant une direction restant dans le domaine linéarisé avec un taux de descente par rapport à la direction de Newton supérieur à un critère de trajectoire centrale. Des exemples bidimensionnels parlants montrent que la combinaison des deux idées allie robustesse et performance. La première partie se clôt sur l'algorithme de conception optimale avec contraintes d'inégalité. La deuxième est consacrée à son application à l'élasticité et à sa programmation avec des couts détaillés car sa performance en dépend. Des cas semi-industriels prouvent l'intérêt des techniques retenues.
4

Lamoulie, Laurence. "Couplage de méthodes primale et duale d'éléments finis pour des problèmes elliptiques du second ordre." Pau, 1993. http://www.theses.fr/1993PAUU3014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail concerne l'analyse numérique d'une nouvelle méthode de décomposition de domaine, appliquée à la résolution d'équations elliptiques du second ordre. La méthode présentée est basée sur la décomposition du domaine en deux sous-domaines disjoints, non nécessairement connexes. Sur l'un, on utilise la formulation variationnelle primale de l'équation, et sur l'autre variationnelle duale, le raccord étant assuré par des conditions implicites. Le problème se met alors sous forme d'un système d'équations couplées, qui conduit à différentes formulations finales. Leur analyse est effectuée, et on étudie l'approximation de la solution à l'aide d'un couplage d'éléments finis conforme (on non) et équilibre. On précise l'ordre de convergence : des majorations d'erreur optimales sont obtenues sans raccord des maillages. Dans le but de paralléliser la résolution numérique, on présente aussi un algorithme de résolution itérative dont on démontre la convergence. Des essais numériques confirment et complètent l'étude théorique, pour une géométrie simple.
5

González-Contreras, Brian Manuel. "Contribution à la tolérance aux défauts des systèmes linéaires : Synthèse de méthodes d'accommodation fondée sur l'information du second ordre." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans ce mémoire de thèse concerne la synthèse de méthodes d'accommodation fondée sur l'information du second ordre (ISO) dans le contexte de la tolérance aux défauts présents au sein des systèmes linéaires. La contribution majeure de ces travaux de recherche concerne l'exploitation de cette information dans l'analyse de la reconfigurabilité (aptitude du système à s'affranchir des défauts) et dans le développement des stratégies d'accommodation de défauts permettant de retrouver les performances nominales en fonction du comportement dynamique et garantissant une information du second ordre %(coût énergétique) imposée. Dans un premier temps, on propose des approches pour mesurer l'information du second ordre à partir des grandeurs entrée/sortie des systèmes linéaires. Dans une première approche, la réponse (données de sortie) à la condition initiale est considérée. Une alternative intéressante à cette approche, en considérant le problème comme un d'identification et basée sur la réponse impulsionnelle (paramètres de Markov), est proposée afin d'évaluer l'information du second ordre indirectement mais en-ligne en utilisant des grandeurs entrée/sortie. Un indice résultant de cette évaluation est proposé afin de contribuer à l'étude de la reconfigurabilité en ligne d'un système défaillant. Cette estimation en temps réel de l'information du second ordre est étendue aux systèmes commandés en réseau afin d'évaluer l'impact de retards sur la reconfigurabilité du système. Dans un deuxième temps, des stratégies permettant l'accommodation de défauts du type perte d'efficacité des actionneurs sont proposées, approches considérées dans le contexte de la synthèse de l'information du second ordre par retour d'état. On aborde le cas des systèmes à une entrée, approche proposée et basée sur la méthode de la pseudo inverse modifiée. Ensuite on considère le cas multivariable, approche basée sur la méthode de la pseudo inverse. Des exemples se présentent pour illustrer l'application des approches proposées. Les éléments développés au cours du mémoire sont illustrés à travers une application couramment étudiée dans la commande de procédés : le système hydraulique des trois cuves. Les simulations effectuées mettent en relief les résultats obtenus et l'apport des méthodes développées
This thesis is devoted to the synthesis of accommodation methods founded on the second order information (SOI) assignment in the context of fault tolerance for deterministic linear systems. The major contribution of this research concerns using this information in the reconfigurability analysis (capability of the system to respond to faults) and developing strategies for fault accommodation in order to recover nominal performances in terms of system dynamics and also to guarantee the assigned second order information. Firstly, approaches for measuring the SOI using the system's input/output data are proposed. A first approach based on the initial response is considered. An interesting alternative to this approach, in considering the problem as one of identification, is proposed as an indirect computation of the SOI but online and using input/output data. An index based on reconfigurability, which is directly related to the SOI, is also proposed. Based on this online SOI computation, the index is applied to networked control systems affected by network induced delays in order to calculate their impact over the system. Secondly, fault accommodation strategies for loss of effectiveness type faults are proposed under the feedback SOI synthesis. SISO systems are first considered, approach founded on the modified pseudo inverse method. On the other hand, a strategy for MIMO systems founded on the pseudo inverse method is taken into account. Examples illustrating the application of the approaches are also presented. All these developed approaches are applied and illustrated through the well known process benchmark: the three tank hydraulic system. The simulations show up and notice the results obtained, and bring out the contribution of the developed approaches
6

Jerad, Sadok. "Approches du second ordre de d'ordre élevées pour l'optimisation nonconvex avec variantes sans évaluation de la fonction objective." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Même si l'optimisation non linéaire semble (a priori) être un domaine mature, de nouveaux schémas de minimisation sont proposés ou redécouverts pour les problèmes modernes à grande échelle. A titre d'exemple et en rétrospective de la dernière décennie, nous avons vu une vague de méthodes du premier ordre avec différentes analyses, malgré le fait que les limitations théoriques bien connues de ces méthodes ont été discutées en profondeur auparavant. Cette thèse explore deux lignes principales de recherche dans le domaine de l'optimisation non-convexe avec un accent particulier sur les méthodes de second ordre et d'ordre supérieur. Dans la première série de travaux, nous nous concentrons sur les algorithmes qui ne calculent pas les valeurs des fonctions et opèrent sans connaissance d'aucun paramètre, car les méthodes du premier ordre les plus adaptées pour les problèmes modernes appartiennent à cette dernière catégorie. Nous commençons par redéfinir l'algorithme bien connu d'Adagrad dans un cadre de région de confiance et utilisons ce dernier paradigme pour étudier deux classes d'algorithmes OFFO (Objective-Free Function Optimization) déterministes du premier ordre. Pour permettre des algorithmes OFFO exacts plus rapides, nous proposons ensuite une méthode de régularisation adaptative déterministe d'ordre p qui évite le calcul des valeurs de la fonction. Cette approche permet de retrouver la vitesse de convergence bien connu du cadre standard lors de la recherche de points stationnaires, tout en utilisant beaucoup moins d'informations. Dans une deuxième série de travaux, nous analysons les algorithmes adaptatifs dans le cadre plus classique où les valeurs des fonctions sont utilisées pour adapter les paramètres. Nous étendons les méthodes de régularisation adaptatives à une classe spécifique d'espaces de Banach en développant un algorithme de descente du gradient de Hölder. En plus, nous étudions un algorithme de second ordre qui alterne entre la courbure négative et les étapes de Newton avec une vitesse de convergence quasi optimal. Pour traiter les problèmes de grande taille, nous proposons des versions sous-espace de l'algorithme qui montrent des performances numériques prometteuses. Dans l'ensemble, cette recherche couvre un large éventail de techniques d'optimisation et fournit des informations et des contributions précieuses aux algorithmes d'optimisation adaptatifs et sans paramètres pour les fonctions non convexes. Elle ouvre également la voie à des développements théoriques ultérieurs et à l'introduction d'algorithmes numériques plus rapides
Even though nonlinear optimization seems (a priori) to be a mature field, new minimization schemes are proposed or rediscovered for modern large-scale problems. As an example and in retrospect of the last decade, we have seen a surge of first-order methods with different analysis, despite the fact that well-known theoretical limitations of the previous methods have been thoroughly discussed.This thesis explores two main lines of research in the field of nonconvex optimization with a narrow focus on second and higher order methods.In the first series, we focus on algorithms that do not compute function values and operate without knowledge of any parameters, as the most popular currently used first-order methods fall into the latter category. We start by redefining the well-known Adagrad algorithm in a trust-region framework and use the latter paradigm to study two first-order deterministic OFFO (Objective-Free Function Optimization) classes. To enable faster exact OFFO algorithms, we then propose a pth-order deterministic adaptive regularization method that avoids the computation of function values. This approach recovers the well-known convergence rate of the standard framework when searching for stationary points, while using significantly less information.In the second set of papers, we analyze adaptive algorithms in the more classical framework where function values are used to adapt parameters. We extend adaptive regularization methods to a specific class of Banach spaces by developing a Hölder gradient descent algorithm. In addition, we investigate a second-order algorithm that alternates between negative curvature and Newton steps with a near-optimal convergence rate. To handle large problems, we propose subspace versions of the algorithm that show promising numerical performance.Overall, this research covers a wide range of optimization techniques and provides valuable insights and contributions to both parameter-free and adaptive optimization algorithms for nonconvex functions. It also opens the door for subsequent theoretical developments and the introduction of faster numerical algorithms
7

González-Contreras, Brian. "Contribution à la Tolérance aux Défauts des Systèmes Linéaires : Synthèse de Méthodes d'Accommodation Fondée sur l'Information du Second Ordre." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00377104.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans ce mémoire de thèse concerne la synthèse de méthodes d'accommodation fondée sur l'information du second ordre (ISO) dans le contexte de la tolérance aux défauts présents au sein des systèmes linéaires. La contribution majeure de ces travaux de recherche concerne l'exploitation de cette information dans l'analyse de la reconfigurabilité (aptitude du système à s'affranchir des défauts) et dans le développement des stratégies d'accommodation de défauts permettant de retrouver les performances nominales en fonction du comportement dynamique et garantissant une information du second ordre imposée.
Dans un premier temps, on propose des approches pour mesurer l'information du second ordre à partir des grandeurs entrée/sortie des systèmes linéaires. Dans une première approche, la réponse (données de sortie) à la condition initiale est considérée. Une alternative intéressante à cette approche, en considérant le problème comme un d'identification et basée sur la réponse impulsionnelle (paramètres de Markov), est proposée afin d'évaluer l'information du second ordre indirectement mais en-ligne en utilisant des grandeurs entrée/sortie. Un indice résultant de cette évaluation est proposé afin de contribuer à l'étude de la reconfigurabilité en ligne d'un système défaillant. Cette estimation en temps réel de l'information du second ordre est étendue aux systèmes commandés en réseau afin d'évaluer l'impact de retards sur la reconfigurabilité du système.
Dans un deuxième temps, des stratégies permettant l'accommodation de défauts du type perte d'efficacité des actionneurs sont proposées, approches considérées dans le contexte de la synthèse de l'information du second ordre par retour d'état. On aborde le cas des systèmes à une entrée, approche proposée et basée sur la méthode de la pseudo inverse modifiée. Ensuite on considère le cas multivariable, approche basée sur la méthode de la pseudo inverse. Des exemples se présentent pour illustrer l'application des approches proposées.
Les éléments développés au cours du mémoire sont illustrés à travers une application couramment étudiée dans la commande de procédés : le système hydraulique des trois cuves. Les simulations effectuées mettent en relief les résultats obtenus et l'apport des méthodes développées.
8

Rigaux, Clémence. "Méthodes de Monte Carlo du second ordre et d’inférence bayésienne pour l’évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne
The aim of this work is to set up microbiological risk and nutritional benefit assessment methods in the transformation of vegetables, in view of a risk-benefit analysis. The considered (industrial) risk is the alteration of green bean cans due to thermophilic bacteria Geobacillus stearothermophilus, and the nutritional benefit is the vitamin C content in appertized green beans. Reference parameters have first been acquired, by a meta-analysis using Bayesian inference for the risk part. Thermal resistance parameters D at 121.1°C and pH 7, zT and zpH of G.stearothermophilus have been respectively estimated at 3.3 min, 9.1°C and 4.3 pH units on average in aqueous media. The risk and benefit models have then been analyzed by a two-dimensional Monte Carlo simulation method, allowing a separated propagation of uncertainty and variability. The vitamin C losses between fresh and appertized green beans predicted by the model are of 86% on average, and the predicted non-stability at 55°C rate is of 0.5% on average, in good accordance with reality. A risk-benefit analysis has then been carried out to optimize benefit while keeping risk at an acceptable level, by exploring possible intervention scenarios based on some sensibility analysis results. Finally, a risk analysis model involving pathogenic bacteria Bacillus cereus in a courgette puree has been confronted to incubated product contamination data, by means of a Bayesian inference
9

Rigaux, Clémence, and Clémence Rigaux. "Méthodes de Monte Carlo du second ordre et d'inférence bayésienne pour l'évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-00967496.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne.
10

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes (composition, taille du génome) en lien avec leur écosystème spécifique : le sol pour les S. coelicolor et le milieu lait pour S. thermophilus
Second-order Hidden Markov Models (HMM2) are stochastic processes with a high efficiency in exploring bacterial genome sequences. Different types of HMM2 (M1M2, M2M2, M2M0) combined to combinatorial methods were developed in a new approach to discriminate genomic regions without a priori knowledge on their genetic content. This approach was applied on two bacterial models in order to validate its achievements: Streptomyces coelicolor and Streptococcus thermophilus. These bacterial species exhibit distinct genomic traits (base composition, global genome size) in relation with their ecological niche: soil for S. coelicolor and dairy products for S. thermophilus. In S. coelicolor, a first HMM2 architecture allowed the detection of short discrete DNA heterogeneities (5-16 nucleotides in size), mostly localized in intergenic regions. The application of the method on a biologically known gene set, the SigR regulon (involved in oxidative stress response), proved the efficiency in identifying bacterial promoters. S. coelicolor shows a complex regulatory network (up to 12% of the genes may be involved in gene regulation) with more than 60 sigma factors, involved in initiation of transcription. A classification method coupled to a searching algorithm (i.e. R’MES) was developed to automatically extract the box1-spacer-box2 composite DNA motifs, structure corresponding to the typical bacterial promoter -35/-10 boxes. Among the 814 DNA motifs described for the whole S. coelicolor genome, those of sigma factors (B, WhiG) could be retrieved from the crude data. We could show that this method could be generalized by applying it successfully in a preliminary attempt to the genome of Bacillus subtilis
11

Borhani, Alamdari Bijan. "Nouvelles méthodes de calcul de la charge de ruine et des déformations associées." Compiègne, 1990. http://www.theses.fr/1990COMPD254.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse limite classique consiste à trouver la charge de ruine via des outils mathématiques appelés programmation linéaire. Suite à un tel calcul, nous disposons des vitesses de déformation et des moments à la ruine. Cependant nous n'avons aucune information sur les valeurs des déformations à la ruine. Pour évaluer ces valeurs, qui lors d'une telle analyse peuvent devenir déterminantes, nous proposons une méthode directe qui fait appel à la programmation linéaire. Les algorithmes sont applicables après un calcul d'analyse limite préalable. Aussi, pour évaluer l'influence des efforts normaux sur les résultats acquis nous avons développé une méthode pas-à-pas du second ordre. Ces calculs conduisent à une diminution de la charge de ruine et une augmentation des déformations associées. Nous avons aussi développé une méthode simplifiée de calcul de la charge de ruine qui fournit directement les déformations à la ruine. Celle-ci est basée sur une nouvelle approche de calcul des structures inélastiques en adoptant un module d'écrouissage très faible. Cette méthode écarte dans sa démarche toute référence à la programmation linéaire et permet d'obtenir les applications suivantes : estimation rapide de la charge de ruine, après deux calculs élastiques; obtention immédiate des déformations à la ruine, après un calcul élastique, en connaissant l'état de la structure à la ruine (analyse limite préalable) ainsi que la dernière section critique plastifiée; obtention de la charge de ruine exacte et les déformations associées après une série d'estimations successives à l'aide de calculs élastiques. Les différents exemples traités lors de cette étude mettent en évidence l'efficacité des méthodes mises au point et leur avantage par rapport aux méthodes classiques et pas-à-pas.
12

Cots, Olivier. "Contrôle optimal géométrique : méthodes homotopiques et applications." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00742927.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contexte de ce travail est le contrôle optimal géométrique appliqué à la mécanique céleste et au contrôle quantique. On s'est tout d'abord intéressé au problème de transfert orbital de satellite autour de la Terre à consommation minimale, qui amena à la réalisation du code HamPath, permettant tout d'abord la résolution de problèmes de contrôle optimal dont la loi de commande est lisse. Il se base sur le Principe du Maximum de Pontryagin (PMP) et sur la notion de point conjugué. Ce programme combine méthodes de tir, méthodes homotopiques différentielles et calcul des conditions d'optimalité du deuxième ordre. Nous nous intéressons par la suite au contrôle quantique. On étudie tout d'abord le contrôle d'un système composé de deux types de particules de spin 1/2 ayant des temps de relaxation différents et dont la dynamique est gouvernée par les équations de Bloch. Ces deux sous-systèmes, correspondant aux deux types de particules, sont couplés par un même contrôle (un champ electromagnétique), le but étant alors d'amener la magnétisation des particules du premier type à zéro tout en maximisant celle du second (dans un système de coordonnées bien choisi). Ce modèle intervient en imagerie médicale par Résonance Magnétique Nucléaire et consiste à maximiser le contraste entre deux régions d'une même image. L'utilisation des outils géométriques et numériques aura permis de donner une très bonne synthèse sous-optimale pour deux cas particuliers (mélange sang oxygéné/désoxygéné et liquide cérébrospinal/eau). La dernière contribution de cette thèse porte sur l'étude d'un système quantique à deux niveaux d'énergie dont la dynamique est régie par les équations de Lindblad. Le modèle est basé sur la minimisation d'énergie du transfert. On se restreint à un cas particulier pour lequel le Hamiltonien donné par le PMP est Liouville intégrable. On décrit alors les lieux conjugué et de coupure pour ce problème riemannien avec dérive.
13

Vie, Jean-Léopold. "Second-order derivatives for shape optimization with a level-set method." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1072/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est de définir une méthode d'optimisation de formes qui conjugue l'utilisation de la dérivée seconde de forme et la méthode des lignes de niveaux pour la représentation d'une forme.On considèrera d'abord deux cas plus simples : un cas d'optimisation paramétrique et un cas d'optimisation discrète.Ce travail est divisé en quatre parties.La première contient le matériel nécessaire à la compréhension de l'ensemble de la thèse.Le premier chapitre rappelle des résultats généraux d'optimisation, et notamment le fait que les méthodes d'ordre deux ont une convergence quadratique sous certaines hypothèses.Le deuxième chapitre répertorie différentes modélisations pour l'optimisation de formes, et le troisième se concentre sur l'optimisation paramétrique puis l'optimisation géométrique.Les quatrième et cinquième chapitres introduisent respectivement la méthode des lignes de niveaux (level-set) et la méthode des éléments-finis.La deuxième partie commence par les chapitres 6 et 7 qui détaillent des calculs de dérivée seconde dans le cas de l'optimisation paramétrique puis géométrique.Ces chapitres précisent aussi la structure et certaines propriétés de la dérivée seconde de forme.Le huitième chapitre traite du cas de l'optimisation discrète.Dans le neuvième chapitre on introduit différentes méthodes pour un calcul approché de la dérivée seconde, puis on définit un algorithme de second ordre dans un cadre général.Cela donne la possibilité de faire quelques premières simulations numériques dans le cas de l'optimisation paramétrique (Chapitre 6) et dans le cas de l'optimisation discrète (Chapitre 7).La troisième partie est consacrée à l'optimisation géométrique.Le dixième chapitre définit une nouvelle notion de dérivée de forme qui prend en compte le fait que l'évolution des formes par la méthode des lignes de niveaux, grâce à la résolution d'une équation eikonale, se fait toujours selon la normale.Cela permet de définir aussi une méthode d'ordre deux pour l'optimisation.Le onzième chapitre détaille l'approximation d'intégrales de surface et le douzième chapitre est consacré à des exemples numériques.La dernière partie concerne l'analyse numérique d'algorithmes d'optimisation de formes par la méthode des lignes de niveaux.Le Chapitre 13 détaille la version discrète d'un algorithme d'optimisation de formes.Le Chapitre 14 analyse les schémas numériques relatifs à la méthodes des lignes de niveaux.Enfin le dernier chapitre fait l'analyse numérique complète d'un exemple d'optimisation de formes en dimension un, avec une étude des vitesses de convergence
The main purpose of this thesis is the definition of a shape optimization method which combines second-order differentiationwith the representation of a shape by a level-set function. A second-order method is first designed for simple shape optimization problems : a thickness parametrization and a discrete optimization problem. This work is divided in four parts.The first one is bibliographical and contains different necessary backgrounds for the rest of the work. Chapter 1 presents the classical results for general optimization and notably the quadratic rate of convergence of second-order methods in well-suited cases. Chapter 2 is a review of the different modelings for shape optimization while Chapter 3 details two particular modelings : the thickness parametrization and the geometric modeling. The level-set method is presented in Chapter 4 and Chapter 5 recalls the basics of the finite element method.The second part opens with Chapter 6 and Chapter 7 which detail the calculation of second-order derivatives for the thickness parametrization and the geometric shape modeling. These chapters also focus on the particular structures of the second-order derivative. Then Chapter 8 is concerned with the computation of discrete derivatives for shape optimization. Finally Chapter 9 deals with different methods for approximating a second-order derivative and the definition of a second-order algorithm in a general modeling. It is also the occasion to make a few numerical experiments for the thickness (defined in Chapter 6) and the discrete (defined in Chapter 8) modelings.Then, the third part is devoted to the geometric modeling for shape optimization. It starts with the definition of a new framework for shape differentiation in Chapter 10 and a resulting second-order method. This new framework for shape derivatives deals with normal evolutions of a shape given by an eikonal equation like in the level-set method. Chapter 11 is dedicated to the numerical computation of shape derivatives and Chapter 12 contains different numerical experiments.Finally the last part of this work is about the numerical analysis of shape optimization algorithms based on the level-set method. Chapter 13 is concerned with a complete discretization of a shape optimization algorithm. Chapter 14 then analyses the numerical schemes for the level-set method, and the numerical error they may introduce. Finally Chapter 15 details completely a one-dimensional shape optimization example, with an error analysis on the rates of convergence
14

Rouot, Jérémy. "Méthodes géométriques et numériques en contrôle optimal et applications au transfert orbital à poussée faible et à la nage à faible nombre de Reynolds." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4103/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la première partie, on propose une étude sur le problème de nage à faible nombre de Reynolds à partir d'unnageur modélisant la nage des copépodes et du nageur historique de Purcell.En minimisant l’énergie dissipée par les forces de trainée sur le fluide, laquelle est reliée au concept d’efficacitéd’une nage, on utilise les outils géométriques et numériques du contrôle optimal. Le principe du maximum estutilisé pour calculer les contrôles optimaux périodiques satisfaisant une condition de transversalité fine reliée à laminimisation de l’énergie mécanique pour un déplacement fixé où à la maximisation de l’efficacité. Ce sont desproblèmes sous-Riemanniens ce qui permet d’utiliser des techniques efficaces telles que l’approximation nilpotentepour calculer des nages de faible amplitude et qui est utilisée pour calculer des nages sur le vrai système parcontinuation. Les conditions nécessaires et suffisantes du second ordre sont calculées pour sélectionner desminimiseurs faible dans le cas d’une famille de nages périodiques.Dans la seconde partie, on s‘intéresse à la trajectoire d’un engin spatial contrôlé sous l’action d’un champ à forcecentral et où l’on considère les perturbations conservatives dues à l’effet lunaire et à l’aplatissement de la Terre àses pôles. Notre approche est basée sur des techniques moyennisation appliquées sur le système issu du principedu maximum. Nous donnons des résultats de convergence entre le système moyenné et le système non moyenné.Enfin, nous simulons les trajectoires du système non moyennée en utilisant les solutions du système moyennépour initialiser des méthodes numériques indirectes
The first part of this work is devoted to the study of the swimming at low Reynolds number where we consider a2-link swimmer to model the motion of a Copepod and the seminal model of the Purcell Three-link swimmer. Wepropose a geometric and numerical approach using optimal control theory assuming that the motion occursminimizing the energy dissipated by the drag fluid forces related with a concept of efficiency of a stroke. TheMaximum Principle is used to compute periodic controls considered as minimizing control using propertransversality conditions, in relation with periodicity, minimizing the energy dissipated for a fixed displacement ormaximizing the efficiency of a stroke. These problems fall into the framework of sub-Riemannian geometry whichprovides efficient techniques to tackle these problems : the nilpotent approximation is used to compute strokeswith small amplitudes which are continued numerically for the true system. Second order optimality, necessary orsufficient, are presented to select weak minimizers in the framework of periodic optimal controls.In the second part, we study the motion of a controlled spacecraft in a central field taking into account thegravitational interaction of the Moon and the oblateness of the Earth. Our purpose is to study the time minimalorbital transfer problem with low thrust. Due to the small control amplitude, our approach is to define anaveraged system from the Maximum Principle and study the related approximations to the non averaged system.We provide proofs of convergence and give numerical results where we use the averaged system to solve the nonaveraged system using indirect method
15

Ramirez-Cabrera, Hector. "Aspects théoriques et algorithmiques de l'optimisation semidéfinie." Phd thesis, Ecole Polytechnique X, 2005. http://pastel.archives-ouvertes.fr/pastel-00001048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est d'étudier des différents sujets de la programmation semidéfinie non linéaire(SDP). Ainsi, dans les deux premiers chapitres nous presentons certains aspects algorithmiques, dans les chapitres 3 et 4 nous travaillons sur des aspects théoriques comme l'analyse de perturbations de ce problème. Le premier chapitre développe un algorithme global qui étend l'algorithme local S-SDP. Cet algorithme est basé sur une fonction de pénalisation de Han et une stratégie de recherche linéaire. Le second chapitre est consacré à l'étude des méthodes de pénalisation ou fonctions barrière pour résoudre des problèmes semidéfinis convexes. Nous démontrons la convergence des suites primale et duale obtenues par cette méthode. De plus, nous étudions l'algorithme à deux paramètres en étendant les résultats connus dans le cadre restreint de la programmation convexe usuelle. Dans une deuxième partie, constituée des chapitres 3 et 4, nous nous intéressons à la caractérisation de la propriété des solutions fortement régulières en fonction des certaines conditions optimales de deuxième ordre. Ainsi, dans le troisième chapitre nous nous consacrons au problème de second-ordre, lequel est un cas particulier du problème SDP, dont on obtient cette caractérisation. Enfin dans la chapitre 4, nous donnons des conditions nécessaires et suffisantes pour la condition de régularité forte dans le cas SDP, en revanche, sa caractérisation reste un problème ouvert.
16

Yurenko, Yevgen. "Etude des propriétés énergétiques, conformationnelles et vibrationnelles des déoxyribonucléosides canoniques et modifiés à l'aide des méthodes de la chimie quantique ab initio." Paris 6, 2007. http://www.theses.fr/2007PA066526.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail a été de présenter une analyse complète des propriétés structurales et vibrationnelles de quelques nucléosides (canonique, mineur et modifié) à l’aide des calculs quantiques ab initio effectués par les méthodes DFT et MP2. Les résultats obtenus fournissent un panel large de conformères dans une fourchette étroite de 7 à 10 kcal/mol. Un peu moins de cent conformères déoxynucléotidiques sont stabilisés par une centaine de liaisons hydrogène intramoléculaires de divers types allant des plus fortes (OH…O) aux plus faibles incluant des groupements CH. Nous avons montré qu’à 298. 15 K les nucléosides étudiés possèdent tous un minimum global quasi-dégénéré (estimation faite sur la base de l’énergie libre de Gibbs), correspondant en fait à deux conformères. L’équilibre conformationnel est décalé vers les bases orientées syn et les conformations Sud (S) du sucre dominent par rapport celles du type Nord (N). L’ensemble des paramètres conformationnels a été estimé et la corrélation entre eux a été établie. Les propriétés géométriques, vibrationnelles, topologiques et énergétiques des liaisons H intramoléculaires dans les conformères calculés, ont été déterminées. La reconstitution des spectres IR des conformères de 2´-déoxythymidine et de 2´-déoxyuridine dans la région d’élongation de liaisons O-H, sont en accord avec les spectres observés à basse température en matrice de gaze rare. Parmi les nucléosides obtenus théoriquement, seuls trois ressemblent géométriquement à ceux d’une chaîne d’ADN, en particulier en forme BI, A et BII. Par contre, la 2´-déoxy-6-azacytidine (nucleoside modifié, analogue de la 2´-déoxycytidine) ne peut se présenter que dans un conformère de type A. En examinant les données théoriques obtenues quelques conclusions peuvent être proposées au niveau biologique. En particulier, l’effet biologique du nucléoside modifié pourrait correspondre à l’inhibition de l’action de l’ADN polymérase par une orientation inusuelle de la base dans le conformère de type A. D’autre part, la similarité entre les caractéristiques des conformères de type ADN de la 2´-déoxythymidine et de la 2’-déoxyuridine (ceux ayant des bases en syn et anti ainsi que ceux correspondant à des états de transition entre ces deux orientations), permet de penser que l’enzyme uracile glycosylase distingue entre les deux nucléosides plutôt grâce à leur forme (existence du groupement méthyle en position 5 de la base) que par l’influence électronique de ce groupement.
17

Gorsse, Yannick. "Approximation numérique sur maillage cartésien de lois de conservation : écoulements compressibles et élasticité non linéaire." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00796722.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la simulation numérique d'écoulements compressibles comportant des interfaces. Ces interfaces peuvent séparer un fluide et un solide rigide, deux fluides de lois d'état différentes ou encore un fluide et un solide élastique. Dans un premier temps, nous avons élaboré une méthode de type frontières immergées afin d'imposer une condition de glissement au bord d'un obstacle rigide de manière précise. Nous avons ensuite étudié et validé un schéma de type interface non diffuse pour les écoulements multi-matériaux en vue d'appliquer la méthode de frontières immergées aux solides déformables.
18

Wangermez, Maxence. "Méthode de couplage surfacique pour modèles non-compatibles de matériaux hétérogènes : approche micro-macro et implémentation non-intrusive." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des objectifs prioritaires des industries aéronautiques est la réduction de la masse des structures, tout en permettant l'amélioration de leurs performances. Ceci passe notamment par l'utilisation de matériaux composites et le recours croissant à la simulation numérique, permettant la minimisation du nombre d'essais physiques et l'optimisation des structures.L'enjeu de ces travaux est de pouvoir calculer précisément, sur des matériaux architecturés, l'influence de la microstructure, modélisée par exemple directement par tomographie, sur la tenue de pièces complètes. Pour prendre en compte à la fois l'ensemble de la pièce et les effets de son chargement, une approche global/local multiéchelle semble adaptée tant du point de vue des méthodes de calcul que des modèles matériaux utilisés.Pour répondre à cette problématique, une méthode de couplage entre des modèles qui décrivent une même structure, mais à des échelles différentes, a été développée. Elle repose sur une séparation micro-macro des quantités d’interface, dans la zone de raccord surfacique entre les deux modèles. Pour faciliter son utilisation dans les bureaux d’étude, une technique de résolution itérative non-intrusive est également présentée. Elle permet de mettre en œuvre la méthode de couplage proposée dans un environnement logiciel industriel qui utilise bien souvent des codes éléments finis commerciaux fermés. La méthode est systématiquement comparée à d'autres méthodes de couplage de la littérature et la qualité des solutions est quantifiée par comparaison à une solution de référence obtenue par un calcul direct à l'échelle fine.Les principaux résultats sont encourageants dans la mesure où ils montrent, dans des cas d'étude représentatifs bidimensionnels et tridimensionnels, sous des hypothèses d’élasticité linéaire, des solutions cohérentes avec les théories de l’homogénéisation au premier et second ordre. De fait, les solutions obtenues sont systématiquement de meilleure qualité avec la méthode proposée qu'avec les méthodes de la littérature, non-adaptées à des cas de couplage pour modèles non-compatibles.Finalement, les perspectives sont multiples en raison des différentes alternatives de la méthode qui, dans un contexte industriel, pourrait offrir un véritable outil d'analyse visant à introduire un modèle local décrit à l'échelle fine dans un modèle global macroscopique homogénéisé
One of the priority objectives of the aeronautics industry is to reduce the mass of structures while improving their performances. This involves the use of composite materials and the increasing use of digital simulation to optimize structures.The major challenge of this project is to be able to accurately calculate the local variations of the microstructure - for instance detected by tomography and directly modelled from tomogram - on the behavior of an architectured material part. In order to take into account the whole structure and its load effects, a multi-scale approach seems to be a natural choice. Indeed, the related models to the part and its microstructure might use different formalisms according to each scale.In this context, a coupling formulation was proposed in order to replace, in a non-intrusive way, a part of a homogenized macroscopic finite-element model by a local one described at a microscopic level. It is based on a micro-macro separation of interface quantities in the coupling area between the two models. To simplify its use in design offices, a non-intrusive iterative resolution procedure has also been proposed. It allows the implementation of the proposed coupling method in an industrial software environment that often uses closed commercial finite element codes. Different mechanical problems under linear elasticity assumption are proposed. The proposed method is systematically compared with other coupling methods of the literature and the quality of the solutions is quantified compared to a reference one obtained by direct numerical simulation at a fine scale.The main results are promising as they show, for representatives test cases under linear elasticity assumption in two and three-dimensions, solutions that are consistent with first- and second-order homogenization theories. The solutions obtained with the proposed method are systematically the best approximations of the reference solution whereas the methods of the literature are less accurate and shown to be unsuitable to couple non-compatible models.Finally, there are many perspectives due to the different alternatives of the method which could become, in an industrial context, a real analytic tool that aims to introduce a local model described at a fine scale, into a homogenized macroscopic global one
19

Cheaytou, Rima. "Etude des méthodes de pénalité-projection vectorielle pour les équations de Navier-Stokes avec conditions aux limites ouvertes." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4715.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse consiste à étudier la méthode de pénalité-projection vectorielle notée VPP (Vector Penalty-Projection method), qui est une méthode à pas fractionnaire pour la résolution des équations de Navier-Stokes incompressible avec conditions aux limites ouvertes. Nous présentons une revue bibliographique des méthodes de projection traitant le couplage de vitesse et de pression. Nous nous intéressons dans un premier temps aux conditions de Dirichlet sur toute la frontière. Les tests numériques montrent une convergence d'ordre deux en temps pour la vitesse et la pression et prouvent que la méthode est rapide et peu coûteuse en terme de nombre d'itérations par pas de temps. En outre, nous établissons des estimations d'erreurs de la vitesse et de la pression et les essais numériques révèlent une parfaite concordance avec les résultats théoriques. En revanche, la contrainte d'incompressibilité n'est pas exactement nulle et converge avec un ordre de O(varepsilondelta t) où varepsilon est un paramètre de pénalité choisi assez petit et delta t le pas temps. Dans un second temps, la thèse traite les conditions aux limites ouvertes naturelles. Trois types de conditions de sortie sont étudiés et testés numériquement pour l'étape de projection. Nous effectuons des comparaisons quantitatives des résultats avec d'autres méthodes de projection. Les essais numériques sont en concordance avec les estimations théoriques également établies. Le dernier chapitre est consacré à l'étude numérique du schéma VPP en présence d'une condition aux limites ouvertes non-linéaire sur une frontière artificielle modélisant une charge singulière pour le problème de Navier-Stokes
Motivated by solving the incompressible Navier-Stokes equations with open boundary conditions, this thesis studies the Vector Penalty-Projection method denoted VPP, which is a splitting method in time. We first present a literature review of the projection methods addressing the issue of the velocity-pressure coupling in the incompressible Navier-Stokes system. First, we focus on the case of Dirichlet conditions on the entire boundary. The numerical tests show a second-order convergence in time for both the velocity and the pressure. They also show that the VPP method is fast and cheap in terms of number of iterations at each time step. In addition, we established for the Stokes problem optimal error estimates for the velocity and pressure and the numerical experiments are in perfect agreement with the theoretical results. However, the incompressibility constraint is not exactly equal to zero and it scales as O(varepsilondelta t) where $varepsilon$ is a penalty parameter chosen small enough and delta t is the time step. Moreover, we deal with the natural outflow boundary condition. Three types of outflow boundary conditions are presented and numerically tested for the projection step. We perform quantitative comparisons of the results with those obtained by other methods in the literature. Besides, a theoretical study of the VPP method with outflow boundary conditions is stated and the numerical tests prove to be in good agreement with the theoretical results. In the last chapter, we focus on the numerical study of the VPP scheme with a nonlinear open artificial boundary condition modelling a singular load for the unsteady incompressible Navier-Stokes problem
20

Seeger, Alberto. "Analyse du second ordre de problèmes non différentiables." Toulouse 3, 1986. http://www.theses.fr/1986TOU30118.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de ce travail est de faire une analyse du second ordre des fonctions non différentiables. Dans une première partie, on donne des conditions suffisantes qui permettent d'assurer l'existence et de donner des estimations de la dérivée directionnelle du second ordre, au sens de ben-tal et zowe, d'une fonction marginale générale. Cela nous amène à introduire et à étudier une notion analogue de dérivation du second ordre pour une multiplication. Dans une deuxième partie, on considère l'importance classe des fonctions convexes non nécessairement différentiables définies sur un espace vectoriel topologique localement convexe quelconque. On introduit deux nouveaux ensembles convexes qui jouent le rôle d'un sous-différentiel du second ordre d'une telle fonction, le premier d'entre eux dépendant du choix particulier d'un sous-gradient. On étudie d'une façon exhaustive les propriétés générales de tels ensembles et, ensuite, on énonce des règles de calcul qui en donnent des estimations lorsque la fonction convexe est construite à partir d'autres plus simples. La plupart des opérations qui préservent la convexité ont été considérées. Finalement, on montre comment les notions de sous-differentiabilité du second ordre nous permettent de généraliser, du moins sous forme conceptuelle, les algorithmes de minimisation du type newton au cadre de l'optimisation convexe non différentiable
21

Pham, Anh Tu. "Détermination numérique des propriétés de résistance de roches argileuses." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1237/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les capacités de résistance de l'argilite Callovo-Oxfordian (COx), qui est une roche hôte potentielle pour le dépôt souterrain profond de déchets radioactifs de haute activité en France, sont étudiées. À une échelle microscopique, des micros pores peuvent être observés dans la matrice. Une première étape d'homogénéisation a été réalisée afin d'évaluer le critère de résistance de la matrice. L'analyse microstructurale de ce matériau à quelques centaines d'échelle, référencée échelle échelle mésoscopique, montre une matrice argileuse et une distribution aléatoire d'inclusions minérales (quartz et calcite).Dans le but de déterminer le domaine de résistance à l'argilite COx, un premier outil numérique a été développé dans le contexte du comportement élastoplastique de la matrice. Plusieurs modèles morphologiques du volume élémentaire représentatif ont été considérés, et soumis à un chargement incrémental dans des conditions périodiques jusqu'à la charge limite. A la suite de ce calcul élastoplastique, un point de la frontière du domaine de résistance est obtenu. Ce dernier est alors obtenu par des calculs élastoplastiques successifs.Une alternative aux simulations élastoplastique directes, des approches cinématiques et statiques du calcul à la rupture sont réalisées. Une méthode du type éléments finis basée sur la construction d'un champ de contrainte (dans l'approche statique) et d'un champ de vitesse (dans l'approche cinématique) est développé dans un outil numérique permettant de calculer une limite inférieure et une limite supérieure de domaine de résistance
The strength capacities of Callovo-Oxfordian (COx) argillite which is a potential host rock for the deep underground repository of high-level radioactive waste in France are investigated. At a micro-scale, micro-pores can be observed in the matrix. A first strength homogenization step has been performed in order to evaluate the matrix strength criteria. The microstructure analysis of this material at some hundreds of micromet scale, referred at meso-scale, shows a clay matrix and a random distribution of mineral inclusions (quartz and calcite).Aiming to the determination of COx argillite strength domain, an FEM numerical tool has been developed in the context of the elastoplastic behavior of the matrix. Several morphological patterns of the representative elementary volume have been considered and subjected to an incremental loading in periodic conditions until collapse occurs. As a result of such elastoplastic calculation, one point of the boundary of the strength domain is obtained. The latter then could be reached by successive elastoplastic calculations.As an alternative to direct elastoplastic simulations, kinematic and static approaches of limit analysis are performed. The stress-based (static approach) and the velocity-based (kinematic approach) finite element method are used to develop a numerical tool able to derive a lower bound and upper bound of strength domain, respectively
22

Abdallah, Fahed. "Noyaux reproduisants et critères de contraste pour l'élaboration de détecteurs à structure imposée." Troyes, 2004. http://www.theses.fr/2004TROY0002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux réalisés pendant cette thèse sont relatifs à la synthèse de détecteurs à partir d'une base d'exemples étiquetés. La théorie développée fait appel aux espaces de Hilbert à noyaux reproduisants pour l'élaboration de détecteurs linéaires généralisés dans des espaces transformés de dimension importante, voire infinie, sans qu'aucun calcul n'y soit effectué explicitement. Elle repose sur l'optimisation du meilleur critère de contraste pour le problème traité, après s'être assuré que de telles mesures de performance permettant l'obtention sous des conditions restrictives assez faibles, à une statistique équivalente au rapport de vraisemblance. Pour une meilleure prise en compte de phénomènes tels que la malédiction de la dimensionnalité, l'approche proposée s'appuie sur la théorie de l'apprentissage. Celle-ci lui permet d'offrir des garanties de performances en généralisation. On propose ainsi des méthodes qui permettent le contrôle de complexité des détecteurs obtenus. Les résultats obtenus sur des données synthétiques et réelles montrent que notre approche est en mesure de rivaliser avec les structures de décision les plus étudiées actuellement que sont les Support Vector Machines
In this thesis, we consider statistical learning machines with try to infer rules from a given set or observations in order to make correct predictions on unseen examples. Building upon the theory of reproducing kernels, we develop a generalized linear detector in transformed spaces of high dimension, without explicitly doing any calculus in these spaces. The method is based on the optimization of the best second-order criterion with respect to the problem to solve. In fact, theoretical results show that second-order criteria are able, under some mild conditions, to guarantee the best solution in the sense of classical detection theories. Achieving a good generalisation performance with a receiver requires matching its complexity to the amount of available training data. This problem, known as the curse of dimensionality, has been studied theoretically by Vapnik and Chervonenkis. In this dissertation, we propose complexity control procedures in order to improve the performance of these receivers when few training data are available. Simulation results on real and synthetic data show clearly the competitiveness of our approach compared with other state of the art existing kernel methods like Support Vector Machines
23

Duvallet, Jeanne. "Etude de systèmes différentiels du second ordre avec conditions aux deux bornes et résolution par la méthode homotopique simpliciale." Pau, 1986. http://www.theses.fr/1986PAUU3018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude des méthodes homotopiques et résultats nécessaires à la justification théorique de l'algorithme simplicial. Application de la méthode homotopique simpliciale aux systèmes différentiels pour les problèmes à deux points limites. Généralisations. Théorèmes d'existence et d'unicité bases sur la régularite des solutions. Application numérique (calcul de la trajectoire d'une fusée avec largage de coiffe à altitude donnée).
24

Cheng, Jianqiang. "Stochastic Combinatorial Optimization." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112261.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions trois types de problèmes stochastiques : les problèmes avec contraintes probabilistes, les problèmes distributionnellement robustes et les problèmes avec recours. Les difficultés des problèmes stochastiques sont essentiellement liées aux problèmes de convexité du domaine des solutions, et du calcul de l’espérance mathématique ou des probabilités qui nécessitent le calcul complexe d’intégrales multiples. A cause de ces difficultés majeures, nous avons résolu les problèmes étudiées à l’aide d’approximations efficaces.Nous avons étudié deux types de problèmes stochastiques avec des contraintes en probabilités, i.e., les problèmes linéaires avec contraintes en probabilité jointes (LLPC) et les problèmes de maximisation de probabilités (MPP). Dans les deux cas, nous avons supposé que les variables aléatoires sont normalement distribués et les vecteurs lignes des matrices aléatoires sont indépendants. Nous avons résolu LLPC, qui est un problème généralement non convexe, à l’aide de deux approximations basée sur les problèmes coniques de second ordre (SOCP). Sous certaines hypothèses faibles, les solutions optimales des deux SOCP sont respectivement les bornes inférieures et supérieures du problème du départ. En ce qui concerne MPP, nous avons étudié une variante du problème du plus court chemin stochastique contraint (SRCSP) qui consiste à maximiser la probabilité de la contrainte de ressources. Pour résoudre ce problème, nous avons proposé un algorithme de Branch and Bound pour calculer la solution optimale. Comme la relaxation linéaire n’est pas convexe, nous avons proposé une approximation convexe efficace. Nous avons par la suite testé nos algorithmes pour tous les problèmes étudiés sur des instances aléatoires. Pour LLPC, notre approche est plus performante que celles de Bonferroni et de Jaganathan. Pour MPP, nos résultats numériques montrent que notre approche est là encore plus performante que l’approximation des contraintes probabilistes individuellement.La deuxième famille de problèmes étudiés est celle relative aux problèmes distributionnellement robustes où une partie seulement de l’information sur les variables aléatoires est connue à savoir les deux premiers moments. Nous avons montré que le problème de sac à dos stochastique (SKP) est un problème semi-défini positif (SDP) après relaxation SDP des contraintes binaires. Bien que ce résultat ne puisse être étendu au cas du problème multi-sac-à-dos (MKP), nous avons proposé deux approximations qui permettent d’obtenir des bornes de bonne qualité pour la plupart des instances testées. Nos résultats numériques montrent que nos approximations sont là encore plus performantes que celles basées sur les inégalités de Bonferroni et celles plus récentes de Zymler. Ces résultats ont aussi montré la robustesse des solutions obtenues face aux fluctuations des distributions de probabilités. Nous avons aussi étudié une variante du problème du plus court chemin stochastique. Nous avons prouvé que ce problème peut se ramener au problème de plus court chemin déterministe sous certaine hypothèses. Pour résoudre ce problème, nous avons proposé une méthode de B&B où les bornes inférieures sont calculées à l’aide de la méthode du gradient projeté stochastique. Des résultats numériques ont montré l’efficacité de notre approche. Enfin, l’ensemble des méthodes que nous avons proposées dans cette thèse peuvent s’appliquer à une large famille de problèmes d’optimisation stochastique avec variables entières
In this thesis, we studied three types of stochastic problems: chance constrained problems, distributionally robust problems as well as the simple recourse problems. For the stochastic programming problems, there are two main difficulties. One is that feasible sets of stochastic problems is not convex in general. The other main challenge arises from the need to calculate conditional expectation or probability both of which are involving multi-dimensional integrations. Due to the two major difficulties, for all three studied problems, we solved them with approximation approaches.We first study two types of chance constrained problems: linear program with joint chance constraints problem (LPPC) as well as maximum probability problem (MPP). For both problems, we assume that the random matrix is normally distributed and its vector rows are independent. We first dealt with LPPC which is generally not convex. We approximate it with two second-order cone programming (SOCP) problems. Furthermore under mild conditions, the optimal values of the two SOCP problems are a lower and upper bounds of the original problem respectively. For the second problem, we studied a variant of stochastic resource constrained shortest path problem (called SRCSP for short), which is to maximize probability of resource constraints. To solve the problem, we proposed to use a branch-and-bound framework to come up with the optimal solution. As its corresponding linear relaxation is generally not convex, we give a convex approximation. Finally, numerical tests on the random instances were conducted for both problems. With respect to LPPC, the numerical results showed that the approach we proposed outperforms Bonferroni and Jagannathan approximations. While for the MPP, the numerical results on generated instances substantiated that the convex approximation outperforms the individual approximation method.Then we study a distributionally robust stochastic quadratic knapsack problems, where we only know part of information about the random variables, such as its first and second moments. We proved that the single knapsack problem (SKP) is a semedefinite problem (SDP) after applying the SDP relaxation scheme to the binary constraints. Despite the fact that it is not the case for the multidimensional knapsack problem (MKP), two good approximations of the relaxed version of the problem are provided which obtain upper and lower bounds that appear numerically close to each other for a range of problem instances. Our numerical experiments also indicated that our proposed lower bounding approximation outperforms the approximations that are based on Bonferroni's inequality and the work by Zymler et al.. Besides, an extensive set of experiments were conducted to illustrate how the conservativeness of the robust solutions does pay off in terms of ensuring the chance constraint is satisfied (or nearly satisfied) under a wide range of distribution fluctuations. Moreover, our approach can be applied to a large number of stochastic optimization problems with binary variables.Finally, a stochastic version of the shortest path problem is studied. We proved that in some cases the stochastic shortest path problem can be greatly simplified by reformulating it as the classic shortest path problem, which can be solved in polynomial time. To solve the general problem, we proposed to use a branch-and-bound framework to search the set of feasible paths. Lower bounds are obtained by solving the corresponding linear relaxation which in turn is done using a Stochastic Projected Gradient algorithm involving an active set method. Meanwhile, numerical examples were conducted to illustrate the effectiveness of the obtained algorithm. Concerning the resolution of the continuous relaxation, our Stochastic Projected Gradient algorithm clearly outperforms Matlab optimization toolbox on large graphs
25

Hermann, Odile. "Mécanisation de la recherche de preuves et de programmes en arithmétique fonctionnelle du second ordre." Nancy 1, 1995. http://www.theses.fr/1995NAN10054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour propos la synthèse de programmes à partir de preuves constructives dans un cadre logique spécifique: l'arithmétique fonctionnelle du second ordre. Une première étape consiste à proposer une transcription du système de règles initial exprime en déduction naturelle, en un système de séquents plus adapte au traitement automatique du développement de preuves. Pour mécaniser la recherche de preuves, nous définissons un ensemble de tactiques que nous prouvons correctes vis-à-vis du cadre logique de référence de façon à garantir l'adéquation du système de preuves obtenu. Parmi ces tactiques, nous nous concentrons sur les plans de preuve, tactiques particulières capables de développer complètement une preuve ou une classe de preuves. La partie centrale de notre travail consiste en une étude des mécanismes d'induction dont la mise en œuvre est nécessaire pour l'obtention de programmes définis récursivement. Nous montrons des liens entre forme d'induction, spécification du programme, définition des types de données, et réussite de la construction de la preuve. Pour tirer profit de cette étude, nous proposons une procédure de choix d'induction et un plan de preuve générique qui permet d'obtenir des programmes aussi variés que la fonction d'Ackermann, la fonction Fibonacci ou le tri d'une liste par arbre binaire. Ces travaux ont fait l'objet de l'implantation d'un système baptise SKIL (Synthesizing Knowledge in Intuitionistic Logic)
26

Zhou, Chao. "Model Uncertainty in Finance and Second Order Backward Stochastic Differential Equations." Palaiseau, Ecole polytechnique, 2012. https://pastel.hal.science/docs/00/77/14/37/PDF/Thesis_ZHOU_Chao_Pastel.pdfcc.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif principal de cette thèse est d'étudier quelques problèmes de mathématiques financières dans un marché incomplet avec incertitude sur les modèles. Récemment, la théorie des équations différentielles stochastiques rétrogrades du second ordre (2EDSRs) a été développée par Soner, Touzi et Zhang sur ce sujet. Dans cette thèse, nous adoptons leur point de vue. Cette thèse contient quatre parties dans le domain des 2EDSRs. Nous commençons par généraliser la théorie des 2EDSRs initialement introduite dans le cas de générateurs lipschitziens continus à celui de générateurs à croissance quadratique. Cette nouvelle classe des 2EDSRs nous permettra ensuite d'étudier le problème de maximisation d'utilité robuste dans les modèles non-dominés. Dans la deuxième partie, nous étudions ce problème pour trois fonctions d'utilité. Dans chaque cas, nous donnons une caractérisation de la fonction valeur et d'une stratégie d'investissement optimale via la solution d'une 2EDSR. Dans la troisième partie, nous fournissons également une théorie d'existence et unicité pour des EDSRs réfléchies du second ordre avec obstacles inférieurs et générateurs lipschitziens, nous appliquons ensuite ce résultat à l'étude du problème de valorisation des options américaines dans un modèle financier à volatilité incertaine. Dans la quatrième partie, nous étudions des 2EDSRs avec sauts. En particulier, nous prouvons l'existence d'une unique solution dans un espace approprié. Comme application de ces résultats, nous étudions un problème de maximisation d'utilité exponentielle robuste avec incertitude sur les modèles. L'incertitude affecte à la fois le processus de volatilité, mais également la mesure des sauts
The main objective of this PhD thesis is to study some financial mathematics problems in an incomplete market with model uncertainty. In recent years, the theory of second order backward stochastic differential equations (2BSDEs for short) has been developed by Soner, Touzi and Zhang on this topic. In this thesis, we adopt their point of view. This thesis contains of four key parts related to 2BSDEs. In the first part, we generalize the 2BSDEs theory initially introduced in the case of Lipschitz continuous generators to quadratic growth generators. This new class of 2BSDEs will then allow us to consider the robust utility maximization problem in non-dominated models. In the second part, we study this problem for exponential utility, power utility and logarithmic utility. In each case, we give a characterization of the value function and an optimal investment strategy via the solution to a 2BSDE. In the third part, we provide an existence and uniqueness result for second order reflected BSDEs with lower obstacles and Lipschitz generators, and then we apply this result to study the problem of American contingent claims pricing with uncertain volatility. In the fourth part, we define a notion of 2BSDEs with jumps, for which we prove the existence and uniqueness of solutions in appropriate spaces. We can interpret these equations as standard BSDEs with jumps, under both volatility and jump measure uncertainty. As an application of these results, we shall study a robust exponential utility maximization problem under model uncertainty, where the uncertainty affects both the volatility process and the jump measure
27

Nezamabadi, Saeid. "Méthode asymptotique numérique pour l'étude multi échelle des instabilités dans les matériaux hétérogènes." Thesis, Metz, 2009. http://www.theses.fr/2009METZ046S/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation multi-échelle des matériaux hétérogènes est un challenge en mécanique numérique. Dans le contexte non linéaire, les propriétés effectives des matériaux hétérogènes ne peuvent pas être obtenues par les techniques utilisées pour les milieux linéaires car le principe de superposition n'est plus valable. Ainsi, dans le contexte des éléments finis, une alternative au maillage de l'ensemble de la structure avec la prise en compte de toutes les hétérogénéités, est l'utilisation de la méthode d'éléments finis multi-échelles (EF2). Les techniques de ce type offrent de nombreux avantages, tels que la prise en compte : des grandes déformations au niveau micro et macro sont souvent résolus par les procédures classiques de Newton-Raphson, qui sont généralement adaptées à la résolution des problèmes non linéaires mais qui présentent des difficultés en présence d'instabilités. Dans cette thèse, la combinaison de la méthode des éléments finis multi-échelles (EF2) et la méthode asymptotique numérique (MAN), surnommée MAN multi-échelle, permet de mettre en œuvre une technique numérique efficace pour traiter les problèmes d'instabilités dans le cadre des matériaux hétérogènes. Ces instabilités peuvent survenir à la fois au niveau micro et au niveau macro. Différentes classes de comportement des matériaux ont été implantées dans notre procédure. Pour améliorer le conditionnement du problème multi-échelle à résoudre, une technique d'homogénéisation du second ordre a été également adaptée dans le cadre de la technique MAN multi-échelle. Par ailleurs, afin de réduire le temps de calcul, quelques techniques ont été proposées dans ce travail
The multiscale modelling of the heterogeneous materials is a challenge in computational mechanics. In the nonlinear case, the effective properties of heterogeneous materials cannot be obtained by the techniques used for linear media because the superposition principle is no longer valid. Hence, in the context of the finite element method, an alternative to mesh the whole structure, including all heterogeneities, is the use of the multiscale finite element method (FE2). These techniques have many advantages, such as taking into account : large deformations at the micro and macro scales, the nonlinear constitutive behaviors of the material, and microstructure evolution. The nonlinear problems in micro and macro scales are often solved by the classical Newton-Raphson procedures, which are generally suitable for solving nonlinear problems but have difficulties in the presence of instabilities. In this thesis, the combination of the multiscale finite element method (FE2) and the asymptotic numerical method (ANM), called Multiscale-ANM, allows one to obtain a numerical effective technique for dealing with the instability problems in the context of heterogeneous materials. These instabilities can occur at both micro and macro levels. Different classes of material constitutive relation have been implemented within our procedure. To improve the multiscale problem conditioning, a second order homogenization technique was also adapted in the framework of Multiscale-ANM technique. Furthermore, to reduce the computational time, some techniques been proposed in this work
28

Rharif, Nour-Eddine. "Fermetures au second ordre de la turbulence : Modèle réalisable anisotherme appliqué à un jet impactant une paroi, et mise en oeuvre en éléments finis." Ecully, Ecole centrale de Lyon, 1995. http://www.theses.fr/1995ECDL0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans une première partie, un modèle de fermeture au second ordre de turbulence réalisable dit cubique (Craft et Launder 1991) a été implanté dans un code de calcul basé sur la méthode des volumes finis. L'approche numérique, adoptée par ce code, utilise des maillages structurés non-orthogonaux, une discrétisation sur maillage semi-décalé et un schéma en temps à pas de temps fractionnaires. La simulation par ce modèle d'un jet anisotherme impactant perpendiculairement une paroi a été réalisée. Les résultats obtenus par ce modèle et ceux obtenus par le modèle aux tensions de Reynolds de Gibson et Launder (1978) ont été comparés aux mesures montrant ainsi l'amélioration apportée par le modèle cubique. La deuxième partie a été consacrée à la faisabilité des modèles aux tensions de Reynolds en éléments finis. Le modèle de Gibson et Launder a été mis en oeuvre dans un code industriel basé sur la méthode des éléments finis. L'approche numérique, adoptée par ce code, est basée sur un schéma en temps à pas de temps fractionnaires où l'étape de diffusion et termes sources est traitée par une méthode semi-implicite assurant un couplage entre toutes les variables. Les conditions aux limites sont prises en compte par une méthode de projection. Une application de ce travail a été la simulation d'un écoulement dans un faisceau de tubes en quinconce. L'expérience de Simonin et Barcouda (1988) réalisée au Laboratoire National d'Hydraulique a servi de référence pour nos comparaisons sur cet écoulement, les résultats obtenus par le modèle k-epsilon standard sont comparés à ceux obtenus par le modèle de fermeture au second ordre de Gibson-Launder. Les limites des modèles de fermetures sont mis en évidence. Une simulation de cet écoulement a été réalisée par le modèle cubique en volumes finis et a permis une comparaison des résultats avec ceux obtenus par le modèle de Gibson (préconditionnement), ont permis un gain substantiel en temps calcul
In a first part, a second moment closure model of turbulence called "Cubic" (Craft & Launder 1991) has been implemented in a finite volume code. The numerical approach is based on fractional steps method with a structured non-orthogonal and semi-staggered grid. The cubic model has been applied to a round and heated jet impinging normally on a flat plate. Comprisons, of results obtained by both cubic and standard Reynolds stress model of Gibson & Launder (1978), have been made with experimental data. The results are improved by the cubic model compared to the Gibson & Launder model predictions. The second part deals withe the introduction and the feasibility of second moment closure trubulence model (Reynolds Stress Model) in a industrial finite element code. The Gibson & Launder model has been implemented in this code. The numerical approach is based on a time discretization using fractional steps method. Diffusion step is solved by a classical Galerkin finite element method and semi-implicit method coupling all the variables. The Gibson & Launder model, in the finite element code, has been applied to a flow in sub-channel of staggered tube bundle. Comparisons, of results obtained by both Reynolds stress model and k-epsilon model, have been made with experimental data investigated by Simonin and Barcouda (1988) at L. N. H. Weaknesses of closure models are pointed out. Numerical tests (preconditioning of the algorithm) have allowed a substantial reduction of CPU time
29

ElNady, Khaled. "Modèles de comportement non linéaire des matériaux architecturés par des méthodes d'homogénéisation discrètes en grandes déformations. Application à des biomembranes et des textiles." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0032/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur le développement de modèles micromécaniques pour le calcul de la réponse homogénéisée de matériaux architecturés, en particulier des matériaux se présentant sous forme de treillis répétitifs. Les matériaux architecturés et micro-architecturés couvrent un domaine très large de de propriétés mécaniques, selon la connectivité nodale, la disposition géométrique des éléments structuraux, leurs propriétés mécaniques, et l'existence d'une possible hiérarchie structurale. L'objectif principal de la thèse est la prise en compte des nonlinéarités géométriques résultant des évolutions importantes de la géométrie initiale du treillis, causée par une rigidité de flexion des éléments structuraux faible en regard de leur rigidité en extension. La méthode dite d'homogénéisation discrète est développée pour prendre en compte les non linéarités géométriques pour des treillis quais périodiques; des schémas incrémentaux sont construits qui reposent sur la résolution incrémentale et séquentielle des problèmes de localisation - homogénéisation posés sur une cellule de base identifiée, soumise à un chargement contrôlé en déformation. Le milieu continu effectif obtenu est en général un milieu micropolaire anisotrope, dont les propriétés effectives reflètent la disposition des éléments structuraux et leurs propriétés mécaniques. La réponse non affine des treillis conduit à des effets de taille qui sont pris en compte soit par un enrichissement de la cinématique par des variables de microrotation ou par la prise en compte des seconds gradients du déplacement. La construction de milieux effectifs du second gradient est faite dans un formalisme de petites perturbations. Il est montré que ces deux types de milieu effectif sont complémentaires en raison de l'analogie existant lors de la construction théorique des réponses homogénéisées, et par le fait qu'ils fournissent des longueurs internes en extension, flexion et torsion. Des applications à des structures tissées et des membranes biologiques décrites comme des réseaux de filaments quais-périodiques ont été faites. Les réponses homogénéisées obtenues sont validées par des comparaisons avec des simulations par éléments finis réalisées sur un volume élémentaire représentatif de la structure. Les schémas d'homogénéisation ont été implémentés dans un code de calcul dédié, alimenté par un fichier de données d'entrée de la géométrie du treillis et de ses propriétés mécaniques. Les modèles micromécaniques développés laissent envisager du fait de leur caractère prédictif la conception de nouveaux matériaux architecturés permettant d'élargir les frontières de l'espace 'matériaux-propriétés'
The present thesis deals with the development of micromechanical schemes for the computation of the homogenized response of architectured materials, focusing on periodical lattice materials. Architectured and micro-architectured materials cover a wide range of mechanical properties according to the nodal connectivity, geometrical arrangement of the structural elements, their moduli, and a possible structural hierarchy. The principal objective of the thesis is the consideration of geometrical nonlinearities accounting for the large changes of the initial lattice geometry, due to the small bending stiffness of the structural elements, in comparison to their tensile rigidity. The so-called discrete homogenization method is extended to the geometrically nonlinear setting for periodical lattices; incremental schemes are constructed based on a staggered localization-homogenization computation of the lattice response over a repetitive unit cell submitted to a controlled deformation loading. The obtained effective medium is a micropolar anisotropic continuum, the effective properties of which accounting for the geometrical arrangement of the structural elements within the lattice and their mechanical properties. The non affine response of the lattice leads to possible size effects which can be captured by an enrichment of the classical Cauchy continuum either by adding rotational degrees of freedom as for the micropolar effective continuum, or by considering second order gradients of the displacement field. Both strategies are followed in this work, the construction of second order grade continua by discrete homogenization being done in a small perturbations framework. We show that both strategies for the enrichment of the effective continuum are complementary due to the existing analogy in the construction of the micropolar and second order grade continua by homogenization. The combination of both schemes further delivers tension, bending and torsion internal lengths, which reflect the lattice topology and the mechanical properties of its structural elements. Applications to textiles and biological membranes described as quasi periodical networks of filaments are considered. The computed effective response is validated by comparison with FE simulations performed over a representative unit cell of the lattice. The homogenization schemes have been implemented in a dedicated code written in combined symbolic and numerical language, and using as an input the lattice geometry and microstructural mechanical properties. The developed predictive micromechanical schemes offer a design tool to conceive new architectured materials to expand the boundaries of the 'material-property' space
30

Cisternino, Marco. "A parallel second order Cartesian method for elliptic interface problems and its application to tumor growth model." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00690743.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur une méthode cartésienne parallèle pour résoudre des problèmes elliptiques avec interfaces complexes et sur son application aux problèmes elliptiques en domaine irrégulier dans le cadre d'un modèle de croissance tumorale. La méthode est basée sur un schéma aux différences fi nies et sa précision est d'ordre deux sur tout le domaine. L'originalité de la méthode consiste en l'utilisation d'inconnues additionnelles situées sur l'interface et qui permettent d'exprimer les conditions de transmission à l'interface. La méthode est décrite et les détails sur la parallélisation, réalisée avec la bibliothèque PETSc, sont donnés. La méthode est validée et les résultats sont comparés avec ceux d'autres méthodes du même type disponibles dans la littérature. Une étude numérique de la méthode parallélisée est fournie. La méthode est appliquée aux problèmes elliptiques dans un domaine irrégulier apparaissant dans un modèle continue et tridimensionnel de croissance tumorale, le modèle à deux espèces du type Darcy . L'approche utilisée dans cette application est basée sur la pénalisation des conditions de transmission a l'interface, afin de imposer des conditions de Neumann homogènes sur le bord d'un domaine irrégulier. Les simulations du modèle sont fournies et montrent la capacité de la méthode à imposer une bonne approximation de conditions au bord considérées.
31

Debroux, Noémie. "Mathematical modelling of image processing problems : theoretical studies and applications to joint registration and segmentation." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR02/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous proposons d'étudier et de traiter conjointement plusieurs problèmes phares en traitement d'images incluant le recalage d'images qui vise à apparier deux images via une transformation, la segmentation d'images dont le but est de délimiter les contours des objets présents au sein d'une image, et la décomposition d'images intimement liée au débruitage, partitionnant une image en une version plus régulière de celle-ci et sa partie complémentaire oscillante appelée texture, par des approches variationnelles locales et non locales. Les relations étroites existant entre ces différents problèmes motivent l'introduction de modèles conjoints dans lesquels chaque tâche aide les autres, surmontant ainsi certaines difficultés inhérentes au problème isolé. Le premier modèle proposé aborde la problématique de recalage d'images guidé par des résultats intermédiaires de segmentation préservant la topologie, dans un cadre variationnel. Un second modèle de segmentation et de recalage conjoint est introduit, étudié théoriquement et numériquement puis mis à l'épreuve à travers plusieurs simulations numériques. Le dernier modèle présenté tente de répondre à un besoin précis du CEREMA (Centre d'Études et d'Expertise sur les Risques, l'Environnement, la Mobilité et l'Aménagement) à savoir la détection automatique de fissures sur des images d'enrobés bitumineux. De part la complexité des images à traiter, une méthode conjointe de décomposition et de segmentation de structures fines est mise en place, puis justifiée théoriquement et numériquement, et enfin validée sur les images fournies
In this thesis, we study and jointly address several important image processing problems including registration that aims at aligning images through a deformation, image segmentation whose goal consists in finding the edges delineating the objects inside an image, and image decomposition closely related to image denoising, and attempting to partition an image into a smoother version of it named cartoon and its complementary oscillatory part called texture, with both local and nonlocal variational approaches. The first proposed model addresses the topology-preserving segmentation-guided registration problem in a variational framework. A second joint segmentation and registration model is introduced, theoretically and numerically studied, then tested on various numerical simulations. The last model presented in this work tries to answer a more specific need expressed by the CEREMA (Centre of analysis and expertise on risks, environment, mobility and planning), namely automatic crack recovery detection on bituminous surface images. Due to the image complexity, a joint fine structure decomposition and segmentation model is proposed to deal with this problem. It is then theoretically and numerically justified and validated on the provided images
32

Janin, David. "Contribution aux fondements des méthodes formelles : jeux, logique et automates." Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2005. http://tel.archives-ouvertes.fr/tel-00659990.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Plaquet, Aurélie. "Design of molecular switches exhibiting second-order nonlinear optical responses : ab initio investigations and hyper Rayleigh scattering characterizations." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14268/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les interrupteurs moléculaires sont des composés capables de commuterréversiblement entre deux ou plusieurs états stables en réponse à un stimulusextérieur. Lʼobjectif de la thèse est la conception dʼinterrupteurs moléculairesprésentant des contrastes optiques non-linéaires (ONL) et la mise évidence desparamètres structuraux et électroniques menant à dʼimportants contrastes depremière hyperpolarisabilité (β) via une approche multidisciplinaire qui combine lasynthèse de nouveaux composés, la caractérisation de leurs réponses optiqueslinéaires et non-linéaires par spectroscopie dʼabsorption UV-visible et par diffusionhyper-Rayleigh et lʼutilisation des méthodes de la chimie théorique afin de prédire etdʼinterpréter les propriétés moléculaires. Ces phénomènes de commutationsréversibles et les changements de propriétés qui les accompagnent présentent denombreux intérêts, tant technologiques comme lʼélaboration dʼordinateursmoléculaires quʼau niveau des organismes vivants où de nombreuses fonctionsbiologiques sont basées sur un phénomène de commutation. Les principaux résultatsde nos travaux se situent au niveau de lʼinterprétation des réponses ONL et de leurscontrastes en fonction de la nature, de la position et du caractère donneur/accepteurdes substituants présents sur le squelette des interrupteurs moléculaires
Molecular switches are compounds presenting the ability to commutereversibly between two or more states in response to external stimuli. The goal of thework is the design of molecular switches exhibiting contrasts of their second-ordernonlinear optical (NLO) properties and the highlight of the structural and electronicparameters leading to large contrasts of first hyperpolarizability (β) via amultidisciplinary approach combining the synthesis of new compounds, thecharacterization of their linear (by UV-Visible absorption spectroscopy) and nonlinearoptical properties (by hyper Rayleigh scattering), and the theoretical simulations inorder to predict and interpret molecular properties. These reversible switchingprocesses and the resulting variations of molecular properties have many interests intechnological area such as the development of molecular computers or in lifesciences since many biological functions are based on commutation mechanisms.The major results of our investigations are the interpretation of the NLO responsesand contrasts as a function of the nature, the positioning, and the donor/acceptorcharacter of the substituents
34

Maltey, Fanton Isabelle. "Hyperpolarisabité de premier ordre de molécules organiques : complexes organoméetalliques, photochromes, molécules en lambda." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous avons déterminé l'hyper polarisabilité de premier ordre, de nouvelles molécules organiques : des molécules organométalliques chirales, des systèmes photochromes et des molécules a transfert de charge bidimensionnel (molécules en). Nous avons tout d'abord réalisé le montage de génération de second harmonique induite par un champ électrique (efishg) afin de mesurer en solution la projection sur le moment dipolaire permanent de l'hyper polarisabilité vectorielle a 1,064 m et a 1,907 m. L'analyse de l'amplitude et de la valeur moyenne du signal de second harmonique permet de tenir compte de l'absorption du second harmonique généré lorsque celle-ci n'est pas négligeable. Ces résultats expérimentaux ont été compares a ceux obtenus par des calculs semi-empiriques, bases sur la méthode <<<>am1<>>>, combines a la méthode <<<>champ fini<>>>. Après optimisation de la géométrie, nous avons déterminé les différents termes du tenseur d'hyper polarisabilité à fréquence nulle des molécules dans le vide. Nous nous sommes intéressés a des dérivés du ferrocène possédant une forte hyper polarisabilité. Différentes substitutions ont permis de rendre ces composes chiraux tout en conservant leurs propriétés moléculaires non-linéaires. En raison de la chiralité, la maille cristalline de ces molécules ne possède donc pas de centre d'inversion. Nous avons ensuite étudié des composes de deux familles de photochromes, les fulgides et les diaryléthènes. L'absence de retour thermique de la forme colorée vers la forme de départ et la bonne résistance à la photo dégradation rendent ces molécules intéressantes pour le stockage de l'information. Nous avons recherche des isomères photochimiques ayant des hyper polarisabilités moléculaires différentes et un taux de conversion photo induit réversible important. Les molécules en l possèdent deux axes de transfert de charge. Le terme prépondérant dans le tenseur d'hyper polarisabilité n'est pas le terme diagonal. En modélisant les molécules en l par deux ressorts non-linéaires couples, nous avons obtenu des relations entre les différents termes de ce tenseur et démontre le couplage entre les deux ressorts. Nous avons également mis en évidence que la structure moléculaire en favorise un assemblage cristallin sans centre d'inversion.
35

Nguyen, Nho Gia Hien. "The role of the microstructure in granular material instability." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI062/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les matériaux granulaires se composent de grains solides et d’un constituant remplissant les pores, tel qu'un fluide ou une matrice solide. Les grains interagissent au travers de répulsions élastiques, auxquelles s’ajoutent des mécanismes de friction, d’adhérence et d'autres forces surfaciques. La sollicitation externe conduit à la déformation des grains ainsi qu’à des réarrangements de particules. Les déformations des milieux granulaires sont d'une importance capitale dans de nombreuses applications industrielles et dans la recherche, comme par exemple dans la métallurgie des poutres ou en mécanique des sols. La réponse des matériaux granulaires sous chargement externe est complexe, en particulier lorsqu’une rupture se produit: le mode de rupture peut être diffus ou localisé, et l’aspect de peut varier drastiquement lorsque celui-ci ne peut plus soutenir la charge externe. Dans le cadre de cette thèse, une analyse numérique basée sur une méthode des éléments discrets est réalisée pour étudier les comportements macroscopique et microscopique des matériaux granulaires à la rupture. Ces simulations numériques prennent en compte le critère du travail du second ordre afin de prédire la rupture. De plus il est montré que l’annulation du travail du second ordre coïncide avec la transition d’un régime statique vers un régime dynamique. Ensuite, le comportement matériaux granulaires est analysé à l’échelle micro-structurelle. L’évolution des chaines des forces et des cycles des grains est étudiée durant le processus de déformation jusqu’à la rupture. Le travail du second ordre est également pris en compte pour examiner l'aspect local qui régit la rupture à l’échelle locale. L'effondrement de l'échantillon discret quand il passe du régime quasi-statique vers le régime dynamique est accompagné d'une bouffée d'énergie cinétique. Cette augmentation de l'énergie cinétique est générée lorsque la contrainte interne ne permet pas d'équilibrer la force externe sous l’action d’une petite perturbation, ce qui entraîne une différence entre les travaux du second ordre interne et externe du système. Les mésostructures démontrent une relation symbiotique entre elles, et leur évolution gouverne le comportement macroscopique du système discret. La distribution de l'effondrement des chaînes de forces est parfaitement corrélée avec l’annulation du travail du second ordre à l'échelle de particules. Les mésostructures jouent un rôle important dans l'instabilité des milieux granulaires. Le travail du second ordre peut être utilisé comme un critère pertinent et robuste pour détecter l'instabilité du système que ce soit à l'échelle macroscopique ou microscopique (échelle de particule)
Granular materials consist of dense pack of solid grains and a pore-filling element such as a fluid or a solid matrix. The grains interact via elastic repulsion, friction, adhesion and other surface forces. External loading leads to grain deformations as well as cooperative particle rearrangements. The particle deformations are of particular importance in many industry applications and research subjects, such as powder metallurgy and soil mechanics. The response of granular materials to external loading is complex, especially in case when failure occurs: the mode of the failure can be diffuse or localized, and the development of specimen pattern can be drastically different when the specimen can no longer sustain external loading. In this thesis, a thorough numerical analysis based on a discrete element method is carried out to investigate the macroscopic and microscopic behavior of granular materials when a failure occurs. The numerical simulations include the vanishing of the second-order work instability criterion to detect failure. Furthermore, it is proved that the vanishing of second-order work coincides with the change from a quasi-static regime to a dynamic regime in the response of the specimen. Then, microstructure evolution is investigated. Evolution of force-chains and grain-loops are investigated during the deformation process until reaching the failure. The second-order work is once again taken into account to elucidate the local aspect that governs the failure, taking place at the particle scale. The collapse of the discrete specimen when it turns from quasi-static to dynamic regime is accompanied with a burst in kinetic energy. This rise of kinetic energy occurs when the internal stress cannot balance with the external loading when a small perturbation is added to the boundary, resulting in a difference between the internal and external second-order works of the system. The mesostructures have a symbiosis relationship with each other and their evolution decides the macroscopic behavior of the discrete system. The distribution of the collapse of force-chain correlates with the vanishing of the second-order work at the grain scale. The mesostructures play an important role in the instability of granular media. The second-order work can be used as an effective criterion to detect the instability of the system on both the macroscale and microscale (grain scale)
36

Cettour-Janet, Raphael. "Modelling the vibrational response and acoustic radiation of the railway tracks." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC040/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un contexte de densification des villes et de leurs réseaux de transport, les gens sont de plus en plus exposés au bruit. Ainsi, le résultat de l'étude d'impact vibro-acoustique joue un rôle primordial dans l'expansion du réseau ferroviaire. L'une des principales sources est le bruit de roulement : La rugosité de la surface de la roue et du rail produit un déplacement imposé sur ces derniers. Ce déplacement entraine une réponse vibratoire des roues et de la voie ferrée et leurs rayonnements acoustiques. Cette thèse propose une amélioration de la modélisation vibro-acoustique de la voie ferrée.Pour la réponse vibratoire, le coté infini de la voie et sa déformation dans les 3 dimensions rendent les modèles analytiques et les éléments finis non-optimales dans la gamme de fréquence de l’audible. La méthode élément fini semi-périodique (SAFEM) est utilisée dans cette thèse pour modéliser une voie à support continue. Elle est ensuite couplée au théorème de Floquet pour modéliser une voie à support périodique. Cependant, cette technique génère des problèmes numériques qui ont imposé un algorithme adapté. La méthode d'Arnoldi du second ordre (SOAR) est utilisée avant de résoudre l'équation SAFEM permet de résoudre ces problèmes ainsi qu’apporter la stabilité requise. Des comparaisons avec d’autres modèles et des données expérimentales permettent de valider la méthode.Pour le rayonnement acoustique, la simulation de grand domaine en haute fréquence rendent inadapté l'utilisation de techniques conventionnelles (FEM, BEM, ...). La méthode proposée ici : la théorie variationnelle du rayon complexe est particulièrement bien adaptée à ce cas. Les principales caractéristiques de l'approche VTCR sont l'utilisation d'une formulation faible du problème acoustique, qui permet de considérer automatiquement les conditions limites entre sous-domaines. Ensuite, l'utilisation d'une répartition intégrale des ondes planes dans toutes les directions permet de simuler le champ acoustique. Les inconnues du problème sont leurs amplitudes. Cette méthode qui a déjà montré son efficacité pour les domaines fermés a été étendue au domaine ouvert et couplée à la réponse vibratoire. Des comparaisons avec des solutions analytiques et des simulations FEM à basse fréquence permettent de valider la méthode
In a context of urban and transport network densification, people are increasingly exposed to noise. Consequently, the result of vibro-acoustic impact assessment has a pivotal role in rail network expansion. One of the main sources is the rolling noise: Roughness on the wheel and rail surface produce an imposed displacement one the both. This last, generates vibrational response of wheels and the railway track and their acoustic radiation. This PhD thesis presents some improvements of the vibro-acoustic railway track modelling.Concerning vibrational response, the infinite dimension in the longitudinal direction of the track and its deformation in the 3 dimensions, make the analytical models and finite elements non-optimal. The Semi-analytical finite element method (SAFEM), used in this thesis, is particularly well adapted in this case. Firstly, it is used to model railway track on a continuous support. Then, it is coupled with Floquet theorem to model tracks with a periodic support. However, this technique suffers from numerical problems that imposed an adapted algorithm. The second-order Arnoldi method (SOAR) is used to tackle them. This reduction allows to eliminate critical values improving the robustness of the method. Comparison with existing techniques and experimental results validate this model.Concerning acoustic radiation, big domains simulations at high frequency are almost unfeasible when using conventional techniques (FEM, BEM,…). The method used in this thesis, the Variational theory of complex ray (VTCR) is particularly well adapted to these cases. The principal features of VTCR approach are the use of a weak formulation of the acoustic problem, which allows to consider automatically boundary conditions between sub-domains. Then, the use of an integral repartition of plane waves in all the direction allow to simulate the acoustic field. The unknowns of the problem are their amplitudes. This method well assessed for closed domain, has been extended to open domain and coupled to vibrational response of the rail. Comparison with analytic solution and FEM simulation at low frequency allow to validate the method.Coupling these both methods allowed to simulate complex real life vibro-acoustic scenarios. Result of different railway tracks are presented and validated
37

Picot, Gautier. "Contrôle optimal géométrique et numérique appliqué au problème de transfert Terre-Lune." Thesis, Dijon, 2010. http://www.theses.fr/2010DIJOS067/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est de proposer une étude numérique, fondée sur l'application de résultats de la théorie du contrôle optimal géométrique, des trajectoires spatiales du système Terre-Lune dans un contexte de poussée faible. Le mouvement du satellite est décrit par les équations du problème restreint des trois corps controlé. Nous nous concentrons sur la minimisation de la consommation énergétique et du temps de transfert. Les trajectoires optimales sont recherchées parmi les projections des courbes extrémales solutions du principe du maximum de Pontryagin et peuvent être calculées grâce à une méthode de tir. Ce procédé fait intervenir l'algorithme de Newton dont la convergence nécessite une initialisation précise. Nous surmontons cette difficulté au moyen de techniques homotopiques ou d'études géométriques du système de contrôle linéarisé. L'optimalité locale des trajectoires extrémales est ensuite vérifée en utilisant les conditions du second ordre liées au concept de point conjugué. Dans le cas du problème de minimisation de l'énergie, une technique de "recollement" de trajectoires optimales kepleriennes autour de la Terre et La Lune et d'une solution optimale de l'équation du mouvement linéarisée au voisinage du point d'équilibre L1 est également proposée pour approximer les transferts Terre-Lune à énergie minimale
This PhD thesis provides a numerical study of space trajectories in the Earth-Moon system when low-thrust is applied. Our computations are based on fundamental results from geometric control theory. The spacecraft's motion is modelled by the equations of the controlled restricted three-body problem. We focus on minimizing energy cost and transfer time. Optimal trajectories are found among a set of extremal curves, solutions of the Pontryagin's maximum principle, which can be computed solving a shooting equation thanks to a Newton algorithm. In this framework, initial conditions are found using homotopic methods or studying the linearized control system. We check local optimality of the trajectories using the second order optimality conditions related to the concept of conjugate points. In the case of the energy minimization problem, we also describe the principle of approximating Earth-Moon optimal transfers by concatening optimal keplerian trajectories around The Earth and the Moon and an energy-minimal solution of the linearized system in the neighbourhood of the equilibrium point L1
38

Hermant, Audrey. "Sur l'algorithme de tir pour les problèmes de commande optimale avec contraintes sur l'état." Phd thesis, Ecole Polytechnique X, 2008. http://tel.archives-ouvertes.fr/tel-00348227.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse au problème de commande optimale (déterministe) d'une équation différentielle ordinaire soumise à une ou plusieurs contraintes sur l'état, d'ordres quelconques, dans le cas où la condition forte de Legendre-Clebsch est satisfaite. Le principe du minimum de Pontryaguine fournit une condition d'optimalité nécessaire bien connue. Dans cette thèse, on obtient premièrement une condition d'optimalité suffisante du second ordre la plus faible possible, c'est-à-dire qu'elle est aussi proche que possible de la condition nécessaire du second ordre et caractérise la croissance quadratique. Cette condition nous permet d'obtenir une caractérisation du caractère bien posé de l'algorithme de tir en présence de contraintes sur l'état. Ensuite on effectue une analyse de stabilité et de sensibilité des solutions lorsque l'on perturbe les données du problème. Pour des contraintes d'ordre supérieur ou égal à deux, on obtient pour la première fois un résultat de stabilité des solutions ne faisant aucune hypothèse sur la structure de la trajectoire. Par ailleurs, des résultats sur la stabilité structurelle des extrémales de Pontryaguine sont donnés. Enfin, ces résultats d'une part sur l'algorithme de tir et d'autre part sur l'analyse de stabilité nous permettent de proposer, pour des contraintes sur l'état d'ordre un et deux, un algorithme d'homotopie dont la nouveauté est de déterminer automatiquement la structure de la trajectoire et d'initialiser les paramètres de tir associés.
39

Chronopoulos, Dimitrios. "Prediction of the vibroacoustic response of aerospace composite structures in a broadband frequency range." Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00787864.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
During its mission, a launch vehicle is subject to broadband, severe, aeroacoustic and structure-borne excitations of various provenances, which can endanger the survivability of the payload and the vehicles electronic equipment, and consequently the success of the mission. Aerospace structures are generally characterized by the use of exotic composite materials of various configurations and thicknesses, as well as by their extensively complex geometries and connections between different subsystems. It is therefore of crucial importance for the modern aerospace industry, the development of analytical and numerical tools that can accurately predict the vibroacoustic response of large, composite structures of various geometries and subject to a combination of aeroacoustic excitations. Recently, a lot of research has been conducted on the modelling of wave propagation characteristics within composite structures. In this study, the Wave Finite Element Method (WFEM) is used in order to predict the wave dispersion characteristics within orthotropic composite structures of various geometries, namely flat panels, singly curved panels, doubly curved panels and cylindrical shells. These characteristics are initially used for predicting the modal density and the coupling loss factor of the structures connected to the acoustic medium. Subsequently the broad-band Transmission Loss (TL) of the modelled structures within a Statistical Energy Analysis (SEA) wave-context approach is calculated. Mainly due to the extensive geometric complexity of structures, the use of Finite Element(FE) modelling within the aerospace industry is frequently inevitable. The use of such models is limited mainly because of the large computation time demanded even for calculations in the low frequency range. During the last years, a lot of researchers focus on the model reduction of large FE models, in order to make their application feasible. In this study, the Second Order ARnoldi (SOAR) reduction approach is adopted, in order to minimize the computation time for a fully coupled composite structural-acoustic system, while at the same time retaining a satisfactory accuracy of the prediction in a broadband sense. The system is modelled under various aeroacoustic excitations, namely a diffused acoustic field and a Turbulent Boundary Layer (TBL) excitation. Experimental validation of the developed tools is conducted on a set of orthotropic sandwich composite structures. Initially, the wave propagation characteristics of a flat panel are measured and the experimental results are compared to the WFEM predictions. The later are used in order to formulate an Equivalent Single Layer (ESL) approach for the modelling of the spatial response of the panel within a dynamic stiffness matrix approach. The effect of the temperature of the structure as well as of the acoustic medium on the vibroacoustic response of the system is examined and analyzed. Subsequently, a model of the SYLDA structure, also made of an orthotropic sandwich material, is tested mainly in order to investigate the coupling nature between its various subsystems. The developed ESL modelling is used for an efficient calculation of the response of the structure in the lower frequency range, while for higher frequencies a hybrid WFEM/FEM formulation for modelling discontinuous structures is used.
40

Piffet, Loïc. "Décomposition d’image par modèles variationnels : débruitage et extraction de texture." Thesis, Orléans, 2010. http://www.theses.fr/2010ORLE2053/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée dans un premier temps à l’élaboration d’un modèle variationnel dedébruitage d’ordre deux, faisant intervenir l’espace BV 2 des fonctions à hessien borné. Nous nous inspirons ici directement du célèbre modèle de Rudin, Osher et Fatemi (ROF), remplaçant la minimisation de la variation totale de la fonction par la minimisation de la variation totale seconde, c’est à dire la variation totale de ses dérivées. Le but est ici d’obtenir un modèle aussi performant que le modèle ROF, permettant de plus de résoudre le problème de l’effet staircasing que celui-ci engendre. Le modèle que nous étudions ici semble efficace, entraînant toutefois l’apparition d’un léger effet de flou. C’est afin de réduire cet effet que nous introduisons finalement un modèle mixte, permettant d’obtenir des solutions à la fois non constantes par morceaux et sans effet de flou au niveau des détails. Dans une seconde partie, nous nous intéressons au problème d’extraction de texture. Un modèle reconnu comme étant l’un des plus performants est le modèle T V -L1, qui consiste simplement à remplacer dans le modèle ROF la norme L2 du terme d’attache aux données par la norme L1. Nous proposons ici une méthode originale permettant de résoudre ce problème utilisant des méthodes de Lagrangien augmenté. Pour les mêmes raisons que dans le cas du débruitage, nous introduisons également le modèle T V 2-L1, consistant encore une fois à remplacer la variation totale par la variation totale seconde. Un modèle d’extraction de texture mixte est enfin très brièvement introduit. Ce manuscrit est ponctué d’un vaste chapitre dédié aux tests numériques
This thesis is devoted in a first part to the elaboration of a second order variational modelfor image denoising, using the BV 2 space of bounded hessian functions. We here take a leaf out of the well known Rudin, Osher and Fatemi (ROF) model, where we replace the minimization of the total variation of the function with the minimization of the second order total variation of the function, that is to say the total variation of its partial derivatives. The goal is to get a competitive model with no staircasing effect that generates the ROF model anymore. The model we study seems to be efficient, but generates a blurry effect. In order to deal with it, we introduce a mixed model that permits to get solutions with no staircasing and without blurry effect on details. In a second part, we take an interset to the texture extraction problem. A model known as one of the most efficient is the T V -L1 model. It just consits in replacing the L2 norm of the fitting data term with the L1 norm.We propose here an original way to solve this problem by the use of augmented Lagrangian methods. For the same reason than for the denoising case, we also take an interest to the T V 2-L1 model, replacing again the total variation of the function by the second order total variation. A mixed model for texture extraction is finally briefly introduced. This manuscript ends with a huge chapter of numerical tests
41

Ngodock, Hans Emmanuel. "Assimilation de données et analyse de sensibilité : une application à la circulation océanique." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail mené dans cette thèse porte sur l'étude "à posteriori" de l'assimilation variationnelle de données. Il s'agit d'une démarche de faisabilité pour la mise au point des outils permettant de faire une analyse diagnostique (qualitative et quantitative) du processus d'assimilation variationnelle, notamment en ce qui concerne l'influence du bruit des observations sur le processus d'assimilation ainsi que sa propagation sur les champs reconstitués (nous sommes alors amenés à faire une étude de sensibilité), et l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation. L'application usuelle des équations adjointes pour l'analyse de sensibilité est revisée, car dans le contexte de l'assimilation variationnelle, nous avons montré par un exemple simple qu'il faut s'y prendre différemment. Nous proposons alors une méthode pour mener correctement cette analyse de sensibilité. Cette méthode est basée sur l'utilisation des équations adjointes au second ordre, obtenues en prenant l'adjoint du système d'optimalité. La sensibilité en est déduite par inversion du Hessien de la fonction coût via la minimisation d'une fonctionnelle quadratique. L'application est faite sur un modèle de circulation générale océanique de type quasi-géostrophique, et nous faisons aussi l'étude de l'existence et l'unicité de la solution de l'équation adjointe au second ordre du modèle considéré, pour justifier l'utilisation du Hessien et l'applicabilité de notre méthode. Nous étudions aussi l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation au travers du Hessien (à l'optimum) dont les éléments propres varient lorsqu'on fait varier la configuration. Enfin, nous étudions la prédicibilité du système d'optimalité.
42

Sabbagh, Wissal. "Some Contributions on Probabilistic Interpretation For Nonlinear Stochastic PDEs." Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1019/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est l'étude de la représentation probabiliste des différentes classes d'EDPSs non-linéaires(semi-linéaires, complètement non-linéaires, réfléchies dans un domaine) en utilisant les équations différentielles doublement stochastiques rétrogrades (EDDSRs). Cette thèse contient quatre parties différentes. Nous traitons dans la première partie les EDDSRs du second ordre (2EDDSRs). Nous montrons l'existence et l'unicité des solutions des EDDSRs en utilisant des techniques de contrôle stochastique quasi- sure. La motivation principale de cette étude est la représentation probabiliste des EDPSs complètement non-linéaires. Dans la deuxième partie, nous étudions les solutions faibles de type Sobolev du problème d'obstacle pour les équations à dérivées partielles inteégro-différentielles (EDPIDs). Plus précisément, nous montrons la formule de Feynman-Kac pour l'EDPIDs par l'intermédiaire des équations différentielles stochastiques rétrogrades réfléchies avec sauts (EDSRRs). Plus précisément, nous établissons l'existence et l'unicité de la solution du problème d'obstacle, qui est considérée comme un couple constitué de la solution et de la mesure de réflexion. L'approche utilisée est basée sur les techniques de flots stochastiques développées dans Bally et Matoussi (2001) mais les preuves sont beaucoup plus techniques. Dans la troisième partie, nous traitons l'existence et l'unicité pour les EDDSRRs dans un domaine convexe D sans aucune condition de régularité sur la frontière. De plus, en utilisant l'approche basée sur les techniques du flot stochastiques nous démontrons l'interprétation probabiliste de la solution faible de type Sobolev d'une classe d'EDPSs réfléchies dans un domaine convexe via les EDDSRRs. Enfin, nous nous intéressons à la résolution numérique des EDDSRs à temps terminal aléatoire. La motivation principale est de donner une représentation probabiliste des solutions de Sobolev d'EDPSs semi-linéaires avec condition de Dirichlet nul au bord. Dans cette partie, nous étudions l'approximation forte de cette classe d'EDDSRs quand le temps terminal aléatoire est le premier temps de sortie d'une EDS d'un domaine cylindrique. Ainsi, nous donnons les bornes pour l'erreur d'approximation en temps discret. Cette partie se conclut par des tests numériques qui démontrent que cette approche est effective
The objective of this thesis is to study the probabilistic representation (Feynman-Kac for- mula) of different classes ofStochastic Nonlinear PDEs (semilinear, fully nonlinear, reflected in a domain) by means of backward doubly stochastic differential equations (BDSDEs). This thesis contains four different parts. We deal in the first part with the second order BDS- DEs (2BDSDEs). We show the existence and uniqueness of solutions of 2BDSDEs using quasi sure stochastic control technics. The main motivation of this study is the probabilistic representation for solution of fully nonlinear SPDEs. First, under regularity assumptions on the coefficients, we give a Feynman-Kac formula for classical solution of fully nonlinear SPDEs and we generalize the work of Soner, Touzi and Zhang (2010-2012) for deterministic fully nonlinear PDE. Then, under weaker assumptions on the coefficients, we prove the probabilistic representation for stochastic viscosity solution of fully nonlinear SPDEs. In the second part, we study the Sobolev solution of obstacle problem for partial integro-differentialequations (PIDEs). Specifically, we show the Feynman-Kac formula for PIDEs via reflected backward stochastic differentialequations with jumps (BSDEs). Specifically, we establish the existence and uniqueness of the solution of the obstacle problem, which is regarded as a pair consisting of the solution and the measure of reflection. The approach is based on stochastic flow technics developed in Bally and Matoussi (2001) but the proofs are more technical. In the third part, we discuss the existence and uniqueness for RBDSDEs in a convex domain D without any regularity condition on the boundary. In addition, using the approach based on the technics of stochastic flow we provide the probabilistic interpretation of Sobolev solution of a class of reflected SPDEs in a convex domain via RBDSDEs. Finally, we are interested in the numerical solution of BDSDEs with random terminal time. The main motivation is to give a probabilistic representation of Sobolev solution of semilinear SPDEs with Dirichlet null condition. In this part, we study the strong approximation of this class of BDSDEs when the random terminal time is the first exit time of an SDE from a cylindrical domain. Thus, we give bounds for the discrete-time approximation error.. We conclude this part with numerical tests showing that this approach is effective
43

Manzagol, Pierre-Antoine. "TONGA : un algorithme de gradient naturel pour les problèmes de grande taille." Thèse, 2007. http://hdl.handle.net/1866/7226.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії