Letteratura scientifica selezionata sul tema "Méthodes Quasi-Newton"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Méthodes Quasi-Newton".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Méthodes Quasi-Newton":

1

Gilbert, Jean Charles. "Mise à jour de la métrique dans les méthodes de quasi-Newton réduites en optimisation avec contraintes d'égalité". ESAIM: Mathematical Modelling and Numerical Analysis 22, n. 2 (1988): 251–88. http://dx.doi.org/10.1051/m2an/1988220202511.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Dumont, Thierry. "Une méthode Quasi-Newton pour le calcul d'écoulements viscoélastiques". ESAIM: Proceedings 2 (1997): 173–81. http://dx.doi.org/10.1051/proc:1997010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Ngnepieba, Pierre, François Xavier Le Dimet, Alexis Boukong e Gabriel Nguetseng. "Parameters identification: an application to the Richards equation". Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 1, 2002 (14 ottobre 2002). http://dx.doi.org/10.46298/arima.1833.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
International audience Inverse modeling has become a standard technique for estimating hydrogeologic parameters. These parameters are usually inferred by minimizing the sum of the squared differences between the observed system state and the one calculed by a mathematical model. Since some hydrodynamics parameters in Richards model cannot be measured, they have to be tuned with respect to the observation and the output of the model. Optimal parameters are found by minimizing cost function and the unconstrained minimization algorithm of the quasi-Newton limited memory type is used. The inverse model allows computation of optimal scale parameters and model sensi-tivity. La modélisation inverse est devenue une approche fréquemment utilisée pour l'estimation des paramètres en hydrogéologie. Fondamentalement cette technique est basée sur les méthodes de contrôle optimal qui nécessitent des observations et un modèle pour le calcul des dérivées du premier ordre. Le modèle adjoint du modèle de Richards est construit pour obtenir le gradient de la fonction coût par rapport aux paramètres de contrôle. Les paramètres hydrodynamiques sont pris comme paramètres de contrôle; leurs valeurs optimales sont trouvées en minimisant la fonction coût ceci en utilisant un algorithme de minimisation de type descente quasi-Newton. Cette approche est utilisée pour l'identification des paramètres hydrodynamiques sur un modèle d'écou-lement souterrain en zone non saturée, ainsi que les études de sensibilité du modèle.

Tesi sul tema "Méthodes Quasi-Newton":

1

SEGALAT, Philippe. "Méthodes de Points Intérieurs et de quasi-Newton". Phd thesis, Université de Limoges, 2002. http://tel.archives-ouvertes.fr/tel-00005478.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'intéresse à des méthodes de points intérieurs et de quasi-Newton en optimisation non linéaire et à leurs mises en oeuvre. On présente le code NOPTIQ utilisant les formules de BFGS à mémoire limitée pour résoudre des problèmes de grande taille. L'originalité de cette approche est l'emploi de ces formules dans le cadre des méthodes de points intérieurs. L'espace mémoire et le coût en opérations du calcul d'une itération sont alors faibles. Le code NOPTIQ est robuste et a des performances comparables avec les codes de références l-BFGS-B et LANCELOT. On présente aussi un algorithme non réalisable utilisant les méthodes précédentes pour résoudre un problème non linéaire avec contraintes d'inégalité et contraintes d'égalité linéaire. L'idée est de pénaliser le problème à l'aide de variables de décalage et d'une variante de la méthode big-M. La convergence q-superlinéaire des itérés internes et la convergence globale des itérés externes sont démontrées.
2

Segalat, Philippe. "Méthodes de points intérieurs et de quasi-Newton". Limoges, 2002. http://www.theses.fr/2002LIMO0041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s' intéresse à des méthodes de ponts intérieurs et de quasi-Newton en optimisation non linéaire et à leurs mises en oeuvre. On présente le code NOPTIQ utilisant les formules de BFGS à mémoire limitée pour résoudre des problèmes de grande taille. L' originalité de cette approche est l' emploi de ces formules dans le cadre des méthodes de points intérieurs. L' espace mémoire et le coût en opérations du calcul d' une itération sont alors faibles. Le code NOPTIQ est robuste et a des performances comparables avec les codes de références 1-BFGS-B et LANCELOT. On présente aussi un algorithme non réalisable utilisant les méthodes précédentes pour résoudre un problème non linéaire avec contraintes d' inégalité et contraintes d' égalité linéaire. L' idée est de pénaliser le problème à l' aide de variables de décalage et d' une variante de la méthode big-M. La convergence q-superlinéaire des itérés internes et la convergence globale des itérés externes sont démontrées
This thesis is interested in interior point and quasi-Newton methods in nonlinear optimization and with their implementation. One presents the code NOPTIQ using the limited memory BFGS formulas to solve large scale problems. The originality of this approach is the use of these formulas within the framework of interior point methods. The storage requirement and the computing cost of one iteration are then low. One shows that NOPTIQ is robust and that its performance are comparable with the reference codes 1-BFGS-B and LANCELOT. One presents also an infeasible algorithm using the preceding methods to solve a nonlinear problem with inequality constraints and linear equality constraints. The idea to penalize the problem using shift variables and a variant of the big-M method of linear programming. The q-superlinear convergence of the inner iterates and the global convergence of outer iterates are shown
3

Raynaud, Paul. "L'exploitation de la structure partiellement-séparable dans les méthodes quasi-Newton pour l'optimisation sans contrainte et l'apprentissage profond". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALI021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est centrée autour de l'utilisation de la structure partiellement séparable pour l'optimisation sans contraintes, notamment pour les méthodes quasi-Newton et l'entraînement des réseaux de neurones.Une fonction partiellement séparable somme des fonctions éléments, chacune de dimension inférieure au problème total.Ainsi, le Hessian peut être agrégé en approximant séparément le hessien de chaque fonction élément par une matrice dense.Ces méthodes quasi-Newton partitionnées sont applicables aux problèmes de grandes dimensions et conservent la structure creuse du hessien, contrairement à une méthode quasi-Newton à mémoire limitée.En pratique, ces méthodes réalisent moins d'itérations qu'une méthode quasi-Newton à mémoire limitée, et sont parallélisables en distribuant les calculs reliés aux fonctions éléments.La revue de littérature complète sur le sujet a cependant révélé certaines limitations, particulièrement lorsque la dimension des fonctions éléments est large.De plus, l'unique logiciel libre d'optimisation exploitant la structure partiellement-séparable est inutilisables pour utilisateur non expérimenté, laissant pour seul choix le recourt à des logiciels commerciaux.Dans cette thèse, deux solutions sont proposées pour palier à ces lacunes ainsi qu'une application des concepts d'optimisation partiellement-séparable à l'apprentissage supervisé d'un réseau de neurones.La première contribution est une suite logicielle permettant notamment de détecter automatiquement la structure partiellement-séparable d'un problème, c'est-à-dire la récupération de chaque fonction élément de dimension réduite.Suite à cela, les structures de données partitionnées nécessaires à la mémorisation des dérivées, ou leurs approximations, sont allouées et permettent de définir des méthodes quasi-Newton partitionnées.L'ensemble est intégré à l'écosystème "JuliaSmoothOptimizers", regroupant de nombreux outils pour l'optimisation lisse, dont des algorithmes d'optimisation pouvant exploiter la séparabilité partielle détectée.La seconde contribution remplace l'approximation d'un hessien élément par une matrice dense par un opérateur linéaire quasi-Newton à mémoire limitée.Ce faisant, le coût mémoire de l'approximation totale du hessien n'est plus relié quadratiquement à la dimension des fonctions éléments.Une méthode quasi-Newton partitionnée à mémoire limitée est alors applicable lorsque les fonctions éléments sont de grandes tailles.Chaque méthode quasi-Newton partitionnée à mémoire limitée possède une preuve convergence globale.De plus, les résultats numériques montrent que ces méthodes surpassent les méthodes quasi-Newton partitionnées ou à mémoire limitées lorsque les éléments sont de grandes tailles.La dernière contribution étudie l'exploitation de la structure partiellement-séparable lors l'entraînement supervisé d'un réseau de neurones.Le problème d'optimisation lié à l'entraînement n'est généralement pas partiellement-séparable.Dès lors, une fonction de perte partiellement-séparable ainsi qu'une architecture de réseau partitionnée sont introduites afin de rendre l'entraînement partiellement-séparable.Les résultats numériques combinant ces deux apports sont compétitifs avec des architectures et des fonctions de perte standards selon les méthodes d'entraînement de l'état de l'art.De surcroît, cette combinaison permet un schéma de parallélisation supplémentaire aux méthodes déjà existantes pour l'apprentissage supervisé.En effet, les calculs de chaque fonction de perte élément peuvent être distribués à un travailleur nécessitant seulement une fraction du réseau de neurones pour opérer.Finalement, un entraînement quasi-Newton partitionnée à mémoire limitée est proposé.Cet entrainement est montré empiriquement comme compétitif avec les méthodes d'entraînement de l'état de l'art
This thesis studies and improves the use of the partially-separable structure for unconstrained optimization, particularly for quasi-Newton methods and training neural networks.A partially-separable function is the sum of element functions, each of lower dimension than the total problem.Thus, the Hessian can be aggregated by separately approximating the Hessian of each element function with a dense matrix.These partitioned quasi-Newton methods are applicable to high-dimensional problems and maintain the sparse structure of the Hessian, unlike a limited-memory quasi-Newton method.In practice, these methods require fewer iterations than a limited-memory quasi-Newton method and are parallelizable by distributing computations related to the element functions.However, a comprehensive literature review on the subject has revealed some limitations, particularly when the dimension of the element functions is large.Additionally, the only open-source optimization software exploiting the partially-separable structure is unusable for inexperienced users, leaving only commercial software as an option.In this thesis, two solutions are proposed to address these shortcomings, along with an application of partially-separable optimization concepts to supervised learning of a neural network.The first contribution is a software suite based on an automatic detection of the partially-separable structure of a problem, i.e., retrieves each reduced-dimensional element function.Following this, partitioned data structures necessary for storing derivatives, or their approximations, are allocated and used to define partitioned quasi-Newton optimization methods.The entire suite is integrated into the "JuliaSmoothOptimizers" ecosystem, which gathers numerous tools for smooth optimization, including optimization algorithms that can therefore exploit the detected partial separability.The second contribution replaces the approximation of an element Hessian by a dense matrix with a limited-memory quasi-Newton linear operator.As a result, the memory cost of the total Hessian approximation is no longer quadratically related to the dimension of the element functions.A limited-memory partitioned quasi-Newton method is then applicable when the element functions are large.Each limited-memory partitioned quasi-Newton method has a proof of global convergence.Additionally, numerical results show that these methods outperform partitioned or limited-memory quasi-Newton methods when the elements are large.The final contribution examines the exploitation of the partially-separable structure during supervised training of a neural network.The optimization problem associated with training is generally not partially-separable.Therefore, a partially-separable loss function and a partitioned network architecture are introduced to make the training partially-separable.Numerical results combining these two contributions are competitive with standard architectures and loss functions according to state-of-the-art training methods.Moreover, this combination produces an additional parallelization scheme to existing methods for supervised learning.Indeed, the calculations of each element loss function can be distributed to a worker requiring only a fraction of the neural network to operate.Finally, a limited-memory partitioned quasi-Newton training is proposed.This training is empirically shown to be competitive with state-of-the-art training methods
4

Berenguer, Laurent. "Accélération de la convergence de méthodes numériques parallèles pour résoudre des systèmes d’équations différentielles linéaires et transitoires non linéaires". Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10194/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La résolution des équations différentielles (EDP/EDO/EDA) est au cœur de la simulation de phénomènes physiques. L'accroissement de la taille et de la complexité des modèles nécessite la mise en œuvre de méthodes de résolution robustes et performantes en termes de temps de calcul. L'objectif de cette thèse est de proposer des méthodes pour accélérer la résolution des équations différentielles par des méthodes de décomposition de domaine. On considère d'abord les méthodes de décomposition de domaine de Schwarz pour la résolution de grands systèmes linéaires issus de la discrétisation d'EDP. Afin d'accélérer la convergence de la méthode de Schwarz, on propose une approximation de l'opérateur de propagation d'erreur. Cette approximation respectera la structure de l'opérateur exact, ce qui conduira à une réduction très significative des temps de calcul sur le problème des écoulements dans les milieux poreux hétérogènes. La deuxième contribution concerne la résolution de la suite de systèmes linéaires provenant de l'intégration en temps de problèmes non linéaires. On propose deux approches en utilisant le fait que la matrice jacobienne ne varie que peu d'un système à l'autre. Premièrement, on applique la mise à jour de Broyden au préconditionneur RAS (Restricted Additive Schwarz) au lieu de recalculer les factorisations LU. La deuxième approche consiste à dédier des processeurs a la mise à jour partielle et asynchrone du préconditionneur RAS. Des résultats numériques sur le problème de la cavité entrainée et sur un problème de réactiondiffusion montrent qu'une accélération super linéaire peut être obtenue. La dernière contribution a pour objet la résolution simultanée des problèmes non linéaires de pas de temps consécutifs. On étudie le cas où la méthode de Broyden est utilisée pour résoudre ces problèmes non linéaires. Dans ce cas, la mise à jour de Broyden peut être propagée d'un pas de temps à l'autre. La parallélisation à travers les pas de temps est également appliquée a la recherche d'une solution initiale consistante pour les équations différentielles algébriques
Solving differential equations (PDEs/ODEs/DAEs) is central to the simulation of physical phenomena. The increase in size and complexity of the models requires the design of methods that are robust and efficient in terms of computational time. The aim of this thesis is to design methods that accelerate the solution of differential equations by domain decomposition methods. We first consider Schwarz domain decomposition methods to solve large-scale linear systems arising from the discretization of PDEs. In order to accelerate the convergence of the Schwarz method, we propose an approximation of the error propagation operator. This approximation preserves the structure of the exact operator. A significant reduction of computational time is obtained for the groundwater flow problem in highly heterogeneous media. The second contribution concerns solving the sequence of linear systems arising from the time-integration of nonlinear problems. We propose two approaches, taking advantage of the fact that the Jacobian matrix does not change dramatically from one system to another. First, we apply Broyden’s update to the Restricted Additive Schwarz (RAS) preconditioner instead of recomputing the local LU factorizations. The second approach consists of dedicating processors to the asynchronous and partial update of the RAS preconditioner. Numerical results for the lid-driven cavity problem, and for a reaction-diffusion problem show that a super-linear speedup may be achieved. The last contribution concerns the simultaneous solution of nonlinear problems associated to consecutive time steps. We study the case where the Broyden method is used to solve these nonlinear problems. In that case, Broyden’s update of the Jacobian matrix may also be propagated from one time step to another. The parallelization through the time steps is also applied to the problem of finding a consistent initial guess for differential-algebraic equations
5

Nachaoui, Abdeljalil. "Contribution à l'analyse et à l'approximation des problèmes d'identification, de reconstruction et des systèmes d'équations elliptiques non linéaires". Habilitation à diriger des recherches, Université de Nantes, 2002. http://tel.archives-ouvertes.fr/tel-00002635.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est divisé en deux axes de recherches. Le premier axe concerne l'étude de quelques systèmes d'équations aux dérivées partielles non linéaires issus de la modélisation macroscopique des composants semi-conducteurs. Le deuxième axe de recherche est consacré à l'étude de quelques problèmes d'identification. Nous nous intéressons en particulier à deux types de problèmes d'identification. Le premier concerne la reconstruction des données sur le bord pour des problèmes elliptiques. Le deuxième type de problèmes auquel nous nous sommes intéressés est celui de l'identification des frontières dans des problèmes gouvernés par des équations elliptiques.
6

Kudawoo, Ayaovi Dzifa. "Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4771/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés.Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de « Lagrangien stabilisé » initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de « Lagrangien augmenté ». Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée
This work deals with computational contact mechanics between deformable solids. The aim of this work is to improve the performance, the reliability and the robustness of the algorithms and numerical models set in Code_Aster which is finite element code developped by Électricité De France (EDF) for its engineering needs. The proposed algorithms are used to solve high dimensional industrial problems in order to optimize the computational running times. Several solutions techniques are available in the field of computational contact mechanics but they must take into account the difficulties coming from non-smooth aspects due to Signorini-Coulomb laws coupled to large deformations of bodies and material non linearities. Firstly the augmented Lagrangian formulation so-called « stabilized Lagrangian » is introduced. Successively, the mathematical properties of the discrete operators are highlighted and furthermore a novel energetic function is presented. Secondly the kinematical condition with regard to the normal unknowns are reinforced through unconstrained optimization techniques which result to a novel formulation which is so-called « non standard augmented Lagrangian formulation ». Three types of strategies are implemented in the code. The generalized Newton method is developped : it is a method in which all the non linearities are solved in one loop of iterations. The partial Newton method is an hybrid technique between the generalized Newton one and a fixed point method
7

Nguyen, Quoc Thong. "Modélisation probabiliste d’impression à l’échelle micrométrique". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10039/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous développons des modèles probabilistes pour l’impression à l’échelle micrométrique. Tenant compte de l’aléa de la forme des points qui composent les impressions, les modèles proposés pourront être ultérieurement exploités dans différentes applications dont l’authentification de documents imprimés. Une analyse de l’impression sur différents supports papier et par différentes imprimantes a été effectuée. Cette étude montre que la grande variété de forme dépend de la technologie et du papier. Le modèle proposé tient compte à la fois de la distribution du niveau de gris et de la répartition spatiale de l’encre sur le papier. Concernant le niveau de gris, les modèles des surfaces encrées/vierges sont obtenues en sélectionnant les distributions dans un ensemble de lois de forme similaire aux histogrammes et à l’aide de K-S critère. Le modèle de répartition spatiale de l’encre est binaire. Le premier modèle consiste en un champ de variables indépendantes de Bernoulli non-stationnaire dont les paramètres forment un noyau gaussien généralisé. Un second modèle de répartition spatiale des particules d’encre est proposé, il tient compte de la dépendance des pixels à l’aide d’un modèle de Markov non stationnaire. Deux méthodes d’estimation ont été développées, l’une approchant le maximum de vraisemblance par un algorithme de Quasi Newton, la seconde approchant le critère de l’erreur quadratique moyenne minimale par l’algorithme de Metropolis within Gibbs. Les performances des estimateurs sont évaluées et comparées sur des images simulées. La précision des modélisations est analysée sur des jeux d’images d’impression à l’échelle micrométrique obtenues par différentes imprimantes
We develop the probabilistic models of the print at the microscopic scale. We study the shape randomness of the dots that originates the prints, and the new models could improve many applications such as the authentication. An analysis was conducted on various papers, printers. The study shows a large variety of shape that depends on the printing technology and paper. The digital scan of the microscopic print is modeled in: the gray scale distribution, and the spatial binary process modeling the printed/blank spatial distribution. We seek the best parametric distribution that takes account of the distributions of the blank and printed areas. Parametric distributions are selected from a set of distributions with shapes close to the histograms and with the Kolmogorov-Smirnov divergence. The spatial binary model handles the wide diversity of dot shape and the range of variation of spatial density of inked particles. At first, we propose a field of independent and non-stationary Bernoulli variables whose parameters form a Gaussian power. The second spatial binary model encompasses, in addition to the first model, the spatial dependence of the inked area through an inhomogeneous Markov model. Two iterative estimation methods are developed; a quasi-Newton algorithm which approaches the maximum likelihood and the Metropolis-Hasting within Gibbs algorithm that approximates the minimum mean square error estimator. The performances of the algorithms are evaluated and compared on simulated images. The accuracy of the models is analyzed on the microscopic scale printings coming from various printers. Results show the good behavior of the estimators and the consistency of the models
8

Vaquez, Philippe. "Localisation de la rupture à l'aide des splines en plasticité parfaite". Paris 11, 1986. http://www.theses.fr/1986PA112379.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’étude du comportement de B. Linens en fermenteur est entreprise sur un milieu à base de L-lactate et d’une peptone caséique. La première partie présente la réalisation d’un plan d’expériences pour mettre en évidence l’effet de 3 facteurs, le pH (7,5-8,5), la température (20-30°C), et l’oxygène dissous (40-60% de la saturation), tous 3 régulés au cours de la culture, sur plusieurs paramètres de croissance et de métabolisme à des temps caractéristiques : temps de latence, temps de fin de phase exponentielle, temps de fin de phase de ralentissement et temps final. La valeur de ces temps, la densité optique (D. O. ) de la culture, la quantité de lactate et d’acides aminés demeurant présents, ainsi que l’ammoniac produis à ces temps sont analysés. Par ailleurs, la valeur du temps de génération est déduite de représentations graphiques. Un modèle logistique de croissance a été également utilisé pour une meilleure précision, et les paramètres suivants ont été déduits : temps pour attendre 2. 5, 35, et 80% de la D. O. Maximale, valeur ajustée de ce maxima, vitesse maximale et moyenne de croissance. Les données fournies par les régulations de pH et d’oxygène dissous ont été également analysées aux mêmes temps caractéristiques. Les résultats les plus satisfaisants sont obtenus par l’analyse de variance sur l’ensemble des conditions expérimentales et le paramètre temps de génération. Ils révèlent un important effet quadratique de l’oxygène, une liaison très importante entre les 3 facteurs, et des termes tous positifs. Le temps de génération diminue entre 40 et 50% d’oxygène et augmente au-delà. Les variations des autres paramètres sont moins bien expliquées, mais il ressort que la valeur maximale de la D. O. Est indépendante des niveaux des facteurs. La disparition des substrats n’indique pas d’effet de facteurs compte-tenu du manque de précision des mesures, sauf un effet linéaire, quadratique, et cubique de l’oxygène : ses niveaux 40 et 60% entraînent une consommation incomplète des substrats par comparaison au niveau 45-55% mais la croissance est-elle achevée dans ces cultures ? B. Linens produit de l’ammoniac, qu’il reconsomme, apparemment lorsque la concentration d’acides aminés présents diminue, ceci étant révélé par des régressions statistiques significatives. Il consomme préférentiellement certains acides aminés (arginine, tyrosine, phénylalaline) et produit dans certains cas de l’ornithine. Ses activités de production d’arômes sont mises en évidence qualitativement par des reniflages. L’utilisation d’un inoculum de cellules lyophilisées a entraîné l’allongement des temps de latence, et une consommation accrue en oxygène. Les quantités de neutralisant semblent dépendre plus des taux de croissance que des conditions de culture. Quelques expérimentations supplémentaires réalisées avec des milieux de concentrations différentes, et présentées en partie 2 ont indiqué que : - le lactate n’est pas limitant – certains acides aminés préférentiellement consommés doivent être limitants, et leur disparition entraîne la chute rapide des taux de croissance – l’ammoniac est produit lorsque la source azotée est présente en quantité supérieure à la source carbonée – les rendements faibles en biomasse dans les cas de milieux à forte concentration en lactate peuvent s’expliquer par un terme de maintenance. Quelques essais de modélisation de la production de biomasse et de disparition des substrats sont réalisés, mais la complexité des milieux employés empêche de conclure
This study presents the behaviour of Brevibacterium linens in a fermentor on a L-lactate and casamino acids medium. The first part consists of an experimental design used to point out the effect of 3 factors: the pH (7,5-8,5), the temperature (20-30°C) and the dissolved oxygen concentration (40-60% of the saturation), both of them controlled during the culture, on growth and metabolism parameters at different times: lag time, end of exponential growth, end of the falling back of growth and final time. The values of these times, the absorbance (D. O. ) of the culture, the concentration of lactate and amino acids, and produced ammonia at these times were analysed. The value of generation time was deduced from graphical response. The logistic law was used to improve growth data precision, and the following parameters were deduced: time to reach 2. 5, 35, and 80% of the maximal O. D. , value of this maximum, maximal and mean growth rate. Data obtained from the pH and dissolved oxygen controls at the same typical times were also analysed. The most important results were obtained from the variance analysis on the overall experimental conditions and on the generation time parameter: they showed an important quadratic effect of oxygen, an important interaction between the 3 factors, and positive effects. The generation time decreased between 40% and 50% of dissolved oxygen and increased beyond this level. The other parameters were less explained, but it appeared that the value of maximal growth is factors independent. The substrate consumption pointed out no factor effect, with the obtained precision, except a linear, quadratic and cubic effect of dissolved oxygen: tested at the levels 40 and 60%, this factor leads to incomplete substrate consumption, compared with the level 45-55%. But, is the maximal growth achieved in the case of these cultures? B. Linens produced ammonia which is absorbed with the amino acids, this fact pointed out by linear regressions statistically significant. A preferential consumption of a few amino acids (arginine, tyrosine and phenylalanine) has been detected, as ornithine production in some circumstances. His aroma production activities were pointed out qualitatively by sniffing. The freeze dryed suspension showed longer lag periods, and a greater oxygen consumption. The volumes of acid or alkali used to maintain the pH seemed to be more dependent on growth than on culture conditions. Some additional experiments presented in part 2, with mediums of different substrate concentrations showed that: - lactate is not limitant – some amino acids absorbed may be limitant, and decrease in growth rate may be explained by their removing – the low growth yields found in case of high lactate concentration medium may be explained by maintenances effects. Modelisation of biomass production and substrate consumption was tested, but the medium complexity prevented to do it
9

Roland, Nicolas. "Modélisation de la transition vers la turbulence d'écoulements en tuyau de fluides rhéofluidifiants par calcul numérique d'ondes non linéaires". Thesis, Vandoeuvre-les-Nancy, INPL, 2010. http://www.theses.fr/2010INPL037N/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'étude théorique de la transition vers la turbulence d'écoulements en tuyau de fluides non newtoniens rhéofluidifiants (fluides de Carreau) est menée, avec l'approche consistant à calculer des «~structures très cohérentes~» sous la forme d'«~ondes non linéaires~». Pour cela un code pseudo-spectral de type Petrov-Galerkin, permettant de suivre des solutions ondes non linéaires tridimensionnelles dans l'espace des paramètres par continuation, est développé. Ce code est validé par comparaison à des résultats existants en fluide newtonien, et grâce à un test de consistance en fluide non newtonien. Une convergence spectrale exponentielle est obtenue dans tous les cas. Ce code est utilisé pour chercher (guidé par des résultats expérimentaux récents) de nouvelles solutions de nombre d'onde azimutal fondamental égal à 1, sans succès pour l'instant. Par contre des solutions de nombre d'onde azimutal fondamental égal à 2 ou 3 sont obtenues par continuation à partir du cas newtonien. La rhéofluidification induit, en termes de nombres de Reynolds critiques, un retard à l'apparition de ces ondes par rapport au cas newtonien. Ce retard est caractérisé, et le parallèle est fait avec divers résultats expérimentaux qui montrent un retard à l'apparition de bouffées turbulentes en fluides non newtoniens
The transition to turbulence in pipe flows of shear-thinning fluids is studied theoretically. The method used is the computation of `exact coherent structures' that are tridimensional nonlinear waves. For this purpose a pseudo-spectral Petrov-Galerkin code is developped, which also allows to follow solution branches in the parameter space with continuation methods. This code is validated by recovering already published results in the Newtonian case, and by a consistency test in the non-Newtonian case. A spectral exponential convergence is obtained in all cases. This code is used to seek (guided by recent experimental results) new solutions of fundamental azimuthal wavenumber equal to 1,without success at the time being. On the contrary solutions with a fundamental azimuthal wavenumber equal to 2 and 3 are obtained by continuation from the Newtonian case. The shear-thinning effects induce, in terms of critical Reynolds numbers, a delay for the onset of these waves, as compared with the Newtonian case. This delay is characterized. An analogy is made with various experimental results that show a delay in the transition to turbulence, more precisely, in the onset of `puffs', in non-Newtonian fluids
10

Gilbert, Jean Charles. "Sur quelques problèmes d'identification et d'optimisation rencontrés en physique des plasmas". Paris 6, 1986. http://www.theses.fr/1986PA066208.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Identification paramétrique de la densité de courant dans le plasma d'un tokamak. Equilibre d'un plasma dans une enceinte à vide avec diaphragme. Méthode à métrique variable réduite en optimisation avec contraintes d’égalité non linéaires. Méthode de quasi-Newton réduite en optimisation sous contraintes avec priorité à la restauration.

Libri sul tema "Méthodes Quasi-Newton":

1

Dodu, J. C. Méthodes de quasi-Newton en optimisation non linéaire. Clamart: Electricité de France, Direction des études et recherches, Service études de réseaux, Département Méthodes d'optimisation et de simulation, 1990.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia