Dissertations / Theses on the topic 'Méthodes à croissance linéaire'

To see the other types of publications on this topic, follow the link: Méthodes à croissance linéaire.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes à croissance linéaire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Durot, Cécile. "Asymptotique fine pour l'estimateur isotonique en régression et méthodes de jackknife : applications à la comparaison de courbes de croissance." Paris 11, 1997. http://www.theses.fr/1997PA112007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Fontez, Bénédicte. "Test d'adéquation des résidus pour la régression non-linéaire. Application aux courbes de croissance en foresterie." Montpellier 2, 2001. http://www.theses.fr/2001MON20005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons une adaptation de l'approche utilisee dans le test de neyman 1937 au cas de la regression non-lineaire et plus specialement au cas des courbes de croissance. Nous illustrons nos resultats avec le cas de courbes de croissance d'arbres. On observe un ensemble de couples de valeurs (x i, y i) liees par une relation du type y = g(x) ou la fonction g est inconnue. On suppose que le modele de regression parametrique : y = b (x, ) + est valide pour , un vecteur de parametres inconnus et , un element aleatoire d'esperance nulle et de variance finie 2. On voudrait tester l'hypothese nulle, h 0 : , tel que g(x) = b(x, ). Premierement, nous etablissons de maniere explicite l'hypothese alternative au modele de regression b. Cette hypothese alternative est construite a partir d'un emboitement de type quadratique qui explore un espace de fonctions de dimension k. Donc, nous testons b(x,) par rapport a une approximation nonparametrique g k(x, , ) du vrai modele g(x), qui verifie la propriete : g k(x,,0) = b(x,). Ensuite, nous construisons un test de type rao qui possede de bonnes proprietes asymptotiques et nous le comparons aux tests edf. Puis, nous generalisons le contexte d'application de ce test au cas de la regression robuste, de la regression non-lineaire avec coefficients aleatoires et au cas de variance heterogene des erreurs. Au fur et a mesure, nous avons illustre nos resultats avec des simulations sur les modeles de croissance frequemment utilises en foresterie comme weibull, logistique et gompertz et nous avons etudie la validite d'un modele de croissance de l'okoume (arbre tropical utilise comme bois de deroulage). Les donnees proviennent de la region d'oyane dans le sud-estuaire du gabon.
3

Moussambi, Membetsi Hermance. "Croissance par la méthode Czochralski de cristaux non linéaires de borate : premières caractérisations." Metz, 2004. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2004/Moussambi_Membetsi.Hermance.SMZ0407.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La phase basse température du métaborate de baryum (-BBO) possède des propriétés optiques non linéaires (ONL) avantageuses pour la génération d'U. V. Par doublage de fréquence. Le tétraborate de lithium est actuellement étudié pour l'application aux systèmes non linéaires. Le travail présenté est destiné à la croissance de ces matériaux et à une première évaluation de leurs potentialités. Nous avons utilisé au laboratoire la méthode Czochralski permettant d'obtenir des cristaux directement à partir d'un bain pur. L'obtention de cristaux de bonne qualité s'est développé autour de différents points : - Le choix des matériaux de départ et particulièrement la synthèse des pourdres de départ de BBO. - La mise au point des paramètres thermiques tels que les gradients de température et la températureà la surface du bain, ainsi que l'adaptation de notre matériel à la technique de croissance Crochralski pour chacun des matériaux. - La mise en forme des échantillons par un technique de polissage respectant l'hygroscopie des cristaux borate et par l'utilisation de techniques d'orientation originales des échantillons BBO par spectroscopie micro-Raman et conoscopie. Des premières caractérisations ont été menées sur des échantillons obtenus. A partir des mesures d'absorption et de coefficients ONL effectifs par Génération de Second harmonique (GSH) nous avons pu non seulement valider le choix de la technique de croissance de -BBO, mais de plus entamer une comparaison avec les cristaux issus de la technique de croissance en solution, celle la plus communénément utilisée dans l'industrie. Les résultats obtenus sont très prometteurs quant à la perspective de génération d'U. V. Par GSH. Les cristaux de LTB ont été mis à la disposition au laboratoire pour des caractérisations par spectroscopie Raman ou par mesures électro-optiques
The low temperature phase of baryum metaborate possesses non linear optical properties (NLO) that offer advantages regarding the generation of U. V. By frequency doubling. Lithium tetraborate is currently being studied for application to linear systems. The work presented concerns the growth of these materials and a first evaluation of their potential. The Czochralski method was used et lab to obtain crystals directly from a pure melt. The production of good quality crystals resulted from some key points. The initial choice of starting materials and the synthesis of powders from BBO in particular. The setup of thermal parameters such as temperature gradients and the temperature at the surface of the melt, as well as the adaptation of our equipement to the Czochralski growth technique for each material. The preparation of samples using polishing techniques respecting the hygroscopy of borate crystals and using original orientation techniques of BBO samples by micro-Raman spectroscopy and conoscopy. Original characterizations were made from the obtained samples. From absorption measures and effective ONL coefficients from Second Harmonic Generation, (SHG) we were able to not only validate the choice of -BBO crystal growth technique, but also perform a comparison with crystals from the liquid crystal growth technique, the most widely used method in industry. The obtained results are very encouraging regarding the generation of U. V. D by SHG. LTB crystals were available to the laboratory for characterization by Raman spectroscopy or by electro-optical measures
4

Vera, Carine. "Modèles linéaires mixtes multiphasiques pour l'analyse de données longitudinales : Application à la croissance des plantes." Montpellier 2, 2004. http://www.theses.fr/2004MON20161.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Saunal, Christian. "Modélisation de la cinétique de croissance de cristaux de KTiOPO4 de grandes dimensions : importance de la sursaturation et de l'hydrodynamique." Nancy 1, 1995. http://www.theses.fr/1995NAN10277.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement l'importance des matériaux pour l'optique non linéaire n'est plus discutée, en particulier ceux de la famille KTiOPO4 (KTP). Le développement de nouvelles applications implique de maitriser la croissance homogène de cristaux de grandes dimensions. Ce travail présente plusieurs aspects complémentaires et a comme intérêt: - de développer des outils informatiques qui permettent la reconstruction et le dessin de l'évolution morphologique du monocristal durant la croissance ; - d'utiliser les modèles théoriques qui prédisent la morphologie d'un cristal et d'en situer les limites pour KTP ; - d'évaluer les paramètres hydrodynamiques pertinents ainsi que le degré de sursaturation a l'interface solide-liquide ; - de proposer des solutions pratiques pour améliorer de façon reproductible la qualité et la dimension de cristaux de KTP obtenus par croissance en flux
6

Ribot, Magali. "Étude théorique de méthodes numériques pour les systèmes de réaction-diffusion; application à des équations paraboliques non linéaires et non locales." Phd thesis, Université Claude Bernard - Lyon I, 2003. http://tel.archives-ouvertes.fr/tel-00004563.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On s'intéresse dans cette thèse à l'étude de méthodes numériques pour les systèmes de réaction-diffusion. Tout d'abord, on étudie le schéma par régularisation du résidu et ses extrapolations; ce schéma introduit un préconditionneur en espace lors de la discrétisation en temps. On prouve la stabilité en norme usuelle et la convergence en norme d'énergie de cette méthode et on l'applique au préconditionnement de méthodes spectrales par des méthodes d'éléments finis. Cette application nécessite le calcul d'asymptotiques précises des polynômes de Legendre et de leurs extrema. On prouve aussi la convergence et l'ordre deux d'une méthode de splitting semi-discrétisée en temps pour les systèmes de réaction-diffusion, l'approximation de Peaceman-Rachford. Enfin, on applique ces méthodes à la simulation d'une équation parabolique non linéaire pour modéliser la croissance de grains et à une équation parabolique non locale venant de la mécanique statistique et modélisant les systèmes autogravitants de fermions.
7

Cayemitte, Jean-Marie. "Accumulation des biens, croissance et monnaie." Thesis, Paris 2, 2014. http://www.theses.fr/2014PA020001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse construit un modèle théorique qui renouvelle l’approche traditionnelle de l’équilibre du marché. En introduisant dans le paradigme néo-classique le principe de préférence pour la quantité, il génère de façon optimale des stocks dans un marché concurrentiel. Les résultats sont très importants, car ils expliquent à la fois l’émergence des invendus et l’existence de cycles économiques. En outre, il étudie le comportement optimal du monopole dont la puissance de marché dépend non seulement de la quantité de biens étalés, mais aussi de celle de biens achetés. Contrairement à l’hypothèse traditionnelle selon laquelle le monopoleur choisit le prix ou la quantité qui maximise son profit, il attire, via un indice de Lerner généralisé la demande à la fois par le prix et la quantité de biens exposés. Quelle que soit la structure du marché, le phénomène d’accumulation des stocks de biens apparaît dans l’économie. De plus, il a l’avantage d’expliquer explicitement les achats impulsifs non encore traités par la théorie économique. Pour vérifier la robustesse des résultats du modèle théorique, ils sont testés sur des données américaines. En raison de leur non-linéarité, la méthode de Gauss-Newton est appropriée pour analyser l’impact de la préférence pour la quantité sur la production et l’accumulation de biens, et par conséquent sur les prévisions de PIB. Enfin, cette thèse construit un modèle à générations imbriquées à deux pays qui étend l’équilibre dynamique à un gamma-équilibre dynamique sans friction. Sur la base de la contrainte de détention préalable d’encaisse, il ressort les conditions de sur-accumulation du capital et les conséquences de la mobilité du capital sur le bien-être dans un contexte d’accumulation du stock d’invendus
This thesis constructs a theoretical model that renews the traditional approach of the market equilibrium. By introducing into the neoclassical paradigm the principle of preference for quantity, it optimally generates inventories within a competitive market. The results are very important since they explain both the emergence of unsold goods and the existence of economic cycles. In addition, it studies the optimal behavior of a monopolist whose the market power depends not only on the quantity of displayed goods but also that of goods that the main consumer is willing to buy. Contrary to the traditional assumption that the monopolist chooses price or quantity that maximizes its profit, through a generalized Lerner index (GLI) it attracts customers’ demand by both the price and the quantity of displayed goods. Whatever the market structure, the phenomenon of inventory accumulation appears in the economy. Furthermore, it has the advantage of explicitly explaining impulse purchases untreated by economics. To check the robustness of the results,the theoretical model is fitted to U.S. data. Due to its nonlinearity, the Gauss-Newtonmethod is appropriate to highlight the impact of consumers’ preference for quantity on production and accumulation of goods and consequently GDP forecast. Finally, this thesis builds a two-country overlapping generations (OLG) model which extends the dynamic OLG equilibrium to a frictionless dynamic OLG gamma-equilibrium. Based on the cash-inadvance constraint, it highlights the conditions of over-accumulation of capital and welfare implications of capital mobility in a context of accumulation of stock of unsold goods
8

Zhou, Chao. "Model Uncertainty in Finance and Second Order Backward Stochastic Differential Equations." Palaiseau, Ecole polytechnique, 2012. https://pastel.hal.science/docs/00/77/14/37/PDF/Thesis_ZHOU_Chao_Pastel.pdfcc.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal de cette thèse est d'étudier quelques problèmes de mathématiques financières dans un marché incomplet avec incertitude sur les modèles. Récemment, la théorie des équations différentielles stochastiques rétrogrades du second ordre (2EDSRs) a été développée par Soner, Touzi et Zhang sur ce sujet. Dans cette thèse, nous adoptons leur point de vue. Cette thèse contient quatre parties dans le domain des 2EDSRs. Nous commençons par généraliser la théorie des 2EDSRs initialement introduite dans le cas de générateurs lipschitziens continus à celui de générateurs à croissance quadratique. Cette nouvelle classe des 2EDSRs nous permettra ensuite d'étudier le problème de maximisation d'utilité robuste dans les modèles non-dominés. Dans la deuxième partie, nous étudions ce problème pour trois fonctions d'utilité. Dans chaque cas, nous donnons une caractérisation de la fonction valeur et d'une stratégie d'investissement optimale via la solution d'une 2EDSR. Dans la troisième partie, nous fournissons également une théorie d'existence et unicité pour des EDSRs réfléchies du second ordre avec obstacles inférieurs et générateurs lipschitziens, nous appliquons ensuite ce résultat à l'étude du problème de valorisation des options américaines dans un modèle financier à volatilité incertaine. Dans la quatrième partie, nous étudions des 2EDSRs avec sauts. En particulier, nous prouvons l'existence d'une unique solution dans un espace approprié. Comme application de ces résultats, nous étudions un problème de maximisation d'utilité exponentielle robuste avec incertitude sur les modèles. L'incertitude affecte à la fois le processus de volatilité, mais également la mesure des sauts
The main objective of this PhD thesis is to study some financial mathematics problems in an incomplete market with model uncertainty. In recent years, the theory of second order backward stochastic differential equations (2BSDEs for short) has been developed by Soner, Touzi and Zhang on this topic. In this thesis, we adopt their point of view. This thesis contains of four key parts related to 2BSDEs. In the first part, we generalize the 2BSDEs theory initially introduced in the case of Lipschitz continuous generators to quadratic growth generators. This new class of 2BSDEs will then allow us to consider the robust utility maximization problem in non-dominated models. In the second part, we study this problem for exponential utility, power utility and logarithmic utility. In each case, we give a characterization of the value function and an optimal investment strategy via the solution to a 2BSDE. In the third part, we provide an existence and uniqueness result for second order reflected BSDEs with lower obstacles and Lipschitz generators, and then we apply this result to study the problem of American contingent claims pricing with uncertain volatility. In the fourth part, we define a notion of 2BSDEs with jumps, for which we prove the existence and uniqueness of solutions in appropriate spaces. We can interpret these equations as standard BSDEs with jumps, under both volatility and jump measure uncertainty. As an application of these results, we shall study a robust exponential utility maximization problem under model uncertainty, where the uncertainty affects both the volatility process and the jump measure
9

Gökcan, Hatice. "Modélisation moléculaire de la réactivité de GABA-AT : de petits modèles représentatifs à la protéine complète, de la mécanique moléculaire à la chimie quantique, du statique au dynamique." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0130/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La compréhension des enzymes et de leurs mécanismes catalytiques est d'une grande importance dans le développement de médicaments plus efficaces Pour mieux appréhender ces phénomènes, différentes approches théoriques comme les méthodes QM, MM-MD et QM/MM, peuvent être utilisées. L'objectif principal de cette thèse est d'obtenir une meilleure compréhension des mécanismes de réactivité et de la dynamique de l'enzyme GABA-AT (y-aminobutyric acid aminotransferase), un modèle d'enzyme dépendante au phosphate pyridoxal (PLP). Notre travail a consisté en 5 étapes vers une plus grande compréhension de GABA-AT. 1) la réaction et le mode d'attachement du substrat naturel GABA ont été étudié pour différents isomères à l'aide de systèmes modèles et de la DFT. 2) l'enzyme a été simulée par dynamique moléculaire classique dans les cas de l'apoenzyme, l'holoenzyme et l'holoenzyme inactivée. Nos résultats montrent que plusieurs résidus du site actif jouent un rôle important et que leur état de protonation ainsi que celui du PLP sont cruciaux dans l'activité de GABA-AT. 3) l'influence des résidus du site actif sur la réactivité a été étudiée par la modélisation quantique de clusters moléculaires. Le plus gros cluster comprenait 165 atomes entouré d'un solvant implicite. 4) de nouvelles routines de diagonalisation pour SEBOMD ont été incorporées dans la suite AMBER à travers l'utilisation des bibliothèques LAPACK et SCALAPACK. Ces nouvelles routines ont été testées et leur efficacité a été évaluée. 5) des énergies libres de réaction ont été évaluées par dynamiques SEBOMD sur des intermédiaires réactionnels GABA-PLP
Understanding enzymes and their catalytic mechanisms is very important in order to develop more effective drugs having little to no side effects. In order to decipher the catalytic behavior of enzymes, different approaches such as QM, MM-MD, and QM/MM can be used and their results can be correlated. The main aim of this thesis is to get a deeper understanding of the mechanistic insights of the reactivity and of the dynamics of the pyridoxal-5-phosphate (PLP) dependent enzyme y-aminobutyric acid aminotransferase (GABA-AT). Because GABA-AT resembles many other PLP-dependent enzymes, understanding it could be of importance for the broad community of biochemists and computational chemists who study such class of proteins. Our work has consisted of five stages to pursuit the comprehension of GABA-AT. First, the reaction and the preferred binding mode of the natural substrate GABA has been elucidated with different isomers by means of model systems with DFT. Second, the dynamics and the behavior of the enzyme has been studied with MM-MD through the use of apoenzyme, holoenzyme and holoenzyme with an inactivator. Third, the effect of the active site residues in the inactivation mechanism has been investigated with the modelling of clusters at the QM level involving key residues. Fourth, new diagonalization routines for the SEBOMD (SemiEmpirical Born-Oppenheimer Molecular Dynamics) approach implemented in the Amber suite of programs, have been incorporated using LAPACK and SCALAPACK libraries, tested and evaluated to optimize the diagonalization procedure of the Fock matrix. Fifth, reaction free energies of PLP containing systems have been investigated with SEBOMD simulations
10

Rame, Jérémy. "Recherche et élaboration de nouveaux matériaux pour les applications laser non-linéaires du moyen infrarouge." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066716.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le moyen infrarouge (MIR) présente un fort intérêt technologique du fait de la présence de bandes de transparence de l’atmosphère dans ce domaine. En effet, elles permettent d’envisager de nombreuses applications à longue distance, telles que la détection de gaz ou le brouillage infrarouge de missiles pour la sécurité des aéronefs civils ou militaires. Les sources paramétriques optiques font partie des technologies de choix pour la génération d’impulsions laser dans ce domaine. Elles nécessitent l’emploi de cristaux non-linéaires pour convertir des signaux laser, du proche infrarouge vers le MIR, dont un état de l’art est présenté dans cette étude. AgGaGeS4 est un candidat prometteur pour ces applications. L’élaboration de ce matériau par la technique de synthèse chimique double zone et la cristallogenèse par la technique Bridgman-Stockbarger est ici présentée. Des lingots d’AgGaGeS4 (φ=28 mm et L=70 mm) ont pu être obtenus. Les facteurs clés pour le développement de ces cristaux ont été mis en évidence, en particulier le contrôle de la volatilité du GeS2. Par ailleurs, un dispositif permettant d’améliorer la méthode de synthèse chimique, en mesurant en temps réel les variations de pression au cours du procédé, est proposé. Concernant ZnGeP2, matériau de référence dans ce domaine, des simulations ab initio ont été réalisées pour étudier l’influence de substitutions ioniques sur les propriétés de ce composé. En complément, des monocristaux de ZGP:Sn ont été élaborés et caractérisés. L’ajout d’étain a permis d’améliorer significativement la transmission optique vers 2 μm, longueur d’onde de pompage de ce cristal
Mid-infrared laser sources have attracted a particular attention due to their potential applications in different fields, such as remote chemical sensing or infrared counter-measures for civilian or military aircrafts safety. One way to produce such sources is the down conversion process in optical parametric oscillators using nonlinear crystals. AgGaGeS4 is a promising candidate for these applications. The chemical synthesis and crystal growth steps of this material processing are presented in this study. Ingots with 28 mm diameter and 70 mm length were grown. The key issue of AgGaGeS4 processing is the control of melt decomposition at high temperature due to the high volatility of GeS2. The influence of GeS2 volatility on melt stoichiometry during the AgGaGeS4 processing is outlined, and solutions to improve crystals quality by controlling this volatility are presented. Otherwise, we present the development of a device which aim to improve the chemical synthesis process by controlling the pressure variations during the chemical reaction. Main interests of this device are to study the chemical reaction which occurs during the process and control the pressure variations during the chemical reaction. Furthermore, ab initio calculations were performed in order to study the properties of ZnGeP2 which is a benchmark material for mid-IR laser conversion. The effect of ionic substitution on ZnGeP2 properties was studied. Moreover, ZnGeP2:Sn crystals were elaborated and characterized. It was demonstrated that ionic substitutions with tin allowed significantly improvements on the crystal transmission around the pump wavelength at 2.05 μm
11

Riah, Rachid. "Théorie des ensembles pour le contrôle robuste des systèmes non linéaires : Application à la chimiothérapie et les thérapies anti-angiogéniques." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT090/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à utiliser la modélisation mathématique avec les outils du contrôle avancé, afin de guider les thérapies pour assurer la contraction de la tumeur. Les buts de cette thèse sont la contribution au développement des méthodes de la théorie des ensembles pour le contrôle robuste des systèmes non linéaires et le développement d’outils numériques pour l’analyse et le contrôle de la croissance tumorale en présence de chimiothérapie et=ou de traitement anti-angiogénique. Génériquement, dans le contexte de la théorie du contrôle, les techniques qui sont théoriquement basées sur certaines propriétés des sous-ensembles de l’espace d’état du système pourraient être désignées comme des méthodes de la théorie des ensembles. Dans la première partie, nous passons en revue les définitions, concepts et outils de la théorie des ensembles existants dans la littérature pour réponde efficacement à des problématiques de contrôle des systèmes linéaires et non linéaires avec contraintes dures et incertitudes. Dans ce cadre, nous nous intéressons à deux propriétés des ensembles qui sont l’invariance et la contraction. Les problèmes liés à la stabilité des systèmes peuvent être formulés en termes de calcul de leurs domaines d’attraction. Pour des fins de développement, nous rappelons les méthodes de la littérature pour la caractérisation de ces domaines d’attraction pour les systèmes linéaires et non linéaires. Une application importante de ces méthodes est le contrôle de la croissance tumorale en présence de différents traitements. Car dans cette application, plusieurs contraintes peuvent être posées pour éviter l’intoxication des patients pendant les traitements et les méthodes de la théorie des ensembles peuvent les prendre en compte facilement. Pour cette application, nous proposons une méthodologie pour déterminer les domaines d’attraction pour les modèles mathématiques choisis pour simuler la croissance tumorale. Dans la deuxième partie, nous proposons des méthodes de la théorie des ensemble pour la caractérisation des domaines d’attraction pour les systèmes non linéaires incertains. Au début, nous développons des conditions suffisantes pour l’invariance et la contraction d’un ellipsoïde pour des systèmes saturés. Ces conditions permettent de déterminer implicitement une fonction de Lyapunov quadratique locale. Nous montrerons que l’approche proposée est moins conservatrice que celles de la littérature, et donnerons un algorithme pour la caractérisation de l’ellipsoïde invariant et contractif. Pour les systèmes non linéaires incertains, nous développons une condition suffisante pour l’invariance contrôlable robuste pour le cas des incertitudes paramétriques. Une méthode basée sur cette condition est développée pour la caractérisation des domaines d’attraction des systèmes avec ces incertitudes. Ensuite, nous nous concentrons sur l’étude des systèmes non linéaires avec incertitudes additives, et nous donnons également une autre méthode pour la caractérisation de leurs domaines d’attraction. Ces méthodes sont des méthodes facilement traitables en utilisant les outils de l’optimisation convexe. Dans la troisième partie, nous développons des outils numériques pour la caractérisation des domaines d’attraction pour les modèles de la croissance tumorale en présence de traitements, en particulier la chimiothérapie et le traitement anti-angiogénique. Ces domaines contiennent tous les états des patients pour lesquels ils existent des protocoles de traitement efficaces. Dans ce cadre, nous considérons que les modèles sont incertains car les paramètres exactes qui les définissent sont en pratique inconnus. Ces outils sont basés sur les méthodes rappelées et développées dans cette thèse. Plusieurs informations utiles pour une thérapie tumorale efficace peuvent être extraites de ces domaines
This thesis aims at using the mathematical modeling with advanced control tools to guide therapies for the contraction of the tumor. The aims of this thesis are the contribution to the development of the set-theoretic methods for robust control of nonlinear systems and the development of analytical tools for the analysis and control of tumor growth in presence of chemotherapy and/oranti-angiogenic therapy. Generically, in the context of control theory, techniques that are theoretically based on some properties of subsets of the system state space could be referred as set-theoretic methods.In the first part, we review the definitions, concepts and tools of the existing set-theoretic methods in the literature to respond effectively to the control issues of linear and nonlinear systems with hard constraints and uncertainties. In this context, we are interested in two properties of sets that are invariance and contractiveness. The problems associated with the stability of the systems may be formulated in terms of calculation of their domain of attraction. For development purposes, we recall methods from the literature for characterizing these domains of attraction for linear and nonlinear systems. An important application of these methods is the control of tumor growth in the presence of different treatments. For this application, several constraints can be imposed in order to avoid the patient intoxications during the treatments and the set-theoretic methods can consider easily these constraints. For this latter application, we propose a methodology to estimate the domains of attraction for the mathematical models chosen to simulate the tumor growth.In the second part, we propose set-theoretic methods for the characterization of the domains ofattraction for linear and nonlinear uncertain systems. At the beginning, we develop sufficient conditions for the invariance and contractiveness of an ellipsoid for saturated systems. These conditions allow implicitly determining a local Lyapunov function. We will show that the proposed approach is less conservative than those in the literature, and we give an algorithm for characterizing the invariant ellipsoids. For uncertain nonlinear systems, we develop a sufficient condition for the robust controlled invariance in the case of parametric uncertainties. A method based on this condition is developed for characterizing the domains of attraction for nonlinear systems with these uncertainties. Then we focus on the study of nonlinear systems with additive uncertainties, and we also give a method for the characterization of their domains of attraction. These methods are easily treatable using convex optimization tools.In the third part, we develop numerical tools for characterizing the domains of attraction for themodels of tumor growth in the presence of treatments, particularly chemotherapy and anti-angiogenictreatment. These domains contain all the states of the patients for whom effective treatment protocols exist. In this context, we consider that the models are uncertain and in particular the parameters that are unknown in practice. These tools are based on the methods developed in this thesis. Several useful informations for effective tumor therapy can be extracted from these domains
12

Dianzinga, Mamy Rivo. "N-representable density matrix perturbation theory." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0285/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Alors que les approches standards de résolution de la structure électronique présentent un coût de calcul à la puissance 3 par rapport à la complexité du problème, des solutions permettant d’atteindre un régime asymptotique linéaire,O(N), sont maintenant bien connues pour le calcul de l'état fondamental. Ces solutions sont basées sur la "myopie" de la matrice densité et le développement d'un cadre théorique permettant de contourner le problème aux valeurs propres. La théorie des purifications de la matrice densité constitue une branche de ce cadre théorique. Comme pour les approches de type O(N) appliquées à l'état fondamental,la théorie des perturbations nécessaire aux calculs des fonctions de réponse électronique doit être révisée pour contourner l'utilisation des routines coûteuses.L'objectif est de développer une méthode robuste basée uniquement sur la recherche de la matrice densité perturbée, pour laquelle seulement des multiplications de matrices creuses sont nécessaires. Dans une première partie,nous dérivons une méthode de purification canonique qui respecte les conditions de N-representabilité de la matrice densité à une particule. Nous montrons que le polynôme de purification obtenu est auto-cohérent et converge systématiquement vers la bonne solution. Dans une seconde partie, en utilisant une approche de type Hartree-Fock, nous appliquons cette méthode aux calculs des tenseurs de réponses statiques non-linéaires pouvant être déterminés par spectroscopie optique. Au delà des calculs à croissance linéaire réalisés, nous démontrons que les conditions N-representabilité constituent un prérequis pour garantir la fiabilité des résultats
Whereas standard approaches for solving the electronic structures present acomputer effort scaling with the cube of the number of atoms, solutions to overcomethis cubic wall are now well established for the ground state properties, and allow toreach the asymptotic linear-scaling, O(N). These solutions are based on thenearsightedness of the density matrix and the development of a theoreticalframework allowing bypassing the standard eigenvalue problem to directly solve thedensity matrix. The density matrix purification theory constitutes a branch of such atheoretical framework. Similarly to earlier developments of O(N) methodology appliedto the ground state, the perturbation theory necessary for the calculation of responsefunctions must be revised to circumvent the use of expensive routines, such asmatrix diagonalization and sum-over-states. The key point is to develop a robustmethod based only on the search of the perturbed density matrix, for which, ideally,only sparse matrix multiplications are required. In the first part of this work, we derivea canonical purification, which respects the N-representability conditions of the oneparticledensity matrix for both unperturbed and perturbed electronic structurecalculations. We show that this purification polynomial is self-consistent andconverges systematically to the right solution. As a second part of this work, we applythe method to the computation of static non-linear response tensors as measured inoptical spectroscopy. Beyond the possibility of achieving linear-scaling calculations,we demonstrate that the N-representability conditions are a prerequisite to ensurereliability of the results
13

Mainka, Jérôme. "Méthodes hybrides en programmation linéaire." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de point intérieur pour la programmation linéaire ont montré qu'elles pouvaient rivaliser avec la méthode du simplexe sur de nombreux problèmes. Le praticien en programmation linéaire est donc confronté à une double interrogation: doit-il utiliser une méthode de point intérieur ou l'algorithme du simplexe ? Quelle méthode de point intérieur choisir ? Dans cette thèse, nous proposons une classification des méthodes de point intérieur en rapport avec la méthode de barrière logarithmique. Nous étudions également un algorithme original pour passer d'une méthode de point intérieur à l'algorithme du simplexe, lorsque l'on souhaite disposer d'une base à l'optimum. Nous montrons que cette approche permet d'accélérer les performances de l'optimisation sur des exemples issus de l'industrie
14

Savoundararadja, Ravindranath. "Évaluation comparative des méthodes multicritères de régression ordinale : méthodes UTA et méthodes MORALS." Paris 6, 1987. http://www.theses.fr/1987PA066616.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Deux modèles UTA et MORALS sont étudiés pour expliquer un préordre de préférence par des critères qualitatifs et/ou quantitatifs. UTA fait usage de la technique de programmation linéaire sous certaines conditions de normalisation et estime des paramètres de régression positifs. MORALS, une méthode de régression linéaire multiple, estime des coefficients sans restriction de signe.
15

Mottard, Patrick. "Méthodes semi-analytiques en vibration non linéaire." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27781/27781.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Baey, Charlotte. "Modélisation de la variabilité inter-individuelle dans les modèles de croissance de plantes et sélection de modèles pour la prévision." Phd thesis, Ecole Centrale Paris, 2014. http://tel.archives-ouvertes.fr/tel-00985747.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation de la croissance des plantes a vu le jour à la fin du XXème siècle, à l'intersection de trois disciplines : l'agronomie, la botanique et l'informatique. Après un premier élan qui a donné naissance à un grand nombre de modèles, un deuxième courant a vu le jour au cours de la dernière décennie pour donner à ces modèles un formalisme mathématique et statistique. Les travaux développés dans cette thèse s'inscrivent dans cette démarche et proposent deux axes de développement, l'un autour de l'évaluation et de la comparaison de modèles, et l'autre autour de l'étude de la variabilité inter-plantes. Dans un premier temps, nous nous sommes intéressés à la capacité prédictive des modèles de croissance de plantes, en appliquant une méthodologie permettant de construire et d'évaluer des modèles qui seront utilisés comme outils prédictifs. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de chaque modèle, puis les capacités prédictives des modèles sont comparées à l'aide de critères appropriés. %Cette étude a été appliquée au cas de la betterave sucrière. La deuxième partie de la thèse concerne la prise en compte de la variabilité inter-individuelle dans les populations de plantes. %Il existe en effet une forte variabilité entre plantes, d'origine génétique ou environnementale, dont il est nécessaire de tenir compte. Nous proposons dans cette thèse une approche basée sur l'utilisation de modèles (non linéaires) à effets mixtes pour caractériser cette variabilité. L'estimation paramétrique par maximum de vraisemblance nécessite l'utilisation de versions stochastiques de l'algorithme d'Espérance Maximisation basées sur des simulations de type Monte Carlo par Chaîne de Markov. Après une première application au cas de l'organogenèse chez la betterave sucrière, nous proposons une extension du modèle structure-fonction Greenlab à l'échelle de la population.%, appliqué aux cas de la betterave sucrière et du colza.
17

Marchetti, Charles-Michel. "Méthodes de perturbations singulières en filtrage non linéaire." Aix-Marseille 1, 1986. http://www.theses.fr/1986AIX11023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il s'agit de determiner un developpement asymptotique de la densite conditionnelle dans un probleme de filtrage non lineaire, en utilisant des techniques d'echelles de temps multiples et de perturbations singulieres largement utilisees dans les problemes de controle. Dans une premiere partie, nous considerons le cas ou le signal est une chaine de markov a valeurs dans un espace d'etats fini puis, dans une deuxieme partie le cas ou le signal est une diffusion. Dans chacun des deux cas, nous nous placons dans une situation de perturbation reguliere puis dans une situation de perturbation singuliere, suivant l'echelle de temps a laquelle evolue le processus observe. Dans chacun des deux cas, et dans chaque situation, nous obtenons un developpement asymptotique de la solution de l'equation du probleme de filtrage dont les termes sont plus facilement calculables
18

Orban, Dominique. "Méthodes de points intérieurs pour l'optimisation non-linéaire." Toulouse, INPT, 2001. http://www.theses.fr/2001INPT012H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail se scinde principalement en deux grandes composantes ; l'une de type théorique et l'autre de type numérique. Dans la partie théorique, on se place dans le cadre de l'optimisation non linéaire avec contraintes. La globalisation d'un algorithme de points intérieurs par des régions de confiance est examinée et l'on détaille ses propriétés de convergence, étayées par des expérimentations numériques sur des problèmes de programmation quadratique. Sous des hypothèses du premier et second ordre, les propriétés de convergence locale, asymptotique, d'une classe d'algorithmes de points intérieurs, parmi laquelle l'algorithme précédent, sont étudiées et l'on montre que l'on peut obtenir une convergence sous-quadratique qui a lieu en composantes. Les résultats sont généralisés à un taux de convergence arbitrairement élevé, au prix de la résolution d'un nombre suffisamment élevé de systèmes de Newton pour chaque valeur du paramètre barrière. Ces résultats asymptotiques supposent que la condition de qualification des contraintes d'indépendance des gradients actifs est satisfaite. Il s'avère que la condition de qualification des contraintes peut être relachée en la condition de Mangasarian et Fromowitz, tout en conservant les propriétés de convergence importantes. Les techniques utilisées et les résultats de convergence asymptotique en les composantes sont enfin généralisés à la résolution de systèmes d'équations non linéaires de rang plein. Dans la composante numérique, on examine ensuite l'environnement CUTE et l'on décrit les nouvelles fonctionnalités et les apports de CUTEr.
19

Wieduwilt, Erna K. "Quantum mechanics-based methods for the refinement of crystal structures and the analysis of non-covalent interactions." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0167.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, les orbitales moléculaires extrêmement localisées (ELMOs) ont été utilisées comme briques LEGO électroniques pour accomplir deux objectifs : (i) améliorer la précision des structures cristallines aux rayons X pour des petits et grands systèmes, et (ii) analyser les interactions non-covalentes dans les biomolécules. Les ELMOs sont des orbitales moléculaires strictement localisées sur des petits fragments. Pour cette raison, elles peuvent être calculées sur des petites molécules, stockées dans des bases de données, puis transférées sur des systèmes plus grands pour reconstruire leurs fonctions d’onde et leurs densités électroniques. Dans ce but, nous avons exploité les bibliothèques contenant les ELMOs de tous les fragments élémentaires (atomes, liaisons et groupes fonctionnels) des acides aminés. Dans les situations où une plus grande précision s’avère nécessaire, nous avons utilisé la technique de «~embed-ding~» QM/ELMO, dans laquelle la partie cruciale du système examiné est traitée à un niveau quantique supérieur tandis que le reste du système est décrit par des ELMOs gelées. En ce qui concerne le premier des objectifs mentionnés ci-dessus, il est important de noter que les raffinements cristallographiques standards sont basés sur le « independent atom model~» (IAM), qui estime la densité électronique à partir d’une somme de densités atomiques sphériques. Cependant, les longueurs des liaisons élément-hydrogène résultant des raffinements IAM sont systématiquement trop courtes. Une méthode qui résout ce problème est la technique « Hirshfeld atom refinement » (HAR), qui est basée sur le calcul direct de la densité électronique en utilisant des méthodes de mécanique quantique. Pour les petites molécules, il a été prouvé que la technique HAR donne des longueurs de liaison élément-hydrogène en très bon accord avec les valeurs de référence neutroniques. Toutefois, pour les grands systèmes, l’applicabilité de la méthode HAR traditionnelle est limitée, car les calculs entièrement QM sous-jacents deviennent trop coûteux. Pour pallier ce problème, dans le travail décrit dans cette thèse, les bibliothèques ELMO et les techniques QM/ELMO ont été couplées avec la méthode HAR dans le but de raffiner les structures de grands systèmes moléculaires, mais également pour obtenir des structures plus précises dans le cas de petites molécules. En outre, la nécessité ou non d’utiliser des méthodes post-HF pour HAR a été évaluée.Le deuxième objectif de cette thèse concerne l’analyse des interactions non covalentes, qui pose des problèmes similaires à ceux rencontrés en cristallographie aux rayons X. En effet, les techniques « non-covalent interaction » (NCI) et « independent gradient model~» (IGM), qui sont couramment appliquées dans l’analyse des interactions non covalentes, dépendent du calcul de la densité électronique. Ainsi, pour analyser les interactions non covalentes dans des grands systèmes, les deux techniques ont recours aux mêmes densités électroniques pro-moléculaires utilisées dans le « independent atom model ». Cependant, dans le cas des analyses NCI et IGM, ces densités fournissent également des résultats biaisés. Pour surmonter cet inconvénient, nous avons couplé les deux méthodes avec les bibliothèques ELMO, donnant naissance aux techniques NCI-ELMO et IGM-ELMO, qui ont ensuite été appliquées pour identifier, classer et quantifier approximativement les interactions non covalentes dans des polypeptides et des protéines
In the work presented in this thesis, extremely localized molecular orbitals (ELMOs) were used as electronic LEGO building blocks to accomplish mainly two goals: (i) obtaining more accurate X-ray crystal structures for small and large systems, and (ii) analyzing non-covalent interactions in biomolecules. In fact, ELMOs are molecular orbitals that are strictly localized on small molecular fragments. Due to this strict localization, they may be computed on small molecules, stored in databases and then transferred to larger systems to reconstruct their wavefunctions and electron densities. To this end, we exploited the ELMO libraries, which contain the ELMOs for all the elementary fragments (atoms, bonds and functional groups) of the twenty natural amino acids. In situations where a higher accuracy was needed, we used the QM/ELMO embedding technique, in which the crucial part of the system under exam is treated at a higher quantum mechanical level, while the rest is described using frozen ELMOs. Concerning the first of the goals mentioned above, it is important to note that standard crystallographic refinements are based on the so-called independent atom model (IAM), which approximates the electron density as a sum of spherically averaged atomic densities. However, the element-hydrogen bond lengths resulting from IAM refinements are systematically too short. A method that solves this problem is the Hirshfeld atom refinement (HAR), a technique based on directly computing the electron density for the molecule under exam using quantum mechanical calculations. For small molecules, HAR has been proven to give element-hydrogen bond lengths that are in very good agreement with neutron reference values. However, for large systems, the applicability of the traditional HAR method is limited because the underlying fully QM calculations become computationally too expensive. Therefore, in the work presented in this thesis, the ELMO libraries and the QM/ELMO techniques have been coupled with the HAR method to refine large systems and also to obtain more accurate structures of small molecules. Furthermore, the necessity of using post-HF methods for HAR has been also evaluated. Concerning the second goal addressed in this dissertation, a similar problem as the one met in X-ray crystallography also arises in the analysis of non-covalent interactions. In fact, also the non-covalent interaction (NCI) and independent gradient model (IGM) techniques, which are commonly applied in analyses of non-covalent interactions, crucially depend on the computation of the electron density. Therefore, to analyze non-covalent interactions in large systems, both techniques had to resort to promolecular electron densities, which are the same densities used in the IAM. However, also in the cases of NCI and IGM analyses, these densities provide biased results. To overcome this drawback, we have coupled both methods with the ELMO libraries, giving rise to the NCI-ELMO and IGM-ELMO techniques, which were then applied to identify, classify and approximately quantify non-covalent interactions in polypeptides and proteins
20

Gloria, Antoine. "Modélisation et méthodes numériques multiéchelles en élasticité non linéaire." Phd thesis, Ecole des Ponts ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00166171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte principalement sur l'étude mathématique de méthodes numériques
pour l'homogénéisation de fonctionnelles intégrales utilisées en élasticité non linéaire. Ces mé-
thodes couplent, au niveau mésoscopique, un matériau hyperélastique hétérogène ou un réseau de
liens en interaction, avec, au niveau macroscopique, un modèle d'élasticité non linéaire. La loi de
constitution macroscopique est obtenue par la résolution de problèmes mésoscopiques, continus ou
discrets. Aux chapitres 1, 2 et 3 on introduit les modèles mécaniques et les outils mathématiques et
numériques utilisés par la suite. Aux chapitres 5, 6 et 7, on présente une méthode directe de réso-
lution numérique du comportement homogénéisé d'un matériau composite périodique en grandes
déformations et un cadre général pour l'analyse des méthodes d'homogénéisation numérique. On
démontre notamment la convergence de méthodes numériques classiques sous des hypothèses gé-
nérales ainsi qu'un résultat de correcteur numérique. On étend enfin les résultats au couplage avec
des méthodes de sur-échantillonnage. Aux chapitres 8, 9 et 10, nous considérons une modélisation
mésoscopique par un système discret. Nous étudions d'abord un problème de G-fermeture pour un
réseau de résistances. Au chapitre suivant nous démontrons un résultat de représentation intégrale
pour l'énergie d'un système de spins en interaction. Enfin, nous dérivons un modèle hyperélastique
continu à partir d'un réseau stochastique de points en interaction, et l'appliquons pour démontrer
la convergence de modèles discrets développés en mécanique. Dans une dernière partie, chapitre 11,
nous présentons une nouvelle méthode numérique pour résoudre des problèmes d'interaction fluide
structure, où la structure est décrite par une coque tridimensionnelle.
21

Gerges, Youssef. "Méthodes de réduction de modèles en vibroacoustique non-linéaire." Phd thesis, Université de Franche-Comté, 2013. http://tel.archives-ouvertes.fr/tel-00933423.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les structures soumises à des vibrations sont rencontrées dans diverses applications. Dans denombreux cas, elles sont de nature linéaires, mais quand les amplitudes des oscillations deviennentimportantes, cela provoque un comportement non-linéaire. Par ailleurs, les oscillations desstructures dans un milieu fluide entrainent une interaction fluide-structure. Cette thèse porte surla modélisation du problème fluide-structure non-linéaire. Les cas de non-linéarités étudiés sont lanon-linéarité grands-déplacements caractéristique des structures minces, la non-linéarité localiséegéométrique décrivant une liaison non-linéaire entre deux structures et la non-linéarité acoustiqueparticularité des très hauts niveaux de pression.Pour la modélisation de ces problèmes, il se peut que le calcul en réponse demeure infaisable enraison du temps de calcul. D'une part, on est amené à résoudre des systèmes matriciels (symétriquesou non) de grandes tailles générés par la méthode des éléments finis et d'autre part, cetterésolution demande une évaluation de la force non-linéaire à chaque itération. Afin de diminuer lecoût de calcul, la réduction de modèle par des bases de réductions couplées avec un algorithmeparallélisant l'évaluation de la force non-linéaire, est une alternative à la résolution du systèmecomplet. La construction des bases de réduction doit s'adapter au mieux à chaque problème traité.La base modale du problème linéaire est une première approximation puis elle est enrichie par desinformations qui proviennent à la fois de la nature du couplage et du comportement non-linéaire
22

Hohweiller, Tom. "Méthodes de décomposition non-linéaire pour l'imagerie X spectrale." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles. Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un \textit{a priori} sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an \textit{a priori} of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype
23

Kaboul, Hanane. "Méthodes d'intégration produit pour les équations de Fredholm de deuxième espèce : cas linéaire et non linéaire." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La méthode d'intégration produit a été proposée pour résoudre des équations linéaires de Fredholm de deuxième espèce singulières dont la solution exacte est régulière, au moins continue. Dans ce travail on adapte cette méthode à des équations dont la solution est juste intégrable. On étudie également son extension au cas non linéaire posé dans l'espace des fonctions intégrables. Ensuite, on propose une autre manière de mettre en oeuvre la méthode d'intégration produit : on commence par linéariser l'équation par une méthode de type Newton puis on discrétise les itérations de Newton par la méthode d'intégration produit
The product integration method has been proposed for solving singular linear Fredholm equations of the second kind whose exact solution is smooth, at least continuous. In this work, we adapt this method to the case where the solution is only integrable. We also study the nonlinear case in the space of integrable functions. Then, we propose a new version of the method in the nonlinear framework : we first linearize the eqaution by a Newton type method and then discretize the Newton iterations by the product integration method
24

Omheni, Riadh. "Méthodes primales-duales régularisées pour l'optimisation non linéaire avec contraintes." Thesis, Limoges, 2014. http://www.theses.fr/2014LIMO0045/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’inscrit dans le cadre de la conception, l’analyse et la mise en œuvre d’algorithmes efficaces et fiables pour la résolution de problèmes d’optimisation non linéaire avec contraintes. Nous présentons trois nouveaux algorithmes fortement primaux-duaux pour résoudre ces problèmes. La première caractéristique de ces algorithmes est que le contrôle des itérés s’effectue dans l’espace primal-dual tout au long du processus de la minimisation, d’où l’appellation “fortement primaux-duaux”. En particulier, la globalisation est effectuée par une méthode de recherche linéaire qui utilise une fonction de mérite primale-duale. La deuxième caractéristique est l’introduction d’une régularisation naturelle du système linéaire qui est résolu à chaque itération pour calculer une direction de descente. Ceci permet à nos algorithmes de bien se comporter pour résoudre les problèmes dégénérés pour lesquels la jacobienne des contraintes n’est pas de plein rang. La troisième caractéristique est que le paramètre de pénalisation est autorisé à augmenter au cours des itérations internes, alors qu’il est généralement maintenu constant. Cela permet de réduire le nombre d’itérations internes. Une étude théorique détaillée incluant l’analyse de convergence globale des itérations internes et externes, ainsi qu’une analyse asymptotique a été présentée pour chaque algorithme. En particulier, nous montrons qu’ils jouissent d’un taux de convergence rapide, superlinéaire ou quadratique. Ces algorithmes sont implémentés dans un nouveau solveur d’optimisation non linéaire qui est appelé SPDOPT. Les bonnes performances de ce solveur ont été montrées en effectuant des comparaisons avec les codes de références IPOPT, ALGENCAN et LANCELOT sur une large collection de problèmes
This thesis focuses on the design, analysis, and implementation of efficient and reliable algorithms for solving nonlinearly constrained optimization problems. We present three new strongly primal-dual algorithms to solve such problems. The first feature of these algorithms is that the control of the iterates is done in both primal and dual spaces during the whole minimization process, hence the name “strongly primal-dual”. In particular, the globalization is performed by applying a backtracking line search algorithm based on a primal-dual merit function. The second feature is the introduction of a natural regularization of the linear system solved at each iteration to compute a descent direction. This allows our algorithms to perform well when solving degenerate problems for which the Jacobian of constraints is rank deficient. The third feature is that the penalty parameter is allowed to increase along the inner iterations, while it is usually kept constant. This allows to reduce the number of inner iterations. A detailed theoretical study including the global convergence analysis of both inner and outer iterations, as well as an asymptotic convergence analysis is presented for each algorithm. In particular, we prove that these methods have a high rate of convergence : superlinear or quadratic. These algorithms have been implemented in a new solver for nonlinear optimization which is called SPDOPT. The good practical performances of this solver have been demonstrated by comparing it to the reference codes IPOPT, ALGENCAN and LANCELOT on a large collection of test problems
25

El, Ouafdi Ahmed Fouad. "Méthodes primales-duales pour la programmation non linéaire non convexe." Mémoire, Université de Sherbrooke, 2003. http://savoirs.usherbrooke.ca/handle/11143/4589.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation sous forme de systèmes non linéaires avec ou sans contrainte apparaît régulièrement dans les problèmes de mathématiques appliqués en optimisation. Dans ce mémoire, nous décrivons en premier lieu le principe de base de certaines méthodes de résolution de problèmes d'optimisation dans le cas non linéaire. La différence principale entre ces méthodes se situe au niveau de la technique de globalisation adoptée, à savoir la technique de région de confiance ou la technique de recherche linéaire. Les deux approches de globalisation utilisent des fonctions de mérite ou un filtre pour renforcer la convergence globale vers des points critiques. Nous établissons ensuite un cadre général qui permet de calculer la direction de recherche pour ces méthodes. Enfin, nous présentons un algorithme primal-dual de pénalité mixte qui utilise la technique de globalisation de recherche linéaire et une fonction de mérite primale-duale pour renforcer la convergence globale vers un point stationnaire de première ordre.
26

Gloria, Antoine. "Modélisation et méthodes numériques multi-échelles en élasticité non linéaire." Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0710.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte principalement sur l’étude mathématique de méthodes numériques pour l’homogeneisation de fonctionnelles intégrales utilisées en élasticité non linéaire. Ces méthodes couplent, au niveau mésoscopique, un matériau hyperélastique hétérogène ou un réseau de liens en interaction, avec, au niveau macroscopique, un modèle d’élasticité non linéaire. La loi de constitution macroscopique est obtenue par la résolution de problèmes mésoscopiques, continus ou discrets. Aux chapitres 1, 2 et 3 on introduit les modèles mécaniques et les outils mathématiques et numériques utilisés par la suite. Aux chapitres 5, 6 et 7, on présente une méthode directe de résolution numérique du comportement homogénéisé d’un matériau composite périodique en grandes déformations et un cadre général pour l’analyse des méthodes d'homogénéisation numérique. On démontre notamment la convergence de méthodes numériques classiques sous des hypothèses générales ainsi qu’un résultat de correcteur numérique. On étend enfin les résultats au couplage avec des méthodes de sur-échantillonnage. Aux chapitres 8, 9 et 10, nous considérons une modélisation mesoscopique par un système discret. Nous étudions d’abord un problème de G-fermeture pour un réseau de résistances. Au chapitre suivant nous démontrons un résultat de représentation intégrale pour l’énergie d’un système de spins en interaction. Enfin, nous dérivons un modèle hyperélastique continu à partir d’un réseau stochastique de points en interaction, et l’appliquons pour démontrer la convergence de modèles discrets développés en mécanique. Dans une dernière partie, chapitre 11, nous présentons une nouvelle méthode numérique pour résoudre des problèmes d’interaction fluide structure, ou la structure est décrite par une coque tridimensionnelle.
27

Gosselet, Pierre. "Méthodes de décomposition de domaine et méthodes d'accélération pour les problèmes multichamps en mécanique non-linéaire." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00277771.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous développons des algorithmes parallèles pour la résolution de problèmes non-linéaires de grande taille. Les cadres d'application sont la simulation de matériaux hyperélastiques incompressibles en grandes déformations et l'étude des milieux poreux, dont les modélisations choisies font apparaître des inconnues en déplacement et en pression.

Nous retenons une stratégie éléments-finis associée à un solveur Newton-Raphson et une décomposition de domaine sans recouvrement combinée à un solveur de Krylov.

Nous proposons des améliorations pour adapter ces approches à nos problèmes, puis pour des cas plus exigeants nous définissons une nouvelle approche de décomposition de domaine, appelée approche hybride, permettant de mieux respecter la physique des phénomènes et unifiant les approches classiques. Nous proposons également des stratégies d'accélération du processus non-linéaire. Enfin un cadre orienté objet est exposé pour la mise en oeuvre de l'ensemble des méthodes proposées.
28

Leroudier, Julien. "Croissance rapide en solution de cristaux pour l'optique non linéaire quadratique." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00626529.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La croissance cristalline de KH2PO4(KDP)and K(H1-xDx)2PO4(DKDP)a été fortement étudiée depuis de nombreuses années. Les propriétés optiques nonlinéaires (conversion de fréquence: doublage pour le KDP et triplage pour le DKDP)et les études fondamentales sur les mécanismes de croissance sont à la base du développement important de la croissance de ces cristaux. Au début des années 90, un fort intérêt s'est porté sur le KDP et DKDP pour les dispositifs optiques à large ouverture pour les applications industrielles de fusion inertielle comme au NAtional Ignition Facility (NIF) aux USA ou pour le laser MégaJoule en France. La dimension de ces optiques (40*40 cm²) nécessite des cristaux géants crûs en solution. Une technique de croissance rapide a été développé par abaissement de température dans un réacteur de 1000L et par une filtration en continu afin d'éviter la nucléation spontanée. Cette méthode est très robuste et fiable pour la croissance rapide de cristaux géants de KDP mais néanmoins montre des limitations inhérentes à cette méthode. En effet, cela mène à des cristaux inhomogènes (défauts, inhomogénéités isotopiques)ce qui est rédhibitoire pour des solutions solides intermédiaires comme le DKDP : la composition en début de croissance peut varier significativement de celle en fin de croissance. Très récemment, des méthodes par circulation de solution en conditions stationnaires ont été développées pour palier à ce problèmeet sont considérées comme les plus pertinentes. C'est pourquoi nous avons développé un système par circulation en conditions stationnaires avec un traitement original de la solution. Dans un premier temps, le système a été testé sur un composé modèle KDP puis dans un deuxième sur le composé utilisé pour l'application DKDP.
29

Khanagha, Vahid. "Nouvelles méthodes multi-échelles pour l'analyse non-linéaire de la parole." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821896.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une recherche exploratoire sur l'application du Formalisme Microcanonique Multiéchelles (FMM) à l'analyse de la parole. Dérivé de principes issus en physique statistique, le FMM permet une analyse géométrique précise de la dynamique non linéaire des signaux complexes. Il est fondé sur l'estimation des paramètres géométriques locaux (les exposants de singularité) qui quantifient le degré de prédictibilité à chaque point du signal. Si correctement définis est estimés, ils fournissent des informations précieuses sur la dynamique locale de signaux complexes. Nous démontrons le potentiel du FMM dans l'analyse de la parole en développant: un algorithme performant pour la segmentation phonétique, un nouveau codeur, un algorithme robuste pour la détection précise des instants de fermeture glottale, un algorithme rapide pour l'analyse par prédiction linéaire parcimonieuse et une solution efficace pour l'approximation multipulse du signal source d'excitation.
30

Pignet, Nicolas. "Méthodes hybrides d’ordre élevé pour la mécanique des solides non-linéaire." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous intéressons aux développements des méthodes hybrides d'ordre élevé (Hybrid High-Order, HHO, en anglais) pour la mécanique des solides non-linéaire. Les méthodes HHO sont formulées en termes d'inconnues de face portées par le squelette du maillage et d'inconnues dans les cellules qui sont ajoutées pour des raisons d'approximation et de stabilité de la méthode. Ces méthodes présentent de nombreux avantages dans le cadre de la mécanique des solides~: textit{(i)} formulation primale ; textit{(ii)} suppression du verrouillage numérique dû aux problèmes d'incompressibilité ; textit{(iii)} ordre d'approximation arbitraire (symbole dollar) kgeq1(symbole dollar) ; textit{(iv)} utilisation de maillages polyédriques avec des interfaces possiblement non-conformes ; et textit{(v)} coûts numériques attractifs grâce à la condensation statique qui permet d'éliminer les inconnues portées par les cellules tout en maintenant un stencil compact. Dans cette thèse, des méthodes HHO en version primale sont développées pour résoudre le problème des grandes déformations hyperélastiques et des petites déformations plastiques. Une extension aux grandes déformations plastiques est ensuite présentée en utilisant le cadre des déformations logarithmiques. Enfin, un couplage avec une approche de type Nitsche a permis de traiter le problème du contact unilatéral de Signorini avec frottement de Tresca. Des taux de convergence optimaux en (symbole dollar) h^{k+1}(symbole dollar) ont été prouvés en norme d'énergie. %, ainsi que la robustesse à la limite incompressible. L'ensemble de ces méthodes ont été implémentées à la fois dans la librairie open-source DiSk++ et dans le code de calcul industriel open-source code_aster. De nombreux cas-tests bi- et tridimensionnels ont été réalisés afin de valider ces méthodes et de les comparer par rapport aux méthodes éléments finis (symbole dollar) H^1(symbole dollar)-conformes et mixtes
In this thesis, we are interested in the devising of Hybrid High-Order (HHO) methods for nonlinear solid mechanics. HHO methods are formulated in terms of face unknowns on the mesh skeleton. Cell unknowns are also introduced for the stability and approximation properties of the method. HHO methods offer several advantages in solid mechanics: textit{(i)} primal formulation; textit{(ii)} free of volumetric locking due to incompressibility constraints; textit{(iii)} arbitrary approximation order (dollar symbol) kgeq1(dollar symbol) ; textit{(iv)} support of polyhedral meshes with possibly non-matching interfaces; and textit{(v)} attractive computational costs due to the static condensation to eliminate locally cell unknowns while keeping a compact stencil. In this thesis, primal HHO methods are devised to solve the problem of finite hyperelastic deformations and small plastic deformations. An extension to finite elastoplastic deformations is also presented within a logarithmic strain framework. Finally, a combination with Nitsche's approach allows us to impose weakly the unilateral contact and Tresca friction conditions. Optimal convergence rates of order (dollar symbol) h^{k+1}(dollar symbol) are proved in the energy-norm. All these methods have been implemented in both the open-source library DiSk++ and the open-source industrial software code_aster. Various two- and three-dimensional benchmarks are considered to validate these methods and compare them with (dollar symbol) H^1(dollar symbol)-conforming and mixed finite element methods
31

Vila, Michel. "Caractérisation ultrasonore de matériau à l'aide de méthodes d'acoustique non linéaire." Tours, 2004. http://www.theses.fr/2004TOUR4057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Daldoul, Mabrouk. "Contribution aux méthodes proximales et applications à la régression linéaire l1." Dijon, 1995. http://www.theses.fr/1995DIJOS042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le premier chapitre rassemble quelques éléments d'analyse convexe. On rappelle les principaux résultats sur la dualité de Fenchel en adoptant un point de vue non classique, ce qui conduit à des preuves plus simples et moins techniques. Le deuxième chapitre est consacré à une analyse de la convergence de méthodes proximales. On montre, en particulier que l'algorithme proximal généralise, introduit par C. D. Ha, engendre une suite minimisante même en absence de solution. On montre aussi la convergence finie de l'algorithme de Tichonov pour un opérateur dont l'inverse possède la propriété diff-max. Enfin on s'intéresse à l'algorithme de l'inverse partiel en améliorant le résultat de convergence finie. Le chapitre 3 propose une nouvelle approche, pour résoudre le problème de régression linéaire l1. Le point de vue proximal adopte permet de développer plusieurs algorithmes nouveaux qui présentent l'avantage d'être facilement implémentables, de pouvoir traiter une grande variété de contraintes (linéaires ou non linéaires), et d'être parallélisables, ce qui est aussi un avantage pour les problèmes de grandes tailles. On consacre un paragraphe au problème de l'm-estimateur de Huber en donnant un résultat sur le lien entre solutions du problème l1 et solutions du problème de Huber. La partie 4 est une annexe qui contient les programmes en Matlab pour le problème de régression l1 et des résultats numériques
33

Bouafia, Mousaab. "Étude asymptotique des méthodes de points intérieurs pour la programmation linéaire." Thesis, Le Havre, 2016. http://www.theses.fr/2016LEHA0019/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette recherche, on s’intéresse à l’étude asymptotique des méthodes de points intérieurs pour la programmation linéaire. En se basant sur les travaux de Schrijver et Padberg, nous proposons deux nouveaux pas de déplacement pour accélérer la convergence de l'algorithme de Karmarkar et réduire sa complexité algorithmique. Le premier pas est une amélioration modérée du comportement de l'algorithme, le deuxième représente le meilleur pas de déplacement fixe obtenu jusqu'à présent. Ensuite nous proposons deux approches paramétrées de la l'algorithme de trajectoire centrale basé sur les fonctions noyau. La première fonction généralise la fonction noyau proposé par Y. Q. Bai et al., la deuxième est la première fonction noyau trigonométrique qui donne la meilleure complexité algorithmique, obtenue jusqu'à présent. Ces propositions ont apporté des nouvelles contributions d'ordre algorithmique, théorique et numérique
In this research, we are interested by asymptotic study of interior point methods for linear programming. By basing itself on the works of Schrijver and Padberg, we propose two new displacement steps to accelerate the convergence of Karmarkar's algorithm and reduce its algorithmic complexity. The first step is a moderate improvement of the behaviour of this algorithm; the second represents the best fixed displacement step obtained actually. We propose two parameterized approaches of the central trajectory algorithm via a kernel function. The first function generalizes the kernel function given by Y. Q. Bai et al., the second is the first trigonometric kernel function that gives the best algorithmic complexity, obtained until now. These proposals have made new contributions of algorithmic, theoretical and numerical order
34

Deswarte, Raphaël. "Régression linéaire et apprentissage : contributions aux méthodes de régularisation et d’agrégation." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse aborde le sujet de la régression linéaire dans différents cadres, liés notamment à l’apprentissage. Les deux premiers chapitres présentent le contexte des travaux, leurs apports et les outils mathématiques utilisés. Le troisième chapitre est consacré à la construction d’une fonction de régularisation optimale, permettant par exemple d’améliorer sur le plan théorique la régularisation de l’estimateur LASSO. Le quatrième chapitre présente, dans le domaine de l’optimisation convexe séquentielle, des accélérations d’un algorithme récent et prometteur, MetaGrad, et une conversion d’un cadre dit “séquentiel déterministe" vers un cadre dit “batch stochastique" pour cet algorithme. Le cinquième chapitre s’intéresse à des prévisions successives par intervalles, fondées sur l’agrégation de prédicteurs, sans retour d’expérience intermédiaire ni modélisation stochastique. Enfin, le sixième chapitre applique à un jeu de données pétrolières plusieurs méthodes d’agrégation, aboutissant à des prévisions ponctuelles court-terme et des intervalles de prévision long-terme
This thesis tackles the topic of linear regression, within several frameworks, mainly linked to statistical learning. The first and second chapters present the context, the results and the mathematical tools of the manuscript. In the third chapter, we provide a way of building an optimal regularization function, improving for instance, in a theoretical way, the LASSO estimator. The fourth chapter presents, in the field of online convex optimization, speed-ups for a recent and promising algorithm, MetaGrad, and shows how to transfer its guarantees from a so-called “online deterministic setting" to a “stochastic batch setting". In the fifth chapter, we introduce a new method to forecast successive intervals by aggregating predictors, without intermediate feedback nor stochastic modeling. The sixth chapter applies several aggregation methods to an oil production dataset, forecasting short-term precise values and long-term intervals
35

Auburtin, Christian. "Analyse linéaire et non-linéaire de structures poutres planes par éléments finis et méthodes multigrilles sur micro-ordinateur." Vandoeuvre-les-Nancy, INPL, 1990. http://www.theses.fr/1900INPL040N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Hasnaoui, Marwa. "Validation et développement de méthodes pour le suivi de la croissance pré-sevrage des génisses laitières." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/36972.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les objectifs du projet présenté dans ce mémoire étaient de valider l'utilisation de la mesure de circonférence thoracique chez les veaux laitiers pendant la période précédant le sevrage afin d'estimer leur poids corporel et leur gain moyen quotidien, et de vérifier si d'autres mesures corporelles seraient efficaces pour prédire le poids. Pour ce faire, le poids à la balance et les différents paramètres liés à la taille du corps (circonférence thoracique, hauteur au garrot, hauteur aux hanches et largeur aux hanches) de 329 génisses laitières Holstein ont été recueillies à partir de deux fermes laitières situées au Québec. Les mesures ont été prises trois fois par semaine pendant les trois premières semaines de vie et toutes les deux semaines jusqu'à la semaine suivant le sevrage qui avait lieu à 76 jours de vie. Les résultats de cette étude confirment la possibilité d'utiliser la circonférence thoracique ou d'autres paramètres corporels pour prédire le poids corporel avant le sevrage des veaux laitiers. L'équation de prédiction pour le poids corporel résultant en la plus haute corrélation et le plus bas pourcentage de l’erreur quadratique moyenne prédite utilisait la circonférence thoracique. Cette équation ne présentait aucun biais de prédiction contrairement aux équations actuellement utilisées qui présentaient un léger biais de prédiction. Cependant, les résultats suggèrent une meilleure prédiction du gain moyen quotidien des veaux laitiers en période pré-sevrage avec l’équation actuellement utilisée localement.
The objectives of the project presented in this thesis were to validate the use of heart girth measurement in dairy calves during the pre-weaning period to estimate body weight and average daily gain, as well as to verify if other body measurements would also be effective in predicting body weight. Scale body weight and various parameters related to body size (heart girth, withers height, hip height and hip width) of 329 dairy Holstein heifers were collected from two dairy farms located in Quebec. The measurements were taken three times a week during the first three weeks of life and every two weeks until the week following weaning, which was at 76 days of life. The results of this study confirmed the feasibility of using heart girth or other body parameters to predict body weight before weaning of dairy calves. The resulting body weight prediction equation with the highest correlation and the lowest root mean squared percentage error used the heart girth. This equation showed no predictive bias compared to the main equations actually used, which showed slight bias when predicting calf body weight. However, the results suggest a better prediction of the average daily gain of pre-weaning dairy calves with the equation used locally.
37

Veiga, Géraldo. "Sur l'implantation des méthodes de points intérieurs pour la programmation linéaire : Texte imprimé." Paris 13, 1997. http://www.theses.fr/1997PA132010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail vise a l'implantation des algorithmes de points interieurs pour la programmation lineaire. En demarrant avec la premiere implantation d'une variante de l'algorithme de points interieurs qui s'est averee competitive par rapport a la methode du simplexe sur un grand nombre d'experiences numeriques, nous presentons notre contribution pour ce domaine de recherche. A partir d'une famille d'algorithmes de points interieurs de type echelle affine, nous avons developpe une implantation dont les tests numeriques ont confirme sa competitivite, surtout lorsque la taille des problemes testes augmente. Pour une implantation efficace, nous avons developpe des structures de donnees et des techniques de programmation centrees sur la methode d'elimination de gauss appliquee a la resolution d'une sequence de systemes d'equations a matrices symetriques et definies positives. Pour cela, notre approche consiste en un schema de decomposition directe pour les matrices creuses, a l'aide d'une decomposition symbolique effectuee a une etape preparatoire de l'algorithme de programmation lineaire. Une specialisation des methodes duales de points interieurs a ete concue pour les problemes d'optimisation dans les reseaux. Notre implantation utilise une methode du gradient conjugue avec des preconditionneurs diagonaux et des arbres generateurs. Une nouvelle variante de l'algorithme dual propose par tsuchiya et muramatsu a ete ajoutee a notre implantation en vue de la detection anticipee d'une solution optimale. Toujours pour les problemes d'optimisation dans les reseaux, nous avons developpe une methode tronquee du type primal(non realisable)-dual(realisable). Nos remarques finales insistent sur le role des algorithmes de points interieurs parmi les techniques modernes pour la solution des problemes d'optimisation lineaire de grande taille
38

Richou, Adrien. "Étude théorique et numérique des équations différentielles stochastiques rétrogrades." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00543719.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un premier temps, nous étudions une nouvelle classe d'équations différentielles stochastiques rétrogrades (notées EDSRs) qui sont reliées à des conditions de Neumann semi-linéaires relatives à des phénomènes ergodiques. La particularité de ces problèmes est que la constante ergodique apparaît dans la condition au bord. Nous étudions l'existence et l'unicité de solutions pour de telles EDSRs ergodiques ainsi que le lien avec les équations aux dérivées partielles et nous appliquons ces résultats à des problèmes de contrôle ergodique optimal. Dans une deuxième partie nous généralisons des travaux de P. Briand et Y. Hu publiés en 2008. Ces derniers ont prouvé un résultat d'unicité pour les solutions d'EDSRs quadratiques de générateur convexe et de condition terminale non bornée ayant tous leurs moments exponentiels finis. Nous prouvons que ce résultat d'unicité reste vrai pour des solutions qui admettent uniquement certains moments exponentiels finis, ces moments étant reliés de manière naturelle à ceux présents dans le théorème d'existence. Nous améliorons aussi la formule de Feynman-Kac non linéaire prouvée par P. Briand et Y. Hu. Enfin, nous nous intéressons à la résolution numérique d'EDSRs quadratiques markoviennes dont la condition terminale est bornée. Nous estimons dans un premier temps des bornes déterministes sur le processus Z. Nous donnons ensuite un nouveau schéma de discrétisation en temps dont la particularité est que la grille de discrétisation est non uniforme. Enfin nous obtenons une vitesse de convergence pour ce schéma. Par ailleurs, quelques simulations numériques permettent d'étudier l'efficacité de notre nouveau schéma dans un cadre pratique.
39

Le, Touzé David. "Méthodes spectrales pour la modélisation non-linéaire d'écoulements à surface libre instationnaires." Phd thesis, Ecole centrale de nantes - ECN, 2003. http://tel.archives-ouvertes.fr/tel-00370200.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes spectrales sont connues pour leurs propriétés de convergence rapide et de précision. Cependant, leur application à l'hydrodynamique navale reste encore aujourd'hui peu étendue. Le but de ce doctorat est d'étudier les possibilités de leur application à la génération et propagation de houle, dans le cadre de la théorie des écoulements potentiels.
Un bilan des différentes approches spectrales employées jusqu'à présent en hydrodynamique navale est d'abord dressé, étayant le choix des techniques développées au cours de ce travail. L'étude des propriétés de ces techniques est ensuite réalisée sur le ‘noyau' de la méthode, i.e. une cuve tri-dimensionnelle de géométrie figée. En particulier, différentes techniques High-Order Spectral sont comparées entre elles et à la méthode directe, et une nouvelle variante est proposée. Des validations sur des cas de lâchers de surface libre et d'oscillations forcées de surface libre sont présentées et confrontées à diverses méthodes.
L'approche est ensuite étendue, à partir de ce ‘noyau' et au moyen de stratégies de ‘potentiel additionnel', donnant lieu au développement de divers modèles. Ainsi, des houles non-linéaires sont modélisées à l'aide de doublets tournants instationnaires spécifiquement développés. Des cas de reproduction de signaux temporels cibles à une distance, et de génération et propagation de houle irrégulière sont présentés. De plus, une caractéristique avantageuse d'une telle approche spectrale est exploitée pour proposer des modèles originaux de diffraction autour de corps. Ceux-ci allient une génération de houle par méthode spectrale à des modèles de diffraction en fluide parfait ou visqueux, formulés en changement de variable. Des exemples illustratifs de diffraction de cette houle autour de corps bi- ou tri-dimensionnels sont proposés.
Enfin, un modèle original de simulation complète, au second-ordre, du processus de génération et propagation en bassin de houle tri-dimensionnel est réalisé. Il inclut la modélisation de différents batteurs, ainsi qu'un modèle d'absorption, permettant notamment de reproduire les caractéristiques complètes du nouveau bassin de houle de l'École Centrale de Nantes. Ce modèle est validé par comparaison à une solution analytique en régime établi et ses propriétés numériques sont étudiées. L'investigation des ondes libres et leur suppression, ainsi que la caractérisation de zones utiles sont proposées à titre d'application.
40

Georgiou, Georges. "Sur des méthodes de commande non linéaire adaptative : aspects échantillonnés et applications." Paris 11, 1992. http://www.theses.fr/1992PA112171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques classiques de linéarisation reposant sur la compensation des non-linearites, ne sont plus exactes des lors que le modèle de connaisance, des techniques de commande non linéaire adaptative ont été proposées en temps continu. Nous en faisons une étude comparative dans le premier chapitre. Dans le deuxième chapitre nous considérons le problème de la réorientation d'un satellite comportant des parties flexibles, en présence d'incertitudes paramétriques sur le tenseur d'inertie et les paramètres modaux. Nous associons a la loi de commande continue qui linearise et découple le comportement entrée-sortie, des adaptations paramétriques adéquates, afin d'assurer asymptotiquement les objectifs de commande. Dans le troisième chapitre nous proposons une solution numérique au problème de la commande des systèmes non linéaires continus comportant des incertitudes paramétriques. Plus précisément, nous associons a un schéma de commande a échelles de temps multiples des lois d'adaptation paramétriques issues du principe de l'hyperstabilite ou d'une conception de type liapounoff. La stabilité du système complet est assurée et les sorties poursuivent asymptotiquement des trajectoires de référence désirées. Cette méthode de commande peut aussi être utilisée pour la stabilisation d'un point d'équilibre. Dans le quatrième chapitre, un certain nombre de travaux concernant la commande non linéaire des moteurs sont présentes. Dans le cas d'un servomoteur synchrone, avec incertitudes sur la résistance statorique et le couple de la charge, l'algorithme de commande a échelles de temps multiples adaptative est compare a l'algorithme propose dans la littérature pour les systèmes se mettant sous la forme appelée normal-strict-feedback. Des solutions aux problèmes de la robustesse de la commande qui linearise et découple le comportement entrée-sortie du moteur synchrone sot aussi analysées. Finalement, une méthode de commande non linéaire adaptative en temps continu est présentée dans le cas de la commande en couple d'un moteur a induction avec inductances inconnues
41

Shahzadeh, Fazeli Seyed Abolfazi. "Stratégies de redémarrage des méthodes itératives d'algèbre linéaire pour le calcul global." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The objective of this work is to contribute to the resolution of the large eigenproblems and/or the large linear systems by using shared resources on more or less large scale networks. The resolution of large systems in linear algebra is carried out, using the hybrid iterative methods. A hybrid method combines several different numerical methods or several copy of the same numerical method parameterized differently in order to accelerate the convergence of one of the methods. The convergence acceleration of hybrid methods by the numerical methodologies and/or parallel and distributed techniques constitutes the principal objective of this thesis. The acceleration convergence of these methods is dependent on the used restarting strategy. A study is occurred on a hybrid method called Multiple Explicitly Restarted Arnoldi Method (MERAM). We propose two synchronous approaches for the implementation of this method. We also propose a new synchronous hybrid algorithm for Implicitly Restarted Arnoldi Method. Global computing environments, based on Grid-RPC approach, constitute a good choice for resolution of the problems on the computational grid. A typical example of such environments is the NetSolve system. Using such type of architectures requires the definition of new algorithms. An adaptation of asynchronous MERAM on the Netsolve global computing system was conceived. We showed that the asynchronous algorithms of hybrid methods like MERAM are very well adapted to global computing
L'objectif de ce travail est de contribuer à la résolution des grands problèmes de valeur propre et/ou des grands systèmes linéaires en utilisant des ressources partagées sur des réseaux plus ou moins larges. La résolution de grands systèmes d'algèbre linéaire s'effectue, à l'aide des méthodes itératives hybrides. Une méthode hybride combine plusieurs méthodes numériques différentes ou bien plusieurs copy d'une même méthode numérique paramétrées différemment afin d'accélérer la convergence de l'une de ces méthodes. L'amélioration de la vitesse de convergence et d'exécution des méthodes hybrides par des méthodologies numériques et/ou des techniques de calcul parallèle et distribué constitue l'objectif principal de cette thèse. La vitesse de convergence de ces méthodes est dépendante de l'approche utilisée lors du redémarrage du processus itératif. Nous présentons une étude sur une méthode hybride appelée Multiple Explicitly Restarted Arnoldi Method (MERAM), et nous proposons deux approches synchrones pour sa mise en oeuvre. Nous proposons également un nouvel algorithme hybride synchrone pour la méthode Implicitly Restarted Arnoldi Method. Des environnements de calcul global basés sur une approche Grid-RPC constituent un bon choix pour élaborer des programmes de résolution de problèmes sur les grilles de calcul. Un exemple typique de tels environnements est le système NetSolve. L'utilisation de ce type d'architectures nécessite la définition de nouveaux algorithmes. Une adaptation de MERAM asynchrone au système de calcul global NetSolve a été conçue. Nous avons montré que les algorithmes asynchrones de type MERAM sont très bien adaptés au calcul global. Nous avons mis en évidence un certain nombre de problèmes ouverts concernant la programmation des algorithmes hybrides en calcul global
42

Halard, Matthieu. "Méthodes du second ordre pour la conception optimale en élasticité non-linéaire." Paris 9, 1999. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1999PA090029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception optimale de structures élastiques non-linéaires se heurte d'abord au cout de résolution de l'équation d'équilibre soit une vingtaine d'itérations de Newton comprenant une factorisation de la matrice de raideur tangente et une descente-remontée ; puis au mauvais conditionnement du critère à optimiser vis-à-vis des variables de conception ; enfin au traitement des contraintes de conception parfois impératives même au cours de l'optimisation. Les deux premiers points sont résolus en appliquant une méthode de type Newton au système d'optimalité, dans lequel les variables de conception et d'état sont les inconnues. L'algorithme hybride adjoint-direct est techniquement réalisable avec des calculs analytiques de gradients et des dérivées secondes du lagrangien approchées par différences finies. La recherche linéaire dans la direction de Newton est remplacée par une recherche sur un arc linéaire ou parabolique collant à la courbe d'équilibre de l'espace conception-état, afin de se rapprocher d'une méthode de Newton réduite à l'espace de conception. La convergence rapide se voit sur les résultats. Le dernier point est abordé par l'étude d'une méthode de points intérieurs dans laquelle la direction de recherche est déviée vers l'intérieur du domaine de conception pour accroitre la robustesse de l'algorithme. Nous élaborons un autre calcul de déflexion, itératif, fournissant une direction restant dans le domaine linéarisé avec un taux de descente par rapport à la direction de Newton supérieur à un critère de trajectoire centrale. Des exemples bidimensionnels parlants montrent que la combinaison des deux idées allie robustesse et performance. La première partie se clôt sur l'algorithme de conception optimale avec contraintes d'inégalité. La deuxième est consacrée à son application à l'élasticité et à sa programmation avec des couts détaillés car sa performance en dépend. Des cas semi-industriels prouvent l'intérêt des techniques retenues.
43

Meziani, Rachid. "Méthodes interactives en optimisation linéaire sur micro-ordinateur : conception, réalisation et application." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On tente de montrer comment, partant du désir d'appliquer une méthode interactive en programmation linéaire multicritère développée en laboratoire, on aboutit à un modèle diffèrent mais élabore en collaboration avec l'utilisateur. On peut construire un modèle interactif permettant à l'utilisateur non seulement de trouver une solution optimale mais aussi de modifier progressivement cette solution en tenant compte de critères difficiles à formaliser. On illustre ce processus sur un problème de construction d'horaires à air France en présentant une version micro du modèle CHEOPS
44

Kchouk, Bilel. "Méthodes de Chebyshev d'ordres supérieurs pour l'optimisation non linéaire, sans contrainte et différentiable." Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6682.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette Thèse par article, nous nous intéressons au domaine de l'optimisation sans contrainte, non linéaire et différentiable. En considérant la recherche d'un optimum de la fonction f : R[indice supérieur n] [flèche vers la droite] R, on se restreint dans ce travail à chercher une racine x* de la fonction F = [triangle pointant vers le bas] f : R[indice supérieur n] [flèche vers la droite] R[indice supérieur n], c'est-à-dire un point stationnaire de la fonction f. Notre objectif a été de proposer une vision "différente" des méthodes d'ordres supérieurs. À cet effet, cette Thèse regroupera quatre articles qui soulignent le cheminement de notre travail de doctorat et la logique de notre recherche. Dans un premier article, qui servira d'introduction et de mise en contexte de cette Thèse, nous revenons sur les méthodes connues d'ordres supérieurs. Les méthodes de Newton, Chebyshev, Halley et SuperHalley ont en effet été étudiées dans différents travaux. Dans cet article, nous exhibons certaines problématiques reliées à ces méthodes : comment formuler correctement et intelligemment les méthodes utilisant des dérivées d'ordres supérieurs, comment mieux calculer leur complexité, comment vérifier leur convergence. Dans un second article, l'idée des méthodes d'ordres supérieures perçues comme directions de déplacement est proposée. En réalité, cet article exploratoire pose les bases de notre idée principale, les pistes de réflexion, les sources d'optimisme quand [i.e. quant] à l'efficacité de telles méthodes. Nous y proposons deux familles de méthodes : celle de type Halley, qui généralise et regroupe les méthodes de Halley et SuperHalley ; et celle de type Chebyshev, qui englobe et développe les algorithmes de Newton, Chebyshev, et les méthodes d'extrapolations de Jean-Pierre Dussault. Par ailleurs, dans ce chapitre, nous démontrons les propriétés de convergence (dans le cas réel) de telles méthodes et les illustrons dans un cas spécifique. Le troisième article constitue quant à lui le coeur de notre travail. Certaines pistes proposées dans le précédent article ont été abandonnées (la famille de méthode Halley) au profit d'autres plus prometteuses (la famille Chebyshev). Dans ce chapitre, nous élaborons et définissons précisément les méthodes de type Chebyshev d'ordres supérieurs. Une formulation plus globale nous permet d'y regrouper les méthodes d'extrapolations d'ordres supérieurs à 3. La convergence dans R[indice supérieur n] est démontrée (et non plus simplement dans le cas scalaire). Pour cela, nous nous appuyons sur la méthode de Shamanskii, que l'on retrouvera en fin d'article et au chapitre 4. Dans cet article, nous accordons une importance primordiale à la notion d'efficacité d'un algorithme, et en ce sens, nous définissons plus minutieusement (que la quasi-totalité des articles consultés) la notion de coût de calcul d'un algorithme. Cela nous permet de montrer que les méthodes de Chebyshev d'ordres supérieurs concurrencent les méthodes de Shamanskii (c'est-à-dire la méthode de Shamanskii à différents ordres d'itérations), connues pour être des références difficilement battables. En ce sens, plus les problèmes étudiés ont une grande taille, plus l'efficacité de nos méthodes est optimale, en comparaison avec d'autres algorithmes. La partie annexe concerne un complément, effectué dans le cadre de notre recherche. N'ayant pas été publié, nous en énoncons les résultats principaux comme piste de recherche. En effet, nos travaux ont concerné les problèmes en optimisation sans distinction autre que celle du domaine précis d'étude (des fonctions différentiables, sans contraintes, non linéaires). Or dans de nombreux cas, les problèmes que l'on cherche à minimiser ont des structures particulières : certaines fonctions ont des Hessiens creux, dont les éléments nuls sont structurés et identifiables. Autrement dit, il est concevable d'affiner nos travaux pour des cas plus spécifiques, ceux des systèmes dits "sparse". En particulier, les systèmes par bande constituent une illustration récurrente de ce type de fonctions. Nous revenons donc avec certains détails de coûts de calculs et d'efficacités de certains algorithmes présentés dans nos articles.
45

Delignette-Muller, Marie-Laure. "Méthodes de prédiction des aptitudes de croissance des populations de micro-organismes." Lyon 1, 1995. http://www.theses.fr/1995LYO10118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prediction des aptitudes de croissance des micro-organismes en vue d'une prise de decision est un probleme couramment rencontre tant en microbiologie medicale qu'en microbiologie alimentaire. Cette prise de decision, souvent associee a un risque important, est en general soumise a des contraintes temporelles et economiques. Il est alors necessaire de developper des methodes de prediction permettant de donner rapidement et avec un moindre cout une reponse la plus fiable possible. Dans la premiere partie, nous nous interessons a la prediction des aptitudes de croissance d'un micro-organisme pathogene en presence d'antibiotique. Apres avoir retrace l'evolution de la methode classique d'antibiogramme par diffusion et souleve les problemes lies a son utilisation, nous proposons une alternative plus fiable de la methode, basee sur l'etude theorique du phenomene de diffusion de l'antibiotique. Cette methode est testee sur des donnees experimentales, et des applications pratiques sont proposees. La deuxieme partie traite de la prediction de la cinetique de croissance d'une population de micro-organismes a partir de ses premiers points experimentaux. Les methodes classiques de modelisation ne permettent toujours pas de repondre a cette problematique. Deux methodes alternatives sont proposees et comparees aux methodes classiques sur des donnees experimentales. Il s'agit d'une part d'une approche populationnelle basee sur la technique d'inference bayesienne, et d'autre part de l'utilisation de reseaux de neurones artificiels
46

Tachat, Dominique. "Méthodes intérieures en programmation linéaire : élaboration et mise en œuvre de procédures de projection exacte et approchée." Paris 9, 1991. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1991PA090009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons, au cours de cette thèse, travaillé à l'amélioration des performances de l'algorithme de Karmarkar et avons élaboré et mis en œuvre des procédures de projection exacte et approchée pour la résolution de problème de multi flot compatible de coût minimum. Un travail de synthèse des méthodes existantes a été, par ailleurs, réalisé. La convergence théorique de l'algorithme n'étant assurée que lorsque le programme linéaire vérifie l'hypothèse de nullité de l'optimum, nous avons expérimenté différentes techniques élargissant le domaine d'application de cette méthode. Nous avons ainsi défini une heuristique qui, associée à une stratégie particulière de choix de pas de déplacement, permet une bonne convergence de l'algorithme. Nous avons, par ailleurs, implémenté la méthode de Todd et Burrell. Pour réduire considérablement le temps d'exécution de chaque itération, nous avons défini deux projections approchées. La première est née de la propriété d7auite de l'angle entre le gradient de la fonction objectif et le vecteur projeté. Pour la calculer, nous avons implémenté deux méthodes, l'une mettant en œuvre des techniques évoluées d'exploitation de creux des matrices, l'autre associant un test d'arrêt optimal à l'algorithme du gradient conjugué. Les résultats obtenus ont été très encourageants en première phase. La deuxième procédure utilise une méthode vectorielle. Son expérimentation a révélé le caractère compétitif de cette variante avec des logiciels dérivés de l'algorithme de Karmarkar
The thesis addresses the problem of the efficiency improvement of Karmarkar's algorithm. Different methods of both exact and approximate projections for solving the multicommodity network flow problems have been proposed. Other already existing methods have also been analyzed. Although the convergence analysis of the original algorithm has been established only in a zero optimum case, we propose several methods for more general case. Heuristical algorithm has been suggested that ensures fast convergence under the supplementary condition imposed on the step selection. Additionally, the method of Todd and Burrell has been implemented. Two approximate projection methods have been proposed to reduce the average time per iteration. The first one has been based on the observation that the angle of the objective gradient and its projection must always be acute. It has been implemented in two ways: the one exploiting the problem sparsity and the other being a variant of conjugate gradient method with a specific termination condition. Numerical results especially for the first phase are encouraging. In the second method of approximate projection, the basis of the null space of the linear operator is represented explicitly. Computational results proved that the last method outperformed other implementations of the Karmarkar's algorithm
47

Muller, Marie. "Evaluation ultrasonore de l'os cortical par des méthodes d'acoustique linéaire et non linéaire. Application à l'évaluation du micro endommagement osseux." Phd thesis, Université Paris-Diderot - Paris VII, 2006. http://tel.archives-ouvertes.fr/tel-00123909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur la caractérisation ultrasonore de la qualité osseuse de l'os cortical in vitro.
La première partie compare plusieurs techniques d'évaluation ultrasonore de l'os cortical par transmission axiale. Les propriétés ultrasonores mesurées à différentes fréquences au radius in vitro sont comparées à celles mesurées par tomographie quantitative (pQCT) ainsi qu'aux propriétés mécaniques des échantillons. Il en ressort que si les paramètres ultrasonores sont indiscutablement capables de prédire les propriétés mécaniques, leur apport sur les paramètres pQCT (actuellement mesurés en clinique) n'est envisageable que dans le cas d'une approche multi-fréquences et multi-paramètres.
La seconde partie porte sur l'étude du micro endommagement, impliqué dans la fragilisation de l'os. Nous avons fait appel à des paramètres ultrasonores nonlinéaires, qui ont fait leurs preuves dans d'autre domaines pour la mesure de l'endommagement des matériaux. Nous avons montré, en utilisant la technique de Spectroscopie Nonlinéaire Ultrasonore en Résonance, la sensibilité du paramètre ultrasonore nonlinéaire a l'endommagement progressivement accumulé dans l'os in vitro. Une relation exponentielle entre le paramètre ultrasonore nonlinéaire et l'âge des donneurs a été mise en évidence. Ceci a permis de montrer le potentiel de l'acoustique non linéaire pour la détection du micro endommagement osseux, même si des efforts doivent encore être fournis pour l'application in vivo de la méthode.
De façon plus générale, il ressort de ces travaux que le potentiel des ultrasons pour l'évaluation de la qualité osseuse réside probablement dans une approche multi-fréquences, multi-paramètres.
48

Muller, Marie. "Evaluation ultrasonore de l'os cortical par des méthodes d'acoustique linéaire et non linéaire : application à l'étude du micro endommagement osseux." Paris 7, 2006. http://www.theses.fr/2006PA077051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur la caractérisation ultrasonore de la qualité osseuse de l'os cortical in vitro. La première partie compare plusieurs techniques d'évaluation ultrasonore de l'os cortical par transmission axiale. Les propriétés ultrasonores mesurées à différentes fréquences au radius in vitro sont comparées à celles mesurées par tomographie quantitative (pQCT) ainsi qu'aux propriétés mécaniques des échantillons. Il en ressort que si les paramètres ultrasonores sont indiscutablement capables de prédire les propriétés mécaniques, leur apport sur les paramètres pQCT (actuellement mesurés en clinique) n'est envisageable que dans le cas d'une approche multi-fréquences et multi-paramètres. La seconde partie porte sur l'étude du micro endommagement, impliqué dans la fragilisation de l'os. Nous avons fait appel à des paramètres ultrasonores nonlinéaires, qui ont fait leurs preuves dans d'autre domaines pour la mesure de l'endommagement des matériaux. Nous avons montré, en utilisant la technique de Spectroscopie Nonlinéaire Ultrasonore en Résonance, la sensibilité du paramètre ultrasonore nonlinéaire a l'endommagement progressivement accumulé dans l'os in vitro. Une relation exponentielle entre le paramètre ultrasonore nonlinéaire et l'âge des donneurs a été mise en évidence. Ceci a permis de montrer le potentiel de l'acoustique non linéaire pour la détection du micro endommagement osseux, même si des efforts doivent encore être fournis pour l'application in w'v de la méthode. De façon plus générale, il ressort de ces travaux que le potentiel des ultrasons pour l'évaluation de la qualité osseuse réside probablement dans une approche multi-fréquences, multi-paramètres
This work is about ultrasonic characterization of cortical bone quality in vitro. In the first part, different axial transmission technique for cortical bone assessment are compared. Ultrasonic properties measured at different frequencies at the radius in vitro are compared to quantitative tomography (pQCT) properties, as well as to mechanical properties. There is no doubt that the ultrasonic parameters are capable to predict bone mechanical properties, but they may only be able to bring additional information over that brought by the pQCT parameters (currently clinically used) in a multi-parameters, multi-frequencies approach. In the second part, another parameter influencing bone quality is studied : micro damage. We used nonlinear acoustic techniques, used other fields for material's damage assessment. Using Nonlinear Ultrasound Spectroscopy techniques, we demonstrated the sensitivity of nonlinear acoustic parameters to progressively accumulated damage in bone in vitro. Interestingly, an exponential relationship between thé nonlinear acoustic parameter and the age of donors has been found. This allowed to show the potential of nonlinear acoustics for bone micro damage characterization, even though more work has to be conducted for the in vivo application of the technique. The main result of this work is the fact that the potential of Ultrasound for fracture risk assessment probably relies on a multi-frequencies multi-parameters approach
49

Schaal, Arnaud. "Approche hybride pour la résolution de problèmes linéaires en nombres entiers : méthodes intérieures et méta-heuristiques." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes intérieures apparaissent depuis peu comme étant utile dans le cadre de la programmation linéaire en nombres entiers. De même, les méta-heuristiques sont apparues afin de permettre la résolution de certains problèmes en nombres entiers. Le travail poursuivi dans cette thèse consiste à présenter les différentes méthodes de programmation linéaire en nombres entiers avant de proposer de les coordonner dans une nouvelle méthode hybride destinée à résoudre des problèmes linéaires en nombres entiers de grande taille et denses. La méthode hybride proposée dans cette thèse combine une méthode intérieure irréalisable, un algorithme génétique et l'exploitation de coupes économiques. La méthode intérieure trouve rapidement des solutions à composantes réelles appelées points d'ancrage. L'algorithme génétique explore le voisinage de ces points d'ancrage afin de trouver des solutions réalisables à composantes entières satisfaisantes. Les coupes permettent de trouver de nouveaux points d'ancrage recentrés situés à l'intérieur de l'espace admissible initial. Cette approche est présentée puis expérimentée sur 50 problèmes différents allant de 50 variables 50 contraintes à 1000 variables 100 contraintes.
50

Bellot, Jean-Christophe. "Modélisation de la chromatographie préparative non-linéaire des biomolécules." Toulouse, INSA, 1994. http://www.theses.fr/1994ISAT0034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette these, nous avons mene, sur la base de travaux experimentaux et de modelisations numeriques, une etude de la chromatographie preparative non-lineaire, en phase inverse et en echange d'ions. Dans la revue bibliographique sont exposes les modeles decrivant la percolation d'un liquide a travers un milieux poreux, et les equilibres physico-chimiques entre solutes et support. Au chapitre suivant nous presentons le modele, dit modele semi-ideal, que nous avons choisi pour decrire la migration de substances biochimiques dans une colonne chromatographique, et les deux algorithmes numeriques, inspires de la methode des differences finies, que nous avons utilise pour l'integrer. En phase inverse, nous mettons en evidence la difficulte inherente au choix d'un modele d'isothermes competitives pour simuler des separations preparatives de petites biomolecules. Nous precisons qu'a ce probleme s'ajoute celui de savoir comment determiner les parametres de ces memes modeles. En echange d'ions, nous faisons l'etude theorique d'une separation preparative d'un melange de deux proteines, en utilisant le modele de deplacement stoechiometrique (m. D. S. ) pour decrire les interactions proteines-surface chargee. Par le calcul de la productivite, du rendement et du taux d'enrichissement de chaque separation dans differentes conditions operatoires, nous montrons les caracteristiques respectives de deux modes chromatographiques, l'elution isocratique et l'elution par gradient. Au dernier chapitre, nous tentons d'ameliorer la modelisation que l'on peut avoir de la chromatographie preparative des proteines en echange d'ions

To the bibliography