Teses / dissertações sobre o tema "Formulation Inverse"

Siga este link para ver outros tipos de publicações sobre o tema: Formulation Inverse.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 43 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Formulation Inverse".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Dridi, Wafa. "Influence de la formulation sur l'oxydation des huiles végétales en émulsion eau-dans-huile". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0102/document.

Texto completo da fonte
Resumo:
L’oxydation des lipides est un phénomène chimique qui provoque la dégradation des qualités organoleptiques et nutritionnelles des aliments. Cette oxydation dépend de plusieurs paramètres (température, lumière, présence de métaux de transition, présence d’enzymes, état de dispersion des lipides …) qu’il est important de maîtriser notamment au cours du procédé de fabrication du produit alimentaire ou de son stockage. Dans ce contexte, l’oxydation des lipides a été étudiée, à travers la mesure des composés primaires d’oxydation, en phase continue et en émulsion eau-dans-huile. Différentes huiles alimentaires présentant des taux variés en acide α-linolénique (18:3 n-3) ont été choisies. Différentes formulations d’émulsion ont été étudiées (composition de l’interface en polyricinoléate de polyglycérol (PGPR)/monoglycérides distillés, présence de métaux pro-oxydants, d’espèces chélatantes). En revanche, la fraction volumique de phase aqueuse (40%) et le diamètre des gouttelettes d’eau (1 μm) sont maintenus constants. Parallèlement, une méthode de dosage rapide et innovante basée sur la microcalorimétrie différentielle a été mise au point pour un suivi en continu des cinétiques d’oxydation. Pour les 4 huiles végétales étudiées en phase continue et en émulsion, l’oxydabilité est liée à leur teneur en acide α-linolénique, avec la hiérarchie suivante : huile de lin > huile de caméline > huile de colza > huile d'olive. Plus la concentration en molécules pro-oxydantes (sulfate de fer) dans la phase aqueuse est élevée, plus l’oxydation des lipides est importante. L’état de valence du fer et le remplacement du fer par du cuivre n’ont pas d’impact significatif sur la cinétique d'oxydation. En revanche, il est possible de contrôler l’action pro-oxydante du fer II en jouant sur la nature du contre-ion (poids moléculaire, pouvoir chélatant) ou sur la proportion de PGPR utilisée pour stabiliser les émulsions. L’ensemble des résultats obtenus suggère que les tensioactifs lipophiles présents à l’interface eau-huile n’empêchent pas l’interaction des ions pro-oxydants avec les molécules lipidiques de la phase continue mais que leur organisation à l’interface module l’oxydation des lipides
Oxidation is ubiquitous in lipids and causes degradation of organoleptic and nutritional qualities of foods. Lipid oxidation depends on various parameters (temperature, light, transition metals, lipid dispersion state …) that have to be controlled during food processing and storage. In this context, lipid oxidation was followed by measuring the content of primary oxidation products, for lipids in bulk phase and in water-in-oil emulsions. Different edible oils were chosen for their contents of α-linolenic acid (18: 3 n-3). Emulsions were formulated at varying polyglycerol polyricinoleate (PGPR)/distilled monoglycerides concentration ratios (surfactant ratio), with or without the presence of pro-oxydant metals or chelators. In all experiments, the aqueous volume fraction (40%) and the droplet mean diameter (1 μm) remained constant. Besides this study, an innovative and rapid method based on differential microcalorimetry was developed for monitoring the kinetics of lipid oxidation. The oxidability of the studied oils was related to their content in α-linolenic acid according the following order: linseed oil> camelina oil> rapeseed oil> olive oil. The rate of lipid oxidation increased with the iron sulfate concentration in the water phase. The iron valence or the replacement of iron by copper had no significant impact on the oxidation kinetics. However, both the chemical nature of the counter ion (molecular weight, chelating power) and the proportion of PGPR used to stabilize the emulsions were influential factors. On the whole, our results suggest that surfactants at the water-oil interface do not prevent pro-oxidant species to interact with lipids in the continuous phase but that their organization at the interface is a key parameter for controlling lipid oxidation
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Gatina, Jean-Claude. "Contacts de corps élastiques effets tangentiels et normaux, formulation et résolution des problèmes inverse et direct /". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37611048t.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Louati, Kaouthar. "Modèles Mathématiques pour l'Inspection Nondestructive des Pipelines". Phd thesis, Ecole Polytechnique X, 2006. http://tel.archives-ouvertes.fr/tel-00125751.

Texto completo da fonte
Resumo:
Dans les trois premiers chapitres de ce manuscrit de thèse, On propose trois nouvelles méthodes pour l'identification et la localisation des corrosions internes dans les pipelines. La première est par impédance électrique, la deuxième est par ondes guidées ultrasoniques et la troisième est par ultrasons.
On jette les bases mathématiques de ces différentes méthodes et on présente quelques tests numériques qui montrent leur efficacité.
Notre approche rentre dans la stratégie asymptotique développée au CMAP pour la résolution des problèmes inverses d'une manière robuste et stable. On exploite l'existence d'un petit paramètre (la mesure de Hausdorff de la partie corrosive) pour extraire des données la localisation de la partie corrosive et estimer son étendue. Le tout, d'abord, à travers des formules asymptotiques des mesures dépendantes du petit paramètre, rigoureusement établies à l'aide de la méthode des équations intégrales, et ensuite, par le biais de nouveaux algorithmes non-itératifs d'inversion. La plupart de ces algorithmes sont de type MUSIC (multiple signalclassification).
Le dernier chapitre est indépendant des trois premiers. il est consacré à la reconstruction de la forme d'un objet perturbé connaissant le champ lointain électrique ou acoustique. On développe pour le cas acoustique et électrique une relation linéarisée entre le champ lointain, résultant des données sur le bord de conditions de Dirichlet comme paramètre, et la forme de la structure perturbée comme variable. Cette relation nous ouvre la voie à la reconstruction
des coefficients de Fourier de la perturbation et nous aide à la reconstruction des coefficients de Fourier de la perturbation ce qui nous mène à formuler un développement asymptotique complet de
l'opérateur Dirichlet-Neumann.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Panchea, Adina. "Inverse optimal control for redundant systems of biological motion". Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2050/document.

Texto completo da fonte
Resumo:
Cette thèse aborde les problèmes inverses de contrôle optimal (IOCP) pour trouver les fonctions de coûts pour lesquelles les mouvements humains sont optimaux. En supposant que les observations de mouvements humains sont parfaites, alors que le processus de commande du moteur humain est imparfait, nous proposons un algorithme de commande approximative optimale. En appliquant notre algorithme pour les observations de mouvement humaines collectées: mouvement du bras humain au cours d'une tâche de vissage industrielle, une tâche de suivi visuel d’une cible et une tâche d'initialisation de la marche, nous avons effectué une analyse en boucle ouverte. Pour les trois cas, notre algorithme a trouvé les fonctions de coût qui correspondent mieux ces données, tout en satisfaisant approximativement les Karush-Kuhn-Tucker (KKT) conditions d'optimalité. Notre algorithme offre un beau temps de calcul pour tous les cas, fournir une opportunité pour son utilisation dans les applications en ligne. Pour la tâche de suivi visuel d’une cible, nous avons étudié une modélisation en boucle fermée avec deux boucles de rétroaction PD. Avec des données artificielles, nous avons obtenu des résultats cohérents en termes de tendances des gains et les critères trouvent par notre algorithme pour la tâche de suivi visuel d’une cible. Dans la seconde partie de notre travail, nous avons proposé une nouvelle approche pour résoudre l’IOCP, dans un cadre d'erreur bornée. Dans cette approche, nous supposons que le processus de contrôle moteur humain est parfait tandis que les observations ont des erreurs et des incertitudes d'agir sur eux, étant imparfaite. Les erreurs sont délimitées avec des limites connues, sinon inconnu. Notre approche trouve l'ensemble convexe de de fonction de coût réalisables avec la certitude qu'il comprend la vraie solution. Nous numériquement garanties en utilisant des outils d'analyse d'intervalle
This thesis addresses inverse optimal control problems (IOCP) to find the cost functions for which the human motions are optimal. Assuming that the human motion observations are perfect, while the human motor control process is imperfect, we propose an approximately optimal control algorithm. By applying our algorithm to the human motion observations collected for: the human arm trajectories during an industrial screwing task, a postural coordination in a visual tracking task and a walking gait initialization task, we performed an open loop analysis. For the three cases, our algorithm returned the cost functions which better fit these data, while approximately satisfying the Karush-Kuhn-Tucker (KKT) optimality conditions. Our algorithm offers a nice computational time for all cases, providing an opportunity for its use in online applications. For the visual tracking task, we investigated a closed loop modeling with two PD feedback loops. With artificial data, we obtained consistent results in terms of feedback gains’ trends and criteria exhibited by our algorithm for the visual tracking task. In the second part of our work, we proposed a new approach to solving the IOCP, in a bounded error framework. In this approach, we assume that the human motor control process is perfect while the observations have errors and uncertainties acting on them, being imperfect. The errors are bounded with known bounds, otherwise unknown. Our approach finds the convex hull of the set of feasible cost function with a certainty that it includes the true solution. We numerically guaranteed this using interval analysis tools
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Alvarez, Aramberri Julen. "hp-Adaptive Simulation and Inversion of Magnetotelluric Measurements". Thesis, Pau, 2015. http://www.theses.fr/2015PAUU3056/document.

Texto completo da fonte
Resumo:
La magnéto-tellurique (MT) (Cagniard 1953, Tikhonov 1950) est une technique d'exploration de la Terre basée sur des mesures de champs électromagnétiques (EM). Une source naturelle (non artificielle) harmonique en temps et située dans l'ionosphère (Weaver 1994) produit un champ EM régi par les équations de Maxwell. Les champs électromagnétiques sont enregistrés par plusieurs récepteurs placés sur la surface de la Terre. Ces mesures sont utilisées pour produire une image du sous-sol à partir d'un procédé d'inversion utilisant des méthodes numériques. Nous utilisons la méthode hp-FEM résultant d'une extension du travail de Demkowicz 2005. Nous avons développé un logiciel qui résout, pour la première fois, le problème MT avec des éléments finis auto-adaptatifs. La méthode hp-FEM permet des raffinements locaux, à la fois en taille h et en ordre p sur les éléments, ce qui est un avantage notoire puisque la combinaison de ces deux types de critères permet de mieux capter la présence de singularités, fournissant ainsi des erreurs de discrétisation faible. C'est donc une méthode très précise dont la convergence est exponentielle (Gui and Babuska 1986, Babuska and Guo 1996). En raison des défis d'implémentation encore non résolus (Demkowicz et al. 2002) et de la complexité technique des calculs hp-FEM en 3D, nous nous limitons, dans ce travail, à des calculs en 1D et 2D.Le domaine de calcul est tronqué par un matériau absorbant (Perfectly Matched Layer PML, Berenger 1994), qui est conçu pour s'adapter automatiquement aux propriétés physiques des matériaux. En particulier, il s'ajuste efficacement à l'interface air-sol, où le contraste entre la conductivité des matériaux atteint jusqu'à seize ordres de grandeur. Dans cette thèse, nous présentons également des résultats préliminaires pour la mise en place d'une technique dimensionnelle adaptative plus connue sous le nom de DAM (Dimensionally Adaptive Method (DAM)). Lorsque la distribution de la résistivité du sous-sol dépend de multiples variables spatiales, une analyse correcte de la dimensionnalité (Ledo 2005, Martí et al. 2009, Weaver and Agarwal 2000) rend parfois possible de considérer les différentes régions avec des dimensions spatiales différentes. Par exemple, il est parfois possible d’interpréter la distribution comme une formation unidimensionnelle plus quelques hétérogénéités en 2D (ou 3D). Basée sur cette interprétation, la DAM tire profit d’une telle situation. Ainsi, l'idée principale de cette méthode est d'effectuer l'adaptativité sur la dimension spatiale en commençant par un problème de faible dimension et en utilisant les résultats obtenus pour minimiser le coût des problèmes de dimension supérieure. Nous commençons l'inversion avec un modèle 1D. Les résultats de ce problème d'inversion 1D sont utilisés comme information a priori sur les modèles de dimension supérieure. Un avantage fondamental de cette approche est que nous pouvons utiliser les solutions des problèmes de dimension inférieure précédemment calculées comme composantes du terme de régularisation associé à un problème de dimension supérieure afin d'augmenter la robustesse de l'inversion. Cette thèse propose également une analyse numérique rigoureuse de divers aspects des problèmes MT. En particulier, nous avons: (a) étudié l'effet de la source, (b) effectué une analyse fréquentielle de sensibilité, (c) illustré l'augmentation du taux de convergence lorsque l'adaptativité hp est employée, (d) séparé les effets 1D et 2D dans la solution numérique et (e) exploré l'intérêt de considérer différentes variables pour effectuer l'inversion
The magnetotelluric (MT) method is a passive exploration technique that aims at estimating the resistivity distribution of the Earth's subsurface, and therefore at providing an image of it. This process is divided into two different steps. The first one consists in recording the data. In a second step, recorded measurements are analyzed by employing numerical methods. This dissertation focuses in this second task. We provide a rigorous mathematical setting in the context of the Finite Element Method (FEM) that helps to understand the MT problem and its inversion process. In order to recover a map of the subsurface based on 2D MT measurements, we employ for the first time in Mts a multi-goal oriented self adaptive hp-Finite Element Method (FEM). We accurately solve both the full formulation as well as a secondary field formulation where the primary field is given by the solution of a 1D layered media. To truncate the computational domain, we design a Perfectly Matched Layer (PML) that automatically adapts to high-contrast material properties that appear within the subsurface and on the air-ground interface. For the inversion process, we develop a first step of a Dimensionally Adaptive Method (DAM) by considering the dimension of the problem as a variable in the inversion. Additionally, this dissertation supplies a rigorous numerical analysis for the forward and inverse problems. Regarding the forward modelization, we perform a frequency sensitivity analysis, we study the effect of the source, the convergence of the hp-adaptivity, or the effect of the PML in the computation of the electromagnetic fields and impedance. As far as the inversion is concerned, we study the impact of the selected variable for the inversion process, the different information that each mode provides,and the gains of the DAM approach
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Buchert, Pascale. "Polymerisation d'un monomere cationique, le chlorure de methacryloxyethyltrimethylammonium, en microemulsion inverse : formulation, caracterisation et comportement rheologique des microlatex formes". Université Louis Pasteur (Strasbourg) (1971-2008), 1988. http://www.theses.fr/1988STR13106.

Texto completo da fonte
Resumo:
Des poly (chlorure de methacryloyloethyltrimethylammonium) (madquat) solubilises dans des microgouttelettes d'eau dispersees dans une huile ont ete prepares par polymerisation en microemulsion inverse. Les microlatex formes presentent des comportements newtoniens sous cisaillement jusqu'a des fractions volumiques de 50% et rheo-fluidifiantes au dela
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Buchert, Pascale. "Polymérisation d'un monomère cationique, le chlorure de méthacryloxyéthyltriméthylammonium, en microémulsion inverse formulation, caractérisation et comportement rhéologique des microlatex formés /". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376122803.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Adde, Geoffray. "Méthodes de traitement d'image appliquées au problème inverse en magnéto-électro-encéphalographie". Marne-la-vallée, ENPC, 2005. https://pastel.archives-ouvertes.fr/pastel-00001593.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Clément, François. "Une formulation en temps de parcours par migration pour la détermination des vitesses de propagation acoustique à partir de données sismiques bi-dimensionnelles". Paris 9, 1994. http://www.theses.fr/1994PA090033.

Texto completo da fonte
Resumo:
L'objet de cette thèse est la mise en œuvre d'une méthode, reposant sur une formulation en temps de parcours par migration, permettant la détermination automatique des vitesses de propagation acoustique à partir de données sismiques bidimensionnelles. Cette approche peut s'interpréter comme une méthode de dualité appliquée au problème usuel de minimisation de l'erreur des moindres carres entre les données et les mesures prédites. Les trois chapitres de la première partie concernent la construction d'outils de base: simulation numérique de l'équation des ondes acoustiques par différences finies, séparation des effets de propagation et de réflexion par représentation des paramètres acoustiques dans une base multi-échelle et migration quantitative par préconditionnement de l'opérateur de migration usuel obtenu à partir d'un calcul de gradient. Les quatre chapitres de la seconde partie concernent la reformulation en temps elle-même: motivations et idées directrices, description de la nouvelle modélisation directe, calcul et visualisation des gradients de la nouvelle fonction coût et résultats de minimisation de cette fonction coût. Les illustrations numériques portent sur des données synthétiques obtenues à partir d'un modèle à structure simple mais comportant d'importantes variations latérales de vitesse. Les résultats d'inversion de ces données sont très satisfaisant en ce sens qu'ils sont obtenus par une méthode de minimisation locale (de type quasi-Newton) à partir d'un point initial très pauvre (constante)
The aim of this thesis is the implantation of a method, wich consists in a migration-based traveltime formulation, allowing the automatic detremination of the velocities from 2D seismic data. This approach interprets itself as a duality method applied ti the usual minimisation problem of the least-square error between data and predicted measures. The three chapters of the first part deal with the construction of basic tools : finite differences numerical simulation of the acoustic wave equation, separation of the propagation and reflection effects by representation of the acoustic parameters on a multiscaled basis and quantitative migration through a preconditionning of the usual migration operator obtained via a gradient calculation. The four chapters of the second part deal with the time formulation itself : motivations and key ideas, description of the new forward model, computation and visualisation of the gradients of the new cost functionand results of the minimisation of this cost function. Numerical illustrations are obtained with synthetic data wich are computed from a model with a simple structure but with important lateral velocity variations. THe results of the inversion of these data are very satisfying as they are obtained by a local (Quasi-Newton-based) minimisation method from a very poor initial point (constant)
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Park, Won-Kwang. "Diffraction inverse par des inclusions minces et des fissures". Phd thesis, Ecole Polytechnique X, 2009. http://pastel.archives-ouvertes.fr/pastel-00004834.

Texto completo da fonte
Resumo:
Le contrôle non destructif de défauts du type fissures pénétrables ou impénétrables constitue un problème inverse très intéressant parmi ceux de la physique, de l'ingénierie des matériaux et structures, des sciences médicales, etc., et en soi est donc un sujet d'importance sociétale certaine. Le but de cette thèse est de développer des méthodes de reconstruction efficaces afin de les appliquer à une variété de problèmes de fissures. Premièrement, nous proposons un algorithme non-itératif afin de déterminer les extrémités de fissures conductrices, algorithme basé sur une formulation asymptotique appropriée et une méthode d'identification de pôles simples et de résidus d'une fonction méromorphe. Puis un algorithme non-itératif de type MUSIC(MUltiple SIgnal Classification) est considéré afin d'imager une fissure pénétrable ou impénétrable à partir du champ qu'elle diffracte, ce champ pouvant être représenté grâce à une formulation asymptotique rigoureuse. Une technique d'ensembles de niveaux est alors proposé afin de reconstruire une fissure pénétrable, deux fonctions d'ensemble de niveaux étant utilisées pour la décrire puisqu'une méthode traditionnelle d'ensembles de niveaux ne le permet pas de par sa petite épaisseur. Finalement, cette thèse traite de la reconstruction des fissures courtes et étendues avec des conditions limites de Dirichlet. Nous développons alors un algorithme de type MUSIC pour reconstruire les petites fissures et un algorithme d'optimisation pour les fissures longues basé sur la formulation asymptotique. Des simulations numériques nombreuses illustrent les performances des méthodes de reconstruction proposées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Langlois, Raphaël. "Non-parametric evaluation of stress fields for history-dependent materials : Formulation, Validation and Appications". Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0002.

Texto completo da fonte
Resumo:
Récemment, de nouvelles approchesont été développées pour estimer les champs decontraintes sans postuler de modèle de comportementdans un cadre élastique à partir de mesuresde champs cinématiques et de mesuresponctuelles d’efforts. Ces méthodes permettentd’évaluer des champs de contraintes dans desscénarios qui requièrent classiquement de postulera priori une forme de la relation de comportement.Cette thèse s’inscrit dans la suite de ces travauxet propose une extension de la méthode de« Data-Driven Identification » initiée par Leygueet al. (2018) pour des matériaux dépendants del’histoire. La méthode proposée est validée surun essai à géométrie complexe pour un matériauprésentant des instabilités de type Piobert-Lüders où peu de lois de comportement macroscopiquesexistent, compromettant l’utilisationdes méthodes conventionnelles de type « FiniteElement Method Updating ».Dans un second temps, des essais de propagationde fissures de fatigue sont analysés.Une procédure d’optimisation du maillage utilisépour la mesure des déformations par « DigitalImage Correlation » est développée afin de décrireau mieux les surfaces libres formées par lesfissures. Les champs de contraintes en pointede fissures sont obtenus pour différentes longueursde fissures et différents cas de chargementet permettent de mettre en évidence desinteractions entre les fissures et des élémentsgéométriques des éprouvettes utilisées. Finalement,en introduisant des hypothèses sur la partitionélastique-plastique de la déformation, les déformationsplastiques en pointe de fissures sontévaluées puis analysées
In recent years, new paradigms havebeen proposed to identifiy stress fields withoutany postulate on the form of the constitutive relationfor elastic materials from full-field kinematicmeasurements. These methods allow the evaluationof stress fields on geometries which usuallyrequire the a priori formulation of a constitutivemodel.The present work is an extension of theso-called Data-Driven Identification proposed byLeygue et al. (2018) to history-dependent materials.The proposed extension is validated witha test on a complex geometry sample for a lowcarbonsteel exhibiting Piobert–Lüders instabilitieswhere classical methodes such as « Finite-Element Method Updating » cannot be reasonablyemployed.Second, fatigue crack propagation tests areanalysed. A meshing strategy is proposed to accountfor the free boundaries introduced by thepropagating crack in a strain measurement by« Digital Image Correlation ». The stress fieldsat the crack tip are estimated for various cracklengths and loadings to highligth interactions betweenthe crack and the geometric features of thesamples. Finally, using minimal hypotheses theplastic strains are estimated and analysed
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Romero, Morante Carolina. "Etude d'un inhibiteur de dépôts en émulsion inverse eau/huile : formulation et mécanismes de rétention sur des substrats représentatifs des milieux pétroliers". Besançon, 2006. http://www.theses.fr/2006BESA2068.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Adde, Geoffray. "Méthodes de Traitement d'Image Appliquées au Problème Inverse en Magnéto-Electro-Encéphalographie". Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001593.

Texto completo da fonte
Resumo:
Ce travail de Thèse traite des problèmes directs et inverses de la magnétoencéphalographie (MEG) et de l'électroencéphalographie (EEG). Trois thématiques y sont abordées. Le problème direct est traité à l'aide des méthodes d'éléments frontière. Une nouvelle formulation, dite formulation symétrique, est proposée. Cette nouvelle formulation est ensuite appliquée au problème de la tomographie par impédance électrique pour lequel deux algorithmes d'estimation de conductivité sont proposés. Le problème inverse est traité dans le cadre des méthodes image. Des techniques de régularisation d'image par processus de diffusion sont transposées au problème inverse pour contraindre la reconstruction de sources distribuées. Plusieurs algorithmes sont proposés dont un calculant la solution inverse de variation totale minimale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Taillandier, Cédric. "Formulation de la tomographie des temps de première arrivée à partir d'une méthode de gradient : un pas vers une tomographie interactive". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004850.

Texto completo da fonte
Resumo:
La tomographie des temps de première arrivée cherche à estimer un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée pointés sur les sismogrammes. Le modèle de vitesse obtenu peut alors permettre une interprétation structurale du milieu ou bien servir de modèle initial pour d'autres traitements de l'imagerie sismique. Les domaines d'application de cette méthode s'étendent, à des échelles différentes, de la géotechnique à la sismologie en passant par la géophysique pétrolière. Le savoir-faire du géophysicien joue un rôle important dans la difficile résolution du problème tomographique non-linéaire et mal posé. De nombreuses recherches ont entrepris de faciliter et d'améliorer cette résolution par des approches mathématique ou physique. Dans le cadre de ce travail, nous souhaitons développer une approche pragmatique, c'est-à-dire que nous considérons que le problème tomographique doit être résolu par un algorithme interactif dont les paramètres de réglage sont clairement définis. L'aspect interactif de l'algorithme facilite l'acquisition du savoir-faire tomographique car il permet de réaliser, dans un temps raisonnable, de nombreuses simulations pour des paramétrisations différentes. Le but poursuivi dans cette thèse est de définir, pour le cas spécifique de la tomographie des temps de première arrivée, un algorithme qui réponde au mieux à ces critères. Les algorithmes de tomographie des temps de première arrivée classiquement mis en oeuvre aujourd'hui ne répondent pas à nos critères d'une approche pragmatique. En effet, leur implémentation ne permet pas d'exploiter l'architecture parallèle des supercalculateurs actuels pour réduire les temps de calcul. De plus, leur mise en oeuvre nécessite une paramétrisation rendue complexe du fait de la résolution du système linéaire tomographique. Toutes ces limitations pratiques sont liées à la formulation même de l'algorithme à partir de la méthode de Gauss- Newton. Cette thèse repose sur l'idée de formuler la résolution du problème tomographique à partir de la méthode de plus grande descente pour s'affranchir de ces limitations. L'étape clé de cette formulation réside dans le calcul du gradient de la fonction coût par rapport aux paramètres du modèle. Nous utilisons la méthode de l'état adjoint et une méthode définie à partir d'un tracé de rais a posteriori pour calculer ce gradient. Ces deux méthodes se distinguent par leur formulation, respectivement non-linéaire et linéarisée, et par leur mise en oeuvre pratique. Nous définissons ensuite clairement la paramétrisation du nouvel algorithme de tomographie et validons sur un supercalculateur ses propriétés pratiques : une parallélisation directe et efficace, une occupation mémoire indépendante du nombre de données observées et une mise en œuvre simple. Finalement, nous présentons des résultats de tomographie pour des acquisitions de type sismique réfraction, 2-D et 3-D, synthétiques et réelles, marines et terrestres, qui valident le bon comportement de l'algorithme, en termes de résultats obtenus et de stabilité. La réalisation d'un grand nombre de simulations a été rendue possible par la rapidité d'exécution de l'algorithme, de l'ordre de quelques minutes en 2-D.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Demirci, Nagehan. "Formulation And Implementation Of A Fractional Order Viscoelastic Material Model Into Finite Element Software And Material Model Parameter Identification Using In-vivo Indenter Experiments For Soft Biological Tissues". Master's thesis, METU, 2012. http://etd.lib.metu.edu.tr/upload/12614080/index.pdf.

Texto completo da fonte
Resumo:
Soft biological tissue material models in the literature are frequently limited to integer order constitutive relations where the order of differentiation of stress and/or strain is integer-valued. However, it has been demonstrated that fractional calculus theory applied in soft tissue material model formulation yields more accurate and reliable soft tissue material models. In this study, firstly a fractional order (where the order of differentation of stress in the constitutive relation is non-integer-valued) linear viscoelastic material model for soft tissues is fitted to force-displacement-time indentation test data and compared with two different integer order linear viscoelastic material models by using MATLAB®
optimization toolbox. After the superiority of the fractional order material model compared to integer order material models has been shown, the linear fractional order material model is extended to its nonlinear counterpart in finite deformation regime. The material model developed is assumed to be isotropic and homogeneous. v A user-subroutine is developed for the material model formulated to implement it into the commercial finite element software Msc.Marc 2010. The user-subroutine developed is verified by performing a small strain finite element analysis and comparing the results obtained with linear viscoelastic counterpart of the model on MATLAB®
. Finally, the unknown coefficients of the fractional order material model are identified by employing the inverse finite element method. A material parameter set with an amount of accuracy is determined and the material model with the parameters identified is capable of simulating the three different indentation test protocols, i.e., &ldquo
relaxation&rdquo
, &ldquo
creep&rdquo
and &ldquo
cyclic loading&rdquo
protocols with a good accuracy.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Arhab, Slimane. "Profilométrie optique par méthodes inverses de diffraction électromagnétique". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4321/document.

Texto completo da fonte
Resumo:
La profilométrie optique est une technique de métrologie de surface rapide et non destructive. Dans ce mémoire, nous avons abordé cette problématique par des méthodes inverses de diffraction électromagnétique et dans une configuration de type Microscopie Tomographique Optique par Diffraction (ODTM). La surface est sondée par un éclairement sous plusieurs angles d'incidences ; la mesure en amplitude et en phase du champ lointain diffracté constitue les données du problème. Des profils de surfaces ont été reconstruits en considérant différents modèles de diffraction, parmi lesquelles une méthode approchée fondée sur les approximations de diffusion simple et de paraxialité. La résolution latérale de cette méthode et des techniques classiques de profilométrie est limitée par le critère d'Abbe-Rayleigh, défini sur la base de l'ouverture numérique pour l'éclairement et la détection du champ. Afin de dépasser cette limite de résolution, nous avons développé une méthode itérative de Newton-Kantorovitch régularisée. L'opérateur de diffraction y est rigoureusement modélisé par une méthode des moments, résolution numérique des équations du formalisme intégral de frontière, et l'expression de la dérivée de Fréchet de cet opérateur est obtenue par la méthode des états adjoints, à partir du théorème de réciprocité. Pour les surfaces unidimensionnelles métalliques, notre technique permet d'inverser à partir de données synthétiques des surfaces très rugueuses avec une résolution au delà du critère d'Abbe-Rayleigh
Optical profilometry is a nondestructive and fast noncontact surface metrology technique. In this thesis, we have tackled this issue with inverse scattering electromagnetic methods and in an Optical Digital Tomographic Microscopy (ODTM) configuration. The surface is probed with illuminations under several incidence angles; the measure of far scattered field amplitude and phase constitutes the problem data. Surface profiles have been reconstructed using different scattering models among which an approximate theory based on single scattering and paraxiality. The lateral resolution of this technique and classical profilometric approaches is limited by the so-called Abbe-Rayleigh's criterion defined out of the numerical aperture for illumination and field detection. In order to overpass this resolution limit, we have developed a regularized iterative Newton-Kantorovitch's method. The scattering operator is rigorously modelized with the method of moments, that is a numerical solution of boundary integral equations, and its Fréchet derivative adjoint states expression is deduced from the reciprocity theorem. For one-dimensional metallic surfaces, our method succeeds in inverting from synthetic data very rough surfaces with the resolutions beyond the Abbe-Rayleigh's criterion. The performance of this technique and inversion conditions clearly differ from one polarization to the other : in the TM case, interactions at longer distance than in the TE case improve yet the resolution. This work includes also an experimental validation of our inverse model on grooves in indium phosphure substrate at 633 nm
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Aguilera, Miguel Antonio. "Transfert de matière dans les milieux complexes. Ingénierie inverse : de la propriété d’usage au matériau". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0046.

Texto completo da fonte
Resumo:
Au cours de la dernière décennie, l'utilisation croissante de nombreuses nouvelles technologies comme des systèmes de livraison contrôlée a incité un développement empirique coûteux de systèmes nouveaux et efficaces. Pour faciliter une conception plus raisonnable et une optimisation, faisant face à l'ensemble de possibilités existantes, n'importe quelle solution qui pourrait semi-automatiser le développement de produits apporteraient l'aide précieuse aux utilisateurs (des scientifiques de formulation et des éducateurs). Ceci faciliterait l'importance essentielle de choisir les matériels justes pour l'application correcte. Dans cette thèse, un projet à long terme concernant une génie inverse est proposé, commençant d'une propriété d'utilisation finale (libération contrôlée), la cible mondiale est de développer une méthodologie de conception de produit qui nous permet de déterminer les caractéristiques optimales d'une formulation à préparer: les phases, la composition, le type d'interface, la taille et la distribution d'objets actuels, l'équilibre de phase, la diffusion dans des phases et le caractère évolutionnaire du matériel. Dans la considération d'un exemple de commodité de système structuré et dispersé: des émulsions fortement concentrées, le problème de design a été décomposé dans un ordre hiérachique de sous-problèmes ou des boîtes, combinant les modèles constitutifs qui évaluent le transport de masse de principe actif comme une fonction de paramètres de formulation et des techniques assistées par ordinateur comme la modélisation moléculaire pour le volume/surface de molécules, ou des modèles d'UNIFAC pour des prédictions d'équilibre aussi bien que pour des évaluations de viscosités de mélange. Un ultérieur design de factoriel d'expériences virtuelles a permis d'obtenir une description quantitative de la sortie selon les paramètres modèles et une analyse composante principale a évalué l'importance des variables. En utilisant une cartographie basée sur trois tensio-actifs (pour SPAN 80, PGPR et BRIJ 93), quatre huiles (dodecane, hexadecane, isopropyl myristate et isopropyl palmitate) et l'acide mandelic comme le principe actif, le modèle ab initio physicochimique a été expérimentalement validé. Les résultats montrent que le modèle mécaniste systématiquement prévoit la diffusion du principe actif d'émulsions à un moyen récepteur dans des parfaites 'sink' conditions. Cette approche de génie inverse a montré pour être d'intérêt très élevé dans le domaine de formulation en permettant des études préliminaires examinantes rapides et robustes sur une large gamme de composants aussi bien que des outils de prédiction précis et rigoureux optimiser la sortie contrôlée d'un système identifié. Il est souhaitable de mettre en œuvre ces extensions à d'autre systèmes semblables
In the past decade, the growing use of numerous novel technologies as controlled-delivery systems has prompted a costly trial-and-error development of new and effective systems. In order to facilitate a more rational design and optimization, facing the set of existing possibilities, any solution that could semiautomate the product development would bring precious help to the users (formulation scientists and educators). This would facilitate the essential importance of choosing the right materials for the correct application. In this thesis, a long-term project concerning a reverse engineering is proposed, starting from a final usage property (controlled release), the global target is to develop a product design methodology which allows us to determine the optimal features of a formulation to prepare: phases in presence, composition, interface type, size and distribution of current objects, phase equilibrium, diffusion within phases and evolutionary character of the material. Considering a convenience example of structured-dispersed system: highly concentrated emulsions, the design problem has been decomposed into a hierarchical sequence of subproblems or boxes, combining constitutive models that estimate the active ingredient mass transport as a function of formulation parameters and computer-aided techniques such as molecular modeling for volume/area of molecules, or UNIFAC models for equilibria predictions as well as for mixture viscosities estimations. A subsequent full factorial design of virtual experiments has allowed to obtain a quantitative description of the release depending on the model parameters, and a principal component analysis has assessed the importance of the variables. Using a cartography focused on three surfactants (SPAN 80, PGPR and BRIJ 93), four oils (dodecane, hexadecane, isopropyl myristate and isopropyl palmitate) and mandelic acid as an active ingredient, the ab-initio physicochemical model has been experimentally validated. Results show that the mechanistic model consistently predicts the diffusion of the active ingredient from emulsions to a release medium in perfect sink conditions. This reverse engineering approach is showing to be of very high interest in the domain of formulation by allowing fast and robust screening preliminary studies on a broad range of components as well as precise and rigorous prediction tools to optimize controlled release from an identified system. It is fully recommended to implement its extensions to other similar disperse systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Nehmeh, Mohamad. "Eco-conception de solvants de substitution de l'hexane pour l'extraction d'huile issue de tourteaux oléagineux par une approche d'ingénierie inverse". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP062.

Texto completo da fonte
Resumo:
Suite à une première extraction d'huile végétale par pressage des graines oléagineuses, une huile résiduelle exploitable persiste dans le tourteau de graines, nécessitant une seconde extraction par solvant. Actuellement, l’hexane est le solvant principalement utilisé industriellement. Malgré ses caractéristiques favorables, telles que sa sélectivité envers les lipides et sa séparation aisée de l'huile par distillation, des préoccupations concernant sa toxicité et son origine non renouvelable ont incité à rechercher des alternatives. Ces travaux de recherche visent à identifier de nouveaux solvants plus sains, plus sûrs et respectueux de l'environnement, notamment des solvants bio-sourcés, pour l'extraction sélective de l'huile des graines oléagineuses.Pour atteindre cet objectif, une approche d'ingénierie inverse basée sur le Criblage à Haut Débit (CHD) et la Conception Moléculaire Assistée par Ordinateur (CMAO) a été employée pour concevoir des alternatives optimales adaptées aux exigences spécifiques liées à l'application. Le processus de formulation inverse a débuté par la définition de valeurs cibles pour les propriétés physico-chimiques clés (par exemple, le point d'ébullition, le point d'éclair) des solvants existants utilisés pour l'extraction d'huile. Ensuite, des structures moléculaires correspondantes à ces cibles ont été recherchées parmi des milliers de solvants à l'aide de l'outil CMAO IBSS (InBioSynSolv). Plus précisément, pour chacune de ces molécules, les propriétés sont prédites grâce à des modèles de contribution de groupe et comparées aux spécifications techniques, aux critères de sécurité et aux considérations environnementales et sanitaires. Un affinement supplémentaire des solvants candidats générés par IBSS a été effectué en étudiant l'affinité entre les solvants identifiés et les solutés cibles dans le tourteau, en comparant leur profil σ (déterminé à l’aide de l’outil COSMO-RS) et en calculant l'équilibre thermodynamique. Cette méthodologie associant divers outils de modélisation et des critères industriels a permis une sélection efficace d’une douzaine de candidats pour leur sélectivité vis-à-vis des lipides. Enfin, une validation expérimentale a été menée à différentes échelles pour corroborer l'efficacité des solvants alternatifs
Following an initial vegetable oil extraction through oilseed pressing, valuable residual oil persists within the oilseed cake, necessitating a further solvent extraction process. Hexane is currently the predominant solvent employed industrially for oilseed oil extraction. Despite its favourable characteristics such as lipid selectivity and ease of separation from oil through distillation, concerns regarding toxicity and non-renewable sourcing have prompted investigations into its replacement. This research aims to identify novel solvents for the selective extraction of oil from oilseeds that are healthier, safer, and environmentally sustainable, including bio-based solvents.To achieve this objective, a reverse engineering approach based on High Throughput Screening (HTS) and Computer Aided Molecular Design (CAMD) is employed to design optimal alternatives tailored to specific application requirements. The reverse engineering process began by defining the target values for key physicochemical properties (e.g., boiling point, flash point) of existing solvents used in oil extraction. Subsequently, molecular structures aligning with these targets were sought among thousands of solvents using the CAMD tool IBSS (InBioSynSolv). Specifically, for each and every molecule, the properties are predicted through group contribution models and compared against technical specifications, safety criteria, and environmental and health considerations. Further refinement of the candidate solvents generated by IBSS involved investigating the affinity between the identified solvent candidates and the target solutes within the cake, by comparing their σ-profile (determined using the COSMO-RS tool) and calculating the thermodynamic equilibrium. This methodology, coupling various modelling tools and industrial criteria, enabled an effective selection of a handful of candidates based on their selectivity towards lipids. Finally, experimental validation was conducted across various scales to corroborate the efficiency of the alternative solvents
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Miltiadou, Panayiotis. "Inverse analysis formulations for cathodic protection systems". Thesis, Brunel University, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.392074.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Paruta, Tuarez Emilio Alberto. "Émulsions inverses très concentrées : formulation, comportement rhéologique et modélisation". Thesis, Vandoeuvre-les-Nancy, INPL, 2010. http://www.theses.fr/2010INPL008N/document.

Texto completo da fonte
Resumo:
Cette thèse concerne l’étude de l’influence de la formulation sur le comportement rhéologique des émulsions inverses très concentrées. Nous avons utilisé une démarche originale consistant à positionner le module élastique (G’) de ces émulions sur une carte bidimensionnelle formulation-composition, afin d’étudier, en particulier, l’effet de la formulation dite optimale. Deux effets nets sont liés à celle-ci: les émulsions préparées à HLB=10, c’est-à-dire à proximité de la valeur optimale (HLB=10,5), présentent des valeurs de G’ nettement plus faibles que les autres formulations, tandis qu’à une distance particulière (HLB=7,7), les valeurs de G’ sont toujours plus élevées comparativement aux autres formulations. Cette valeur particulière de HLB correspond aussi à une stabilité maximale de la dispersion et à une taille moyenne des gouttes minimale. Les émulsions très concentrées étant généralement opaques et fragiles, l’analyse du transport stationnaire incohérent de lumière polarisée, qui ne nécessite pas de dilution, a été utilisée comme méthode alternative aux techniques classiques pour déterminer l’épaisseur moyenne du film interfacial (h). La taille moyenne des gouttes (R) a pu ensuite être déterminée à partir d’un modèle géométrique qui relie R à l’épaisseur moyenne du film interfacial (h), à la fraction volumique de phase dispersée (f) et à un facteur géométrique moyen (f9) tenant compte du caractère polyédrique des gouttes. Ainsi, une expression modifiée du modèle proposé par Mougel et al. (2006) a été établie pour modéliser le module élastique (G’) en le reliant à la taille moyenne de gouttes (R), la tension interfaciale (s) et la fraction volumique de phase dispersée (f)
This thesis deals with the study of the influence of formulation on the rheological behavior of highly concentrated reverse emulsions. We used an original approach consisting in representing the elastic modulus (G’) of these emulsions on a formulation-composition bidimensional map to study, in particular, the effect of the so-called optimum formulation. Two major effects are observed in relation to this one: emulsions prepared at HLB=10, i.e. at the proximity of optimum value (HLB=10.5) present values of G’ remarkably lower than those at other formulations, while at a certain distance (HLB=7.7) the values of G’ are higher in comparison to others formulations. This last particular HLB matches with the occurrence of a maximum stability and a minimum drop size of dispersion. Highly concentrated emulsions being generally opaque and fragile, the analysis of incoherent polarized steady light transport, that does not imply any dilution, has been used as an alternative method to classical techniques to determine the average film thickness (h). The average drop size (R) has then to be determined from a geometrical model linking it to the average film thickness (h), to the dispersed phase volume fraction (f) and to a geometrical factor (f9) that takes into account the polyhedral shape of the drops. Hence, a modified expression of the model proposed by Mougel et al. (2006) has been established to model the elastic modulus (G’) by relating it to the average drop size (R), the interfacial tension (s) and the dispersed phase volume fraction (f)
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Chabchoub, Mohamed-Amine. "Méthodes Energétiques Simplifiées Inverses : formulations et applications". Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00916927.

Texto completo da fonte
Resumo:
Pour élargir le domaine fréquentiel d'analyse vibroacoustique des méthodes éléments finis et de la SEA (Statistical Energy Analysis), la Méthode Énergétique Simplifiée MES utilisant des variables quadratiques permet de considérer aussi bien les moyennes que les hautes fréquences. Cette méthode est basée sur une analyse des ondes propagatives vibratoires et acoustiques. Dans ce travail, la formulation inverse de la MES est proposée. A partir d'un vecteur de densité d'énergie et intensité vibroacoustique données, la formulation MES inverse permet de remonter aux sources. Elle permet d'identifier les sources de vibration dans des systèmes bidimensionnels (plaque excitée en flexion,...) et les sources acoustiques dans des systèmes tridimensionnels (cavité acoustique excitée,...). La formulation MES inverse est numériquement validée dans plusieurs cas de figures. Une analyse paramétrique est effectuée afin de tester la robustesse et l'efficacité de cette approche. Par exemple, la sensibilité avec les données d'entrée ou à la nature des sources envisagées est traitée.Une comparaison entre les résultats numériques obtenus par la MES et ceux obtenus par la SEA est abordée permettant de présenter les avantages de la MES au niveau de l'identification des sources. Une application industrielle de la MES inverse est réalisée dans le cadre de ce travail. Elle montre la fiabilité de la méthode pour le cas d'une cabine excitée par un bruit blanc. Finalement, la MES est utilisée pour réduire les nuisances sonores détectées dans les cabines. Un programme d'optimisation est développé permettant de trouver la meilleure répartition des absorbants et de définir leurs caractéristiques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Acevedo, Nancy Isabel Alvarez. "Uma formulação explícita matricial para problemas inversos de transferência radiativa em meios participantes homogêneos unidimensionais". Universidade do Estado do Rio de Janeiro, 2006. http://www.bdtd.uerj.br/tde_busca/arquivo.php?codArquivo=372.

Texto completo da fonte
Resumo:
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro
A formulação explícita matricial desenvolvida nesta tese de doutorado foi proposta visando ser uma alternativa na solução de Problemas Inversos de estimativa de propriedades radiativas em meios participantes homogêneos unidimensionais usando a Equação de Transferência Radiativa para modelar a interação da radiação com o meio participante. A equação de transporte é formulada em forma matricial e o domínio angular é discretizado usando conceitos do método de ordenadas discretas e a expansão da função de fase do espalhamento anisotrópico em uma série de polinômios de Legendre. A formulação proposta consiste em uma formulação explícita para o problema inverso. Um arranjo apropriado das condições de contorno prescritas (fluxos incidentes) e dos fluxos emergentes nos contornos de uma placa permitem o cálculo direto do operador de transmissão, do operador albedo e do operador de colisão. A partir do operador de colisão calculado são obtidos os valores estimados dos coeficientes de extinção total e de espalhamento. São apresentadas as formulações para problemas em regime estacionário e em regime transiente, bem como os resultados para alguns casos-teste.
The explicit matrix formulation developed in the present thesis has been proposed as an alternative for the solution of Inverse Problems for radiative properties estimation in one-dimensional homogeneous participating media using Radiative transfer equation for the modeling of the radiation interaction with the participating medium. This transport equation is formulated in a matrix form and the angular domain is discretized using concepts of the discrete ordinates methods and the expansion of the function of phase function of anisotropic scattering in a series of Legendre polynomial. The formulation proposed consists on an explicit formulation for the inverse problem. An adequate assembly of the prescribed boundary conditions (incidents flux) and of the emerging flux at the boundaries of the slab allows the direct computation of the transmission, albedo and collision operators. From the computed collision operator estimated values for total extinction and scattering coefficients are obtained. The formulations for steady state and transient situations are presented, as well as test case results.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Filho, Sylvio Celso Tartari. "Modelagem e otimização de um robô de arquitetura paralela para aplicações industriais". Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-07122006-151723/.

Texto completo da fonte
Resumo:
Este trabalho trata do estudo de robôs de arquitetura paralela, focando na modelagem e otimização dos mesmos. Não foi construído nenhum tipo de protótipo físico, contudo os modelos virtuais poderão, no futuro, habilitar tal façanha. Após uma busca por uma aplicação que se beneficie do uso de um robô de arquitetura paralela, fez-se uma pesquisa por arquiteturas viáveis já existentes ou relatadas na literatura. Escolheu-se a mais apta e prosseguiu-se com os estudos e modelagem cinemática e dinâmica, dando uma maior ênfase na cinemática e dinâmica inversa, esta última utilizando a formulação de Newton - Euler. Foi construído um simulador virtual em ambiente MATLAB 6.5, dotado de várias capacidades como interpolação linear e circular, avanço e uso de múltiplos eixos coordenados. Seu propósito principal é o de demonstrar a funcionalidade e eficácia dos métodos utilizados. Depois foi incorporado ao simulador um algoritmo de cálculo do volume de trabalho da máquina que utiliza alguns dados do usuário para calcular o volume, que pode ser aquele atrelado a uma postura em particular ou o volume de trabalho de orientação total. Algoritmos para medir o desempenho da máquina quanto à uniformidade e utilização da força dos atuadores foram construídos e também incorporados ao simulador, que consegue mostrar o elipsóide de forças ao longo de quaisquer movimentos executados pela plataforma móvel. Quanto à otimização, parte do ferramental previamente construído foi utilizado para que se pudesse chegar a um modelo de uma máquina que respeitasse restrições mínimas quanto ao tamanho e forma de seu volume de trabalho, mas ainda mantendo o melhor desempenho possível dentro deste volume.
This work is about the study of parallel architecture robots, focusing in modeling and optimization. No physical prototypes were built, although the virtual models can help those willing to do so. After searching for an application that could benefit from the use of a parallel robot, another search was made, this time for the right architecture type. After selecting the architecture, the next step was the kinematics and dynamics analysis. The dynamics model is developed using the Newton ? Euler method. A virtual simulator was also developed in MATLAB 6.5 environment. The simulator?s main purpose was to demonstrate that the methods applied were correct and efficient, so it has several features such as linear and circular interpolations, capacity to use multiple coordinate systems and others. After finishing the simulator, an algorithm to calculate the machine workspace was added. The algorithm receives as input some desired requirements regarding the manipulator pose and then calculates the workspace, taking into consideration imposed constraints. Lastly, algorithms capable to measure the manipulator?s performance regarding to its actuator and end-effector force relationship were also incorporated into the simulator that calculates the machine?s force ellipsoid during any movement, for each desired workspace point. For the optimization procedures, some previously developed tools were used, so that the resulting model was capable to respect some workspace constraints regarding size and shape, but also maintaining the best performance possible inside this volume.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Helifa, Bachir. "Contribution à la simulation du CND par courants de Foucault en vue de la caractérisation des fissures débouchantes". Nantes, 2012. http://archive.bu.univ-nantes.fr/pollux/show.action?id=4d9f6caf-4c86-49ca-ba1b-9b4aeca65049.

Texto completo da fonte
Resumo:
Ce travail de thèse relève du domaine du Contrôle Non destructif (CND) par courants de Foucault (CF) dans ses aspects expérimental et de modélisation. Il a pour but essentiel l’élaboration d’une stratégie d’évaluation et de mise au point d’outils logiciels et matériels permettant une meilleure analyse des signaux provenant d’un capteur à courants de Foucault en vue de la caractérisation des fissures débouchantes présentes dans des pièces "critiques" de matériaux conducteurs. Il s’inscrit dans le cadre général de la caractérisation des fissures par courants de Foucault. Dans ce contexte et afin de situer le travail dans un cadre plus général, on se place dans le cas où le matériau contenant la fissure peut présenter une conductivité électrique et (ou) une perméabilité magnétique non identifiée et un revêtement d’épaisseur inconnue. Des modèles directs en 2D et 3D éléments finis de la formulation magnétodynamique en potentiels vecteur magnétique et scalaire électrique déduite des équations de Maxwell sont développés pour la modélisation du système (matériau+fissure+bobine). Des algorithmes type simplex et réseau de neurones sont élaborés pour la résolution du problème inverse dans le but d’obtenir une caractérisation complète de la fissure débouchante. Nous validons les modèles développés (direct et inverse) par confrontation à des données obtenues à partir d’une compagne d’expériences réalisées au laboratoire, en utilisant des bobines connues et des pièces étalons comportant des fissures bien identifiées, ce qui permet la détermination de la morphologie de la fissure débouchante : position, forme, dimensions. Finalement et sur la base des approches développées, nous établissons une stratégie de contrôle en vue de la caractérisation complète des fissures débouchantes
The work of the present thesis falls within the field of Non Destructive Testing (NDT) by eddy current (EC) in its experimental and modeling aspects. Its main purpose is the development of an evaluation strategy and the elaboration of software and hardware tools for better analysis of signals from an eddy current sensor for the characterization of surface cracks in "critical" parts of conducting materials. It fits into the general framework for the characterization of cracks by eddy currents. In this context and in order to place the work in a more general framework, we consider cracks containing material that unidentified electrical conductivity and (or) magnetic permeability with an unknown coating thickness. Direct models in 2D and 3D finite element magnetodynamic formulation using magnetic vector and electric scalar potentials deduced from Maxwell equations are developed for modeling the system (material + crack + coil). Simplex and neural networks algorithms are developed for solving the inverse problem in order to obtain a complete characterization of the surface crack. We validate the developed models (direct and reverse) by comparing data obtained from a set of laboratory experiments, using known coils and standard parts with clearly identified cracks, which allows the determination of the morphology of the surface crack : position, shape and dimensions. Finally, and based on the developed approaches, we establish a control strategy for a complete characterization of surface cracks
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Delaunay, Tiphaine. "Adaptative observers for wave equations and associated discretizations : formulations and analysis". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAX120.

Texto completo da fonte
Resumo:
Le contexte de cette thèse est l'étude de problèmes inverses pour les phénomènes de propagation d'onde sous l'angle de la théorie du contrôle, plus précisément la théorie de l'observation. Notre objectif est de formaliser, d'analyser et de discrétiser des stratégies appelées séquentielles en assimilation de données, où les observations sont prises en compte à mesure qu'elles sont disponibles. Le système résultant appelé observateur (ou estimateur séquentiel) se stabilise sur la trajectoire observée reconstruisant alors l'état et éventuellement des paramètres inconnus du système. Ici nous nous concentrons plus particulièrement sur la reconstruction de source au second membre d'une équation des ondes, un problème d'estimation qui peut apparaître comme intermédiaire en compléxité entre l'estimation d'état (ou de condition initiale) et l'identification de paramètres généraux. Dans ce cadre, nous proposons de définir dans un formalisme déterministe en dimension infinie, un estimateur dit de Kalman qui estime séquentiellement le terme source à identifier. Par les outils de programmation dynamique, nous montrons que cet estimateur séquentiel est équivalent à la minimisation d'une fonctionnelle, cette équivalence nous permettant d'en proposer l'analyse de convergence sous condition d'observabilité. Nous démontrons alors des inégalités d'observabilité pour différents types de source en combinant analyse fonctionnelle, méthodes des multiplicateurs et estimations de Carleman. Ces inégalités nous informent notamment sur le caractère éventuellement mal-posé des problèmes inverses de reconstruction que nous étudions et nous permettent d'en quantifier le degré et ainsi d'adapter les régularisation proposées. Nous comparons notamment des stratégies inverser-et-régulariser par opposition à regulariser-pour-inverser. Concernant les questions de discrétisation et leur analyse numérique, nous défendons l'idée de redéfinir ces observateurs associés à la minimisation de la fonctionnelle une fois que le modèle direct a été discrétisé. Cette approche discrétiser-puis-optimiser est avantageuse pour l'analyse par rapport à optimiser-puis-discrétiser. Il n'en reste pas moins que les inégalités d'observabilité doivent être étendues aux systèmes discrets. À ce propos, nous étendons en particulier des résultats de stabilisation exponentielle uniforme en la discrétisation pour des discrétisations par éléments finis de haut degré de l'équation des ondes
The context of this thesis is the study of inverse problems for wave propagation phenomena from a control theory perspective, more specifically using observation theory. Our goal is to formalize, analyze, and discretize strategies called sequential in data assimilation, where measurements are taken into account as they become available. The resulting system, called an observer (or a sequential estimator), stabilizes on the observed trajectory hence reconstructs the state and possibly some unknown parameters of the system. Here we focus in particular on source reconstruction on the right-hand side of our wave equation, an estimation problem intermediate in complexity between state estimation (or initial condition estimation) and the more general problem of parameter identification. In this context, we propose to define in a deterministic framework in infinite dimension a so-called Kalman estimator that sequentially estimates the source term to be identified. Using dynamic programming tools, we show that this sequential estimator is equivalent to the minimization of a functional. This equivalence allows us to propose convergence analysis under observability conditions. We then demonstrate observability inequalities for different source types by combining functional analysis, multiplier methods, and Carleman estimates. In particular, these inequalities inform us about the ill-poseness nature of the inverse reconstruction problems we study and allow us to quantify the degree of ill-posedness hence to propose adapted regularizations. In particular, we compare an invert-and-regularize strategies as opposed to regularize-to-invert. Concerning discretization issues and their analysis, we defend the idea of redefining these observers associated with the minimization of the functional once the direct model has been discretized. This discretize-then-optimize approach is advantageous for the analysis compared to optimize-then-discretize approach. Nevertheless, the observability inequalities need to be extended to discretized systems. In particular, in this context, we extend uniform exponential stabilization results to the discretization for high-order finite element discretizations of the wave equation
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Veyssiere, Julie. "Étude comportementale de la spadine et de ses analogues : un nouveau concept d'antidépresseur". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4004/document.

Texto completo da fonte
Resumo:
La dépression est une maladie psychiatrique qui atteint environ 20% de la population. En 2006 notre équipe a montré l’implication du canal potassique TREK-1 dans cette pathologie, et, en 2010, elle a identifié un bloqueur de TREK-1, la spadine, ayant des propriétés antidépressives. La spadine a la même efficacité après quatre jours de traitement que les antidépresseurs classiques qui en nécessitent vingt-et-un. Lors de mon doctorat, nous avons démontré la spécificité de la spadine pour les canaux TREK-1 et l’absence d’effet secondaire notamment au niveau cardiaque et sur les fonctions où l’activation du canal TREK-1 a des effets bénéfiques (ischémie, épilepsie, douleur). Nous avons pour cela utilisé des techniques d’électrophysiologiques et différents tests comportementaux adaptés à ces différentes pathologies. J’ai également démontré les effets antidépressifs de la spadine sur deux modèles animaux, un modèle génétique, les souris Rouen, et un modèle induit par un traitement à la coticostérone. La dernière partie de ma thèse a porté sur l’identification d’analogues de la spadine ayant une meilleure affinité et une meilleure efficacité in vivo, et ne présentant pas d’effet secondaire. Deux peptides synthétisés par la technique de retro-inverso ont présenté ces propriétés. Parallèlement, nous avons également recherché, en collaboration avec la société MedinCell, une formulation de polymère permettant la libération constante et prolongée de l’analogue sélectionné. Cette formulation a pour but de résoudre les problèmes engendrés par le non-respect de la prise de médicaments par les patients en administrant en une seule injection le traitement pour trois voire quatre semaines
Depression is a devastating psychiatric disorder which affects about 20% of the population. In 2006 our team demonstrated the involvement of TREK-1, a potassium channel, in this pathology, and that its inhibition has led to a depression’s resistant phenotype. The search of TREK-1 inhibitors, a potential antidepressant, has led to the discovery of spadin. Spadin has, after only a four day treatment, similar efficacy than classical antidepressants which require about three weeks of treatment to produce their therapeutic effects. My work was firstly focused on the potential side effects of spadin. Indeed, TREK- 1’s activation has beneficial effects in many pathophysiologies (ischemia, epilepsy, pain). Its inhibition by spadin could generate significant adverse effects. The use of animal models has allowed us to confirm that spadin has no side effects related to TREK-1 channel’s inhibition. The specificity of spadin has been demonstrated since it has no effect on other potassium channels belonging to the K2P family. My work was also to study the effects of spadin in two mice models of depression, a genetic model and an induced model. In both cases, spadin shows a specific antidepressant effect in different behavioral tests of depression. The last part of my work was focused on the development of spadin’s analogs in order to improve the affinity and in vivo efficiency. We also developed, in collaboration with the MedinCell society, a polymer formulation for the constant and prolonged release of the selected analog. This formulation will be administered as a single injection treatment for three to four weeks, solving the problems caused by non respected medication by patients
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Alvarez, Solano Oscar Alberto. "Émulsions inverses trés concentrées : influence du procédé et de la formulation sur leurs propriétés rhéologiques". Vandoeuvre-les-Nancy, INPL, 2006. http://docnum.univ-lorraine.fr/public/INPL/2006_ALVAREZ_SOLANO_O_A.pdf.

Texto completo da fonte
Resumo:
This work deals with the preparation of highly concentrated inverse emulsions with the help of a semi-batch (discontinuous) process. The emulsification process can be divided into two main steps, an incorporation step and an homogeneisation step, by far the most demanding from an energetic viewpoint. Three coherent scaling laws have been obtained independently at the end of the emulsification process : a relationship between the elastic modulus and the energy consumption per unit volume (G'~Ev0,6), a relationship between an average drop radius and the energy consumption per unit volume (Rm~EV-0. 3) and finally a relationship between the elastic modulus and an average drop radius (G'~Rm-2). This last relationship is not in agreement with the PRINCEN model. A semi-empirical structural model, based on the idea that the highly concentrated emulsion elasticity is due to Van der Walls forces, has been proposed and leads to a dependency in agreement with our experimental results. The study of the time evolution of the average drop radius to a pseudo-equilibrium state, that depends on the surfactant concentration only, suggests that the initial destabilisation process is related with a dispersed phase permeation phenomenon
Ce travail concerne la préparation d'émulsions inverses très concentrées à l'aide d'un procédé discontinu. Le procédé d'émulsification peut être décomposé en deux étapes principales, une étape d'incorporation et une étape d'homogénéisation, cette dernière étape étant de loin la plus énergivore. Trois lois d'échelle cohérentes ont été obtenues indépendamment au terme du procédé d'émulsification, qui concernent une relation entre le module élastique et l'énergie consommée par unité de volume (G'~Ev0,6), une relation entre un rayon moyen des gouttes et l'énergie consommée par unité de volume (Rm ~ EV-0. 3) et enfin une relation entre le module élastique et un rayon moyen des gouttes (G' ~ Rm-2). Cette dernière relation est en désaccord avec le modèle de PRINCEN. Un modèle structural semi-empirique basé sur l'idée que l'élasticité de ces émulsions très concentrées a pour origine les forces de Van der Waals a été proposé qui conduit à une dépendance en accord avec nos résultats expérimentaux. L'étude de l'évolution temporelle du rayon moyen des gouttes vers un état de pseudo-équilibre qui ne dépend que de la concentration en tensioactif suggère que le processus initial de déstabilisation est lié à un phénomène de perméation de la phase dispersée
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Alvarez, Solano Oscar Alberto Choplin Lionel. "Émulsions inverses trés concentrées influence du procédé et de la formulation sur leurs propriétés rhéologiques /". Vandoeuvre-les-Nancy : INPL, 2006. http://www.scd.inpl-nancy.fr/theses/2006_ALVAREZ_SOLANO_O_A.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Thibaut, Muriel. "Géométrie des surfaces de faille et dépliage 3D : (méthodes et applications)". Phd thesis, Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00745509.

Texto completo da fonte
Resumo:
Tester la compatibilité cinématique de la géométrie d'une surface de faille (1) et la géométrie d'une écaille qui glisse le long de celte surface de faille (2) est un problème compliqué que nous avons partiellement résolu. Nous avons considéré le problème (1) dans le contexte de blocs rigides et le problème (2) pour une écaille plissée. Nous proposons un critère de moindres carrés permettant de contraindre ia forme des failles de façon compatible avec l'approximation blocs rigides, i.e., les deux" blocs restent en contact et glissent l'un sur l'autre sans déformation. Si celle condition est satisfaite, la surface de faille est un filetage, i.e., une surface qui est partout tangente à un champ de vecteurs (torseur) non nul. Nous contraignons la surface à être le plus près possible des points de données (données de puits ou données sismiques), et régulière (minimisation des courbures principales). Le critère de filetage donne des résultats plus plausibles que la minimisation d'un critère basé seulement sur des dérivées secondes ou sur la matrice de courbure. Il donne aussi une direction de stries. Nous avons testé l'effet de ce critère sur différents exemples naturels (les failles de la Cléry et de San Cayetano). La restauration d'une structure géologique à une époque antérieu!e est un bon moyen de critiquer et d'améliorer l'interprétation de la structure actuelle. Nous nous sommes intéressés au glissement banc sur banc avec conservation des longueurs et du volume. Nous avons déplié un feuilletage par optimisation de différents critères de moindres carrés : horizontalité des isochrones, conservation des longueurs et du volume. Nous avons introduit des contraintes d'égalilé pour traduire la conservation de la reliure (pin-surface). La reliure représente une surface transverse à l'ensemble des feuilles de la structure conservée après dépliage. Nous avons testé notre formulation sur des exemples synthétiques et expérimentaux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Byamungu, Cirhuza Alain. "The formulation and validation of PV inverter efficiency under South Africa climate conditions". Thesis, Cape Peninsula University of Technology, 2018. http://hdl.handle.net/20.500.11838/2823.

Texto completo da fonte
Resumo:
Thesis Submitted in Partial Fulfilment of the Requirements for the Degree of Master of Technology: Electrical Engineering (Energy) in the Department of Electrical, Electronic and Computer Engineering at the Cape Peninsula University of Technology, South Africa.
In photovoltaic power systems, the DC/AC conversion efficiency depends on weather conditions causing PV inverters to operate under fluctuating input power from PV modules. The peak efficiency stated by the inverter manufacturers are often used by project designers to estimate how much power PV plants can produce. However, the varying nature of the DC input power to the inverters, occasioned by varying irradiation and temperature, leads to deviations of the actual efficiency from the peak efficiency. Literature surveys prove that inverter efficiencies must be evaluated against local irradiation profiles to get more precise annual energy yield estimations, since meteorological conditions and solar irradiation profiles vary from one site to another around the planet.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Kim, Hoan-Kee. "Multi-scale nonlinear constitutive models using artificial neural networks". Diss., Atlanta, Ga. : Georgia Institute of Technology, 2008. http://hdl.handle.net/1853/22613.

Texto completo da fonte
Resumo:
Thesis (Ph. D.)--Civil and Environmental Engineering, Georgia Institute of Technology, 2008.
Committee Chair: Rami M Haj-Ali; Committee Member: Arash Yavari; Committee Member: Donald W. White; Committee Member: Erian Armanios; Committee Member: Kenneth M. Will.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Görke, Uwe-Jens, Anke Bucher e Reiner Kreißig. "Zur Numerik der inversen Aufgabe für gemischte (u/p) Formulierungen am Beispiel der nahezu inkompressiblen Elastizität bei großen Verzerrungen". Universitätsbibliothek Chemnitz, 2007. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200702023.

Texto completo da fonte
Resumo:
In dieser Publikation werden ein numerisches Verfahren zur Kalibrierung von Materialmodellen für die Simulation großer, nahezu inkompressibler hyperelastischer Verzerrungen sowie dessen numerische Realiserung im Rahmen einer gemischten Finite Elemente Formulierung vorgestellt. Dabei werden die Parameter der konstitutiven Beziehungen auf der Grundlage experimentell erfasster Verschiebungsfelder (vorzugsweise inhomogener) bzw. globaler Informationen ermittelt. Dieses inkorrekte, inverse Problem wird mit Hilfe eines deterministischen Optimierungsverfahrens vom trust-region-Typ gelöst. Wesentlicher Bestandteil ist dabei die halbanalytische Sensitivitätsanalyse, die ein effizientes und hochgenaues Verfahren zur Ermittlung des Gradienten der Zielfunktion darstellt. Sie erfordert die einmalige Lösung eines zur direkten Aufgabe analogen Gleichungssystems pro Parameter und Lastschritt und basiert auf der impliziten Differentiation der schwachen Formulierung des gemischten Randwertproblems nach den Materialparametern. Genauigkeit und Konvergenzverhalten der numerischen Algorithmen werden an illustrativen Beispielen mit synthetischen Messwerten demonstriert. Im Mittelpunkt stehen dabei Untersuchungen zur Abhängigkeit des Optimierungsergebnisses von den Startwerten für unterschiedliche konstitutive Ansätze der kompressiblen und nahezu inkompressiblen Elastizität.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Heintz, Juliette. "Systemic approach and decision process for sustainability in chemical engineering : Application to computer aided product design". Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0087/document.

Texto completo da fonte
Resumo:
Dans un contexte de prise en compte croissante des enjeux environnementaux, l'industrie de la chimie et des procédés se retrouve confrontée à des problématiques de substitution de molécules. Les méthodes de formulation inverse, qui consistent en la recherche assistée par ordinateur de molécules satisfaisant un ensemble de contraintes, répondent de manière efficace à ces problématiques. A partir de l'analyse systémique des usages et fonctionnalités nécessaires dans ce contexte, nous développons un outil logiciel de formulation inverse mettant en oeuvre un algorithme génétique. Celui-ci est capable d'explorer un espace de solutions plus vaste en considérant les mélanges et non les molécules seules. Par ailleurs, il propose une définition des problèmes très flexible qui permet la recherche efficiente de molécules issues de filières renouvelables. En s'appuyant sur l'ingénierie système et l'ingénierie d'entreprise, nous proposons un processus formel de prise de décision pour la substitution de produit dans un contexte industriel. Ce processus de décision multi-critères englobe les phases de définition des exigences, de génération de solutions alternatives, de sélection de la meilleure alternative et de mise en oeuvre du produit. Il utilise une approche dirigée par les modèles et des techniques de prises de décision qui garantissent un alignement opérationnel en complément de l'alignement stratégique. A travers un cas d'étude, nous montrons comment l'utilisation conjointe de notre outil de recherche par formulation inverse et de notre processus de décision permet une démarche environnementale de substitution de produit à la fois efficiente et conforme à la réalité de l'entreprise
In a context where environmental issues are increasingly taken into account, the chemical related industry faces situations imposing a chemical product substitution. Computer aided molecular design methods, which consist in finding molecules satisfying a set of constraints, are well adapted to these situations. Using a systemic analysis of the needs and uses linked to this context, we develop a computer aided product design tool implementing a genetic algorithm. It is able to explore a wider solution space thanks to a flexible molecular framework. Besides, by allowing a very flexible setting of the problem to be solved, it enables the search of molecules sourced from renewable resources. Based on concepts from system and enterprise engineering, we formalize a decision making process dedicated to the product substitution in an industrial context. This multi-criteria decision process includes the phases of the requirements definition, of the generation of alternative solutions, of the selection of the best alternative and of the product application. It uses a model driven approach and decision making techniques that guaranty an operational alignment in addition to the strategic alignment across the chemical enterprise. Through a case study, we expose how the combination of our computer aided product design tool and our decision making process enables an environmentally compliant approach of product substitution which is both efficient and in adequacy with enterprise context
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Veyssiere, Julie. "Étude comportementale de la spadine et de ses analogues : un nouveau concept d'antidépresseur". Electronic Thesis or Diss., Nice, 2014. http://theses.unice.fr/2014NICE4004.

Texto completo da fonte
Resumo:
La dépression est une maladie psychiatrique qui atteint environ 20% de la population. En 2006 notre équipe a montré l’implication du canal potassique TREK-1 dans cette pathologie, et, en 2010, elle a identifié un bloqueur de TREK-1, la spadine, ayant des propriétés antidépressives. La spadine a la même efficacité après quatre jours de traitement que les antidépresseurs classiques qui en nécessitent vingt-et-un. Lors de mon doctorat, nous avons démontré la spécificité de la spadine pour les canaux TREK-1 et l’absence d’effet secondaire notamment au niveau cardiaque et sur les fonctions où l’activation du canal TREK-1 a des effets bénéfiques (ischémie, épilepsie, douleur). Nous avons pour cela utilisé des techniques d’électrophysiologiques et différents tests comportementaux adaptés à ces différentes pathologies. J’ai également démontré les effets antidépressifs de la spadine sur deux modèles animaux, un modèle génétique, les souris Rouen, et un modèle induit par un traitement à la coticostérone. La dernière partie de ma thèse a porté sur l’identification d’analogues de la spadine ayant une meilleure affinité et une meilleure efficacité in vivo, et ne présentant pas d’effet secondaire. Deux peptides synthétisés par la technique de retro-inverso ont présenté ces propriétés. Parallèlement, nous avons également recherché, en collaboration avec la société MedinCell, une formulation de polymère permettant la libération constante et prolongée de l’analogue sélectionné. Cette formulation a pour but de résoudre les problèmes engendrés par le non-respect de la prise de médicaments par les patients en administrant en une seule injection le traitement pour trois voire quatre semaines
Depression is a devastating psychiatric disorder which affects about 20% of the population. In 2006 our team demonstrated the involvement of TREK-1, a potassium channel, in this pathology, and that its inhibition has led to a depression’s resistant phenotype. The search of TREK-1 inhibitors, a potential antidepressant, has led to the discovery of spadin. Spadin has, after only a four day treatment, similar efficacy than classical antidepressants which require about three weeks of treatment to produce their therapeutic effects. My work was firstly focused on the potential side effects of spadin. Indeed, TREK- 1’s activation has beneficial effects in many pathophysiologies (ischemia, epilepsy, pain). Its inhibition by spadin could generate significant adverse effects. The use of animal models has allowed us to confirm that spadin has no side effects related to TREK-1 channel’s inhibition. The specificity of spadin has been demonstrated since it has no effect on other potassium channels belonging to the K2P family. My work was also to study the effects of spadin in two mice models of depression, a genetic model and an induced model. In both cases, spadin shows a specific antidepressant effect in different behavioral tests of depression. The last part of my work was focused on the development of spadin’s analogs in order to improve the affinity and in vivo efficiency. We also developed, in collaboration with the MedinCell society, a polymer formulation for the constant and prolonged release of the selected analog. This formulation will be administered as a single injection treatment for three to four weeks, solving the problems caused by non respected medication by patients
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Mauro, Paolo. "THE DYNAMIC OLIGOPOLISTIC MARKET EQUILIBRIUM PROBLEM: THE VARIATIONAL FORMULATION, THE LAGRANGEAN FORMULATION, THE INVERSE PROBLEM AND COMPUTATIONAL MATTERS". Tesi di dottorato, 2013. http://www.fedoa.unina.it/9134/1/Tesi%20di%20Dottorato%20di%20Ricerca%20di%20Paolo%20Mauro%20PDFA.pdf.

Texto completo da fonte
Resumo:
In this thesis we focus our attention on a particular optimization problem coming form economy: the dynamic oligopolistic market equilibrium problem. This is the problem of finding a trade equilibrium in a supply-demand market between a finite number of spatially separated firms who produce one only commodity and ship it to some demand markets.
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Babaniyi, Olalekan. "Stabilized variational formulation for direct solution of inverse problems in heat conduction and elasticity with discontinuities". Thesis, 2016. https://hdl.handle.net/2144/14640.

Texto completo da fonte
Resumo:
We consider the design of finite element methods for inverse problems with full-field data governed by elliptic forward operators. Such problems arise in applications in inverse heat conduction, in mechanical property characterization, and in medical imaging. For this class of problems, novel finite element methods have been proposed (Barbone et al., 2010) that give good performance, provided the solutions are in the H^1(Ω) function space. The material property distributions being estimated can be discontinuous, however, and therefore it is desirable to have formulations that can accommodate discontinuities in both data and solution. Toward this end, we present a mixed variational formulation for this class of problems that handles discontinuities well. We motivate the mixed formulation by examining the possibility of discretizing using a discontinuous discretization in an irreducible finite element method, and discuss the limitations of that approach. We then derive a new mixed formulation based on a least-square error in the constitutive equation. We prove that the continuous variational formulations are well-posed for applications in both inverse heat conduction and plane stress elasticity. We derive a priori error bounds for discretization error, valid in the limit of mesh refinement. We demonstrate convergence of the method with mesh refinement in cases with both continuous and discontinuous solutions. Finally we apply the formulation to measured data to estimate the elastic shear modulus distributions in both tissue mimicking phantoms and in breast masses from data collected in vivo.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Feroj, Md Jamil. "On use of inhomogeneous media for elimination of ill-posedness in the inverse problem". 2014. http://hdl.handle.net/1993/23525.

Texto completo da fonte
Resumo:
This thesis outlines a novel approach to make ill-posed inverse source problem well-posed exploiting inhomogeneous media. More precisely, we use Maxwell fish-eye lens to make scattered field emanating from distinct regions of an object of interest more directive and concentrated onto distinct regions of observation. The object of interest in this thesis is a thin slab placed conformally to the Maxwell fish-eye lens. Focused Green’s function of the background medium results in diagonal dominance of the matrix to be inverted for inverse problem solution. Hence, the problem becomes well-posed. We have studied one-dimensional variation of a very thin dielectric slab of interest having conformal shape to the lens. This method has been tested solving the forward problem using both Mie series and using COMSOL. Most common techniques for solving inverse problem are full non-linear inversion techniques, such as: distorted Born iterative method (DBIM) and contrast source inversion (CSI). DBIM needs to be regularized at every iteration. In some cases, it converges to a solution, and, in some cases, it does not. Diffraction tomography does not utilize regularization. It is a technique under Born approximation. It eliminates ill-posedness, but it works only for small contrast. Our proposed method works for high contrast and also provides well-posedness. In this thesis, our objective is to demonstrate inverse source problem and inverse scattering problem are not inherently ill-posed. They are ill-posed because conventional techniques usually use homogeneous or non-focusing background medium. These mediums do not support separation of scattered field. Utilization of background medium for scattered field separation casts the inverse problem in well-posed form.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Dasgupta, Bhaskar. "The Stewart Platform Manipulator : Dynamic Formulation, Singularity Avoidance And Redundancy". Thesis, 1996. https://etd.iisc.ac.in/handle/2005/1712.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Dasgupta, Bhaskar. "The Stewart Platform Manipulator : Dynamic Formulation, Singularity Avoidance And Redundancy". Thesis, 1996. http://etd.iisc.ernet.in/handle/2005/1712.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Kulkarni, Raghavendra B. "Inverse problems solution using spectral finite element methods". Thesis, 2021. https://etd.iisc.ac.in/handle/2005/5471.

Texto completo da fonte
Resumo:
Inverse problems are very challenging as these problems involve, finding the cause by analyzing the effects. In structural dynamics problems, the effects are normally measured in terms of dynamic responses in structures. These responses which are used to find the cause generally have partial data, embedded with measurement noise, and are truncated. Due to these problems, inverse problems are generally ill-posed in most cases as against forward problems. In this dissertation, we solve five different types of inverse problems involving high-frequency transient loads. All these problems are solved using the time-domain spectral element method (TSFEM) along with experimental or numerically simulated responses. The dissertation starts with the formulation of the forward problem, which is obtaining the responses from known input forces. The general formulation of TSFEM of composite Timoshenko beam is derived. The isotropic beam formulation is shown as a special case in this formulation. Five different inverse problems solved in the thesis are: 1. Force identification problem: A new algorithm is developed using a 1-D waveguide, involving an eight noded spectral finite element. The force identification is carried out, using a few measured responses on the structure, and using TSFEM we reconstruct the input force. This is followed by a portal frame example to demonstrate the wave reflection complexities. New procedures are developed to use various types of response data like displacement, velocity, acceleration, and strain to identify the force. 2. Material identification problem: A new procedure making use of the developed TSFEM, few responses, and nonlinear least square techniques are used to determine the material properties. Also, we show the case, in which we derive the material properties without force input consideration. 3. Crack location detection problem: A new procedure is developed using TSFEM and mechanics of crack. Three methods are described, in which the first method uses only responses and wave speeds to determine the location of the crack. In the second method, force reconstruction using the measured responses is carried out and this, in turn, is used to determine the location of the crack. The third method uses the residues of the actual force and the reconstructed forces using the healthy beam matrices and cracked beam responses. A new procedure to identify the crack location using a general force input pulse having many frequency components is also developed. 4. Material defect identification: Material defects like voids or density changes are identified using TSFEM. Location and magnitude of defect are identified using response computation and using the method of residues. 5. Porous location and identification in a composite material: TSFEM is used to construct a porous element and this is used along with a healthy beam to generate the responses. A force reconstruction algorithm is used to identify the location of the porous element. The Force residue method to identify the location of the defect is also demonstrated. Further, we make use of the material identification algorithm with a few modifications to evaluate all the parameters for the porous element.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Finke, Stefan. "Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography". Thèse, 2012. http://hdl.handle.net/1866/8746.

Texto completo da fonte
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
The inverse problem of electroencephalography (EEG) is the localization of current sources within the brain using surface potentials on the scalp generated by these sources. An inverse solution typically involves multiple calculations of scalp surface potentials, i.e., the EEG forward problem. To solve the forward problem, models are needed for both the underlying source configuration, the source model, and the surrounding tissues, the head model. This thesis treats two distinct approaches for the resolution of the EEG forward and inverse problems using the boundary-element method (BEM): the conventional approach and the reciprocal approach. The conventional approach to the forward problem entails calculating the surface potentials starting from source current dipoles. The reciprocal approach, on the other hand, first solves for the electric field at the source dipole locations when the surface electrodes are reciprocally energized with a unit current. A scalar product of this electric field with the source dipoles then yields the surface potentials. The reciprocal approach promises a number of advantages over the conventional approach, including the possibility of increased surface potential accuracy and decreased computational requirements for inverse solutions. In this thesis, the BEM equations for the conventional and reciprocal approaches are developed using a common weighted-residual formulation. The numerical implementation of both approaches to the forward problem is described for a single-dipole source model. A three-concentric-spheres head model is used for which analytic solutions are available. Scalp potentials are calculated at either the centroids or the vertices of the BEM discretization elements used. The performance of the conventional and reciprocal approaches to the forward problem is evaluated for radial and tangential dipoles of varying eccentricities and two widely different skull conductivities. We then determine whether the potential advantages of the reciprocal approach suggested by forward problem simulations can be exploited to yield more accurate inverse solutions. Single-dipole inverse solutions are obtained using simplex minimization for both the conventional and reciprocal approaches, each with centroid and vertex options. Again, numerical simulations are performed on a three-concentric-spheres model for radial and tangential dipoles of varying eccentricities. The inverse solution accuracy of both approaches is compared for the two different skull conductivities and their relative sensitivity to skull conductivity errors and noise is assessed. While the conventional vertex approach yields the most accurate forward solutions for a presumably more realistic skull conductivity value, both conventional and reciprocal approaches exhibit large errors in scalp potentials for highly eccentric dipoles. The reciprocal approaches produce the least variation in forward solution accuracy for different skull conductivity values. In terms of single-dipole inverse solutions, conventional and reciprocal approaches demonstrate comparable accuracy. Localization errors are low even for highly eccentric dipoles that produce large errors in scalp potentials on account of the nonlinear nature of the single-dipole inverse solution. Both approaches are also found to be equally robust to skull conductivity errors in the presence of noise. Finally, a more realistic head model is obtained using magnetic resonance imaging (MRI) from which the scalp, skull, and brain/cerebrospinal fluid (CSF) surfaces are extracted. The two approaches are validated on this type of model using actual somatosensory evoked potentials (SEPs) recorded following median nerve stimulation in healthy subjects. The inverse solution accuracy of the conventional and reciprocal approaches and their variants, when compared to known anatomical landmarks on MRI, is again evaluated for the two different skull conductivities. Their respective advantages and disadvantages including computational requirements are also assessed. Once again, conventional and reciprocal approaches produce similarly small dipole position errors. Indeed, position errors for single-dipole inverse solutions are inherently robust to inaccuracies in forward solutions, but dependent on the overlapping activity of other neural sources. Against expectations, the reciprocal approaches do not improve dipole position accuracy when compared to the conventional approaches. However, significantly smaller time and storage requirements are the principal advantages of the reciprocal approaches. This type of localization is potentially useful in the planning of neurosurgical interventions, for example, in patients with refractory focal epilepsy in whom EEG and MRI are often already performed.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Taillandier, Cédric. "Formulation de la tomographie des temps de première arrivée par une méthode de gradient : un pas vers une tomographie interactive". Phd thesis, 2008. http://tel.archives-ouvertes.fr/tel-00430423/en/.

Texto completo da fonte
Resumo:
La tomographie des temps de première arrivée cherche à estimer un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée pointés sur les sismogrammes. Le modèle de vitesse obtenu peut alors permettre une interprétation structurale du milieu ou bien servir de modèle initial pour d'autres traitements de l'imagerie sismique. Les domaines d'application de cette méthode s'étendent, à des échelles différentes, de la géotechnique à la sismologie en passant par la géophysique pétrolière. Le savoir-faire du géophysicien joue un rôle important dans la difficile résolution du problème tomographique non-linéaire et mal posé. De nombreuses recherches ont entrepris de faciliter et d'améliorer cette résolution par des approches mathématique ou physique. Dans le cadre de ce travail, nous souhaitons développer une approche pragmatique, c'est-à-dire que nous considérons que le problème tomographique doit être résolu par un algorithme interactif dont les paramètres de réglage sont clairement définis. L'aspect interactif de l'algorithme facilite l'acquisition du savoir-faire tomographique car il permet de réaliser, dans un temps raisonnable, de nombreuses simulations pour des paramétrisations différentes. Le but poursuivi dans cette thèse est de définir, pour le cas spécifique de la tomographie des temps de première arrivée, un algorithme qui réponde au mieux à ces critères. Les algorithmes de tomographie des temps de première arrivée classiquement mis en oeuvre aujourd'hui ne répondent pas à nos critères d'une approche pragmatique. En effet, leur implémentation ne permet pas d'exploiter l'architecture parallèle des supercalculateurs actuels pour réduire les temps de calcul. De plus, leur mise en oeuvre nécessite une paramétrisation rendue complexe du fait de la résolution du système linéaire tomographique. Toutes ces limitations pratiques sont liées à la formulation même de l'algorithme à partir de la méthode de Gauss-Newton. Cette thèse repose sur l'idée de formuler la résolution du problème tomographique à partir de la méthode de plus grande descente pour s'affranchir de ces limitations. L'étape clé de cette formulation réside dans le calcul du gradient de la fonction coût par rapport aux paramètres du modèle. Nous utilisons la méthode de l'état adjoint et une méthode définie à partir d'un tracé de rais a posteriori pour calculer ce gradient. Ces deux méthodes se distinguent par leur formulation, respectivement non-linéaire et linéarisée, et par leur mise en oeuvre pratique. Nous définissons ensuite clairement la paramétrisation du nouvel algorithme de tomographie et validons sur un supercalculateur ses propriétés pratiques : une parallélisation directe et efficace, une occupation mémoire indépendante du nombre de données observées et une mise en oeuvre simple. Finalement, nous présentons des résultats de tomographie pour des acquisitions de type sismique réfraction, 2-D et 3-D, synthétiques et réelles, marines et terrestres, qui valident le bon comportement de l'algorithme, en termes de résultats obtenus et de stabilité. La réalisation d'un grand nombre de simulations a été rendue possible par la rapidité d'exécution de l'algorithme, de l'ordre de quelques minutes en 2-D.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Lin, Huang Tian, e 林晃田. "The analysis of inverse scattering for a dielectric cylinder using integral equation formulations". Thesis, 1995. http://ndltd.ncl.edu.tw/handle/18878959592704945848.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia