To see the other types of publications on this topic, follow the link: Approche par LMI.

Dissertations / Theses on the topic 'Approche par LMI'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 35 dissertations / theses for your research on the topic 'Approche par LMI.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Scorletti, Gérard. "Approche Unifiée de l'Analyse et de la Commande des Systèmes par Optimisation LMI." Phd thesis, Université Paris Sud - Paris XI, 1997. http://tel.archives-ouvertes.fr/tel-00009249.

Full text
Abstract:
L'optimisation convexe sur des contraintes inégalités matricielles affines (plus connues sous le sigle LMI) apparaît dans de nombreux problèmes d'Automatique. Dans cette thèse, on propose une méthodologie générale de mise de problèmes d'Automatique sous forme de problèmes d'optimisation. Inscrite dans l'approche entrée/sortie, elle repose sur la modélisation de systèmes comme des interconnexions de sous systèmes, sur la caractérisation des signaux entrée/sortie de ces derniers par des inégalités quadratiques et sur l'obtention de critères de stabilité et de performance par application d'arguments du type séparation des graphes et S procédure. Cette méthodologie est mise en oeuvre pour démontrer des théorèmes qui unifient et étendent des résultats d'analyse et de commande des systèmes. Parmi les nouveaux résultats, on peut citer la commande par séquencement de gains (qui a motivé cette thèse), la commande décentralisée, la commande avec saturation et la commande ``quadratique'' de systèmes non linéaires rationnels, etc... L'analyse de la robustesse est étendue à des classes d'incertitudes plus importantes. Une description plus fine est proposée et de nouveaux objectifs de performance sont aisément traités en caractérisant le comportement entrée/sortie du système incertain par des inégalités quadratiques. Cela permet d'aborder des problèmes comme l'analyse hiérarchisée de systèmes incertains de grande dimension. L'extension aux systèmes non linéaires, non stationnaires est ensuite considérée avec des critères pour des paramètres incertains non stationnaires (vitesse bornée, bornée en moyenne). Enfin, certains outils sont appliqués à un problème de pilotage de missile. On montre que la robustesse et la performance sont obtenues lorsque le missile, décrit par un modèle non linéaire, est bouclé par un correcteur proportionnel intégral. Un correcteur obtenu par la méthode de séquencement de gains permet d'améliorer les performances de la commande.
APA, Harvard, Vancouver, ISO, and other styles
2

Scorletti, Gérard. "Approche unifiee de l'analyse et de la commande des systemes par formulation lmi." Paris 11, 1997. https://tel.archives-ouvertes.fr/tel-00009249.

Full text
Abstract:
L'optimisation convexe sur des contraintes inegalites matricielles affines (plus connues sous le sigle lmi) apparait dans de nombreux problemes d'automatique. Dans cette these, on propose une methodologie generale de mise de problemes d'automatique sous forme de problemes d'optimisation. Inscrite dans l'approche entree/sortie, elle repose sur la modelisation de systemes comme des interconnexions de sous systemes, sur la caracterisation des signaux entree/sortie de ces derniers par des inegalites quadratiques et sur l'obtention de criteres de stabilite et de performance par application d'arguments du type separation des graphes et s procedure. Cette methodologie est mise en uvre pour demontrer des theoremes qui unifient et etendent des resultats d'analyse et de commande des systemes. Parmi les nouveaux, on peut citer la commande par sequencement de gains (qui a motive cette these), la commande decentralisee, la commande avec saturation et la commande quadratique de systemes non lineaires rationnels, etc. . . L'analyse de la robustesse est etendue a des classes d'incertitudes plus importantes. Une description plus fine est proposee et de nouveaux objectifs de performance sont aisement traites en caracterisant le comportement entree/sortie du systeme incertain par des inegalites quadratiques. Cela permet d'aborder des problemes comme l'analyse hierarchisee de systemes incertains de grande dimension. L'extension aux systemes non lineaires, instationnaires est ensuite consideree avec des criteres pour des parametres incertains instationnaires (vitesse bornee, bornee en moyenne). Certains outils sont enfin appliques sur un missile. Le missile non lineaire, boucle par un correcteur proportionnel integral est demontre etre robuste et performant. Un correcteur obtenu par la methode de sequencement de gains permet d'ameliorer les performances de la commande.
APA, Harvard, Vancouver, ISO, and other styles
3

Manceaux-Cumer, Christelle. "Techniques de commande robuste : approche par multiplicateurs et approche stochastique." Toulouse, ENSAE, 1998. http://www.theses.fr/1998ESAE0003.

Full text
Abstract:
Cette thèse concerne l'analyse et la synthèse de commandes, capables de stabiliser des systèmes linéaires en dépit d'incertitudes fréquentielles et paramétriques. Les travaux sont essentiellement axés sur la mise en œuvre pratique des méthodes de commande robuste. Mais, la prise en compte de la nature et de la structure de l'incertitude ainsi que le niveau de suffisance du critère de stabilité choisi rendent ce problème difficile à résoudre. Les méthodes couramment utilisées sont récapitulées mais ne répondent que partiellement au problème d'analyse. En particulier, les critères de stabilité mis sous forme de tests fréquentiels souffrent de l'échantillonnage fréquentiel et ne peuvent qu'induire des erreurs lors de la synthèse (μ-analyse et μ-synthèse). L'obtention de critères de stabilité pratiques pour la synthèse a donc orienté les travaux dans deux directions complémentaires. Le premier axe de recherche élabore des algorithmes fondés sur la théorie des multiplicateurs pour traiter des problèmes de type μ-synthèse (ou synthèse H₂ robuste) dans lesquels les incertitudes peuvent être mixtes. Là encore, nous utilisons une heuristique classique qui alterne entre analyse, à correcteur fixé, et synthèse, à multiplicateur fixé mais qui présente l'avantage d'éviter l'échantillonnage en fréquences. Au préalable, les multiplicateurs sont choisis dans une base soit polynômiale soit rationnelle. Ces approches se formulent par des problèmes d'optimisation convexe, de type LMI. Le scond axe de recherche utilise une technqiue hybride identification / commande pour le calcul des marges paramétriques d'un système commandé (PRABI), fondée sur la qualité d'identification paramétrique. Cette technique est exploitée pour l'obtention d'un nouvel algotithme de désensibilisation. On robustifie itérativement un compensateur à structure donnée, tout en assurant un compromis performance / robustesse paramétrique. Cela nous amène à travailler successivement dans l'espace des paramètres définissant le correcteur, puis dans l'espace des paramètres inhérents au modèle. En fin, on propose une généralisation de la méthode d'analyse PRABI, nécessitant le calcul d'un correcteur LQG équivalent. Toutes ces techniques sont validées sur des cas tests et des problèmes réalistes de l'aéronautique (missile, satellite de télécommunication).
APA, Harvard, Vancouver, ISO, and other styles
4

Zarudniev, Mykhailo. "Synthèse de fréquence par couplage d'oscillateurs spintroniques." Phd thesis, Ecole Centrale de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00804561.

Full text
Abstract:
La tendance actuelle dans le domaine des télécommunications mène à des systèmes capables de fonctionner selon plusieurs standards, et donc plusieurs fréquences porteuses. La synthèse de la fréquence porteuse est un élément clef, dont les propriétés reposent essentiellement sur les performances de l'oscillateur employé. Pour assurer le fonctionnement de systèmes compatibles avec plusieurs standards de télécommunication, la solution conventionnelle consiste à intégrer plusieurs oscillateurs locaux. Cette solution est coûteuse, d'autant plus que, malgré le fait que les technologies actuelles atteignent des niveaux d'intégration très importants, la surface occupée par des oscillateurs traditionnels de type LC ne peut pas être diminuée, alors que le coût de fabrication au millimètre carré devient de plus en plus élevé. Il serait donc très intéressant de remplacer les oscillateurs LC, ce qui nous amène à rechercher des solutions alternatives parmi de nouvelles technologies. L'oscillateur spintronique (STO) est un nouveau dispositif issu des études sur les couches minces magnétiques. Il apparait comme un candidat potentiel de remplacement des oscillateurs LC du fait de sa grande accordabilité en fréquence et de son faible encombrement. Toutefois des mesures effectuées sur les STOs ont montré que la performance en puissance et en bruit de phase d'un oscillateur seul ne permet pas de remplir les spécifications pour des applications de télécommunication. Nous proposons de remplir ces spécifications en couplant un nombre d'oscillateurs spintroniques important. Dans ce cadre se posent plusieurs questions qui concernent les procédures de modélisation, d'analyse et de synthèse des systèmes interconnectés. Les procédures de modélisation incluent la démarche de recherche de modèles à complexité croissante qui décrivent les propriétés entrée-sortie d'un oscillateur spintronique, ainsi que la démarche de généralisation des modèles des oscillateurs dans le cadre du réseau. Les procédures d'analyse cherchent à vérifier la stabilité et évaluer la performance des systèmes interconnectés. Les procédures de synthèse permettent de concevoir des interconnexions sophistiquées pour les oscillateurs afin d'assurer toutes les spécifications du cahier des charges. Dans ce document, nous établissons tout d'abord le problème de la synthèse de fréquence par couplage avec un cahier des charges formalisé en termes de gabarits fréquentiels sur des densités spectrales de puissance. Le cahier des charges posé amène la nécessité de modéliser l'oscillateur spintronique pour pouvoir simuler et analyser son comportement. Ici, nous proposons une modélisation originale selon des degrés de complexité croissante. Ensuite, nous discutons de la structure de la commande de l'ensemble des oscillateurs afin de remplir les spécifications du cahier des charges. La structure de commande proposée nécessite de développer une méthode de conception des interconnexions du réseau d'après les critères de performance. Dans les deux derniers chapitres, nous proposons deux méthodes fréquentielles de synthèse originales pour résoudre le problème de synthèse de fréquence par couplage. La première méthode de synthèse permet de prendre en compte un critère mathématique du cahier des charges, qui correspond à un gabarit fréquentiel à respecter, et permet d'obtenir une matrice d'interconnexion des sous-systèmes, telle que le module de la réponse fréquentielle du réseau approxime le gabarit imposé par le cahier des charges. La deuxième méthode de synthèse permet de prendre en compte plusieurs gabarits fréquentiels à la fois. La solution obtenue est une matrice d'interconnexion des sous-systèmes, qui résout le problème de la synthèse de fréquence par couplage d'oscillateurs spintroniques.
APA, Harvard, Vancouver, ISO, and other styles
5

Caldas, Alex. "Contribution à la manipulation dextre : prise en compte d'incertitudes de modèle et de saisie dans la commande." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066069/document.

Full text
Abstract:
Les travaux de cette thèse portent sur la saisie et la manipulation dextre et ont pour dénominateur commun la robustesse vis-à-vis d'un environnement incertain (méconnaissance de la géométrie de l'objet ou du préhenseur, initialisation imparfaite du système, etc). La mesure de qualité de prise permet d'évaluer la stabilité d'une saisie. Nos travaux proposent une nouvelle mesure de qualité de prise, dont le principe reste dans la continuité des méthodes les plus connues qui consistent à déterminer l'espace des torseurs dynamiques applicables sur l'objet par le préhenseur. Notre mesure cherche à déterminer cet espace quelle que soit l'incertitude qui affecte le système préhenseur/objet. On appelle cet ensemble le Reachable Wrench Space under Uncertainties (RWSU). Deux algorithmes sont proposés afin de déterminer un majorant et un minorant du RWSU. La deuxième contribution concerne l'application d'algorithmes de commande robuste aux incertitudes de modèle pour la manipulation dextre. La première méthode de commande que nous proposons est un retour d'état, permettant de répondre à la consigne de manipulation, auquel on ajoute une action dynamique, permettant de répondre aux contraintes de saisie. Le retour d'état est synthétisé suivant un problème d'optimisation avec contraintes LMI. Les contraintes LMI permettent de définir la réponse dynamique du système bouclé, et d'assurer la robustesse aux incertitudes de modèle. Une seconde méthode de commande est proposée afin d'améliorer les performances de suivi de trajectoire pour ce système MIMO en découplant le mouvement à suivre des mouvements perturbateurs résultant des couplages dynamiques entre les axes
This thesis deals with grasping and dexterous manipulation with multifingered hands, with the robustness to uncertain environments as a common denominator.The first contribution of the present work is a new measure of the grasp quality, which is used to evaluate the stability of a grasp. In the footsteps of the most known methods which consist in determining the reachable wrench space, our measure aims to evaluate this space whatever the uncertainty which affects the gripper/object system. This new space is called Reachable Wrench Space under Uncertainty (RWSU). Two algorithms are proposed to find respectively an upper and a lower bound of the RWSU.The second contribution concerns the application of robust control algorithms for dexterous manipulation. The first control method is composed of as a state-space feedback, which enables a manipulation task, and of an additional dynamic action, allowing to respect the grasp constraints. The state-space feedback is designed for a robust regional pole placement by the resolution of an optimization problem under LMI constraints. The LMI constraints define the dynamic response of the system in closed loop, and ensure the robustness with respect to model uncertainties. A second control method, based on eigenstructure assignment, is proposed to improve the trajectory tracking for the MIMO system. The eigenstructure assignment decouples the movement of the task from the disturbing movements resulting from the dynamic coupling between the axes
APA, Harvard, Vancouver, ISO, and other styles
6

Falcón, Prado Ricardo. "Active vibration control of flexible structures under input saturation through delay-based controllers and anti-windup compensators." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG042.

Full text
Abstract:
Dans ce travail, on traite le problème du commande actif des vibrations robustes pour une structure mécanique flexible à travers des techniques pour des systèmes à dimensions infinis et finis. Les approches abordées sont réglées pour une commande à retour de sortie basée sur une commande aux actions retardées proportionelles, par une approche basée sur quasipolynomials,et une commande synthétisée par la méthode H∞avec une approche par LMIs. Le but c’est l’analyse de ses capabilités pour amortisser les modes vibratoires dans une bande passante d’intérêt, et éviter les effets dénommés de phénomène “spillover”. Cettes commandes sont sythétisés à travers d’un modèle de dimensions finies,dérivé à partir d’un analyse des dimensions finies des structures mécaniques, combiné avec des methodes de réduction.Les structures flexibles envisagées ici sont, d’abord,une poutre flexible d’aluminium à la configuration Euler-Bernoulli, dont un bout est encastrée et l’autre libre, deuxièmement,une membrane axisymmetrique. Chaque système est instrumenté d’un capteur et d’un actionneur piézoélectrique,ils sont bien soumises à chaque coté des structures et elles sont bien placées. Notre intention est d’examiner les performances susmentionnés par les environnements de simulation numérique et la mise en oeuvre à titre expérimental
In this work, the problem of active vibration control of flexible mechanical structures is addressed through infinite and finite dimensional techniques. The compared approaches are adjusted for an output feedback controller based on delayed proportional actions,through a quasipolynomial-based approach, and an optimalH∞ controller design computed with an LMI approach.They are shown in order to analyze their capabilities to damp some vibrational modes in the frequency band with of interest, and to avoid the so called “spillover”phenomenon. These controllers are synthetized through a finite dimensional model, derived from a finite element analysis of the mechanical structure, combined with some reduction methods.The flexible structures considered here are, firstly, aflexible aluminium beam in the Euler-Bernoulli configuration,and secondly, an axysimmetric membrane. Bothof them are equipped with two piezoelectric patches that are bounded and collocated on each face of the structure.We intend to examine and discuss the aforementioned performances in both simulation and experimental environments
APA, Harvard, Vancouver, ISO, and other styles
7

Chadli, Mohammed. "Stabilité et commande de systèmes décrits par des multimodèles." Phd thesis, Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPL089N.

Full text
Abstract:
Notre sujet de thèse concerne l'analyse de la stabilité et la synthèse de lois de commande pour les multimodèles. La démarche proposée est exclusivement basée sur la deuxième méthode de Lyapunov et sa formulation en termes d'Inégalités Matricielles Linéaires (LMI). Dans le volet consacré à la méthode quadratique, nous avons tout d'abord développé des conditions suffisantes de stabilité. La conception de multiobservateurs dans le cas de variables de décision non mesurables est abordée ainsi que celle de multiobservateurs à entrées inconnues. Une loi de commande statique non linéaire basée sur le retour de sortie est également proposée. Pour réduire le pessimisme de la méthode quadratique, deux types de fonction de Lyapunov non quadratiques sont considérées. En utilisant la procédure S, les résultats obtenus concernant la commande par retour d'état ou de sortie et l'estimation d'état des multimodèles sont bilinéaires en les variables de synthèse; des formulations LMI sous contrainte de rang sont proposées
APA, Harvard, Vancouver, ISO, and other styles
8

Bensmaine, Fayçal. "Modélisation et commande d'un système de stockage d'énergie à base de supercondensateur pour l'hybridation des groupes électrogènes." Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2341.

Full text
Abstract:
Les travaux de recherche dans ce mémoire s’inscrivent dans l'étude et la commande d'un nouveau concept du groupe électrogène hybride permettant de réduire la puissance du moteur diesel (downsizing) d’économiser du carburant et d’améliorer le comportement de la génératrice synchrone durant les régimes transitoires. La solution adoptée consiste à mettre en parallèle à la génératrice synchrone un système de stockage d'énergie. Ce système est composé d'un onduleur avec un supercondensateur du côté du bus continu. L’objectif de la thèse a été de dimensionner l’ensemble supercondensateur /convertisseur statique et de développer une commande ayant des performances optimales pour obtenir le meilleur compromis entre l’énergie échangée dans le supercondensateur et l’efficacité sur la vitesse du groupe et sur l’amplitude des tensions de l’alternateur. Une commande par retour d’état avec intégration de l’écart en utilisant l’approche LMIs a été mise en place pour la synthèse des régulateurs des boucles de courants de l'onduleur. Une deuxième commande a été développée pour réguler la tension variable aux bornes du supercondensateur. Un simulateur regroupant l’alternateur et le système de stockage a été développé pour la mise au point de ces commandes. Toutes les validations ont été faites sur une maquette expérimentale spécifiquement élaborée pour cette thèse. Les essais ont été menés avec un moteur d’entraînement électrique et sur un diesel. En conclusion, les essais expérimentaux ont mis en évidence l’apport important de cette hybridation sur les variations de vitesse du diesel et sur la tension aux bornes de l’alternateur lors d’important impact ou de délestage de la charge
The research in this thesis are part of study and control of a new concept of hybrid generator to reduce the power of the diesel engine (downsizing) in order to save fuel and improve the behavior of the synchronous generator during transients. The adopted solution is to place in parallel with the synchronous generator an energy storage system. The latter consists of an inverter with a super capacitor on the DC bus. The aim of the thesis was to scale the entire supercapacitor / static converter and to develop a control law having the best performance with the best compromise between the energy exchanged in the supercapacitor, efficiency, the group speed and voltage amplitude of the generator. A feedback control condition with integration of the deviation using LMI's approach has been established for the synthesis of loop current regulators from the inverter.A second control law was developed to regulate the variable voltage across the supercapacitor. A simulator combining generator and storage system has been developed to test these commands.All validations were made on an experimental test rig specifically developed for this thesis. The tests were conducted with an electric drive motor in the test platform of the LIAS and with a diesel in that of the Leroy Somer Motors company.Finally, experimental tests have highlighted the significant contribution of this hybridization on the diesel speed variationsand on the terminal voltage of the alternator during impact or load shedding
APA, Harvard, Vancouver, ISO, and other styles
9

Cabanial, Jean-Marc. "Convergence du filtrage par densités approchées." Rouen, 1998. http://www.theses.fr/1998ROUES014.

Full text
Abstract:
La loi conditionnelle d'un signal X(t+1) observé en temps discret par Yt = (Y1,. . , Yt), ne se calcule explicitement que dans quelques cas, comme le filtre de Kalman par exemple. Définissant des moments approchés de la loi inconnue PX(t+1) (. |Yt = Yt), nous en déduisons par maximum d'entropie, l'existence d'une probabilité appelée loi approchée de X(t+1) sachant que Yt = Yt, loi que l'on peut calculer explicitement en fonction d'un nombre fini de paramètres définis récursivement. Dans cette thèse nous montrons, sous des hypothèses restrictives, la convergence de cette loi approchée vers la loi PX(t+1) (. | Yt = Yt), pour l'information de Kullback. Nous présentons ensuite différents cas où ces hypothèses sont vérifiées. Dans un premier temps, le signal Xt est à valeurs dans un compact, puis nous essayons de nous dégager de cette hypothèse pour ensuite étudier des systèmes du type X(t+1) = l (Xt) + Wt Yt = h (Xt) + Vt les conditions suffisantes retenues n'imposent pas la linéarité du système ou le choix de bruits gaussiens. Nous terminons cette étude par la mise en œuvre numérique de cette méthode sur deux exemples.
APA, Harvard, Vancouver, ISO, and other styles
10

Lemaire, Anne-Sophie. "Une approche par mélange des lois L 1-symetriques et estimation d'un paramètre de position." Rouen, 1997. http://www.theses.fr/1997ROUES081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Senga, Kiessé Tristan. "Approche non-paramétrique par noyaux associés discrets des données de dénombrement." Phd thesis, Université de Pau et des Pays de l'Adour, 2008. http://tel.archives-ouvertes.fr/tel-00372180.

Full text
Abstract:
Nous introduisons une nouvelle approche non-paramétrique, par noyaux associés discrets, pour les données de dénombrement. Pour cela, nous définissons la notion de noyaux associés discrets à partir d'une loi de probabilité discrète donnée et nous étudions leurs propriétés. De là, nous construisons l'estimateur à noyau discret lequel est l'analogue de certains estimateurs à noyau continu de cette dernière décennie. Nous examinons ses propriétés fondamentales ; en particulier, nous montrons la convergence ponctuelle en moyenne quadratique de l'estimateur. Le choix de fenêtre du lissage discret s'effectue essentiellement par validation croisée et excès de zéros. Nous étudions également le comportement des lois classiques de dénombrement comme noyau associé, par exemple, Poisson, binomiale et binomiale négative. Ainsi, il s'est révélé nécessaire de construire une nouvelle famille de lois discrètes dites triangulaires pour servir de noyaux associés symétriques. Cette méthode des noyaux associés discrets est utilisée dans l'estimation semi-paramétrique des distributions de données de dénombrement, ainsi que pour la régression non-paramétrique sur une variable explicative de dénombrement. Tout au long de ce travail, nous illustrons les résultats à travers des simulations et des jeux de données réelles. Dans le cas d'échantillons de tailles petites et modérées, l'importance et les très bonnes performances des noyaux associés discrets sont mises en évidence, en comparaison avec le noyau du type Dirac et parfois les noyaux continus.
APA, Harvard, Vancouver, ISO, and other styles
12

Lévesque, Martin. "Modélisation du comportement mécanique de matériaux composites viscoélastiques non linéaires par une approche d'homogénéisation." Paris, ENSAM, 2004. https://pastel.archives-ouvertes.fr/pastel-00001237.

Full text
Abstract:
L’objectif principal de ce travail de thèse est d’établir un modèle, s’appuyant sur l’homogénéisation, permettant la prédiction du comportement mécanique de matériaux composites viscoélastiques non linéaires. L’approche est appliquée à un polypropylène renforcé de billes de verre réparties aléatoirement. La première partie du document est consacrée à l’écriture et l’identification d’une loi de comportement viscoélastique non linéaire pouvant être appliquée au polypropylène. La deuxième partie traite de l’établissement du modèle ainsi que de son implémentation numérique. Le modèle d’homogénéisation est développé au troisième chapitre. L’approche proposée permet de transposer certains modèles existants pour des matériaux ne dépendant pas de l’histoire de chargement à des comportements viscoélastiques non linéaires. La méthodologie permet donc de ramener le problème viscoélastique non linéaire à un problème viscoélastique linéaire à histoire de déformations libres. Ce nouveau problème est résolu à l’aide du principe de correspondance viscoélastique linéaire et des transformées de Laplace-Carson. Le quatrième chapitre est dédié à l’implémentation numérique du modèle. On insiste notamment sur le fait que le matériau viscoélastique linéaire de comparaison rencontre les exigences de la thermodynamique des milieux continus. De plus, nous proposons un algorithme conduisant à une inversion précise des transformées de Laplace-Carson. Finalement, la dernière partie de la thèse est consacrée à la validation des modèles proposés. Des modèles éléments finis de la microstructure et l’implémentation de la loi de comportement viscoélastique non linéaire sont réalisés au ch(…)
The main objective of this thesis is to develop a model, based on homogenisation, for predicting the mechanical response of nonlinear viscoelastic composites. The model is applied to a glass beads reinforced polypropylene in which the beads are randomly distributed. The initial part of the thesis is concerned with the development of a three dimensional nonlinear viscoelastic constitutive law that can be applied to this polypropylene composite. The second stage of the thesis deals with the development and identification of the homogenisation model while this theoretical model is presented in Chapter Three. This approach allows material models, for which the response does not depend on the load history, to be applied to nonlinear viscoelastic materials. The approach involves transforming the initial nonlinear viscoelastic problem into one which is linear viscoelastic with a history of stress-free deformations. This problem is solved with the linear viscoelastic correspondence principle and Laplace-Carson transforms. Chapter Four deals with the numerical implementation of such a model. The implementation is achieved in such a way that the comparison materials, which represent the new linear viscoelastic problem, satisfy all thermodynamic requirements. Moreover, a new algorithm has been developed to numerically invert the Laplace-Carson transforms with good accuracy. The final part of the thesis validates the theoretical model through means of finite element models of typical microstructures and the numerical implementation of the nonlinear viscoelastic constitutive law. Comparisons are also presented between the predictions of the homogenisation model, the fi(…)
APA, Harvard, Vancouver, ISO, and other styles
13

Ait, Ighil Mehdi. "Simulateur de canal de propagation basé sur une approche physico-statistique et adapté à la modélisation des multitrajets pour les systèmes de navigation par satellite." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0001/document.

Full text
Abstract:
Ce travail de thèse porte sur la modélisation des phénomènes de propagation affectant les signaux de navigation par satellite en environnement urbain dense avec une focalisation particulière sur les multitrajets et l'aspect large bande du canal de propagation espace/Terre. Le simulateur de canal pseudo temps-réel développé, SCHUN (Simplified CHannel for Urban Navigation), repose sur une approche hybride physico-statistique. La composante statistique de la modélisation permet essentiellement de générer une ville virtuelle à partir de distributions de bâtiments connues. Le reste de la modélisation s'appuie sur une approche physique simplifiée où les interactions ondes électromagnétiques/ville virtuelle reposent d'une part sur un modèle de macro-diffusion à l'échelle des façades, (3CM (Three Component Model)), et d'autre part sur un modèle physique de masquage du trajet direct par les bâtiments. Les principales méthodes numériques sous-jacentes sont l'optique physique et la théorie uniforme de la diffraction. Le simulateur de canal SCHUN ouvre aujourd'hui des perspectives intéressantes pour la modélisation large bande du canal de propagation espace/Terre. Optimisé pour des temps de calcul raisonnables, alliant une composante statistique à une composante physique simplifiée, ce simulateur a été conçu et validé par des mesures expérimentales pour répondre à des besoins de simulation des systèmes à diversité de satellite, diversité de réception, diversité de polarisation ou encore diversité de fréquence pour des applications de navigation par satellite
This PhD work deals with land mobile satellite channel modelling and addresses the specific issue of satellite navigation systems in urban environments with a particular focus on multipath modelling and wide-band representation of the channel. The developed land mobile satellite channel simulator, SCHUN (Simplified CHannel for Urban Navigation), is based on a hybrid physical-statistical approach satisfying fast computation requirements. The statistical component of the modelling is mainly used during the virtual city synthesis step based on known statistical distributions of building height and street width. The rest of the modelling comes from deterministic methods using simplified electromagnetic interaction models reproducing building macro-scattering (3CM model (Three Component Model)) and building blockage of the direct path. The main underlying electromagnetic methods are the physical optics and the uniform theory of diffraction. The SCHUN simulator now opens interesting perspectives for the modelling of wide-band land mobile satellite propagation channel in dense urban environments. Optimised for pseudo real-time constraints, it uses both physical and statistical approaches. Furthermore, the SCHUN simulator has been designed and validated against measurements to answer specific needs of satellite diversity, receiving diversity, polarisation diversity or frequency diversity for satellite navigation applications
APA, Harvard, Vancouver, ISO, and other styles
14

Toubal, Lotfi. "Approches analytique et expérimentale de l'endommagement par fatigue d'un composite carbone/epoxy." Toulouse 3, 2004. http://www.theses.fr/2004TOU30231.

Full text
Abstract:
Le phénomène de fatigue est aujourd'hui plus actuel que jamais car le concepteur ne peut plus se permettre d'appliquer à ses calculs un coefficient de sécurité généreux. Hier peu dangereux, le phénomène de fatigue devient ainsi un des principaux facteurs de dimensionnement. C'est ce qui explique l'intérêt croissant des industriels vis-à-vis de la recherche en fatigue. Ce travail a été financé par une allocation MNER dans le cadre d’un partenariat avec la Société Turbomeca-Bordes (groupe Snecma) pour étudier le comportement d’un composite (Tissu carbone/époxy) utilisé dans la confection des structures dans le domaine aéronautique. Pour anticiper l’apparition de problèmes de tenue mécanique et de durée de vie sur le matériau utilisé, plusieurs types d’essais ont été menés : en traction (instrumentée par des caméras CCD et par ESPI) pour déterminer les propriétés élastiques et à rupture du matériau, en fatigue (instrumentée par caméra infrarouge) pour déterminer un critère d’endommagement. L’ensemble des résultas issus des essais a été comparé à des simulations numériques ce qui a permis de juger de la validité des hypothèses retenues dans le cadre de cette recherche
Fatigue failure is by far the most common type of failure in service loading of structural materials, including composites. The phenomenon of fatigue becomes thus one of the principal factors of dimensioning. It is what explains the interest of the industrialists with respect to research in fatigue. This work was financed by an allowance MNER. The origin of this study lies within the framework of an industrial agreement to study the behaviour of composite materials (carbon/epoxy) used in structural work in the field of aeronautics. In order to anticipate possible problems of mechanical resistance and life span on these materials, a series of static fatigue tests and finite element studies have been planned. In traction (instrumented by cameras CCD and ESPI) to determine the elastic properties and the stresses with rupture of material, in fatigue (instrumented by infra-red camera) to determine a criterion of damage. The whole of resulted resulting from the tests was compared with numerical simulations, they presents a good correlation, which made it possible to judge validity of the assumptions retained within the framework of this research
APA, Harvard, Vancouver, ISO, and other styles
15

Renault, Norbert. "Etude du couplage thermomécanique du PEHD par essais mécaniques et inversion d'images infrarouges." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL100N/document.

Full text
Abstract:
Ce travail vise à approfondir la connaissance du comportement mécanique de polymères structurés sur de multiples échelles. Il repose sur l'acquisition simultanée d'informations couplées relatives à la mécanique, à la thermique et à la microstructure. Nous avons à cet effet étudié le comportement du Polyéthylène Haute Densité (PEHD) sous sollicitations de traction à déformation contrôlée à l'aide de trois techniques optiques utilisées in situ simultanément : (i) Le système Vidéotraction® pour l'accès aux contraintes et aux déformations vraies. (ii) La thermographie infrarouge pour l'accès aux sources thermiques. (iii) Une technique de rétrodiffusion de lumière (ISLT) pour l'accès à une forme d'endommagement. Le corps du travail porte sur la reconstruction des sources thermiques 2D à partir de cartographies des champs de température mesurés au cours d'essais. Le problème inverse de reconstruction des champs de sources ther-miques est résolu par deux méthodes différentes : minimisation sous contrainte avec formulation adjointe et décomposition modale. Des techniques de régularisation du problème sont décrites en détail pour chaque méthode. D'autre part, la technique ISLT nous permet de suivre l'endommagement : l'apparition progressive de "mi-crocavités" isotropes puis un développement d'une forte anisotropie pendant la phase de durcissement hyperélastique. Nous montrons que ces informations sur la microstructure viennent corroborer les phénomènes observés sur la source thermique. Nous replaçons alors l'ensemble des informations obtenues dans le contexte d'une modélisation thermodynamique des lois de comportement. Une étude de sensibilité aux paramètres du modèle est développée, ce qui conduit à une réduction du modèle adaptée à leur bonne estimation
This research aims at looking further into current knowledge of the mechanical behavior of semi-crystalline polymers at multiple scales. It relies on the simultaneous acquisition of coupled information relating to me-chanical, thermal and microstructural behaviors. For this purpose, we have studied the response of High Density Polyethylene (HDPE) under tensile tests with controlled strain rates, using three optical techniques : (i) Vidéotraction®, a videoextensemeter to access the true stress and strain. (ii) Infrared thermography to access the thermal sources evolution. (iii) Backscattering of Incoherent Light (ISLT technique) to access information on damage mechanisms. The core of the research concerns the reconstruction of the 2D thermal sources starting from temperature fields maps measured during the test. This ill-posed problem has been solved with two different methods : A constrained optimization based on the adjoint formulation and a minimization based on a reduced spectral model. The regularization tools used in the problem are detailed for each method. The ISLT technique allows to monitor damaging processes due to crazing : the creation of isotropic micro-cavities followed by the development of a strong anisotropy during the hardening phase. We show that these information at microstructural level confirm the evolutions of the heat source thermal. All these experimental information are finally considered within a thermodynamical framework used for deri-ving constitutive laws. A sensitivity analysis applied to the parameters of our law led to a reduced model that is more appropriate for their proper estimation
APA, Harvard, Vancouver, ISO, and other styles
16

Dufreche, Jérôme. "Écoulement à travers une couche poreuse limitée par une paroi perforée : comparaison entre approche de Darcy et simulations numériques à l'échelle microscopique." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT037H.

Full text
Abstract:
L'étude concerne la perméabilité apparente d'un système constitué d'une couche poreuse limitée par une paroi perforée. Ce type de configuration se rencontre, par exemple, dans les lits d'adsorption de gaz ou lors de la formation d'un dépôt de particules sur une surface filtrante. Une étude expérimentale, basée sur l'utilisation d'un micromodèle gravé, a permis de mettre en évidence les limites du modèle de Darcy lorsque la taille de la perforation n'est pas grande devant l'échelle caractéristique de la microstructure du milieu poreux. Nous pouvons distinguer une première classe de situations où cette séparation d'échelle est assurée. Il est alors légitime de s'appuyer sur le modèle de Darcy pour étudier l'évolution de la perméabilité apparente du milieu poreux en fonction des paramètres géométriques. Nous utilisons une solution analytique validée par comparaison avec une approche numérique couplant résolution des équations de Stokes et de Darcy. Cette approche numérique est ensuite étendue pour étudier la croissance non uniforme d'un dépôt de particules en filtration frontale. Pour la deuxième classe de situations, la séparation d'échelle n'est plus clairement vérifiée. L'évolution de la perméabilité apparente de la couche poreuse est alors étudiée par simulation directe dans le cas d'un milieu modèle constitué d'un réseau de cylindres. Nous nous sommes appuyés pour cela sur un code de résolution des équations de Stokes par une technique aux éléments frontières basée sur l'utilisation d'éléments circulaires originaux. Nous avons pu ainsi déterminer l'évolution de la perméabilité apparente de la couche en fonction des différents paramètres géométriques du problème et expliquer les écarts observés entre résultats expérimentaux et prédictions à partir du modèle de Darcy. L'étude de l'écoulement dans le cas de la deuxième classe fait appraître deux zones : une zone au voisinage de la paroi perforée, où l'écoulement doit être calculé à partir des équations de Stokes, et le reste de la couche poreuse, où le modèle de Darcy s'applique. Ceci a suggéré le développement et la mise en oeuvre d'une modélisation originale inspirée des méthodes de décomposition de domaine couplant la résolution de ces deux modèles.
APA, Harvard, Vancouver, ISO, and other styles
17

Ruiz, Virginie. "Estimation et prédiction d'un système évoluant de façon non linéaire : filtrage par densités approchées." Rouen, 1993. http://www.theses.fr/1993ROUE5018.

Full text
Abstract:
De nombreuses situations physiques relèvent de modèle d'état, dont l'évolution est aléatoire et non linéaire. La modélisation et le filtrage doivent suivre la dynamique de ces modèles non linéaires, même en cas de ruptures. Les changements de modèles aléatoires doivent être pris en compte. Certaines situations introduisent des lois de probabilité multimodales, qui ne peuvent être traitées par les techniques de filtrage de Kalman-Bucy: les lois gaussiennes sont unimodales. De plus, quelles que soient les hypothèses gaussiennes sur les lois a priori, le caractère gaussien des lois a posteriori, est perdu en raison de l'évolution non linéaire. La methodologie originale du filtrage par densités approchées est présentée. Celle-ci introduit des lois de probabilité a priori, et a posteriori, multimodales. Un principe de maximum d'entropie sous contraintes linéaires, assure la fermeture des équations du filtre et permet l'approximation des lois de probabilité à l'aide de densités exponentielles, dont le logarithme est développé linéairement sur des fonctions à choisir astucieusement. La mise à jour utilise la méthode bayesienne de calcul des lois a posteriori. La méthode appliquée sur un modèle d'état sinusoïdal révèle les transitions entre les deux attracteurs liés au modèle (situation typique des chaos déterministes). L'étude de l'état de modèles non linéaires faisant intervenir des évolutions markoviennes conduit à dépasser la seule étude des moments d'ordre deux pour utiliser les moments d'ordre supérieur
APA, Harvard, Vancouver, ISO, and other styles
18

Destribats, Alain. "Les cycles pathologiques Ko de la théorie des cinq éléments : tentative d'explication de 5 syndromes par le raisonnement acupunctural, parallèle occidental à cette approche." Bordeaux 2, 1992. http://www.theses.fr/1992BOR2M082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Tamatoro, Johng-Ay. "Approche stochastique de l'analyse du « residual moveout » pour la quantification de l'incertitude dans l'imagerie sismique." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3044/document.

Full text
Abstract:
Le principale objectif de l'imagerie sismique pétrolière telle qu'elle est réalisée de nos jours est de fournir une image représentative des quelques premiers kilomètres du sous-sol. Cette image permettra la localisation des structures géologiques formant les réservoirs où sont piégées les ressources en hydrocarbures. Pour pouvoir caractériser ces réservoirs et permettre la production des hydrocarbures, le géophysicien utilise la migration-profondeur qui est un outil d'imagerie sismique qui sert à convertir des données-temps enregistrées lors des campagnes d'acquisition sismique en des images-profondeur qui seront exploitées par l'ingénieur-réservoir avec l'aide de l'interprète sismique et du géologue. Lors de la migration profondeur, les évènements sismiques (réflecteurs,…) sont replacés à leurs positions spatiales correctes. Une migration-profondeur pertinente requiert une évaluation précise modèle de vitesse. La précision du modèle de vitesse utilisé pour une migration est jugée au travers l'alignement horizontal des évènements présents sur les Common Image Gather (CIG). Les évènements non horizontaux (Residual Move Out) présents sur les CIG sont dus au ratio du modèle de vitesse de migration par la vitesse effective du milieu. L'analyse du Residual Move Out (RMO) a pour but d'évaluer ce ratio pour juger de la pertinence du modèle de vitesse et permettre sa mise à jour. Les CIG qui servent de données pour l'analyse du RMO sont solutions de problèmes inverses mal posés, et sont corrompues par du bruit. Une analyse de l'incertitude s'avère nécessaire pour améliorer l'évaluation des résultats obtenus. Le manque d'outils d'analyse de l'incertitude dans l'analyse du RMO en fait sa faiblesse. L'analyse et la quantification de l'incertitude pourrait aider à la prise de décisions qui auront des impacts socio-économiques importantes. Ce travail de thèse a pour but de contribuer à l'analyse et à la quantification de l'incertitude dans l'analyse des paramètres calculés pendant le traitement des données sismiques et particulièrement dans l'analyse du RMO. Pour atteindre ces objectifs plusieurs étapes ont été nécessaires. Elles sont entre autres :- L’appropriation des différents concepts géophysiques nécessaires à la compréhension du problème (organisation des données de sismique réflexion, outils mathématiques et méthodologiques utilisés);- Présentations des méthodes et outils pour l'analyse classique du RMO;- Interprétation statistique de l’analyse classique;- Proposition d’une approche stochastique;Cette approche stochastique consiste en un modèle statistique hiérarchique dont les paramètres sont :- la variance traduisant le niveau de bruit dans les données estimée par une méthode basée sur les ondelettes, - une fonction qui traduit la cohérence des amplitudes le long des évènements estimée par des méthodes de lissages de données,- le ratio qui est considéré comme une variable aléatoire et non comme un paramètre fixe inconnue comme c'est le cas dans l'approche classique de l'analyse du RMO. Il est estimé par des méthodes de simulations de Monte Carlo par Chaîne de Markov.L'approche proposée dans cette thèse permet d'obtenir autant de cartes de valeurs du paramètre qu'on le désire par le biais des quantiles. La méthodologie proposée est validée par l'application à des données synthétiques et à des données réelles. Une étude de sensibilité de l'estimation du paramètre a été réalisée. L'utilisation de l'incertitude de ce paramètre pour quantifier l'incertitude des positions spatiales des réflecteurs est présentée dans ce travail de thèse
The main goal of the seismic imaging for oil exploration and production as it is done nowadays is to provide an image of the first kilometers of the subsurface to allow the localization and an accurate estimation of hydrocarbon resources. The reservoirs where these hydrocarbons are trapped are structures which have a more or less complex geology. To characterize these reservoirs and allow the production of hydrocarbons, the geophysicist uses the depth migration which is a seismic imaging tool which serves to convert time data recorded during seismic surveys into depth images which will be exploited by the reservoir engineer with the help of the seismic interpreter and the geologist. During the depth migration, seismic events (reflectors, diffractions, faults …) are moved to their correct locations in space. Relevant depth migration requires an accurate knowledge of vertical and horizontal seismic velocity variations (velocity model). Usually the so-called Common-Image-Gathers (CIGs) serve as a tool to verify correctness of the velocity model. Often the CIGs are computed in the surface offset (distance between shot point and receiver) domain and their flatness serve as criteria of the velocity model correctness. Residual moveout (RMO) of the events on CIGs due to the ratio of migration velocity model and effective velocity model indicates incorrectness of the velocity model and is used for the velocity model updating. The post-stacked images forming the CIGs which are used as data for the RMO analysis are the results of an inverse problem and are corrupt by noises. An uncertainty analysis is necessary to improve evaluation of the results. Dealing with the uncertainty is a major issue, which supposes to help in decisions that have important social and commercial implications. The goal of this thesis is to contribute to the uncertainty analysis and its quantification in the analysis of various parameters computed during the seismic processing and particularly in RMO analysis. To reach these goals several stages were necessary. We began by appropriating the various geophysical concepts necessary for the understanding of:- the organization of the seismic data ;- the various processing ;- the various mathematical and methodological tools which are used (chapters 2 and 3). In the chapter 4, we present different tools used for the conventional RMO analysis. In the fifth one, we give a statistical interpretation of the conventional RMO analysis and we propose a stochastic approach of this analysis. This approach consists in hierarchical statistical model where the parameters are: - the variance which express the noise level in the data ;- a functional parameter which express coherency of the amplitudes along events ; - the ratio which is assume to be a random variable and not an unknown fixed parameter as it is the case in conventional approach. The adjustment of data to the model done by using smoothing methods of data, combined with the using of the wavelets for the estimation of allow to compute the posterior distribution of given the data by the empirical Bayes methods. An estimation of the parameter is obtained by using Markov Chain Monte Carlo simulations of its posterior distribution. The various quantiles of these simulations provide different estimations of . The proposed methodology is validated in the sixth chapter by its application on synthetic data and real data. A sensitivity analysis of the estimation of the parameter was done. The using of the uncertainty of this parameter to quantify the uncertainty of the spatial positions of reflectors is presented in this thesis
APA, Harvard, Vancouver, ISO, and other styles
20

Audibert, Jean-Yves. "Théorie statistique de l'apprentissage : une approche PAC-Bayésienne." Paris 6, 2004. http://www.theses.fr/2004PA066003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Schmitt, Bénédicte. "Conception de techniques d'interaction mixtes dédiées aux environnements virtuels hétérogènes : approche centrée sur les usages et guidée par les modèles." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2460/.

Full text
Abstract:
Les environnements 3D sont de plus en plus prégnants dans notre quotidien (jeux, situations culturelles ou applications professionnelles). En parallèle, de nouvelles techniques d'interaction émergent sans cesse dans le but de faciliter l'interaction de l'utilisateur avec les systèmes. Des évaluations sont généralement mises en place afin de tester la mise en œuvre d'une technique d'interaction dans un environnement type pour des tâches élémentaires (e. G. Sélection ou navigation) et déterminer son adéquation en termes de performance et de satisfaction. Nos travaux visent à proposer une méthode d'évaluation en environnement virtuel 3D qui s'appuie sur une adaptation de la norme ISO 9241-9. Pour répondre à des problématiques portées par les systèmes à multi-vues liées, nous avons également adapté la norme ISO 9241-9 à un environnement hétérogène mêlant 2D et 3D
3D environments are increasingly present in our life (games, cultural situation, or professional applications). At the same time, new interaction techniques continuously appear to improve the user interaction with systems. Evaluations are usually proposed to assess the implementation of an interaction technique in a specific type of environment for elementary tasks (e. G. Selection or navigation) to determine the consistency of the technique in terms of performance and satisfaction. Our works aim at defining an evaluation method in 3D environment that is based on the standard ISO 9241-9. To answer to issues of linked multi-views systems, we adapt the standard ISO 9241-9 to a heterogeneous environment that mixes 2D and 3D
APA, Harvard, Vancouver, ISO, and other styles
22

Faure, Xavier. "Approche formelle pour la simulation interactive de modèles mixtes." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10177/document.

Full text
Abstract:
La simulation interactive du corps humain est un problème crucial en informatique médicale. Les approches sont multiples pour arriver à cet objectif. Diminuer le temps de calcul est le leitmotiv d'un grand nombre de travaux ces dernières années. Pour les recherches qui utilisent des modèles physiques inspirés de la Mécanique des Milieux Continus pour la simulation des objets déformables, ce sont principalement les forces internes et leurs dérivées qui font l'objet d'études pour l'amélioration des performances au niveau du temps de calcul. Nous avons choisi de développer la Méthode des Masses-Tenseurs, modèle physique souvent utilisé pour son bon compromis temps de calcul — précision. Notre première contribution est l'utilisation du calcul formel pour la génération des équations des forces internes et de leurs dérivées. Notre deuxième contribution est la parallélisation de ce modèle physique en calculant les équations générées sur le GPU. Notre troisième contribution est l'extension de ce modèle physique à d'autres types d'éléments : triangle, quadrangle, hexaèdre, prisme et pyramide. Tenir compte des déformations pour utiliser la loi de comportement la plus efficace en temps de calcul lorsque c'est possible, est une stratégie que nous avons mis en place. Dans la même idée, nous prenons en compte la géométrie du modèle à simuler pour utiliser des éléments plus complexes mais en nombre réduit. Pour utiliser ces stratégies, nous avons développé et utilisé des modèles mixtes en loi de comportement et en type d'éléments. Nos travaux se placent dans le contexte du projet ETOILE pour le développement d'un modèle biomécanique du système respiratoire
Interactive simulation of the human body is a crucial issue in medical computer sciences. There are many approaches to reach this goal. Reducing the computation time is the leitmotiv of a large number of efforts in recent years. For researches which use physical models derived from continuum mechanics for the simulation of deformable objects, it is primarily the internal forces and their derivatives which are the subject of study for improving computation time. We chose to develop the Tensor Mass Method, a physical model often used for its good computation time vs accuracy trade-off. Our first contribution is the use of computer algebra to generate the internal forces and their derivatives. Our second contribution is the parallelization of this physical model by computing the generated equations on the GPU. Our third contribution is an extension of this physical model to other elements : triangle, quandrangle , hexahedron, prism and pyramid. Considering deformations to use the most effective constitutive law in terms of computation time whenever possible is a good strategy that we started developing. In the same idea, we take the geometry of the simulated model into account to introduce more complex elements, albeit in reduced numbers. To use these strategies, we have developed mixed models in constitutive laws and elements. Our research was performed in the framework of the ETOILE project, to develop a biomechanical model of the respiratory system
APA, Harvard, Vancouver, ISO, and other styles
23

Rigal, Claire. "Comportement de fluides complexes sous écoulement : approche expérimentale par résonance magnétique nucléaire et techniques optiques et simulations numériques." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0091/document.

Full text
Abstract:
Cette thèse est une contribution à la fois expérimentale, théorique et numérique à l'étude des écoulements bidimensionnels de fluides complexes dans une conduite cylindrique présentant des singularités et dans une géométrie annulaire à cylindres excentrés. Le fluide utilisé est une solution de xanthane à différentes concentrations présentant un caractère non newtonien rhéofluidifiant. L'objectif principal de cette thèse est la caractérisation de l'influence des propriétés rhéofluidifiantes sur le comportement des zones de recirculation, en terme de morphologie, de positionnement et d'intensité, par l'utilisation et le développement de techniques de mesures non intrusives et performantes. La première méthode expérimentale utilisée une technique laser classique: la vélocimétrie par images de particules. La seconde technique mise en oeuvre est une méthode originale: la vélocimétrie par imagerie par résonance magnétique. Elle est utilisée pour la première fois au laboratoire pour la mesure de champ de vitesse d'écoulement de fluides complexes en conduite cylindrique, représentant l'intérêt majeur de cette thèse. La première partie de notre travail consiste en une description rhéologique complète de nos fluides modèles avec la détermination de leur loi de comportement et la mise en évidence de leurs propriétés viscoélastiques, par ailleurs négligeables. Par la suite les mesures de champ de vitesse des écoulements bidimensionnels étudiés et la représentation des lignes de courant montrent que les propriétés rhéofluidifiantes influencent très fortement la structure et la morphologie de ces écoulements et le comportement des zones de recirculation. Par une étude fine nous observons qu'il existe une compétition entre les effets d'inertie et les effets rhéofluidifiants induisant un champ de contrainte variable qui modifie le positionnement et la taille de la zone de recirculation. Nous montrons également que l'augmentation du caractère rhéofluidifiant affaiblit son intensité de la zone de recirculation. Enfin, des simulations numériques utilisant la loi de comportement macroscopique déterminée par rhéométrie classique ont été réalisées avec le logiciel Fluent. Une bonne concordance est observée entre les résultats de ces simulations numériques et les expérimentaux. Cette comparaison permet ainsi de valider le code de calcul et la loi de comportement, utilisée pour les simulations numériques au travers de sa modélisation suivant la loi de Cross, pour les écoulements considérés
This thesis is an experimental and numerical study of structured fluids bidimensional flows in a cylindrical pipe with singularity and in an annular geometry with eccentric cylinders. The objective of this thesis is to characterize the influence of the shear thinning properties on the recirculation zones by using efficient and non-intrusive techniques: particle image velocimetry and velocimetry by nuclear magnetic resonance imaging. Materials are xanthane solutions at different concentrations. In the first part, we determine the rheological and viscoelastic properties of the fluids used. The second part concerns the measured velocity field. It is shown that the shear thinning behavior have a strongly influence on the structure and the morphology of these flows and the pattern of the recirculation zones. Simultaneously, numerical simulations performed by Fluent and using the rheological behavior. A good concordance is observed between the experimental and numerical results. For the flows considered here, this comparison allows to validate the computational code and the behavior law used in the numerical simulations and modelling by a Cross model
APA, Harvard, Vancouver, ISO, and other styles
24

Batiot, Benjamin. "Etude expérimentale et numérique de la décomposition thermique du bois résineux." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0009/document.

Full text
Abstract:
Les incendies sont complexes et mettent en jeu une multitude de phénomènes. Afin de les étudier, l’approche multiéchelle permet de séparer les processus.Parmi ceux-ci, la décomposition thermique des solides joue un rôle très important. Terme source, elle traduit la quantité, le débit et la nature des composés volatils émis. Sa description numérique est donc capitale. Les modèles utilisés aujourd’hui sont formés d’une loi de variation de la vitesse de forme « Arrhenius », couplée à une fonction de conversion de la masse pour chaque espèce étudiée et d’un mécanisme réactionnel organisant les réactions entre elles. Toutefois, ce modèle s’appuie sur les théories utilisées dans la phase gazeuse et de sérieux doutes peuvent être émis sur sa représentativité pour une application dans la phase condensée.Les travaux de thèse exposés dans ce rapport se focalisent sur le développement d’un modèle en partant des réactions et des processus les plus fondamentaux dans la phase condensée afin de permettre la simulation de la cinétique de décomposition des matériaux solides. Le second aspect concerne l’étude de ce modèle pour déterminer la méthode de résolution et d’optimisation la plus adéquate, le rôle de chacun des paramètres, les éventuels mécanismes de compensation et l’unicité de la solution.Finalement, l’ensemble de la démarche est appliquée à un matériau complexe, le bois. Les résultats obtenus, à partir d’une nouvelle démarche développée lors de ces travaux de thèse, montrent une amélioration significative du modèle aux aspects physiques et chimiques de la dégradation thermique des matériaux solides
Fires are complex and a variety of phenomena are involved. In order to study them, the up-scaling approach separates all the processes.Among them, the solid thermal decomposition has an important role to play. Source term, it reflects the amount, rate and nature of volatile compounds emitted and its numerical description is essential. The models used currently are formed by a law of variable speed (the Arrhenius law) coupled with a conversion function of mass for each species and a kinetic mechanism organizing all reactions between them. However, this model is based on the theories used in the gas phase and serious doubts might be raised with regard to the representativeness for application in the condensed phase.The thesis works exposed in this report are focused on the model development departing from the reactions and the processes the more fundamental in the condensed phase in order to permit the simulation of the solid kinetic decomposition. The second aspect concerns the study of this model to determine the resolution and the optimization method the most appropriate, the role of each parameter, the possible compensation mechanisms and the uniqueness of the solution.Finally, the entire process is applied to a complex material, the wood. The results obtained from a new approach developed in this work, show a significant improvement of the model to the physical and chemical aspects of the thermal degradation of solid materials
APA, Harvard, Vancouver, ISO, and other styles
25

Kreczanik, Paul. "Étude de la fiabilité et du vieillissement d'un système de stockage par supercondensateurs pour l'alimentation partielle et ponctuelle d'un trolleybus grâce à la récupération de l'énergie de freinage : approche du composant au système de stockage." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00656058.

Full text
Abstract:
Le premier objectif du projet HYBUS est d'intégrer un système de stockage par supercondensateurs dans un trolleybus permettant la récupération de son énergie de freinage afin d'assurer la continuité de l'alimentation des systèmes électriques embarqués. A terme un système de stockage plus conséquent est prévu pour permettre au trolleybus une autonomie de quelques mètres. Notre travail étudie la durée de vie de ce système. Plusieurs tests de vieillissement accéléré sur les supercondensateurs ont été mis en place au laboratoire AMPERE. Ces essais ont mis en évidence que le cyclage engendrait une forte accélération de la diminution de la capacité et de l'augmentation de la résistance série. Cependant, ces variations sont partiellement réversibles lors des phases de repos où une régénération s'opère. Une méthode se basant sur les dégradations observées en cours d'utilisation et les dégradations demeurant après régénération, a permis une mise en équation de l'évolution des paramètres internes des supercondensateurs. Un test d'endurance de systèmes complets de stockage a aussi été réalisé au laboratoire. Les résultats expérimentaux montrent une hétérogénéité du vieillissement due à l'existence d'importants gradients de température entre les composants. De ce fait, une nouvelle méthodologie d'équilibrage visant à égaliser les durées de vie de chacun des supercondensateurs a été mise au point. L'étude a donc contribué à une meilleure compréhension et évaluation du vieillissement des supercondensateurs dans le but d'améliorer la durée de vie de système de stockage de ce type. Une méthode est proposée pour estimer les dégradations en fonction des facteurs majeurs du vieillissement.
APA, Harvard, Vancouver, ISO, and other styles
26

Sow, Libasse. "Approche couplée expérimentation - modélisation multi-échelle pour la détermination du comportement mécanique des graves routières traitées aux liants : Application à la valorisation des Mâchefers d'Incinération de Déchêts Non Dangereux." Thesis, Rennes, INSA, 2018. http://www.theses.fr/2018ISAR0001/document.

Full text
Abstract:
Dans ce travail, il est question d'étudier la faisabilité d'une valorisation en techniques routières de granulats de Mâchefers d'Incinération des Dèchets Non Dangereux (MIDND). Cette étude se base en premier lieu sur une analyse expérimentale ayant permis d'obtenir leurs propriétés élastiques. Ces propriétés servent de données d'entrée à une modélisation multi-échelle hiérarchique développée pour étudier le comportement mécanique de graves base de MIDND traitées aux liants (ciment et bitume). La campagne expérimentale originale sur des particules de mâchefers a permis de les cartographier au Microscope Electronique à Balayage (MEB Pour ces particules, des modules d'élasticité moyens réduits variant de 15 à 68 GPa ont été trouvés par le biais de tests d'indentation en appliquant méthode de «Olivier and Pharr ». Les analyses chimiques ponctuelles qualitatives (EDS) effectuées ont permis d'obtenir la composition chimique des granulats de mâchefers. Partant d'une granulométrie de particules de MIDND 0/25 qui a fait l'objet d'une étude expérimentale [BEC 07], nous avons mis en place des modèles numériques 3D de grave routière traitée aux liants dans des Volumes Elémentaires Représentatifs (VER). Ces modèles sont basés sur une stratégie de modélisation dite « multi-échelles » hiérarchique. Deux types de liant sont étudiés : le ciment CEM 1 42,5 R et le bitume de [NGU 08). Pour les deux types de liant, les agrégats traités ont été décomposés en deux VER : sub-mesoscopique (0/6) et mesoscopique (6/25). Une application à valorisation des MIDND en techniques routières est faite dans les deux cas. Avec un traitement à 3% de ciment, une campagne de simulations numériques "Laboratoire virtuel" a été menée. A l'échelle sub-mesoscopique, des simulations multiaxiales menées sur le VER, ont conduit à l'obtention des paramètres permettant d'alimenter un modèle d'endommagement plastique utilisé à l'échelle mesoscopique pour différents degrés d'hydratation. A l'échelle mesoscopique, les caractéristiques mécaniques de la grave routière traitée au ciment, habituellement déterminées par le biais d'expérimentations, ont été retrouvées. La modélisation développée a ensuite été validée e comparant nos résultats numériques et quelques résultats expérimentaux de [BEC 07]. Avec un traitement à 5% de bitume, des tests de relaxation de contraintes ont été effectués aux deux échelles ct ont permis d'obtenir les propriétés thermo-rhéologiques de la grave de mâchefers traités au bitume : les modules de relaxation sont exprimés sous la forme de séries de Prony à une température de référence de 0 °C ; par ailleurs, les constantes de la loi Williams-Landel-Ferry (WLF) pour décrire le comportement thermo- rhéologiquement simple sont identifiées. Les séries de Prony sont obtenues par l'intermédiaire des modules élastiques normalisés. Les constantes de 1 WLF obtenues sont C 1 = 20 °C-1 ct C2 = 130 °C. La validation des paramètres identifiés a été faite en comparant les réponses du matériau hétérogène de grave-bitume et celles d'un matériau homogène à qui nous avons donné les propriétés identifiées tirées du matériau hétérogène
In this work, the feasibility of a valorisation in road engineering of non-hazardous waste incineration bottom ash aggregates (NHWI) is investigated. This study is first based on an experimental determination of the elastic properties of the bottom ash particles. These properties serve as input data for hierarchical multi-scale modelling developed to study the mechanical behaviour of aggregates treated with binders (cement and bitumen). The original experimental campaign on the bottom ash particles allowed them to be mapped to the Scanning Electron Microscope (SEM). For the particles, a mean reduced modulus of elasticity in between 15 and 68 GPa was found by means of indentation tests and applying the "Olivier and Phan method. The chemical analysis of the aggregates was obtained using qualitative point chemical analyzes (OHS). Based on a 0/25 particle size distribution of NHWI, which was the subject of an experimental study [BEC 07] , we have implemented two 30 models < road materials treated with binders in Representative Elementary Volumes (REV). These models are based on a hierarchical multi-scale modelling strategy. Two types of binder are studied: cement CEM I 42.5 R and bitumen of [NGU 08]. For both types of binder, the treated aggregates we divided into two REV, at respectively the sub-mesoscale (0/6 mm) and the mesoscale (6/25 mm). An application to the valorisation of NHWI bottom ashes in road engineering is studied in both cases. With a 3% cement treatment, a numerical simulation campaign "Virtual Laboratory" was conducted. At the sub-mesoscale, the input parameters for the Concrete Damaged Plasticity Model used at the mesoscale are determined. At the mesoscale, the mechanical characteristics of the road materials usually determined through experiments have been found. The developed simulation strategy has been validated by comparing our numerical results and son experimental results of [BEC 07]. With a 5% bitumen treatment, stress relaxation tests carried out at the two scales enable one to obtain the thermo-rheological properties of the Bitumen Bound Gravel. These properties are the Prony series at a reference temperature of 0°C and the Williams-Landei- Ferry (WLF) law constants. Prony series are obtained by means of standardized elastic moduli. The obtained WLF law constants are Cl = 20 °C-1 and C2 = 130 °C. The numeric simulations have been validated by comparing the responses of heterogeneous and corresponding homogeneous materials
APA, Harvard, Vancouver, ISO, and other styles
27

Kreczanik, Paul. "Étude de la fiabilité et du vieillissement d’un système de stockage par supercondensateurs pour l’alimentation partielle et ponctuelle d’un trolleybus grâce à la récupération de l'énergie de freinage : approche du composant au système de stockage." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10069/document.

Full text
Abstract:
Le premier objectif du projet HYBUS est d’intégrer un système de stockage par supercondensateurs dans un trolleybus permettant la récupération de son énergie de freinage afin d’assurer la continuité de l’alimentation des systèmes électriques embarqués. A terme un système de stockage plus conséquent est prévu pour permettre au trolleybus une autonomie de quelques mètres. Notre travail étudie la durée de vie de ce système. Plusieurs tests de vieillissement accéléré sur les supercondensateurs ont été mis en place au laboratoire AMPERE. Ces essais ont mis en évidence que le cyclage engendrait une forte accélération de la diminution de la capacité et de l’augmentation de la résistance série. Cependant, ces variations sont partiellement réversibles lors des phases de repos où une régénération s’opère. Une méthode se basant sur les dégradations observées en cours d’utilisation et les dégradations demeurant après régénération, a permis une mise en équation de l’évolution des paramètres internes des supercondensateurs. Un test d’endurance de systèmes complets de stockage a aussi été réalisé au laboratoire. Les résultats expérimentaux montrent une hétérogénéité du vieillissement due à l’existence d’importants gradients de température entre les composants. De ce fait, une nouvelle méthodologie d’équilibrage visant à égaliser les durées de vie de chacun des supercondensateurs a été mise au point. L’étude a donc contribué à une meilleure compréhension et évaluation du vieillissement des supercondensateurs dans le but d’améliorer la durée de vie de système de stockage de ce type. Une méthode est proposée pour estimer les dégradations en fonction des facteurs majeurs du vieillissement
The first objective of the HYBUS project is to integrate a supercapacitor storage system in a trolleybus in order to ensure the continuity of onboard electrical systems supply. The aim is to integrate an energy storage system, composed by a huge number of supercapacitors, for the recovery of the braking energy of trolleybus and allow autonomy for several meters. Our work concerns the study of the lifetime of the storage system. Several accelerated aging tests on supercapacitors were developed in the AMPERE aboratory. These tests have shown that as far as ageing are concerned; the cycling is the major responsible. However, these changes are partially reversible during the rest time when regeneration phenomena are observed. A method based on the observed damage during cycling and the damage after regeneration, leads to a formal equation for the evolution of internal parameters of supercapacitors. An endurance test of complete storage systems was also performed in the laboratory. Experimental results show the heterogeneity of aging due to the existence of significant temperature gradients between components. As a result, a new balancing strategy to equalize the lifetime of each supercapacitors has been developed. In conclusion, our study has contributed to a better comprehension and evaluation of supercapacitors aging in order to improve the lifetime of this type of energy storage system. A method for the estimation of the supercapacitor lifetime has been also proposed
APA, Harvard, Vancouver, ISO, and other styles
28

Hoareau, Johan. "Utilisation d'une approche couplée hydrogéophysique pour l'étude des aquifères : application aux contextes de socle et côtier sableux." Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10301.

Full text
Abstract:
La pertinence du plan de gestion d’un aquifère dépend de la connaissance que l’on a de ce milieu, et donc des informations utilisées pour le caractériser. Cette caractérisation est classiquement réalisée à partir d’études géologiques, piézométriques et de pompages d’essai. Ces études présentent toutefois certaines limitations, qui peuvent néanmoins être réduites par l’utilisation de méthodes complémentaires comme les méthodes géophysiques. L’objectif de cette thèse est de quantifier l’amélioration apportée par les informations géophysiques dans la caractérisation hydrogéologique des aquifères. Deux contextes géologiques sont sélectionnés pour les difficultés qu’ils posent à la caractérisation hydrogéologique, et l’importance des questions sociétales qui s’y posent : les aquifères de socle cristallin et les lentilles d’eau douce des cordons sableux côtiers. Les résultats de l’étude numérique et sa validation sur deux sites expérimentaux en Inde montrent que les informations complémentaires apportées par la tomographie de résistivité électrique et la méthode de sondage par résonance magnétique des protons (RMP) permettent de préciser l’interprétation de pompages d’essai en contexte de socle. L’incertitude sur la transmissivité est réduite en moyenne de 39 % et celle sur le coefficient d’emmagasinement de34 %. Cette approche hydrogéophysique permet ainsi de mieux décrire le milieu souterrain, et de proposer des modèles conceptuels plus complets. En milieu côtier sableux dans le Sud de l’Inde, l’utilisation combinée d’observations piézométriques, de la loi d’Archie et des méthodes de sondage lectromagnétiques en domaine temporel (TDEM) et RMP permet de quantifier un volume d’eau douce disponible de 510 litres en moyenne par mètre carré de surface au sol avant la mousson dans la partie inhabitée (contre 420 L/m2 dans la partie habitée), et 670 L/m2 après la mousson (contre 450 L/m2 dans la partie habitée). Ces volumes auraient été surestimés de 23 % si une approche plusclassique avait été utilisée. Le suivi temporel des mesures géophysiques permet également d’estimer la recharge nette de l’année hydrologique 2008 à 142 mm sur ce cordon (pour 2030 mm de précipitations). De plus, ce cordon sableux présente un champ géomagnétique hétérogène, qui ne permet pas la réalisation de mesures de signaux de Free induction decay, (FID) classiquement enregistrés en sondage RMP. Une nouvelle procédure de mesure et d’interprétation basée sur des signaux d’écho de spin a donc été testée et validée expérimentalement. La caractérisation du milieu avec ce nouveau protocole permet de préciser la teneur en eau du milieu, sous-estimée de 29 % par le protocole FID. Ce résultat ouvre de nouvelles perspectives dans la recherche d’une relation quantifiée entre la teneur en eau RMP et les différentes porosités hydrogéologiques
The pertinence of any aquifer management plan relies o nthe knowledge of this system, and therefore on the information used to chearacterize it. The aim of this thesis is to quantify the improvement of this characterization when geophysical methods are used complementary to hydrogeological techniques. Two hydrogeological contexts have been selected for the study, as their characterization is often difficult while they gather important populations : cristalline hard rock aquifers, and the freshwater lens of sandy coastal aquifers. The results of a numerical study and its validation on two study site located in India reveal that the information brought by electrical resistivity tomography (ERT) and magnetic resonance soundings (MRS) enable to precise the interpretation of pumping tests in hard rock areas. The uncertainly on transmissivity is reduced by an average of 39 % and by an average of 34 % for storativity. In a sandy coastal area, the combined use of water level measurements, Archie's law, time domain electromagnetism (TDEM) and MRS soundings enable to quantify the available freshwater volume. This volume would have been overstimated by 23 % with a more classical approach. Time lapse geophysics also enable to quantify the net recharge of the aquifer for 2008, as 142 mm (for a total rainfall of 2030 mm). As the site present an important geomagnetic field heterogeneity, a new protocol for the acquisition and the interpretation of MRS data has been tested and validated. It is based on the measurements of spin echo signals. It enables to constrain the estimation of water content on this site, which under-estimate by 29 % by the classicla protocol
APA, Harvard, Vancouver, ISO, and other styles
29

Todeschini, Adrien. "Probabilistic and Bayesian nonparametric approaches for recommender systems and networks." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0237/document.

Full text
Abstract:
Nous proposons deux nouvelles approches pour les systèmes de recommandation et les réseaux. Dans la première partie, nous donnons d’abord un aperçu sur les systèmes de recommandation avant de nous concentrer sur les approches de rang faible pour la complétion de matrice. En nous appuyant sur une approche probabiliste, nous proposons de nouvelles fonctions de pénalité sur les valeurs singulières de la matrice de rang faible. En exploitant une représentation de modèle de mélange de cette pénalité, nous montrons qu’un ensemble de variables latentes convenablement choisi permet de développer un algorithme espérance-maximisation afin d’obtenir un maximum a posteriori de la matrice de rang faible complétée. L’algorithme résultant est un algorithme à seuillage doux itératif qui adapte de manière itérative les coefficients de réduction associés aux valeurs singulières. L’algorithme est simple à mettre en œuvre et peut s’adapter à de grandes matrices. Nous fournissons des comparaisons numériques entre notre approche et de récentes alternatives montrant l’intérêt de l’approche proposée pour la complétion de matrice à rang faible. Dans la deuxième partie, nous présentons d’abord quelques prérequis sur l’approche bayésienne non paramétrique et en particulier sur les mesures complètement aléatoires et leur extension multivariée, les mesures complètement aléatoires composées. Nous proposons ensuite un nouveau modèle statistique pour les réseaux creux qui se structurent en communautés avec chevauchement. Le modèle est basé sur la représentation du graphe comme un processus ponctuel échangeable, et généralise naturellement des modèles probabilistes existants à structure en blocs avec chevauchement au régime creux. Notre construction s’appuie sur des vecteurs de mesures complètement aléatoires, et possède des paramètres interprétables, chaque nœud étant associé un vecteur représentant son niveau d’affiliation à certaines communautés latentes. Nous développons des méthodes pour simuler cette classe de graphes aléatoires, ainsi que pour effectuer l’inférence a posteriori. Nous montrons que l’approche proposée peut récupérer une structure interprétable à partir de deux réseaux du monde réel et peut gérer des graphes avec des milliers de nœuds et des dizaines de milliers de connections
We propose two novel approaches for recommender systems and networks. In the first part, we first give an overview of recommender systems and concentrate on the low-rank approaches for matrix completion. Building on a probabilistic approach, we propose novel penalty functions on the singular values of the low-rank matrix. By exploiting a mixture model representation of this penalty, we show that a suitably chosen set of latent variables enables to derive an expectation-maximization algorithm to obtain a maximum a posteriori estimate of the completed low-rank matrix. The resulting algorithm is an iterative soft-thresholded algorithm which iteratively adapts the shrinkage coefficients associated to the singular values. The algorithm is simple to implement and can scale to large matrices. We provide numerical comparisons between our approach and recent alternatives showing the interest of the proposed approach for low-rank matrix completion. In the second part, we first introduce some background on Bayesian nonparametrics and in particular on completely random measures (CRMs) and their multivariate extension, the compound CRMs. We then propose a novel statistical model for sparse networks with overlapping community structure. The model is based on representing the graph as an exchangeable point process, and naturally generalizes existing probabilistic models with overlapping block-structure to the sparse regime. Our construction builds on vectors of CRMs, and has interpretable parameters, each node being assigned a vector representing its level of affiliation to some latent communities. We develop methods for simulating this class of random graphs, as well as to perform posterior inference. We show that the proposed approach can recover interpretable structure from two real-world networks and can handle graphs with thousands of nodes and tens of thousands of edges
APA, Harvard, Vancouver, ISO, and other styles
30

Oliveira, Neto Francisco de. "Caracterização estrutural e magnética do compósito cerâmico ZnO – CoFe2O4." Universidade Federal de Goiás, 2015. http://repositorio.bc.ufg.br/tede/handle/tede/5228.

Full text
Abstract:
Submitted by Cláudia Bueno (claudiamoura18@gmail.com) on 2016-02-12T12:25:51Z No. of bitstreams: 2 Dissertação - Francisco de Oliveira Neto - 2015.pdf: 6608686 bytes, checksum: 00be4069bc90036c589c6c3fa9131408 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-02-16T06:42:51Z (GMT) No. of bitstreams: 2 Dissertação - Francisco de Oliveira Neto - 2015.pdf: 6608686 bytes, checksum: 00be4069bc90036c589c6c3fa9131408 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Made available in DSpace on 2016-02-16T06:42:51Z (GMT). No. of bitstreams: 2 Dissertação - Francisco de Oliveira Neto - 2015.pdf: 6608686 bytes, checksum: 00be4069bc90036c589c6c3fa9131408 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-08-12
Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG
Multiferroic materials that simultaneously exhibit two or more physical properties have increasingly raised the interest of the scientific and technological community to develop new multifunctional materials. The discuss all stages of manufacturing, morphological, structural and magnetic characterization of a multifunctional composite containing zinc oxide and cobalt ferrite. Thus, studies of ZnO, and the CoFe2O4 composite (0,80ZnO+0,20 CoFe2O4) initiated by the synthesis of nanosized powders by combustion reaction phases were performed. The compounds studied were sintered at different temperatures (1100 to 1250°C) to obtain relative density near to 90% of the theoretical density. Analysis by scanning electron microscopy, spectroscopy energy dispersive, vibrating sample magnometry and diffraction ray-X were made. Measurements of magnetic properties were conducted at room temperature (22°C) and high temperature (22°C to 700°C). In the samples, formation of ceramic structures was verified, the stoichiometry of the proposed chemical compounds was maintained and possibly the formation of a mixed zinc and cobalt ferrite to composite samples. In the sample of the composite sintered at 1250°C there was the formation of cubic zinc oxide. The magnetic behavior and magnetic anisotropy of the samples were similar, however, significant differences were observed in the values of the Curie temperature, coercive field, can assume different origins for the magnetic CoFe2O4 and the composite (0,80ZnO+0,20CoFe2O4) due, perhaps to the formation of a mixed ferrite.
Materiais multiferróicos que exibem simultaneamente duas ou mais propriedades físicas têm cada vez mais suscitado o interesse da comunidade científica e tecnológica para o desenvolvimento de novos materiais multifuncionais. Objetivou-se discutir todas as etapas de fabricação e caracterização morfológica, estrutural e magnética de um compósito multifuncional contendo óxido de zinco e ferrita de cobalto. Assim, foram realizados estudos sobre as fases das amostras de ZnO, CoFe2O4 e o compósito (0,80ZnO+0,20CoFe2O4) iniciados pela síntese de pós nanométricos por via de reação de combustão. Os compostos estudados foram sinterizados em diferentes temperaturas (1100 e 1250°C) obtendo densidades relativas próximas a 90% das densidades teóricas. Foram efetuadas análises por microscopia eletrônica de varredura, espectroscopia de energia dispersiva, difratometria de raio-X e magnometria de amostra vibrante. As medidas de propriedades magnéticas foram realizadas à temperatura ambiente (22°C) e em função da temperaturas (22°C à 700°C) (altas temperaturas). Em todas as amostras estudadas foi verificada a formação de estruturas cerâmicas, mantendo a estequiometria dos compostos químicos propostos e possivelmente a formação de uma ferrita mista de zinco e cobalto para as amostras do compósito. Para a amostra do compósito sinterizada a 1250°C verificou-se também a formação de óxido de zinco cúbico. O comportamento magnético e a anisotropia magnética das amostras foram similares, entretanto diferenças significativas foram observadas nos valores obtidos da temperatura de Curie, do campo coercitivo e do momento magnético total, podendo supor origens magnéticas diferentes para o CoFe2O4 e o compósito de 0,80ZnO+0,20CoFe2O4 devido a formação de uma ferrita mista.
APA, Harvard, Vancouver, ISO, and other styles
31

Mnie, Filali Imane. "Distribution multi-contenus sur Internet." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4068/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés aux protocoles pair-à-pair (P2P), qui représentent une solution prometteuse pour la diffusion et le partage de données à faible coût sur Internet. Nous avons mené, dans un premier temps, une étude comportementale de différents protocoles P2P pour le partage de fichier (distribution de contenus sans contrainte de temps) puis le live. Dans la première étude centréesur le partage de fichier, nous avons montré l’impact d’Hadopi sur le comportement des utilisateurs et discuté l’efficacité des protocoles en fonction du contenu et l’efficacité protocolaire, en se basant sur les choix des utilisateurs. BitTorrent s’est nettement démarqué au cours de cette étude, notamment pour les grands contenus. En ce qui concerne le live, nous nous sommes intéressés à la qualité de servicedu réseau de distribution live Sopcast, car plus de 60% des événements live diffusés en P2P le sont sur ce réseau. Notre analyse approfondie de ces deux modes de distribution nous a fait nous recentrer sur BitTorrent, qui est à la base de tous les protocoles P2P Live, et est efficace en partage de fichier et complètement open source. Dans la seconde partie de la thèse, nous avons proposé et implémenté dansun environnement contrôlé un nouveau protocole sur la base de BitTorrent avec des mécanismes protocolaires impliquant tous les pairs dans la gestion du réseau. Ces nouveaux mécanismes permettent d’augmenter l’efficacité du protocole via une meilleure diffusion, tant pour le live que le partage de fichier, de métadonnées (la pièce la plus rare) et via une méthode dite de push, par laquelle un client va envoyer du contenu aux pairs les plus dans le besoin
In this study, we focused on peer-to-peer protocols (P2P), which represent a promising solution for data dissemination and content delivery at low-cost in the Internet. We performed, initially, a behavioral study of various P2P protocols for file sharing (content distribution without time constraint) and live streaming. Concerning file sharing, we have shown the impact of Hadopi on users’ behavior and discussed the effectiveness of protocols according to content type, based on users’ choice. BitTorrent appeared as the most efficient approach during our study, especially when it comes to large content. As for streaming, we studied the quality of service of Sopcast, a live distribution network that accounts for more than 60% of P2P broadcast live events. Our in-depth analysis of these two distributionmodes led us to focus on the BitTorrent protocol because of its proven efficiency in file sharing and the fact that it is open source. In the second part of the thesis, we proposed and implemented a new protocol based on BitTorrent, in a controlled environment. The modifications that we proposed allow to increase the efficiency of the protocol through improved dissemination of metadata (the rarest piece), both for live and file sharing. An enhanced version is introduced with a push method, where nodes that lag behind receive an extra service so as to improve the overall performance
APA, Harvard, Vancouver, ISO, and other styles
32

Lenormand, Maxime. "Initialiser et calibrer un modèle de microsimulation dynamique stochastique : application au modèle SimVillages." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00822114.

Full text
Abstract:
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l'exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d'une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d'étude, de carrière, d'union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants : 1 / un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d'un ménage, vit dans une commune et possède un statut au regard de l'emploi. Cette population synthétique est l'état initial du modèle. 2 / un modèle permettant de simuler une table d'origine-destination des déplacements domicile-travail à partir de données agrégées. 3 / un modèle permettant d'estimer le nombre d'emplois dans les services de proximité dans une commune donnée en fonction de son nombre d'habitants et de son voisinage en termes de service. 4 / une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d'échantillonnage séquentiel de type Approximate Bayesian Computation.
APA, Harvard, Vancouver, ISO, and other styles
33

Lévesque, Martin. "Modélisation du comportement mécanique de matériaux composites viscolélastiques non linéaires par une approche d'homogénéisation." Phd thesis, 2004. http://pastel.archives-ouvertes.fr/pastel-00001237.

Full text
Abstract:
L'objectif principal de ce travail de thèse est d'établir un modèle, s'appuyant sur l'homogénéisation, permettant la prédiction du comportement mécanique de matériaux composites viscoélastiques non linéaires. L'approche est appliquée à un polypropylène renforcé de billes de verre réparties aléatoirement. La première partie du document est consacrée à l'écriture et l'identification d'une loi de comportement viscoélastique non linéaire pouvant être appliquée au polypropylène. La deuxième partie traite de l'établissement du modèle ainsi que de son implémentation numérique. Le modèle d'homogénéisation est développé au troisième chapitre. L'approche proposée permet de transposer certains modèles existants pour des matériaux ne dépendant pas de l'histoire de chargement à des comportements viscoélastiques non linéaires. La méthodologie permet donc de ramener le problème viscoélastique non linéaire à un problème viscoélastique linéaire à histoire de déformations libres. Ce nouveau problème est résolu à l'aide du principe de correspondance viscoélastique linéaire et des transformées de Laplace-Carson. Le quatrième chapitre est dédié à l'implémentation numérique du modèle. On insiste notamment sur le fait que le matériau viscoélastique linéaire de comparaison rencontre les exigences de la thermodynamique des milieux continus. De plus, nous proposons un algorithme conduisant à une inversion précise des transformées de Laplace-Carson. Finalement, la dernière partie de la thèse est consacrée à la validation des modèles proposés. Des modèles éléments finis de la microstructure et l'implémentation de la loi de comportement viscoélastique non linéaire sont réalisés au chapitre cinq. Ce chapitre présente aussi la comparaison, pour des chargements de traction, entre les simulations issues du modèle d'homogénéisation, des éléments finis ainsi que des résultats expérimentaux
APA, Harvard, Vancouver, ISO, and other styles
34

Nguyen, Thi Quynh Chi. "Construction de l’image organisationnelle réfractée par les journaux et les groupes de pression : le cas du gouvernement fédéral canadien dans la mise en œuvre du projet de loi C-38." Thèse, 2015. http://hdl.handle.net/1866/13999.

Full text
Abstract:
Ce mémoire s’est attaché à comprendre les dimensions émergentes de la constitution de l’image d’une organisation. A l’issue de l’étude de la littérature de recherche existante, nous nous sommes intéressée à l’image réfractée, qui est l’image d’une organisation construite par une catégorie de publics nommés arbitres externes. Ce sont les organisations mandatées qui diffusent de l’information au grand public. En adoptant l’approche qualitative, nous avons réalisé une étude du processus de travail des journalistes travaillant pour des journaux différents et des membres des organismes environnementaux dans le cas de la mise en œuvre du projet de loi C-38 du gouvernement fédéral canadien. L’étude empirique nous a permis de proposer un modèle conceptuel du phénomène de la construction de l’image réfractée. Nous avons pu ainsi suggérer d’observer ce phénomène à travers les pratiques de travail des acteurs pour appréhender les dynamiques d’émergence de l’image. Aussi, nous avons insisté sur la pertinence de considérer des paramètres qui constituent le cadre dans lequel se déroule le processus de travail des acteurs appartenant à des communautés de publics différentes. Car ce sont ces paramètres qui engendrent des dynamiques régulant la construction de l’image organisationnelle au sein de chaque communauté de public.
Our research aimed to understand the emergent dimensions of an organization’s image construction. Following the review of existing research literature, we are interested in the refracted image, which is the image of an organization built by a specific public named external arbiters. These external arbiters are mandated organizations that disseminate information to the general public. By adopting a qualitative approach, we conducted a study about the case of the implementation of Bill C-38 by the Canadian Federal Government. Specifically, we examined the working process of two arbiters communities : journalists working for different newspapers, and environmental organizations’ members. The empirical study has allowed us to propose a conceptual model of the construction of the refracted image phenomenon. We thus suggested to observe this phenomenon through the actors’ working practices to understand the emergence of the image dynamics. Also, we emphasized the relevance to consider factors that constitute the framework within which the working process of the actors belonging to different public communities takes place. For it is these parameters that generate the various dynamics regulating the organizational image’s construction by each public community.
APA, Harvard, Vancouver, ISO, and other styles
35

Hoareau, Johan. "Utilisation d'une approche couplée hydrogéophysique pour l'étude des aquifères - Applications aux contextes de socle et côtier sableux." Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00470297.

Full text
Abstract:
La caractérisation d'un aquifère est classiquement réalisée à partir d'études géologiques, piézométriques, géochimiques et de pompages d'essai. Ces techniques d'étude présentent certaines limites, qui peuvent néanmoins être réduites par l'utilisation de méthodes complémentaires comme certaines méthodes géophysiques. L'objectif de cette thèse est de quantifier l'amélioration apportée par les informations géophysiques dans la caractérisation hydrogéologique des aquifères. Deux contextes géologiquessont sélectionnés pour les difficultés qu'ils posent à la caractérisation hydrogéologique, l'importance des questions sociétales qui s'y posent et leur pertinence dans le cadre des interventions humanitaires : les aquifères de socle cristallin et les lentilles d'eau douce des cordons sableux côtiers. Les résultats d'une étude numérique et leur validation sur deux sites expérimentaux en Inde montrent que les informations complémentaires apportées par la technique de panneau électrique et la méthode de sondage par résonance magnétique des protons (RMP) permettent de préciser l'interprétation de pompages d'essai en contexte de socle. L'incertitude sur la transmissivité est réduite en moyenne de 39 % et celle sur le coefficient d'emmagasinement de 34 %. Cette approche hydrogéophysique permet ainsi de mieux décrire le milieu souterrain, et de proposer des modèles conceptuels plus complets. En milieu côtier sableux dans le Sud de l'Inde, l'utilisation combinée d'observations piézométriques, de la loi d'Archie et des méthodes de sondage électromagnétiques en domaine temporel (TDEM) et RMP permet de quantifier un volume d'eau douce disponible de 510 litres en moyenne par mètre carré de surface au sol avant la mousson dans la partie inhabitée (contre 420 L/m2 dans la partie habitée), et 670 L/m2 après la mousson (contre 450 L/m2 dans la partie habitée). Ces volumes auraient été surestimés de près de 40 % si une approche basée uniquement sur le TDEM et la loi d'Archie avait été utilisée. Le suivi temporel des mesures géophysiques permet également d'estimer la recharge nette de l'année hydrologique 2008 à 140 mm sur ce cordon (pour 2030 mm de précipitations). De plus, ce cordon sableux présente un champ géomagnétique hétérogène, qui rend la mesure de signaux de Free induction decay, (FID, classiquement enregistrés en sondage RMP) difficile. Une nouvelle procédure de mesure et d'interprétation basée sur des signaux d'écho de spin a donc été testée et validée expérimentalement. La caractérisation du milieu avec ce nouveau protocole permet de préciser la teneur en eau du milieu, sous-estimée de 26 % par le protocole FID. Ce résultat ouvre de nouvelles perspectives dans la recherche d'une relation quantifiée entre la teneur en eau RMP et les différentes porosités hydrogéologiques.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography