To see the other types of publications on this topic, follow the link: Méthode à patchs.

Dissertations / Theses on the topic 'Méthode à patchs'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode à patchs.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mathias, Jean-Denis. "Etude du comportement mécanique de patchs composites utilisés pour le renforcement de structures métalliques aéronautiques." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2005. http://tel.archives-ouvertes.fr/tel-00159157.

Full text
Abstract:
Des patchs en matériaux composites sont classiquement utilisés dans l'aéronautique pour la réparation des structures métalliques présentant des dommages de
type fissures, criques ou impacts. Une alternative à la réparation de ces structures consiste à les renforcer préventivement, avant que les défauts n'apparaissent. Le
contexte de ce travail est celui de la maintenance préventive de structures métalliques aéronautiques par renforts composites, dans le but de retarder l'apparition ou la propagation de fissures.
La conception des renforts nécessite l'utilisation d'outils spécialisés pour définir les caractéristiques optimales du patch : géométrie, nombre de plis unidirectionnels,
orientation des plis les uns par rapport aux autres, positionnement autour de la zone à soulager... Pour cela, un programme d'optimisation de patchs par algorithme
génétique a été écrit. Il est couplé à un logiciel de calcul par éléments finis : Ansys.
L'algorithme génétique mis en oeuvre a permis de déterminer des caractéristiques de patchs dont la géométrie extérieure est définie par une courbe spline fermée, ceci afin de réduire de manière optimale les contraintes mécaniques dans une zone donnée, et
ce pour différents types de sollicitations.
De nombreuses d´efaillances des assemblages collés patch/substrat sont liées à des concentrations de contraintes dans la colle dues à l'existence d'une zone de
transfert progressif d'effort du substrat vers le patch. Des approches unidirectionnelles du transfert d'effort sont classiquement utilisées dans la littérature. Elles ne
tiennent cependant pas compte d'effets bidimensionnels comme la différence des coefficients de Poisson qui peut exister entre le substrat et le composite. A partir des
équations d'équilibre, des modèles analytique et numérique bidimensionnels ont donc été développés. Des phénomènes de couplages bidimensionnels ont ainsi bien été mis en évidence.
Parallèlement, des essais de traction uniaxiale ont été réalisés sur des éprouvettes en aluminium renforcées par des patchs en carbone/époxyde. La méthode de la grille a été utilisée pour mesurer des champs cinématiques en surface du patch composite.
Cette méthode a permis d'étudier expérimentalement le transfert des efforts entre le substrat et le renfort suivant les deux dimensions du problème et de comparer les résultats obtenus avec les différents modèles développés au préalable.
APA, Harvard, Vancouver, ISO, and other styles
2

Irrera, Paolo. "Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images." Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0031/document.

Full text
Abstract:
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
APA, Harvard, Vancouver, ISO, and other styles
3

Irrera, Paolo. "Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images." Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0031.

Full text
Abstract:
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
APA, Harvard, Vancouver, ISO, and other styles
4

De, bortoli Valentin. "Statistiques non locales dans les images : modélisation, estimation et échantillonnage." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN020.

Full text
Abstract:
Dans cette thèse, on étudie d'un point de vueprobabiliste deux statistiques non locales dans les images : laredondance spatiale et les moments de certaines couches de réseauxde neurones convolutionnels. Plus particulièrement, on s'intéresse àl'estimation et à la détection de la redondance spatiale dans lesimages naturelles et à l'échantillonnage de modèles d'images souscontraintes de moments de sorties de réseaux deneurones.On commence par proposer une définition de la redondance spatialedans les images naturelles. Celle-ci repose sur une analyseGestaltiste de la notion de similarité ainsi que sur un cadrestatistique pour le test d'hypothèses via la méthode acontrario. On développe un algorithme pour identifier cetteredondance dans les images naturelles. Celui-ci permet d'identifierles patchs similaires dans une image. On utilise cette informationpour proposer de nouveaux algorithmes de traitement d'image(débruitage, analyse de périodicité).Le reste de cette thèse est consacré à la modélisation et àl'échantillonnage d'images sous contraintes non locales. Les modèlesd'images considérés sont obtenus via le principe de maximumd'entropie. On peut alors déterminer la distribution cible sur lesimages via une procédure de minimisation. On aborde ce problème enutilisant des outils issus de l'optimisationstochastique.Plus précisément, on propose et analyse un nouvel algorithme pourl'optimisation stochastique : l'algorithme SOUL (StochasticOptimization with Unadjusted Langevin). Dans cette méthodologie, legradient est estimé par une méthode de Monte Carlo par chaîne deMarkov (ici l'algorithme de Langevin non ajusté). Les performancesde cet algorithme repose sur les propriétés de convergenceergodiques des noyaux de Markov associés aux chaînes de Markovutilisées. On s'intéresse donc aux propriétés de convergencegéométrique de certaines classes de modèles fonctionnelsautorégressifs. On caractérise précisément la dépendance des taux deconvergence de ces modèles vis à vis des constantes du modèle(dimension, régularité,convexité...).Enfin, on applique l'algorithme SOUL au problème de synthèse detexture par maximum d'entropie. On étudie les liens qu'entretientcette approche avec d'autres modèles de maximisation d'entropie(modèles macrocanoniques, modèles microcanoniques). En utilisant desstatistiques de moments de sorties de réseaux de neuronesconvolutionnels on obtient des résultats visuels comparables à ceux del'état de l'art
In this thesis we study two non-localstatistics in images from a probabilistic point of view: spatialredundancy and convolutional neural network features. Moreprecisely, we are interested in the estimation and detection ofspatial redundancy in naturalimages. We also aim at sampling images with neural network constraints.We start by giving a definition of spatial redundancy in naturalimages. This definition relies on two concepts: a Gestalt analysisof the notion of similarity in images, and a hypothesis testingframework (the a contrario method). We propose an algorithm toidentify this redundancy in natural images. Using this methodologywe can detect similar patches in images and, with this information,we propose new algorithms for diverse image processing tasks(denoising, periodicity analysis).The rest of this thesis deals with sampling images with non-localconstraints. The image models we consider are obtained via themaximum entropy principle. The target distribution is then obtainedby minimizing an energy functional. We use tools from stochasticoptimization to tackle thisproblem.More precisely, we propose and analyze a new algorithm: the SOUL(Stochastic Optimization with Unadjusted Langevin) algorithm. Inthis methodology, the gradient is estimated using Monte Carlo MarkovChains methods. In the case of the SOUL algorithm we use an unadjustedLangevin algorithm. The efficiency of the SOUL algorithm is relatedto the ergodic properties of the underlying Markov chains. Thereforewe are interested in the convergence properties of certain class offunctional autoregressive models. We characterize precisely thedependency of the convergence rates of these models with respect totheir parameters (dimension, smoothness,convexity).Finally, we apply the SOUL algorithm to the problem ofexamplar-based texture synthesis with a maximum entropy approach. Wedraw links between our model and other entropy maximizationprocedures (macrocanonical models, microcanonical models). Usingconvolutional neural network constraints we obtain state-of-the artvisual results
APA, Harvard, Vancouver, ISO, and other styles
5

Samuth, Benjamin. "Ηybrid mοdels cοmbining deep neural representatiοns and nοn-parametric patch-based methοds fοr phοtοrealistic image generatiοn." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC249.

Full text
Abstract:
Le domaine de la génération d'images a récemment connu de fortesavancées grâce aux rapides évolutions des modèles neuronaux profonds.Leur succès ayant atteint une portée au-delà de la sphèrescientifique, de multiples inquiétudes et questionnements se sontlégitimement soulevées quant à leur fonctionnement et notammentl'usage de leurs données d'entraînement. En effet, ces modèles sont sivolumineux en paramètres et coûteux en énergie qu'il en devientdifficile d'offrir des garanties et des explications concrètes. Àl'inverse, des modèles légers et explicables seraient souhaitablespour répondre à ces nouvelles problématiques, mais au coût d'unequalité et flexibilité de génération moindre.Cette thèse explore l'idée de construire des « modèles hybrides », quicombineraient intelligemment les qualités des méthodes légères oufrugales avec les performances des réseaux profonds. Nous étudionsd'abord le cas du transfert de style artistique à l'aide d'une méthodecontrainte, multi-échelle, et à patchs. Nous déterminons alorsqualitativement l'intérêt d'une métrique perceptuelle dans cetteopération. Par ailleurs, nous développons deux méthodes hybrides degénération de visages photoréalistes, à l'aide d'un auto-encodeurpré-entraîné. Le premier s'attaque à la génération de visages avecpeu d'échantillons à l'aide de patchs latents, montrant une notablerobustesse et des résultats convaincants avec un simple algorithmeséquentiel à patchs. Le second offre une solution à la généralisationde la tâche à une plus grande variétés de visages grâce à des modèlesde mixtures de gaussiennes. En particulier, nous montrons que cesmodèles offrent des performances similaires à d'autres modèlesneuronaux, tout en s'affranchissant d'une quantité importante deparamètres et d'étapes de calculs
Image generation has encountered great progress thanks to the quickevolution of deep neural models. Their reach went beyond thescientific domain and thus multiple legitimate concerns and questionshave been raised, in particular about how the training data aretreated. On the opposite, lightweight and explainable models wouldbe a fitting answer to these emerging problematics, but their qualityand range of applications are limited.This thesis strives to build “hybrid models”. They would efficientlycombine the qualities of lightweight or frugal methods with theperformance of deep networks. We first study the case of artisticstyle transfer with a multiscale and constrained patch-basedmethod. We qualitatively find out the potential of perceptual metricsin the process. Besides, we develop two hybrid models forphotorealistic face generation, each built around a pretrainedauto-encoder. The first model tackles the problem of few-shot facegeneration with the help of latent patches. Results shows a notablerobustness and convincing synthesis with a simple patch-basedsequential algorithm. The second model uses Gaussian mixtures modelsas a way to generalize the previous method to wider varieties offaces. In particular, we show that these models perform similarly toother neural methods, while removing a non-negligible number ofparameters and computing steps at the same time
APA, Harvard, Vancouver, ISO, and other styles
6

Salmon, Joseph. "Agrégation d'estimateurs et méthodes à patchs pour le débruitage d'images numériques." Paris 7, 2010. http://www.theses.fr/2010PA077195.

Full text
Abstract:
Le problème étudié dans cette thèse est celui du débruitage d'images numériques corrompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une limite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations
The problem studied in this thesis is denoising images corrupted by additive Gaussian white noise. The methods we use to get a better picture from a noisy one, are based on patches and are variations of the well known Non-Local Means. The contributions of this thesis are both practical and theoretical. First, we study precisely the influence of various parameters of the method. We highlight a limit observed on the treatment of edges by the usual patches based methods. Then, we give a better method to get pixel estimates by combining information from patches estimates. From a theoretical point of view we provide a non-asymptotic control of our estimators. The results proved are oracle inequalities, holding for a restrictive class of estimators, close to the form of the Non-Local Means estimetes. The techniques we use are based on aggregation of estimators, and more precisely on exponentially weighed aggregates. Typically, the last method requires a measure of the risk, that is obtained through a unbiased estimator of the risk. A common way to get such a mesure is to use the Stein Unbiased Risk Estimate (SURE). The denoising methods studied are analyzed numerically by simulations
APA, Harvard, Vancouver, ISO, and other styles
7

Crouzy, Serge. "Méthodes d'analyse des signaux de Patch-Clamp à temps discret." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0005.

Full text
Abstract:
L'objectif consiste a appliquer a des signaux echantillonnes des methodes connues d'analyse des signaux de patch-clamp a temps continu et de developper de nouvelles analyses sur des signaux tres bruites
APA, Harvard, Vancouver, ISO, and other styles
8

Salmon, Jospeh. "Agrégation d'estimateurs et méthodes à patch pour le débruitage d'images numériques." Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00545643.

Full text
Abstract:
Le problème étudié dans cette thèse est celui du débruitage d'images numériques cor- rompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une lim- ite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations.
APA, Harvard, Vancouver, ISO, and other styles
9

Makhlouf, Abdelkader. "Justification et amélioration de modèles d'antennes patch par la méthode des développements asymptotiques raccordés." Toulouse, INSA, 2008. http://eprint.insa-toulouse.fr/archive/00000277/.

Full text
Abstract:
Cette thèse est dédiée à l’étude et la justification rigoureuse sur le plan mathématique des modèles de simulation numérique d’antenne patch. Le confinement du champ électromagnétique entre le patch et le plan de masse et la création de couches limites au voisinage des arrêtes de l’antenne rendent difficile la simulation numérique directe des phénomènes physiques liés au rayonnement ou à la réception des ondes électromagnétiques. Un modèle heuristique dit «de murs magnétiques» est utilisé par les physiciens pour ce type de simulations. Il consiste à imposer que la composante normale au patch est nulle le long de l’arrête du patch entre ce dernier et le plan de masse. Nous justifions dans ce travail ce modèle heuristique en utilisant la méthode des développements asymptotiques raccordés. Nous montrons qu’en fait la condition de murs magnétiques est une condition approchée d’ordre 1 et nous construisons aussi un autre modèle qui permet d’améliorer la précision. La construction de ces modèles repose sur l’étude de problèmes aux limites non standard que nous avons traités de façon approfondie
This thesis is devoted to the study and the mathematical justification of some models used in the numerical simulation of patch antenna. The reduction of dimension required for a correct description of the electromagnetic field lying between the patch and the metallic masse plan and the involvement of a boundary layer in the vicinity of the antenna edges makes difficult the direct numerical simulation of the electromagnetic field radiated or emitted by the antenna. A heuristic approach, called ”the cavity with magnetic walls model” is wide-spread in the engineering literature and used application for this type of simulation. In this work, we give a rigorous mathematical justification to this heuristic model using the matched asymptotic expansions method. Indeed, we show that in fact the heuristic model is a first order approximation of the true electromagnetic field emitted or radiated by the antenna. We also construct a higher-order model imporving the accuracy in the determination of the electromagnetic field. The construction of these models requires the handling of non standard boundary value problems which are thoroughly studied
APA, Harvard, Vancouver, ISO, and other styles
10

Vigoureux, Dorian. "Déconfinement de sources acoustiques par utilisation d'une méthode holographique à double information." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00759412.

Full text
Abstract:
L'identification et la caractérisation des sources acoustiques restent encore aujourd'hui deux sujets d'importance pour les industriels qui ont besoin de techniques permettant d'identifier des sources acoustiques ou vibratoires sur des surfaces complexes dans un environnement acoustique non contrôlé. La thèse que nous présentons ici s'inscrit dans ce cadre. Nous y étudions les qualités d'une méthode inverse, appelée iPTF (pour inverse Patch Transfer Functions, pour la résolution de ce problème particulier. Nous consacrerons le premier chapitre de notre étude à la synthèse bibliographique des méthodes les plus pertinentes permettant de résoudre des problèmes similaires. Nous soulignerons également les difficultés de ces méthodes pouvant être liées à leurs applications pratiques ou à leurs fondements théoriques. Dans un second chapitre, nous présenterons la méthode iPTF à partir de sa formulation directe, c'est-à-dire de la source vers le bruit rayonné. Celle-ci est une approche par sous-structuration de domaines permettant l'étude des problèmes vibro-acoustiques en basses et moyennes fréquences. Nous montrerons particulièrement la façon dont l'association des deux formulations directe et indirecte permet de définir une méthode pouvant conduire jusqu'à l'identification des trois champs de vitesses, de pressions et d'intensités sur la surface de l'objet source. Notre troisième chapitre sera consacré à la présentation des premiers résultats d'identification dans un cas d'application numérique simple. Nous effectuerons, dans les chapitres quatre et cinq, une étude des principaux paramètres conditionnant les résultats donnés par la méthode. Le premier de ces deux chapitres présentera la mise en place d'un code de calcul permettant de résoudre rapidement le problème de rayonnement d'une structure simple. La méthode ainsi définie sera utilisée dans le chapitre cinq afin de générer de nombreux champs rayonnés présentant des caractéristiques différentes de façon à étudier la stabilité de la méthode iPTF face à la variation de différents paramètres. Un sixième chapitre présentera une étude approfondie faite sur les ondes évanescentes qui prennent une part non négligeable dans le champ rayonné par les structures. Ces ondes évanescentes, par définition, ne peuvent pas être mesurées au delà du champ proche, ce qui peut être la cause d'une part des défauts d'identification rencontrés lors de l'application de notre méthode. L'étude faite ici aura pour but de déterminer l'importance de ces ondes évanescentes dans le champ rayonné. Nous présenterons enfin, dans un dernier chapitre, les résultats de mesures expérimentales réalisées.
APA, Harvard, Vancouver, ISO, and other styles
11

Adnet, Nicolas. "Modélisation numérique du couplage Mécanique/Electromagnétisme pour l’étude de la sensibilité du comportement électromagnétique d’antennes patch aux déformations mécaniques." Paris 10, 2012. http://www.theses.fr/2012PA100079.

Full text
Abstract:
Ce travail présente une méthode numérique pour étudier l’impact des déformations mécaniques subies par une antenne patch sur son comportement électromagnétique. La formulation employée est basée sur un couplage faible bi-disciplinaire, portant sur la Mécanique et l'Électromagnétisme. Il est numériquement traité à l’aide de la méthode des éléments finis, couplée à une équation intégrale de frontière. Le calcul des champs mécaniques et électromagnétiques est réalisé à l’aide d’un élément fini 3D hexaédrique, ayant conduit au développement d’un outil numérique dédié au couplage traité et au calcul des caractéristiques d’une antenne patch suivant deux modes d’études distincts : à l’émission ou en réflexion. La formulation du couplage et l’implémentation de la méthode numérique ont été validées numériquement puis expérimentalement. Dans un premier temps, plusieurs tests numériques portant sur le comportement électromagnétique d’antennes patches planes et conformées ont été effectués. Les résultats obtenus sont en excellente adéquation avec ceux publiés dans la littérature électromagnétique, confirmant ainsi notre démarche. Ce type de validation n’a cependant pas pu être étendu au cas d’antennes subissant une déformation, aucune publication n’ayant été recensée. Des essais expérimentaux ont alors été effectués, afin de poursuivre nos validations lorsqu’une antenne est déformée. Les comparaisons entre les calculs et les mesures ont permis de conclure que l’approche numérique choisie permet de représenter très fidèlement le mécanisme « naturel », s’opérant entre les déformations de l’antenne testée et son comportement électromagnétique
This study deals with a weak formulation of a bi-disciplinary coupling, involving Mechanical and Electromagnetic skills. This interaction is numerically modelled by coupling the Finite Element Method to a Boundary Integral Equation, used in order to take into account the infinite space in which electromagnetic waves are radiated or caught by a patch antenna. The mechanical and electromagnetic fields are computed through a 3D hexahedral finite element, having lead us to implement a numerical tool dedicated to the investigation of the coupling and the computations of some antennal properties, with respect to the emitting or backscattering cases. The formulation of the coupling and the numerical implementation were numerically and experimentally benchmarked. Numerical tests involving the electromagnetic behaviour of planar and conformal path antennas were achieved. The results computed through the coupling approach are in a good agreement with those mentioned in the electromagnetic literature. But such benchmarks have not been performed concerning deformed antennas, any reference related to the topic was found. Thus, few experimental tests were done in order to complete the validation of this work. A metamaterial-based antenna and a conventional patch antenna have been designed and measured when these are subjected to bending and twisting loads. With regard to the conventional patch antenna, the comparisons between computed and measured results allowed us to conclude that the chosen numerical approach successfully models the “natural” phenomenon that relates the electromagnetic characteristics of an antenna to its geometrical states
APA, Harvard, Vancouver, ISO, and other styles
12

Ocampo, Blandon Cristian Felipe. "Patch-Based image fusion for computational photography." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0020.

Full text
Abstract:
Dans de nombreuses situations, la dynamique des capteurs ou la profondeur de champ des appareils photographiques conventionnels sont insuffisantes pour capturer fidèlement des scènes naturelles. Une méthode classique pour contourner ces limitations est de fusionner des images acquises avec des paramètres de prise de vue variables. Ces méthodes nécessitent que les images soient parfaitement alignées et que les scènes soient statiques, faute de quoi des artefacts (fantômes) ou des structures irrégulières apparaissent lors de la fusion. Le but de cette thèse est de développer des techniques permettant de traiter directement des images dynamiques et non-alignées, en exploitant des mesures de similarité locales par patchs entre images.Dans la première partie de cette thèse, nous présentons une méthode pour la fusion d'images de scènes dynamiques capturées avec des temps d'exposition variables. Notre méthode repose sur l'utilisation jointe d'une normalisation de contraste, de combinaisons non-locales de patchs et de régularisations. Ceci permet de produire de manière efficace des images contrastées et bien exposées, même dans des cas difficiles (objets en mouvement, scènes non planes, déformations optiques, etc.).Dans la deuxième partie de la thèse nous proposons, toujours dans des cas dynamiques, une méthode de fusion d'images acquises avec des mises au point variables. Le cœur de notre méthode repose sur une comparaison de patchs entre images ayant des niveaux de flou variables.Nos méthodes ont été évaluées sur des bases de données classiques et sur d'autres, nouvelles, crées pour les besoins de ce travail. Les expériences montrent la robustesse des méthodes aux distortions géométriques, aux variations d'illumination et au flou. Ces méthodes se comparent favorablement à des méthodes de l'état de l'art, à un coût algorithmique moindre. En marge de ces travaux, nous analysons également la capacité de l'algorithme PatchMatch à reconstruire des images en présence de flou et de changements d'illumination, et nous proposons différentes stratégies pour améliorer ces reconstructions
The most common computational techniques to deal with the limited high dynamic range and reduced depth of field of conventional cameras are based on the fusion of images acquired with different settings. These approaches require aligned images and motionless scenes, otherwise ghost artifacts and irregular structures can arise after the fusion. The goal of this thesis is to develop patch-based techniques in order to deal with motion and misalignment for image fusion, particularly in the case of variable illumination and blur.In the first part of this work, we present a methodology for the fusion of bracketed exposure images for dynamic scenes. Our method combines a carefully crafted contrast normalization, a fast non-local combination of patches and different regularization steps. This yields an efficient way of producing contrasted and well-exposed images from hand-held captures of dynamic scenes, even in difficult cases (moving objects, non planar scenes, optical deformations, etc.).In a second part, we propose a multifocus image fusion method that also deals with hand-held acquisition conditions and moving objects. At the core of our methodology, we propose a patch-based algorithm that corrects local geometric deformations by relying on both color and gradient orientations.Our methods were evaluated on common and new datasets created for the purpose of this work. From the experiments we conclude that our methods are consistently more robust than alternative methods to geometric distortions and illumination variations or blur. As a byproduct of our study, we also analyze the capacity of the PatchMatch algorithm to reconstruct images in the presence of blur and illumination changes, and propose different strategies to improve such reconstructions
APA, Harvard, Vancouver, ISO, and other styles
13

Cheng, Wenqing. "Numerical simulation of shrinkage and cracks in clayey soils on drying paths." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0210.

Full text
Abstract:
L'argile est largement répandue à la surface de la Terre, et comme elle est facilement disponible, elle a été largement utilisée comme matériau de construction depuis très longtemps. L'argile peut être utilisée non seulement comme barrière naturelle dans les noyaux des barrages, mais aussi comme matrice pour le stockage pour les déchets radioactifs en raison de ses propriétés de rétention. Le comportement mécanique des matériaux argileux est complexe, une des difficultés réside dans le fait qu’il soit sensible l’eau. Durant le processus de dessiccation, les sols argileux subissent un phénomène de retrait qui peut provoquer des fissurations. L’objectif de cette thèse vise, dans un premier temps, à développer une approche numérique capable de reproduire le phénomène du retrait, ainsi que la distribution de la teneur en eau et de la succion. Dans un deuxième temps, en se basant sur la décomposition du tenseur de déformation en une partie élastique (loi de Hooke) et une partie hydrique (représentant le retrait), une méthode de calcul par éléments finis est proposée pour décrire et aider à comprendre le comportement observé durant la dessiccation. Enfin, dans le but de reproduire la distribution des fissures, la méthode basée sur des éléments finis étendus (X-FEM) est utilisée. Les simulations numériques sont basées sur l'analyse des résultats d’essais de dessiccation d’argiles de laboratoire. L'application de la technique de corrélation d'images numériques (CIN) dans les essais de dessiccation rend l'étude du processus de séchage plus précise. Les résultats expérimentaux réalisés dans des travaux antérieurs et en cours montrent que les argiles, sur le chemin de séchage, vont générer une déformation de retrait causée par la perte d'eau. En simulation cette déformation est liée à la variation de la teneur en eau des argiles grâce à la fonction de Fredlund. Sur les essais utilisés le retrait de séchage suit une loi globale anisotrope liée à la géométrie de l’échantillon d’argile testé. Le coefficient de taux de retrait, appelée aussi le coefficient d’anisotropie, est utilisé pour décrire en simulation ce phénomène. Pour construire la loi constitutive permettant d’aborder le séchage des argiles molles initialement saturées, serait d'utiliser deux tenseurs de contrainte indépendants, liés à la décomposition du tenseur de déformation totale en tenseur de déformation dû au retrait au séchage (partie induite en raison de la variation de succion) et un tenseur appelé déformation « mécanique » qui sera dû au développement de contraintes liées au blocage du processus de retrait. Le tenseur de déformation mécanique peut être lié à la contrainte totale en utilisant une la loi élastique linéaire. La résistance de sol argileux initialement saturé augmente au cours de la dessiccation. Le résultat de fissuration, dans le sol sous succion contrôlée, est le résultat de compétitions entre l’augmentation de résistance de sols et l’endommagement causé par le retrait au cours de dessiccation. Le critère d’amorçage de fissure hydrique de sol est basé sur l’endommagement et la résistance de sol. Le critère de propagation de fissure, quant à lui, est basé sur la théorie de conservation d’énergie. Pour reproduire une répartition de fissure, basé sur la méthode d’éléments finis étendu (X-FEM). La loi de Weibull est utilisée pour prendre en compte la répartition hétérogène du sol. Après la validation de modèle numérique, des applications dans le domaine géotechnique peuvent être envisagées
Clay soil is widely distributed on the Earth’s surface, and because it is cheap and readily available, clay soil has been widely used as a building material for a very long history. Furthermore, clay can be used as not only a natural barrier in the dam cores, but also a matrix for the storage of radioactive wastes because of its retention properties. The mechanical behavior of clay materials is complex, one of the difficulties is that it is sensitive to water. During the desiccation process, clay soils undergo shrinkage, which can cause cracking. The aim of this thesis is, initially, to develop a numerical approach capable of reproducing the phenomenon of shrinkage, the distribution of water content as well as that of suction. In a second step, based on Coussy's theory for unsaturated porous media, and the mechanics of unsaturated soils, a constitutive law will be proposed to describe the behavior observed during desiccation. Finally, to reproduce the cracks distribution, based on the extended finite element method (X-FEM). The realization of numerical simulation is based on the analysis of the desiccation experiments of clay soils in laboratory. The application of the digital image correlation (DIC) technology in the desiccation experiments makes the study on the desiccation process in clay soils more accurate. The experimental results show that the clay soils will generate the theoretical shrinkage deformation caused by its own water loss in the drying path. This deformation in simulation can be related to the water content of clays through the Fredlund function. The desiccation shrinkage of clay soils has an anisotropic phenomenon. The coefficient of shrinkage ratio is used to describe this phenomenon in simulation. One of the ways to construct the constitutive of the initially saturated soft clays during drying could be in using two independent stress tensors which will enable the decomposition of total strain tensor into strain tensor due to drying shrinkage (induced part due to suction variation) and a “mechanical” strain tensor due to the total stress variation. Mechanical strain tensor can be related to total stress by using stiffness matrix. In fact, the initially saturated clay soil resistance increases during desiccation. The result of cracking in the soil under controlled suction is the result of competitions between increased soil resistance and damage caused by shrinkage during desiccation. The soil moisture crack initiation criterion will be based on soil damage and resistance. The criterion of crack propagation, meanwhile, will be based on the theory of conservation of energy. To reproduce the cracks distribution, based on X-FEM. Weibull's law will be used to consider the heterogeneous distribution of the soil. After digital model validation, applications in the geotechnical field are then considered
APA, Harvard, Vancouver, ISO, and other styles
14

Duteil, Philippe. "Mise au point d'une méthode d'analyse microstructurale par voie chimique de fibres cellulosiques : application à l'étude de pates à papier." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10581.

Full text
Abstract:
On mis au point une methode d'analyse structurale au moyen d'une sonde chimique pour l'etude de fibres papetieres blanchies issues du pin maritime. Le reactif utilise est le chlorure de diethylaziridinium qui fixe sur la cellose un groupe diethylaminoethyle. L'exploitation du processus analytique a necessite la preparation de derives du glucose substituees sur des positions definies, ainsi que l'etude du comportement des hemicelluloses, autres constituants importants des pates a papier. La methode a testee a la fois sur divers procedes de cuisson et blanchissement. Elle permet de mettre en evidenec l'etat plus ou moins destructure de materiau, qui se manifeste en particulier par une reactivite accrue de la position 3 des unites anhydroglucose constitutives de la cellulose, et de le relier aux traitements subis
APA, Harvard, Vancouver, ISO, and other styles
15

Assal, Reda. "Méthodes de production et étude électrophysiologique de canaux ioniques : application à la pannexine1 humaine et au canal mécanosensible bactérien MscL." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA11T093.

Full text
Abstract:
La production hétérologue des protéines membranaires reste difficile, peut-être parce que l’insertion dans la membrane de la cellule hôte constitue une étape limitante de la production. Afin de tourner cette difficulté, deux modes de synthèse ont été envisagés: la synthèse de protéines dans un système a-cellulaire, en l’absence de membrane mais en présence de détergent, ou l’adressage forcé de la protéine vers les corps d’inclusion dans le cas d’une expression plus classique en bactérie entière. La réalisation des deux stratégies repose sur l’utilisation de protéines de fusion possédant une séquence d’entraînement en amont du gène d’intérêt, soit qu’elles améliorent la traduction du transcrit en limitant le repliement spatial de ce dernier, soit qu’elles favorisent la production de la protéine d’intérêt en corps d’inclusion. La porine OmpX et le peptide T7 ont été choisis en cas d’expression dans les systèmes bactériens. La protéine SUMO est utilisée pour la production dans un lysat eucaryote. Les différentes approches ont été testées sur la production de la pannexine1 humaine (Px1).Si les séquences d’entraînement OmpX et le peptide T7 sont correctement produites in vitro, aucune des deux, en revanche, ne favorise la production de la Px1. Seul l’entraîneur SUMO est efficace. En effet, nous avons observé que cette protéine augmente la production de la Px1 dans un lysat eucaryote de germe de blé. Par ailleurs OmpX, connue pour être largement produite in vivo dans les corps d’inclusion, n’entraîne pas la localisation de la Px1 dans ces structures. Contre toute attente, l’étiquette T7 dirige la Px1 dans les corps d’inclusion. L’étude électrophysiologique de la Px1 a donc été effectuée à partir de la protéine produite in vivo (T7his-Px1) après renaturation, ou produite sous forme soluble in vitro (his6-Px1) dans le lysat eucaryote. Dans le cas de la protéine T7his-Px1 renaturée, une activité canal qui rappelle celle qui est observée après expression dans l’ovocyte de Xénope, a été détectée en patch-clamp, mais dans trois cas seulement. Dans le cas de la protéine his6-Px1, aucune activité canal n’est clairement détectée. Dans une deuxième partie de ce travail on examine le rôle de la boucle périplasmique dans la sensibilité à la pression du MscL, un canal mécanosensible bactérien devenu un système modèle dans l’étude de la mécanosensibilité. Presque toutes les études fonctionnelles sur ce canal ont été réalisées sur le canal de E.coli, alors que la structure a été obtenue à partir de l’homologue de M. tuberculosis. Une étude fonctionnelle a montré que le MscL de M. tuberculosis est difficile à ouvrir : son ouverture requiert l’application d’une pression double de celle qui est nécessaire chez E.coli. Les deux homologues diffèrent principalement par la longueur de leur unique boucle périplasmique. De manière à examiner le rôle de la boucle, on a comparé l’activité du canal MscL de E.coli, celle du canal de M. tuberculosis et celle d’une protéine chimère constituée de la protéine de M. tuberculosis dans laquelle la boucle a été changée pour celle de la protéine de E.coli. De manière inattendue, nous avons constaté que les canaux de E.coli et de M. tuberculosis ont la même sensibilité à la pression. La protéine chimère n’avait pas d’activité canal. Si ce travail ne permet pas de conclure quant au rôle de la boucle, il montre sans ambigüité que contrairement à ce qui a été rapporté les canaux MscL de E.coli et de M. tuberculosis ne diffèrent pas sensiblement sur le plan fonctionnel
The production of heterologous membrane protein is notoriously difficult; this might be due to the fact that insertion of the protein in the membrane host is a limiting step. To by-pass this difficulty, two modes of synthesis were tested: 1) production in a cell-free system devoid of biological membrane but supplemented with detergent or liposomes, 2) production in bacteria, with targeting of the membrane protein to inclusion bodies. Both strategies were tested for the production of the human pannexin 1 channel (Px1). The gene coding the protein was fused with an “enhancer” sequence resulting in the addition of a peptide or short protein at the N terminus of the protein of interest. This enhancer sequence which is well produced in vitro or in vivo is supposed to facilitate the translation of the protein of interest. Three enhancer sequences were chosen: 1) the small porin OmpX of E. coli, which, in addition, should target the protein to inclusion bodies when the protein is expressed in bacteria 2) a peptide of phage T7 for expression in E.coli lysate or E.coli cells 3) the small protein SUMO for production in a wheat germ cell-free system. In a bacterial cell-free system, neither OmpX nor T7 promoted Px1 production. Px1 is only produced when the SUMO enhancer sequence is used in the wheat germ system. In bacteria, OmpX, known to form inclusions bodies did not promote the targeting of the fusion protein to inclusion bodies. Unexpectedly, the peptide T7 was able to do it.Px1 obtained from inclusion bodies (T7his-Px1) was renatured and reconstituted in liposomes. Similarly his6-Px1 produced in wheat germ system was reconstituted in liposomes. Both preparations were used for electrophysiological studies (patch-clamp and planar bilayers). With the refolded T7his-Px1, channel activity reminiscent of that observed with Px1 expressed in Xenope oocyte (Bao et al., 2004) could be detected, but only in three cases. In the case of his6-Px1, no clear channel activity could be observed. The second part of this work deals with the involvement of the periplasmic loop of the bacterial mechanosensitive channel MscL in its sensitivity to pressure. Mscl has become a model system for the investigation of mechanosensisity. Nearly all functional studies have been performed on MscL from E.coli while the structure of the protein has been obtained from the Mycobacterium tuberculosis homologue. In one functional study it was shown that MscL from M. tuberculosis is extremely difficult to open, gating at twice the pressure needed for E.coli MscL The periplasmic loop is the most variable sequence between the two homologues, being longer in E.coli than in M. tuberculosis. In order to assess the role of the periplamic loop in the sensitivity to pressure, we compared the activity of the E.coli and M. tuberculosis MscL and of a chimeric protein made of the M. tuberculosis protein in which the periplasmic loop has been exchanged for that of the E. coli channel. Unexpectedly, M. tuberculosis and E .coli MscL were observed to gate at a similar applied pressure. The chimeric protein had no functional activity. In conclusion, this study does not allow any conclusion as to the role of the loop in the sensitivity to pressure, but it shows clearly that, in contrast to the results of a previous study, there is no functional difference between E. coli and M. tuberculosis MscL
APA, Harvard, Vancouver, ISO, and other styles
16

Astoul, Julien. "Méthodes et outil pour la conception optimale d'une denture spiroconique." Thesis, Toulouse, INSA, 2011. http://www.theses.fr/2011ISAT0036.

Full text
Abstract:
Le rendement d’un hélicoptère est étroitement lié à son poids. L’allègement des composants profite à la charge utile transportable. Il implique généralement une diminution de leur rigidité, donc une augmentation de leur déformation. Les boites de transmission par engrenages sont particulièrement concernées. Elles doivent assurer la transmission de puissances importantes à masse minimale. Les axes des roues dentées se désalignent alors progressivement au fur et à mesure de l’application du chargement. Les topographies des dentures spiroconiques sont corrigées pour tolérer ce déplacement et optimiser les performances du mécanisme. La portée d’engrènement ne doit pas toucher une arête afin d’éviter toute surpression par effet de bord et une dégradation prématurée des dents. Il faut améliorer la répartition de l’effort transmis et des pressions de contact. L’erreur de transmission induit des vibrations et du bruit. Il faut donc la minimiser. L’étude de la correction à appliquer à la denture est fastidieuse et requiert une longue période d’apprentissage lorsqu’elle est réalisée manuellement. Les travaux présentés s’inscrivent dans le cadre d’une automatisation du processus. L’usinage et l’engrènement des dentures sont simulés numériquement. Les méthodes proposées sont simples et robustes. Trois problèmes d’optimisation différents sont traités et analysés
The performance of a helicopter is closely linked to its weight. The components are lightened to benefit the carried payload. That usually involves a reduction in their stiffness, so an increase in their deformation. The transmission gear boxes are particularly affected. They must ensure the transmission of high powers with a minimal mass. The load makes the axes of the gears misaligned. The topographies of the spiral bevel gear teeth are corrected in order to tolerate the displacement and optimize the mechanism performances. The contact path must not touch tooth edges to avoid any overpressure and premature degradation. The distribution of the transmitted load and of the contact pressures must be improved. The transmission error induces vibrations and noise. Therefore, it must be minimized. The study of the correction to be applied to the teeth is tedious and requires a long learning period when it is done manually. The presented works fit into the scheme of an automated process. The machining and meshing of the teeth are simulated numerically. The proposed methods are simple and robust. Three different optimization problems are discussed and analyzed
APA, Harvard, Vancouver, ISO, and other styles
17

Nguyen, Minh Khoa. "Exploration efficace de chemins moléculaires par approches aussi rigides que possibles et par méthodes de planification de mouvements." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM013/document.

Full text
Abstract:
Les protéines sont des macromolécules participant à d’importants processus biophysiques de la vie des organismes. Or, il a été démontré que des variations de leur structure peuvent conduire à des changements de fonction en lien avec certaines maladies telles que celles associées à des processus neurodégénératifs. Ainsi, tant pour la communauté scientifique que pour l’industrie médicale, il est capital d’avoir une meilleure compréhension de la structure de ces protéines, ainsi que de leurs interactions avec d’autres molécules, ce en vue d’inventer et d’évaluer de nouveaux médicaments.Au cours de ces travaux de thèse, nous nous sommes particulièrement intéressés au développement de nouvelles méthodes de recherche de chemins biologiquement faisables entre deux états connus pour un système composé d’une protéine ou d’une protéine et d’un ligand. Au cours des dernières décennies, une grande quantité d’approches algorithmiques ont été proposées pour faire face à ce problème. Pourtant, les méthodes développées sont encore aujourd’hui confrontées à deux grands défis : d’une part la haute dimension des espaces de recherche, associée au grand nombre d’atomes impliqués, d’autre part la complexité des interactions entre ces atomes.Cette dissertation propose deux nouvelles méthodes pour obtenir de manière efficace des chemins pertinents pour des systèmes moléculaires. Ces méthodes sont rapides et génèrent des solutions qui peuvent ensuite être analysées ou améliorées à l’aide de méthodes d’avantage spécialisées. La première approche proposée produit des chemins d’interpolation pour systèmes biomoléculaires, à l’aide des approches dites aussi-rigides-que-possible, (ARAP) utilisées en animation graphique. Cette méthode est robuste et génère des solutions préservant au mieux la rigidité du système d’origine. Une extension de cette méthode basée sur des critères énergétiques a également été proposée et s’est avérée capable d’améliorer de manière significative les chemins solution. Cependant, pour les scénarios nécessitant de complexes déformations, cette approche géométrique peut conduire à des chemins solution non naturels. Nous avons donc proposé une seconde méthode appelée ART-RRT, qui utilise l’approche ARAP pour réduire la dimensionalité de l’espace et la combine avec les arbres d’exploration RRT (Rapidely-exploring Random Tree) issus de la Robotique, afin d’explorer efficacement les chemins possibles de l’espace.En plus de fournir une variété de solutions en temps raisonnable, cette ART-RRT produit des chemins de faible énergie, sans collision et dont la rigidité est préservée autant que possible. Des versions monodirectionnelles de bidirectionelles de cette méthode ont été proposées et appliquées respectivement à la recherche de chemin d’extraction d’un ligand hors du site actif d’une protéine, ainsi qu’a la recherche de chemin de transition conformationnelle pour protéine seule. Les solutions trouvées se sont avérées être en accord avec les données expérimentales ainsi qu’avec les solutions issues de l’état de l’art
Proteins are macromolecules participating in important biophysical processes of living organisms. It has been shown that changes in protein structures can lead to changes in their functions and are found linked to some diseases such as those related to neurodegenerative processes. Hence, an understanding of their structures and interactions with other molecules such as ligands is of major concern for the scientific community and the medical industry for inventing and assessing new drugs.In this dissertation, we are particularly interested in developing new methods to find for a system made of a single protein or a protein and a ligand, the pathways that allow changing from one state to another. During past decade, a vast amount of computational methods has been proposed to address this problem. However, these methods still have to face two challenges: the high dimensionality of the representation space, associated to the large number of atoms in these systems, and the complexity of the interactions between these atoms.This dissertation proposes two novel methods to efficiently find relevant pathways for such biomolecular systems. The methods are fast and their solutions can be used, analyzed or improved with more specialized methods. The first proposed method generates interpolation pathways for biomolecular systems using the As-Rigid-As-Possible (ARAP) principle from Computer Graphics. The method is robust and the generated solutions preserve at best the local rigidity of the original system. An energy-based extension of the method is also proposed, which significantly improves the solution paths. However, in scenarios requiring complex deformations, this geometric approach may still generate unnatural paths. Therefore, we propose a second method called ART-RRT, which combines the ARAP principle for reducing the dimensionality, with the Rapidly-exploring Random Trees from Robotics for efficiently exploring possible pathways. This method not only gives a variety of pathways in reasonable time but the pathways are also low-energy and clash-free, with the local rigidity preserved as much as possible. The mono-directional and bi-directional versions of the ART-RRT method were applied for finding ligand-unbinding and protein conformational transition pathways, respectively. The results are found to be in good agreement with experimental data and other state-of-the-art solutions
APA, Harvard, Vancouver, ISO, and other styles
18

Lucas, François. "Des métaheuristiques pour le guidage d’un solveur de contraintes dédié à la planification automatisée de véhicules." Thesis, Paris, ENMP, 2012. http://www.theses.fr/2012ENMP0027/document.

Full text
Abstract:
Cette thèse, réalisée en collaboration avec Sagem Défense Sécurité, porte sur l'élaboration d'une stratégie de recherche efficace pour la résolution de problèmes de planification d'itinéraires de véhicules. Nous considérons ici en particulier les problèmes de planification avec contraintes de points de passage et de "capacité" (énergie, bande passante radio) appliquées au véhicule. Ce document propose une approche originale, hybridant un algorithme de colonies de fourmis avec un solveur de Programmation par Contraintes existant. Le premier est utilisé pour résoudre rapidement une version relaxée du problème. La solution partielle obtenue est alors employée pour guider la recherche du second, par le biais d'une méthode de sonde, vers les zones les plus prometteuses de l'espace d'état. Cette approche permet ainsi de combiner la rapidité des métaheuristiques et la complétude de la programmation par contraintes. Nous montrons expérimentalement que cette approche satisfait les exigences pour une utilisation du planificateur dans un cadre embarqué
This thesis, led in collaboration with Sagem Defence & Security, focuses on defining an efficient search strategy to solve vehicle path planning problems. This work addresses more precisely planning problems in which waypoints and "capacity" constraints (energy, radio bandwidth) are applied to vehicles.This document proposes an original approach, mixing an Ant Colony algorithm with an existing Constraint Programming solver. The former is used to fastly solve a relaxed version of the problem. The partial solution returned is then employed to guide the search of the latter, through a Probe Backtrack mechanism, towards the most promising areas of the state space. This approach allows to combine the metaheuristics solving fastness and the Constraint Programming completeness. We experimentally show that this approach meets the requirements for an on-line use of the planner
APA, Harvard, Vancouver, ISO, and other styles
19

Lei, Zhen. "Isogeometric shell analysis and optimization for structural dynamics." Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0028/document.

Full text
Abstract:
Cette thèse présente des travaux effectués dans le cadre de l'optimisation de forme de pièces mécaniques, sous critère dynamique, par approche isogéométrique. Pour réaliser une telle optimisation nous mettons en place dans un premier temps les éléments coque au travers des formulations Kirchhoff-Love puis Reissner-Minlin. Nous présentons une méthode permettant d'atteindre les vecteurs normaux aux fibres dans ces formulations au travers de l'utilisation d'une grille mixte de fonctions de base interpolantes, traditionnellement utilisées en éléments finis, et de fonction non interpolantes issues de la description isogéométrique des coques. Par la suite, nous détaillons une méthode pour le couplage de patch puis nous mettons en place la méthode de synthèse modale classique dans le cadre de structures en dynamique décrites par des éléments isogéometriques. Ce travail établit une base pour l'optimisation de forme sous critères dynamique de telles structures. Enfin, nous développons une méthode d'optimisation de forme basée sur le calcul du gradient de la fonction objectif envisagée. La sensibilité de conception est extraite de l'analyse de sensibilité au niveau même du maillage du modèle, qui est obtenue par l'analyse discrète de sensibilité. Des exemples d'application permettent de montrer la pertinence et l'exactitude des approches proposées
Isogeometric method is a promising method in bridging the gap between the computer aided design and computer aided analysis. No information is lost when transferring the design model to the analysis model. It is a great advantage over the traditional finite element method, where the analysis model is only an approximation of the design model. It is advantageous for structural optimization, the optimal structure obtained will be a design model. In this thesis, the research is focused on the fast three dimensional free shape optimization with isogeometric shell elements. The related research, the development of isogeometric shell elements, the patch coupling in isogeometric analysis, the modal synthesis with isogeometric elements are also studied. We proposed a series of mixed grid Reissner-Minlin shell formulations. It adopts both the interpolatory basis functions, which are from the traditional FEM, and the non-interpolatory basis functions, which are from IGA, to approximate the unknown elds. It gives a natural way to define the fiber vectors in IGA Reissner-Mindlin shell formulations, where the non-interpolatory nature of IGA basis functions causes complexity. It is also advantageous for applying the rotational boundary conditions. A modified reduce quadrature scheme was also proposed to improve the quadrature eficiency, at the same time, relieve the locking in the shell formulations. We gave a method for patch coupling in isogeometric analysis. It is used to connect the adjacent patches. The classical modal synthesis method, the fixed interface Craig-Bampton method, is also used as well as the isogeometric Kirchhoff-Love shell elements. The key problem is also the connection between adjacent patches. The modal synthesis method can largely reduce the time costs in analysis concerning structural dynamics. This part of work lays a foundation for the fast shape optimization of built-up structures, where the design variables are only relevant to certain substructures. We developed a fast shape optimization framework for three dimensional thin wall structure design. The thin wall structure is modelled with isogeometric Kirchhoff-Love shell elements. The analytical sensitivity analysis is the key focus, since the gradient base optimization is normally more fast. There are two models in most optimization problem, the design model and the analysis model. The design variables are defined in the design model, however the analytical sensitivity is normally obtained from the analysis model. Although it is possible to use the same model in analysis and design under isogeomeric framework, it might give either a highly distorted optimum structure or a unreliable structural response. We developed a sensitivity mapping scheme to resolve this problem. The design sensitivity is extracted from the analysis model mesh level sensitivity, which is obtained by the discrete analytical sensitivity analysis. It provides exibility for the design variable definition. The correctness of structure response is also ensured. The modal synthesis method is also used to further improve the optimization eficiency for the built-up structure optimization concerning structural dynamics criteria
APA, Harvard, Vancouver, ISO, and other styles
20

Picciani, Massimiliano. "Rare events in many-body systems : reactive paths and reaction constants for structural transitions." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00706510.

Full text
Abstract:
Cette thèse aborde l'étude de phénomènes physiques fondamentaux, avec des applications aux matériaux d'intérêt nucléaire. Nous avons développé des méthodes pour l'étude d'évènements rares concernant des transitions structurales thermiquement activées dans des systèmes à N-corps. La première méthode consiste en la simulation numérique du courant de probabilité associé aux chemins réactifs. Après avoir dérivé les équations d'évolution du courant de probabilité, on échantillonne ce courant grâce à un algorithme de type Monte Carlo Diffusif. Cette technique, dénommée Transition Current Sampling, a été appliquée pour étudier les transitions structurales d'un agrégat de 38 atomes liés par un potentiel Lennard-Jones (LJ-38). Un deuxième algorithme, dénommée Transition Path Sampling avec bias de Lyapunov local (LyTPS), a ensuite été développé. LyTPS permet de calculer des taux de réaction à température finie en suivant la théorie des états de transition. Un biais statistique dérivant du maximum des exposantes de Lyapunov locaux est introduit pour accélérer l'échantillonnage de trajectoires réactives. Afin d'extraire la valeur des constantes de réaction d'équilibre depuis celle obtenues par LyTPS, on utilise le Multistate Bennett Acceptance Ratio. Nous avons à nouveau validé cette méthode sur l'agrégat LJ-38. LyTPS est ensuite utilisé pour calculer les constantes de migration des lacunes et di-lacunes dans le Fer-α, ainsi que l'entropie de migration associée. Ces constantes de réaction servent de paramètre d'input dans des codes de modélisation cinétique (First Passage Kinetic Monte Carlo) pour reproduire numériquement des recuits de résistivité de Fer-α après irradiation.
APA, Harvard, Vancouver, ISO, and other styles
21

Ouafi, Rachid. "Analyse et contrôle des réseaux de trafic urbain par la méthode de Frank-Wolfe." Paris 6, 1988. http://www.theses.fr/1988PA066453.

Full text
Abstract:
La méthode de Frank Wolfe offre une approche efficace pour la résolution des programmes convexes avec contraintes linéaires. Dans le contexte des réseaux de transport l'algorithme se réduit à une série de problèmes de plus court chemin et de recherches unidimensionnelles. Nous présentons une approche unifiée de la résolution d'une large variété de problèmes lies au système de planification du trafic urbain par la méthode de Frank Wolfe. Enfin, nous proposons une modification de l'algorithme de Frank Wolfe pour la résolution du problème de l'affectation du trafic urbain.
APA, Harvard, Vancouver, ISO, and other styles
22

Aïssat, Romain. "Infeasible Path Detection : a Formal Model and an Algorithm." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS036/document.

Full text
Abstract:
Le test boîte blanche basé sur les chemins est largement utilisé pour la validation de programmes. A partir du graphe de flot de contrôle (CFG) du programme sous test, les cas de test sont générés en sélectionnant des chemins d'intérêt, puis en essayant de fournir, pour chaque chemin, des valeurs d'entrées concrètes qui déclencheront l'exécution du programme le long de ce chemin.Il existe de nombreuses manières de définir les chemins d'intérêt: les méthodes de test structurel sélectionnent des chemins remplissant un critère de couverture concernant les éléments du graphe; dans l'approche aléatoire, les chemins sont tirés selon une distribution de probabilité sur ces éléments. Ces méthodes aléatoires ont l'avantage de fournir un moyen d'évaluer la qualité d'un jeu de test à travers la probabilité minimale de couvrir un élément du critère.Fournir des valeurs concrètes d'entrées nécessite de construire le prédicat de cheminement chaque chemin, i.e. la conjonction des contraintes sur les entrées devant être vérifiée pour que le système s'exécute le long de ce chemin. Cette construction se fait par exécution symbolique. Les données de test sont ensuite déterminées par résolution de contraintes. Si le prédicat d'un chemin est insatisfiable, le chemin est dit infaisable. Il est très courant qu'un programme présente de tels chemins, leur nombre surpassent généralement de loin celui des faisables. Les chemins infaisables sélectionnés lors la première étape ne contribuent pas au jeu de test final, et doivent être tirés à nouveau. La présence de ces chemins pose un sérieux problème aux méthodes structurelles et à toutes les méthodes d'analyse statique, la qualité des approximations qu'elles fournissent étant réduite par les données calculées le long de chemins infaisables.De nombreuses méthodes ont été proposées pour résoudre ce problème, telles que le test concolique ou le test aléatoire basé sur les domaines d'entrée. Nous présentons un algorithme qui construit de meilleures approximations du comportement d'un programme que son CFG, produisant un nouveau CFG qui sur-approxime l'ensemble des chemins faisables mais présentant moins de chemins infaisables. C'est dans ce nouveau graphe que sont tirés les chemins.Nous avons modélisé notre approche et prouvé formellement, à l'aide de l'assistant de preuve interactif Isabelle/HOL, les propriétés principales établissant sa correction.Notre algorithme se base sur l'exécution symbolique et la résolution de contraintes, permettant de détecter si certains chemins sont infaisables ou non. Nos programmes peuvent contenir des boucles, et leurs graphes des cycles. Afin d'éviter de suivre infiniment les chemins cycliques, nous étendons l'exécution symbolique avec la détection de subsomptions. Une subsomption peut être vue comme le fait qu'un certain point atteint durant l'analyse est un cas particulier d'un autre atteint précédemment: il n'est pas nécessaire d'explorer les successeurs d'un point subsumé, ils sont subsumés par les successeurs du subsumeur. Notre algorithme a été implémenté par un prototype, dont la conception suit fidèlement la formalisation, offrant un haut niveau de confiance dans sa correction.Dans cette thèse, nous présentons les concepts théoriques sur lesquels notre approche se base, sa formalisation à l'aide d'Isabelle/HOL, les algorithmes implémentés par notre prototype et les diverses expériences menées et résultats obtenus à l'aide de ce prototype
White-box, path-based, testing is largely used for the validation of programs. Given the control-flow graph (CFG) of the program under test, a test suit is generated by selecting a collection of paths of interest, then trying to provide, for each path, some concrete input values that will make the program follow that path during a run.For the first step, there are various ways to define paths of interest: structural testing methods select some set of paths that fulfills coverage criteria related to elements of the graph; in random-based techniques, paths are selected according to a given distribution of probability over these elements (for instance, uniform probability over all paths of length less than a given bound). Both approaches can be combined as in structural statistical testing. The random-based methods above have the advantage of providing a way to assess the quality of a test set as the minimal probability of covering an element of a criterion.The second step requires to produce for each path its path predicate, i.e. the conjunction of the constraints over the input parameters that must hold for the system to run along that path. This is done using symbolic execution. Then, constraint-solving is used to compute test data. If there is no input values such that the path predicate evaluates to true, the path is infeasible. It is very common for a program to have infeasible paths and such paths can largely outnumber feasible paths. Infeasible paths selected during the first step will not contribute to the final test suite, and there is no better choice than to select another path, hoping for its feasibility. Handling infeasible paths is the serious limitation of structural methods since most of the time is spent selecting useless paths. It is also a major challenge for all techniques in static analysis of programs, since the quality of the approximations they provide is lowered by data computed for paths that do not correspond to actual program runs.To overcome this problem, different methods have been proposed, like concolic testing or random testing based on the input domain. In path-biased random testing, paths are drawn according to a given distribution and their feasibility is checked in a second step. We present an algorithm that builds better approximations of the behavior of a program than its CFG, providing a transformed CFG, which still over-approximates the set of feasible paths but with fewer infeasible paths. This transformed graph is used for drawing paths at random.We modeled our graph transformations and formally proved, using the interactive theorem proving environment Isabelle/HOL, the key properties that establish the correctness of our approach.Our algorithm uses symbolic execution and constraint solving, which allows to detect whether some paths are infeasible. Since programs can contain loops, their graphs can contain cycles. In order to avoid to follow infinitely a cyclic path, we enrich symbolic execution with the detection of subsumptions. A subsumption can be interpreted as the fact that some node met during the analysis is a particular case of another node met previously: there is no need to explore the successors of the subsumed node: they are subsumed by the successors of the subsumer. Our algorithm has been implemented by a prototype, whose design closely follows said formalization, giving a good level of confidence in its correctness.In this thesis, we introduce the theoretical concepts on which our approach relies, its formalization in Isabelle/HOL, the algorithms our prototype implements and the various experiments done and results obtained using it
APA, Harvard, Vancouver, ISO, and other styles
23

Le, Foll Frank. "Etude électrophysiologique du contrôle GABAergique de la cellule mélanotrope : effets du GABA sur l'activité bioélectrique et modulation du récepteur GABA(A) par les stéroïdes." Rouen, 1997. http://www.theses.fr/1997ROUES077.

Full text
Abstract:
Les cellules mélanotropes du lobe intermédiaire de l'hypophyse secrètent l'α-mélanocyte-stimulating-hormone (α-MSH). Chez la grenouille, le GABA, via l'activation des récepteurs GABA(A)(RGABA(A)), provoque une stimulation transitoire suivie d'une inhibition de la libération d'α-MSH. Nous avons donc recherché les bases ioniques de cette réponse sécrétoire biphasique. Nous avons également étudié la modulation du RGABA(A) par divers stéroïdes. Les résultats montrent que la déhydroépiandrostérone (DHEA), libre ou sous la forme d'ester sulfate, ainsi que le sulfate de prégnènolone inhibent le courant évoqué par le GABA (IGABA). A l'inverse, les 3α-isomères des prégnanes potentialisent IGABA, en agissant sur un site extracellulaire distinct du site de liaison des benzodiazépines. A forte concentration (10 m), la prégnanolone induit une inhibition de IGABA liée à une accélération de la désensibilisation de la conductance au [Cl-]. De plus, à forte concentration, la prégnanolone active directement le RGABA(A). L'utilisation de la technique de patch perforé à la gramicidine, qui préserve la concentration physiologique intracellulaire en ions (Cl- ([Cl-]i), a révélé que le GABA dépolarise les cellules mélanotropes en générant un efflux de Cl-. La dépolarisation exercée par le GABA (0. 1 a 1 m) s'accompagne de potentiels d'action. A plus forte concentration (5 a 10 m), le GABA induit un effet de shunt abolissant complètement l'activité électrique. Parallèlement, le courant évoqué par le GABA provoque, par lui-même, une redistribution de Cl- à l'origine d'une dérive progressive de [Cl-]i. En conclusion, nos résultats démontrent pour la première fois que le GABA est un neurotransmetteur dépolarisant dans les cellules mélanotropes. Les stéroïdes exercent une modulation bidirectionnelle et stéréospécifique du RGABA(A). La dépolarisation évoquée par le GABA est à l'origine d'une activation des canaux calciques membranaires et du pic de sécrétion. A forte concentration de GABA, ou en présence d'un stéroïde potentialisateur, la dépolarisation est suivie d'un effet de shunt, probablement responsable de la phase inhibitrice de la réponse sécrétoire. De plus, les flux de Cl- activés par le GABA changent durablement la [Cl-]i, ce qui peut conduire à un rétrocontrôle négatif de la réponse à ce neurotransmetteur, in vivo.
APA, Harvard, Vancouver, ISO, and other styles
24

Hadjou, Tayeb. "Analyse numérique des méthodes de points intérieurs : simulations et applications." Rouen, 1996. http://www.theses.fr/1996ROUES062.

Full text
Abstract:
La thèse porte sur une étude à la fois théorique et pratique des méthodes de points intérieurs pour la programmation linéaire et la programmation quadratique convexe. Dans une première partie, elle donne une introduction aux méthodes de points intérieurs pour la programmation linéaire, décrit les outils de base, classifie et présente d'une façon unifiée les différentes méthodes. Elle présente dans la suite un exposé des algorithmes de trajectoire centrale pour la programmation linéaire et la programmation quadratique convexe. Dans une seconde partie sont étudiées des procédures de purification en programmation linéaire. Il s'agit des procédures qui déterminent, via une méthode de points intérieurs, un sommet (ou face) optimal. Dans cette partie, nous avons introduit et développé une nouvelle procédure de purification qui permet de mener dans tous les cas à un sommet optimal et de réduire le temps de calcul. La dernière partie est consacrée aux illustrations et aux expériences numériques.
APA, Harvard, Vancouver, ISO, and other styles
25

Hajjine, Bouchta. "Conception, réalisation et intégration technologique d'un patch électronique : application à la surveillance des personnes âgées." Thesis, Toulouse, INSA, 2016. http://www.theses.fr/2016ISAT0002/document.

Full text
Abstract:
30% de la population Française dépassant l’âge des 60 ans en 2035, la notion d’accompagnement de la dépendance des personnes âgées est un enjeu sociétal avec l’impératif de prévention des risques à domicile. C’est dans ce contexte, avec l’arrivée des technologies d’intégration et de l’IoT que nous avons entrepris de concevoir et réaliser un patch électronique miniature capable de géolocalisation pour déclencher des alarmes en cas de fugue, de chute ou de déambulation. Un enjeu est la réalisation d‘antennes sur substrats souples comme éléments clés des fonctions de géolocalisation et de recharge par induction. Un travail de modélisation a permis l’optimisation d’antennes imprimées présentant un bon compromis intégration/performance. Un procédé technologique en salle blanche a été développé pour réaliser des antennes bicouches sur substrat polyimide souple. Plusieurs prototypes de patch complet ont été testés et validés en centre d’EHPAD
30 % of the French population being over the age of 60 years in 2035, the notion of accompaniment of the elderly dependence is a societal challenge with the imperative of risks prevention at home. It is in this context, with the arrival of the technologies of integration and the IoT that we undertook to conceive and realize a miniature electronic patch capable of geolocalization to trigger alarms in the case of fugue, fall or wandering. A challenge is the design of antennas on flexible substrates as key elements of the functions of geolocalization and charging by induction. A modeling work allowed the optimization of printed antennas presenting a good compromise integration / performance. A technological process in the cleanroom was developed to carry out bilayers antennas on flexible substrate (polyimide). Several prototypes of complete patch were tested and validated in the EHPAD center
APA, Harvard, Vancouver, ISO, and other styles
26

Potvin, Léna. "Effet de l'isradipine sur le INa(tr), le ICa(T), et les activités calciques spontanées des cellules ventriculaires des embryons de poulet âgés de trois et dix jours, obtenu par la méthode de patch clamp et de fluorescence." Mémoire, Université de Sherbrooke, 1993. http://hdl.handle.net/11143/12069.

Full text
Abstract:
Certaines cellules ventriculaires isolées des embryons de poulet âgés de trois et dix jours montrent des activités calciques spontanées. Ces augmentations calciques transitoires spontanées peuvent être classifiées selon trois types de fréquence. Ces trois types de fréquence sont dits fréquence lente de longue durée (FLD), fréquence lente (FL) et fréquence rapide (FR). Ils sont classifiés selon la durée de l'augmentation transitoire spontanée. Par contre, au niveau des cellules ventriculaires des embryons de poulet de dix jours, un type de fréquence dit FL n'est pas rencontré seul, il coexiste avec le type FLD. Peu importe le type de fréquence, le PN200-110 bloque ces activités calciques spontanées chez les deux types de préparation. Cet antagoniste des canaux calciques, le PN200- 110, est beaucoup plus efficace chez les embryons de poulet âgés de trois jours. Celui-ci bloque à une concentration de 10-10M au niveau des embryons de poulet âgés de trois jours et à une concentration de 10-9M. Un second antagoniste des canaux calciques, la nifédipine, utilisée à une concentration très élevée de 10-6M et 10-5M, n'affecte que les activités calciques des cellules ventriculaires des embryons de poulet âgés de trois jours. Au niveau des courants macroscopiques, le PN200-110, à une concentration près de 10-10M bloque le INa(tr) insensible à la TTX et au Mn2+ des cellules ventriculaires isolées des embryons de poulet âgés de trois jours. Le PN200-110 agit de façon similaire pour le ICa(T) des cellules ventriculaires isolées des embryons de poulet de dix jours. Ces résultats obtenus par la méthode de microfluorométrie et de patch clamp suggèrent que l'oscillation peut être due indirectment au INa(tr) chez les embryons de poulet âgés de trois jours et directement au ICa(T) chez les embryons de poulet âgés de dix jours.
APA, Harvard, Vancouver, ISO, and other styles
27

Louiset, Estelle. "Implication de l'activité électrique des cellules mélanotropes de grenouille dans les processus de couplage stimulus-sécrétion : étude par la technique de patch-clamp." Rouen, 1989. http://www.theses.fr/1989ROUES033.

Full text
Abstract:
Après avoir caractérisé les propriétés électriques des cellules mélanotropes de grenouille en culture primaire, il a été, dans le cadre d'une étude couplage stimulus-sécrétion, exploré les effets de 3 signaux neuroendocriniens: la thyrolibérine (TRH), l'acide gamma-aminobutyrique (GABA) et l'acétylcholine (ACH), en utilisant les techniques de patch clamp et de perfusion
APA, Harvard, Vancouver, ISO, and other styles
28

Xu, Fan. "Étude numérique des modes d'instabilités des systèmes film-substrat." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0309/document.

Full text
Abstract:
Le plissement dans les films minces sur un substrat plus mou a été largement observé dans la nature. Ces phénomènes ont suscité un intérêt considérable au cours de la dernière décennie. L’évolution en post-flambage d’instabilités morphologiques implique souvent de forts effets de non-linéarité géométrique, de grandes rotations, de grands déplacements, de grandes déformations, une dépendance par rapport au chemin de chargement et de multiples brisures de symétrie. En raison de ces difficultés notoires, la plupart des analyses non-linéaires de flambement ont recouru à des approches numériques parce qu’on ne peut obtenir qu’un nombre limité de solutions exactes de manière analytique. Cette thèse propose un cadre général pour étudier le problème de flambage de systèmes film/substrat de manière numérique : de la modélisation 2D ou 3D, d’un point de vue classique ou multiéchelle. L’objectif principal est d’appliquer des méthodes numériques avancées pour des analyses de bifurcations multiples aux divers modèles de film/substrat, en particulier en se concentrant sur l’évolution en post-flambement et la transition du mode à la surface. Les modèles intègrent la Méthode Asymptotique Numérique (MAN) comme une technique robuste de pilotage et des indicateurs de bifurcation qui sont bien adaptés à la MAN pour détecter une séquence de bifurcations multiples ainsi que les modes d’instabilité associés sur leur chemin d’évolution de post-flambement. La MAN donne un accès interactif aux branches d’équilibre semi-analytique, qui offre un avantage considérable en termes de la fiabilité par rapport aux algorithmes itératifs classiques. En outre, une stratégie originale de couplage non-local est développée pour coupler les modèles classiques et les modèles multi-échelles concurremment, où les forces de chaque modèle sont pleinement exploitées, et leurs lacunes surmontées. Une discussion sur la transition entre les différentes échelles est fournie d’une manière générale, qui peut également être considéré comme un guide pour les techniques de couplage impliquant d’autres modèles réduits. A la fin, un cadre général de modélisation macroscopique est développé et deux modèles spécifiques de type Fourier sont dérivés de modèles classiques bien établis, qui permettent de prédire la formation des modes d’instabilités avec beaucoup moins d’éléments et donc de réduire le coût de calcul de manière significative
Surface wrinkles of stiff thin layers attached on soft materials have been widely observed in nature and these phenomena have raised considerable interests over the last decade. The post-buckling evolution of surface morphological instability often involves strong effects of geometrical nonlinearity, large rotation, large displacement, large deformation, loading path dependence and multiple symmetry-breakings. Due to its notorious difficulty, most nonlinear buckling analyses have resorted to numerical approaches since only a limited number of exact analytical solutions can be obtained. This thesis proposes a whole framework to study the film/substrate buckling problem in a numerical way: from 2D to 3D modeling, from classical to multi-scale perspective. The main aim is to apply advanced numerical methods for multiple-bifurcation analyses to various film/substrate models, especially focusing on post-buckling evolution and surface mode transition. The models incorporate Asymptotic Numerical Method (ANM) as a robust path-following technique and bifurcation indicators well adapted to the ANM to detect a sequence of multiple bifurcations and the associated instability modes on their post-buckling evolution path. The ANM gives interactive access to semi-analytical equilibrium branches, which offers considerable advantage of reliability compared with classical iterative algorithms. Besides, an original nonlocal coupling strategy is developed to bridge classical models and multi-scale models concurrently, where the strengths of each model are fully exploited while their shortcomings are accordingly overcome. Discussion on the transition between different scales is provided in a general way, which can also be seen as a guide for coupling techniques involving other reduced-order models. Lastly, a general macroscopic modeling framework is developed and two specific Fourier-related models are derived from the well-established classical models, which can predict the pattern formation with much fewer elements so as to significantly reduce the computational cost
APA, Harvard, Vancouver, ISO, and other styles
29

Castel, Alexis. "Comportement vibratoire de structures composites intégrant des éléments amortissants." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00983378.

Full text
Abstract:
Ce travail traite de la modélisation de structures composites intégrant des éléments amortissants passifs. Un modèle de plaque "équivalent simple couche" générique utilisant des fonctions de description du cisaillement transverse est présenté. Plusieurs méthodes d'obtention de ces fonctions sont décrites, permettant de retrouver des modèles classiques ou issus de la littérature. Deux nouvelles méthodes d'obtention de ces fonctions sont aussi présentées.Plusieurs méthodes de discrétisation adaptées au modèle générique sont étudiées. La méthode de Navier permet de tester la qualité de chaque modèle associé à un jeu de fonctions de description du cisaillement transverse. La méthode de Rayleigh-Ritz permet l'étude du comportement vibratoire d'une plaque rectangulaire munie d'un ou plusieurs patchs viscocontraints. Plusieurs éléments finis issus de la littérature, adaptés au modèle, sont aussi présentés.À l'aide de la méthode de Navier, une étude numérique du comportement statique et dynamique de plusieurs configurations de plaques permet la comparaison des différents modèles présentés. La méthode de Rayleigh-Ritz est utilisée pour étudier le comportement vibratoire d'une plaque munie d'un patch viscocontraint. Une comparaison des résultats obtenus avec le modèle présenté et ceux issus de calculs éléments finis tridimensionnels permet de valider notre modèle. Une étude énergétique de la plaque patchée permet d'illustrer le comportement du patch. Enfin une méthode inverse d'identification des matériaux viscoélastiques, basées sur une combinaison du modèle décrit et d'un algorithme génétique, montre une application du modèle.
APA, Harvard, Vancouver, ISO, and other styles
30

Topart, Hélène. "Etude d’une nouvelle classe de graphes : les graphes hypotriangulés." Thesis, Paris, CNAM, 2011. http://www.theses.fr/2011CNAM0776/document.

Full text
Abstract:
Dans cette thèse, nous définissons une nouvelle classe de graphes : les graphes hypotriangulés. Les graphes hypotriangulés vérifient que pour tout chemin de longueur deux, il existe une arête ou un autre chemin de longueur deux entre ses extrémités. Cette classe permet par exemple de modéliser des réseaux robustes. En effet, nous montrons que dans de tels graphes, la suppression d'une arête ou d'un sommet ne modifie pas la distance initiale entre toutes paires de sommets non adjacents. Ensuite, nous étudions et démontrons plusieurs propriétés pour cette classe de graphes. En particulier, après avoir introduit une famille de partitions spécifiques, nous montrons les relations entre certains éléments de cette famille et leur caractère hypotriangulé. De plus, grâce à ces partitions, nous caractérisons les graphes hypotriangulés minimum, qui, parmi les graphes hypotriangulés connexes, minimisent le nombre d'arêtes pour un nombre de sommets fixés.Dans une deuxième partie, nous étudions la complexité, pour la classe des graphes hypotriangulés, de problèmes difficiles dans le cas général. Nous montrons d'abord que les problèmes classiques de cycle hamiltonien, coloration, clique maximum et stable maximum restent NP-difficiles pour cette classe de graphes. Ensuite, nous nous intéressons à des problèmes de modification de graphes, pour lesquels il s'agit de déterminer le nombre minimal d'arêtes à ajouter ou supprimer à un graphe pour obtenir un graphe hypotriangulé : nous montrons la complexité de ces problèmes pour plusieurs classes de graphes
In this thesis, we define a new class of graphs : the hypochordal graphs. These graphs satisfy that for any path of length two, there exists a chord or another path of length two between its two endpoints. This class can represent robust networks. Indeed, we show that in such graphs, in the case of an edge or a vertex deletion, the distance beween any pair of nonadjacent vertices remains unchanged. Then, we study several properties for this class of graphs. Especially, after introducing a family of specific partitions, we show the relations between some of these partitions and hypochordality. Moreover, thanks to these partitions, we characterise minimum hypochordal graph, that are, among connected hypochordal graphs, those that minimise the number of edges for a given number of vertices. In a second part, we study the complexity, for hypochordal graphs, of problems that are NP-hard in the general case. We first show that the classical problems of hamiltonian cycle, colouring, maximum clique and maximum stable set remain NP-hard for this class of graphs. Then, we analyse graph modification problems : deciding the minimal number of edges to add or delete from a graph, in order to obtain an hypochordal graph. We study the complexity of these problems for sevaral classes of graphs
APA, Harvard, Vancouver, ISO, and other styles
31

Kazemipour, Alireza. "Contribution à l'étude du couplage entre antennes, application à la compatibilité électromagnétique et à la conception d'antennes et de réseaux d'antennes." Paris, ENST, 2003. http://www.theses.fr/2002ENST0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Giraud, Remi. "Algorithmes de correspondance et superpixels pour l’analyse et le traitement d’images." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0771/document.

Full text
Abstract:
Cette thèse s’intéresse à diverses composantes du traitement et de l’analyse d’images par méthodes non locales. Ces méthodes sont basées sur la redondance d’information présente dans d’autres images, et utilisent des algorithmes de recherche de correspondance, généralement basés sur l’utilisation patchs, pour extraire et transférer de l’information depuis ces images d’exemples. Ces approches, largement utilisées par la communauté de vision par ordinateur, sont souvent limitées par le temps de calcul de l’algorithme de recherche, appliqué à chaque pixel, et par la nécessité d’effectuer un prétraitement ou un apprentissage pour utiliser de grandes bases de données.Pour pallier ces limites, nous proposons plusieurs méthodes générales, sans apprentissage,rapides, et qui peuvent être facilement adaptées à diverses applications de traitement et d’analyse d’images naturelles ou médicales. Nous introduisons un algorithme de recherche de correspondances permettant d’extraire rapidement des patchs d’une grande bibliothèque d’images 3D, que nous appliquons à la segmentation d’images médicales. Pour utiliser de façon similaire aux patchs,des présegmentations en superpixels réduisant le nombre d’éléments de l’image,nous présentons une nouvelle structure de voisinage de superpixels. Ce nouveau descripteur permet d’utiliser efficacement les superpixels dans des approches non locales. Nous proposons également une méthode de décomposition régulière et précise en superpixels. Nous montrons comment évaluer cette régularité de façon robuste, et que celle-ci est nécessaire pour obtenir de bonnes performances de recherche de correspondances basées sur les superpixels
This thesis focuses on several aspects of image analysis and processing with non local methods. These methods are based on the redundancy of information that occurs in other images, and use matching algorithms, that are usually patch-based, to extract and transfer information from the example data. These approaches are widely used by the computer vision community, and are generally limited by the computational time of the matching algorithm, applied at the pixel scale, and by the necessity to perform preprocessing or learning steps to use large databases. To address these issues, we propose several general methods, without learning, fast, and that can be easily applied to different image analysis and processing applications on natural and medical images. We introduce a matching algorithm that enables to quickly extract patches from a large library of 3D images, that we apply to medical image segmentation. To use a presegmentation into superpixels that reduces the number of image elements, in a way that is similar to patches, we present a new superpixel neighborhood structure. This novel descriptor enables to efficiently use superpixels in non local approaches. We also introduce an accurate and regular superpixel decomposition method. We show how to evaluate this regularity in a robust manner, and that this property is necessary to obtain good superpixel-based matching performances
APA, Harvard, Vancouver, ISO, and other styles
33

Souissi, Omar. "Planification de chemin d'hélicoptères sur une architecture hétérogène CPU FPGA haute performance." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0003.

Full text
Abstract:
Les problématiques de sécurité sont aujourd’hui un facteur différentiateur clé dans le secteur aéronautique. Bien que certains systèmes d’assistance aux hélicoptères existent et qu’une partie de la connaissance associée aux situations d’urgence ait pu être identifiée, reste que les travaux antérieurs se limitent pour la plupart à une autonomie de bas niveau. Ainsi la génération d’un plan de vol sous fortes contraintes de temps représente à ce jour une voie d’exploration nouvelle, et un défi technologique essentiel pour l’hélicoptère de demain. A cet égard, AIRBUS HELICOPTERS accorde un fort intérêt à la conception d’un système décisionnel capable de générer des plans de vols en temps réel. L’enjeu de l’intelligence répartie au travers de systèmes décisionnels distribués constitue un axe de recherche fort, et un des contributeurs clés pour un positionnement leader d’AIRBUS HELICOPTERS sur la thématique sécurité. Aujourd’hui, l’étude des systèmes décisionnels embarqués dans les engins volants constitue un défi majeur pour divers groupes de travail académiques et industriels. En effet, la résolution de ce défi fait appel généralement à différentes compétences afin de maîtriser plusieurs aspects du système recouvrant les domaines d’acquisition, d’analyse et de traitement de données. Et ce dans le but de prendre des décisions en temps-réel en prenant en considération plusieurs paramètres contextuels et environnementaux. Les défis scientifiques à contourner dans la présente thèse s’articulent sur deux axes majeurs. Dans un premier temps, il faut proposer une approche complète pour une planification en temps réel d’un plan de vol d’hélicoptères. Permettant à cette dernière de faire face à d’éventuels événements dynamiques tel que l’apparition de nouveaux obstacles ou un changement de mission. Ensuite, nous nous intéressons à une implantation embarquée de la solution proposée sur une architecture hétérogène haute performance
Security issues are today a key-differentiator in the aviation sector. Indeed, it comes to ensure the safety of expensive equipments but above all to save human lives. In this context, it is necessary to offer an important level of autonomy to helicopters. Although some studies have been carried out in this area, the dynamic generation of a sequence of maneuvers under hard time constraints in an unknown environment still represents a major challenge for many academic and industrial working groups. AIRBUS HELICOPTERS as a leader of helicopters manufacturing, looks forward to integrate an assistance system for mission re-planning in the next generation of aircrafts.The work conducted in this PhD thesis falls within a collaboration between AIRBUS HELICOPTERS and UNIVERSITE DE VALENCIENNES ET DU HAINAUTCAMBRESIS. One of the main purposes of this work is efficient flight plan generation. Indeed, for intelligent assistant systems we need to generate a new path planning inorder to face emergency events such as an equipment failure or adverse weather conditions. The second major objective of this work is the deployment of mission planning tasks onto a high performance architecture CPU/FPGA in order to meet real-time requirements for the dynamic optimization process. In the present work, we first studied efficient flight plan generation. Indeed, we developed efficient and effective algorithms for helicopter path planning. Then, in order to obtain a real-time system, we resolved the problem of scheduling optimization on a heterogeneous architecture CPU / FPGA by proposing several scheduling methods including exact approaches and heuristics
APA, Harvard, Vancouver, ISO, and other styles
34

Topart, Hélène. "Etude d’une nouvelle classe de graphes : les graphes hypotriangulés." Electronic Thesis or Diss., Paris, CNAM, 2011. http://www.theses.fr/2011CNAM0776.

Full text
Abstract:
Dans cette thèse, nous définissons une nouvelle classe de graphes : les graphes hypotriangulés. Les graphes hypotriangulés vérifient que pour tout chemin de longueur deux, il existe une arête ou un autre chemin de longueur deux entre ses extrémités. Cette classe permet par exemple de modéliser des réseaux robustes. En effet, nous montrons que dans de tels graphes, la suppression d'une arête ou d'un sommet ne modifie pas la distance initiale entre toutes paires de sommets non adjacents. Ensuite, nous étudions et démontrons plusieurs propriétés pour cette classe de graphes. En particulier, après avoir introduit une famille de partitions spécifiques, nous montrons les relations entre certains éléments de cette famille et leur caractère hypotriangulé. De plus, grâce à ces partitions, nous caractérisons les graphes hypotriangulés minimum, qui, parmi les graphes hypotriangulés connexes, minimisent le nombre d'arêtes pour un nombre de sommets fixés.Dans une deuxième partie, nous étudions la complexité, pour la classe des graphes hypotriangulés, de problèmes difficiles dans le cas général. Nous montrons d'abord que les problèmes classiques de cycle hamiltonien, coloration, clique maximum et stable maximum restent NP-difficiles pour cette classe de graphes. Ensuite, nous nous intéressons à des problèmes de modification de graphes, pour lesquels il s'agit de déterminer le nombre minimal d'arêtes à ajouter ou supprimer à un graphe pour obtenir un graphe hypotriangulé : nous montrons la complexité de ces problèmes pour plusieurs classes de graphes
In this thesis, we define a new class of graphs : the hypochordal graphs. These graphs satisfy that for any path of length two, there exists a chord or another path of length two between its two endpoints. This class can represent robust networks. Indeed, we show that in such graphs, in the case of an edge or a vertex deletion, the distance beween any pair of nonadjacent vertices remains unchanged. Then, we study several properties for this class of graphs. Especially, after introducing a family of specific partitions, we show the relations between some of these partitions and hypochordality. Moreover, thanks to these partitions, we characterise minimum hypochordal graph, that are, among connected hypochordal graphs, those that minimise the number of edges for a given number of vertices. In a second part, we study the complexity, for hypochordal graphs, of problems that are NP-hard in the general case. We first show that the classical problems of hamiltonian cycle, colouring, maximum clique and maximum stable set remain NP-hard for this class of graphs. Then, we analyse graph modification problems : deciding the minimal number of edges to add or delete from a graph, in order to obtain an hypochordal graph. We study the complexity of these problems for sevaral classes of graphs
APA, Harvard, Vancouver, ISO, and other styles
35

Andurand, Lewis. "Développement d'une méthode de génération de trajectoire versatile pour la réalisation de pièces par procédés DED multi-axes à partir de surfaces facettisées." Electronic Thesis or Diss., Toulon, 2023. http://www.theses.fr/2023TOUL0001.

Full text
Abstract:
La fabrication additive est une catégorie de procédés qui permet l’obtention de pièces mécaniques par apport de matière. Les procédés de type Directed Energy Deposition (DED), combinables avec des robots multi-axes, sont prometteurs pour l’obtention de pièces à la structure complexe. Cependant, les méthodes de génération de trajectoire et les structures des machines utilisées restent un enjeu dont les innovations décupleraient les possibilités industrielles.Cette thèse présente une méthode numérique systématique de génération de trajectoire adaptée aux procédés DED à partir d’une surface facettisée de forme arbitraire. Validée à travers des simulations sur des surfaces minimales tri-périodiques, la méthode permet la création d’un premier trajet de dépôt respectant la contrainte de distance entre la pièce et l’outil. Combinable à de la rétroaction par priorisation de régions, il pourra être modifié ultérieurement selon les contre-indications physiques issues du robot utilisé, du matériau de fabrication et de l’outil
Additive manufacturing is a category of processes that allows the production of mechanical parts by the adding of material. Directed Energy Deposition (DED) processes can be combined with multi-axis robots and are a promising option to obtain parts with complex structures. However, the path generation methods and the machine structures used remain an issue. With innovations in these areas, the industrial possibilities would increase tenfold.This thesis presents a numerical and systematic path generation method based on meshed surfaces and adapted to DED processes. The method was validated through simulations on minimal triply periodic surfaces and allows the creation of a first deposition path that meets the distance constraint between the part and the tool. This first path can be combined with region prioritization feedback to obtain a final path adapted to the physical warnings provided by the robot, the manufacturing material and the tool
APA, Harvard, Vancouver, ISO, and other styles
36

Brunet, Antoine Pierre. "Modélisation multi-échelle de l’effet d’un générateur solaire sur la charge électrostatique d’un satellite." Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0042/document.

Full text
Abstract:
L’estimation de la charge d’un satellite et du risque de décharge nécessite dans certains cas la prise en compte dans les modèles numériques d’échelles spatiales très différentes. En particulier, les interconnecteurs présents à la surface des générateurs solaires d’un satellite sont susceptibles de modifier son équilibre électrostatique lors de missions spatiales rencontrant un environnement plasma dense. Une modélisation classique de cet effet nécessiterait le maillage d’éléments à des échelles submillimétriques,sur un satellite de plusieurs dizaines de mètres d’envergure, ce qui rendrait la simulation extrêmement onéreuse en temps de calcul. De plus, ces interconnecteurs sont parfois fortement chargés positivement par rapport à l’environnement, ce qui empêche l’application du modèle de Maxwell-Boltzmann classiquement utilisé pour les populations d’électrons. Dans une première partie, nous avons développé une méthode itérative de type Patch adaptée à la résolution du problème non-linéaire de Poisson-Boltzmann pour la simulation du plasma spatial. Cette méthode numérique multigrille permet la simulation de l’impact d’éléments de petite taille à la surface d’un satellite complet. Dans une seconde partie, nous avons développé un schéma correctif permettant d’utiliser le modèle de Maxwell-Boltzmann pour la population d’électrons, malgré la présence de surfaces satellites chargées positivement, en y ajoutant un terme de correction calculé à l’aide de la méthode Particle-in-Cell. Nous avons montré que ce schéma permet, tout en limitant le coût en calculs, de déterminer avec précision les courants collectés par les surfaces du satellites, qu’elles soient chargées négativement ou positivement
The numerical simulation of spacecraft charging can require to resolve widely different geometrical scales. In particular, solar array interconnects on the surface of solar panels have a major impact ona satellite electrostatic equilibrium. A classical model of this effect would require a mesh refined tosub-millimetre scales, on a spacecraft spanning several dozen metres, which would make the simulation computationally expensive. Moreover, the solar array interconnects can have a large positive potentialrelative to the space plasma, preventing the use of the classical Maxwell-Boltzmann model for theelectrons in the plasma. In a first part, we have developed an iterative patch method to solve thenonlinear Poisson-Boltzmann equation used in plasma simulations. This multigrid numerical scheme allows to resolve the impact of small-scale components on the surface of a complete spacecraft. In asecond part, we have developed a corrective scheme for the Maxwell-Boltzmann model to account for the presence of charged surfaces in the simulation. We have shown that this simple model is able to precisely compute the currents collected by the spacecraft surfaces
APA, Harvard, Vancouver, ISO, and other styles
37

Berge-Gras, Rébécca. "Analyse expérimentale de la propagation de fissures dans des tôles minces en al-li par méthodes de champs." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00716429.

Full text
Abstract:
Ce travail porte sur des essais de traction réalisés sur des éprouvettes d'aluminium lithium entaillées, avec des observations in-situ du champ de déformations.La réduction de consommation de carburant est actuellement une priorité pour l'aviation. Les alliages d' Al-Li sont d'excellents candidats pour réduire le poids des avions puisqu'ils combinent de très bonnes propriétés mécaniques avec une densité inférieure à celle des alliages conventionnels. Cependant, les propriétés mécaniques de ces matériaux sont fortement anisotropes, et il est essentiel de contrôler ce phénomène afin d'utiliser le matériel à bon escient. À cette fin, il est nécessaire d'avoir le maximum d'informations sur le matériau tant sur ses propriétés microstructurales (taille et forme des grains...) que mécaniques (élasticité, module de Young, résistance à la fissuration ...). Mais la connaissance de ces propriétés mécaniques globales n'est pas suffisante pour maximiser la résistance à la fissuration (critique dans l'application aéronautique). Dans ce contexte, ce travail vise à quantifier l'influence de la microstructure locale (orientation et la taille des grains) sur la fissuration.La propagation des fissures dans des tôles d'épaisseur 2 mm a été analysée. Les essais de traction ont été effectués sur des échantillons entaillés avec observation in-situ du champ de déplacement.Ainsi, la méthode de la grille a été adaptée pour déterminer de grandes déformations dans les grains. Le champ de déplacement a été caractérisée par la déformation d'une grille croisée collée (pas 30 um), et les paramètres affectant la qualité des résultats (résolution et résolution spatiale) ont été optimisés. Afin de compenser le mouvement du corps rigide, un nouveau système automatique d'acquisition d'image conduisant à de petites déformations entre chaque image a été développé. Une nouvelle méthode d'extraction de phase a été instauré, permettant un déroulage temporel de la phase.
APA, Harvard, Vancouver, ISO, and other styles
38

Schaack, Sofiane. "Nuclear quantum effects in hydrated nanocrystals." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS370.pdf.

Full text
Abstract:
La nature quantique des noyaux produit des comportements inattendus et souvent paradoxaux. Du fait de sa légèreté, l'hydrogène est le candidat le plus susceptible de présenter de tels comportements. Nous avons étudié trois systèmes hydratés dont les mécanismes sont déterminés par les propriétés quantiques des protons (NQEs) : la Brucite (Mg(OH)2), l'hydrate de méthane (CH4-H2O) et l'hydroxyde de sodium (NaOH). Au sein des Brucites coexistent deux effets en compétition : un mécanisme de réorientation thermiquement activé, et un processus de dissociation déclenché par les NQEs. Ces deux effets s'opposent sous l’augmentation de la pression, entraînant l'existence d'un point de pression favorisant la diffusion des protons à mesure que se forme un plan d'hydrogène "quantique" quasi 2D. Sous pression, l’hydrate de méthane présentent une augmentation des interactions entre le réseau d’eau et les molécules de méthane qui y sont enfermées. Contrairement à la glace, la transition de symétrisation des liaisons hydrogène ne change pas par substitution isotopique du fait de la délocalisation du proton. Celle-ci déclenche également une transition vers une nouvelle phase, stable jusqu'à des pressions jamais atteintes par tout hydrate connu à ce jour. La soude présente une transition de phase en-dessous de la température ambiante et à pression ambiante uniquement dans sa version deutérée. Cet effet isotopique s'explique par la délocalisation quantique et par l'importance de l'énergie de point-zéro du proton par rapport au deutéron. Étonnement la substitution isotopique change la transition induite par la température dans NaOD en une transition déclenchée par la pression dans NaOH
The quantum nature of nuclei yields unexpected and often paradoxical behaviors. Due to the lightness of its nucleus, the hydrogen is a most likely candidate for such effects. During this thesis, we focus on complexe hydrated systems, namely, the brucite minerals (Mg(OH)2), the methane hydrate (CH4-H2O) and the sodium hydroxide (NaOH), which display complex mechanisms driven by the proton quantum properties. Brucite exhibits the coexistence of thermally activated hopping and quantum tunneling with opposite behaviors as pressure is increased. The unforeseen consequence is a pressure sweet spot for proton diffusion. Simultaneously, pressure gives rise to a «quantum» quasi two-dimensional hydrogen plane, non-trivially connected with proton diffusion. Upon compression, methane hydrate displays an important increase of the inter-molecular interactions between water and enclosed methane molecules. In contrast with ice, the hydrogen bond transition does not shift by H/D isotopic substitution. This is explained by an important delocalization of the proton which also triggers a transition toward a new MH-IV methane hydrate phase, stable up to 150 GPa which represents the highest pressure reached to date by any hydrate. Sodium hydroxide has a phase transition below room temperature at ambient pressure only in its deuterated version. This radical isotope effect can be explained by the quantum delocalization of the proton as compared with deuteron shifting the temperature-induced phase transition of NaOD towards a pressure-induced one in NaOH
APA, Harvard, Vancouver, ISO, and other styles
39

Ahmat, idriss Hassane gogo. "Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de l'anisotropie des indices." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSES021.

Full text
Abstract:
Pour caractériser des échantillons anisotropes non transparents afin de déterminer les indices de réfraction, nous utilisons un banc ellipsométrique hyperfréquence en espace libre fonctionnant en transmission et en incidence oblique. Le système de mesure est équipé d’un ellipsomètre à trois détecteurs et d'un analyseur de réseau vectoriel (VNA source de l’énergie). Son principe est basé sur la détermination du tenseur diagonal complexe. Cela nécessite la mesure des coefficients de transmission de l'échantillon. Un étalonnage du VNA est nécessaire pour obtenir les valeurs correctes de ces coefficients. La procédure d'étalonnage utilisée pour corriger les termes d’erreurs lié à la mesure est la méthode de calibrage One Path Two Ports. Nous travaillons sur une gamme de fréquence de 26 à 30 GHz
To characterize non-transparent anisotropic samples in order to determine their refractive indices. The technic used is based on free-space oblique transmission ellipsometry in microwave frequency range (26 to 30 GHz) with a vector network analyzer (VNA). Its principle is based on the determination of complex diagonal tensor. Measurement of the sample transmission coefficients is required. Calibration of the network vector analyzer is needed to correct these coefficient values. The calibration method used to correct measurement errors is the method called One Path Two Ports
APA, Harvard, Vancouver, ISO, and other styles
40

Simeoni, Massimiliano. "Conception, réalisation et test de nouvelles topologies de résonateurs et filtres microondes." Limoges, 2002. http://www.theses.fr/2002LIMO0006.

Full text
Abstract:
Les filtres microondes passifs représentent une partie très importante des systèmes de télécommunications modernes: systèmes embarqués sur satellite, système de téléphonie mobile, etc. . . Actuellement, pour répondre aux nouveaux besoins d'intégration et de réduction des pertes d'énergie tout en assurant des performances de filtrage optimales, les concepteurs cherchent à améliorer les dispositifs existants ou à développer de nouvelles structures. Les travaux de recherche présentés dans ce mémoire de thèse s'inscrivent dans ce contexte. Nous proposons ainsi,l'introduction et l'étude de nouvelles topologies de résonateurs hyperfréquences et filtres microondes passifs présentant de faibles encombrements et des pertes d'énergie réduites comparés aux systèmes traditionnels. Un résonateur en cavité métallique à inserts diélectriques est utilisé pour limiter les pertes ohmiques et ainsi réduire les pertes d'insertion de filtres opérants dans la bande [10,95-12. 75] GHz. La section rectangulaire du résonateur nous permet d'éliminer les vis de couplage (utilisant les modes orthogonaux TE101 etTE011) et éliminer des pics de transmission parasites autour de la bande du filtre. Une nouvelle famille de résonateurs nommés wired-patch a également été introduite. Ces résonateurs présentent différentes configurations (géométrie rectangulaire, circulaire) et technologies (microruban; LTCC multi-niveaux). Ils permettent de réduire considérablement l'encombrement des filtres opérant dans la bande [1. 9-2. 4] GHz, tout en présentant des niveaux de pertes d'insertion équivalents à des filtres comparables réalisés en technologie planaire classique. Les étude théoriques menées au cours de ces travaux sont réalisées à l'aide d'un logiciel d'Eléments Finis développés au sein du laboratoire et/ou par des modèles théoriques adaptés aux résonateurs proposés. Afin de concevoir des filtres hyperfréquences, nous avons appliqué des méthodes de synthèse classiques et développé des outils spécifiques. Enfin, différentes maquettes expérimentales ont été réalisées et testées avec succès, confirmant ainsi l'intérêt des différentes topologies de résonateurs et filtres proposées
Passive microwave filters represent a vey important feature in many modern telecommunications systems. Size and loss reductions are the main goals to achieve and researchers around the world are looking for new structures to match these needs. The research work done and summarized in this thesis is to be insert in this context. Here we propose some new passive resonating and filtering structures showing reduced size and energy loss compared to the classic ones
APA, Harvard, Vancouver, ISO, and other styles
41

Hett, Kilian. "Multi-scale and multimodal imaging biomarkers for the early detection of Alzheimer’s disease." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0011/document.

Full text
Abstract:
La maladie d’Alzheimer est la première cause de démence chez les personnes âgées. Cette maladie est caractérisée par un déclin irréversible des fonctions cognitives. Les patients atteints par la maladie d’Alzheimer ont de sévères pertes de mémoire et ont de grandes difficultés à apprendre de nouvelles informations ce qui pose de gros problèmes dans leur vie quotidienne. À ce jour, cette maladie est diagnostiquée après que d’importantes altérations des structures du cerveaux apparaissent. De plus, aucune thérapie existe permettant de faire reculer ou de stopper la maladie. Le développement de nouvelles méthodes permettant la détection précoce de cette maladie est ainsi nécessaire. En effet, une détection précoce permettrait une meilleure prise en charge des patients atteints de cette maladie ainsi qu’une accélération de la recherche thérapeutique. Nos travaux de recherche portent sur l’utilisation de l’imagerie médicale, avec notamment l’imagerie par résonance magnétique (IRM) qui a démontrée ces dernières années son potentiel pour améliorer la détection et la prédiction de la maladie d’Alzheimer. Afin d’exploiter pleinement ce type d’imagerie, de nombreuses méthodes ont été proposées récemment. Au cours de nos recherches, nous nous sommes intéressés à un type de méthode en particulier qui est basé sur la correspondance de patchs dans de grandes bibliothèques d’images. Nous avons étudié ces méthodes à diverses échelles anatomiques c’est à dire, cerveaux entier, hippocampe, sous-champs de l’hippocampe) avec diverses modalités d’IRM (par exemple, IRM anatomique et imagerie de diffusion). Nous avons amélioré les performances de détection dans les stades les plus précoces avec l’imagerie par diffusion. Nous avons aussi proposé un nouveau schéma de fusion pour combiner IRM anatomique et imagerie de diffusion. De plus, nous avons montré que la correspondance de patchs était améliorée par l’utilisation de filtres dérivatifs. Enfin, nous avons proposé une méthode par graphe permettant de combiner les informations de similarité inter-sujet avec les informations apportées par la variabilité intra-sujet. Les résultats des expériences menées dans cette thèse ont montrées une amélioration des performances de diagnostique et de prognostique de la maladie d’Alzheimer comparé aux méthodes de l’état de l’art
Alzheimer’s disease (AD) is the most common dementia leading to a neurodegenerative process and causing mental dysfunctions. According to the world health organization, the number of patients having AD will double in 20 years. Neuroimaging studies performed on AD patients revealed that structural brain alterations are advanced when the diagnosis is established. Indeed, the clinical symptoms of AD are preceded by brain changes. This stresses the need to develop new biomarkers to detect the first stages of the disease. The development of such biomarkers can make easier the design of clinical trials and therefore accelerate the development of new therapies. Over the past decades, the improvement of magnetic resonance imaging (MRI) has led to the development of new imaging biomarkers. Such biomarkers demonstrated their relevance for computer-aided diagnosis but have shown limited performances for AD prognosis. Recently, advanced biomarkers were proposed toimprove computer-aided prognosis. Among them, patch-based grading methods demonstrated competitive results to detect subtle modifications at the earliest stages of AD. Such methods have shown their ability to predict AD several years before the conversion to dementia. For these reasons, we have had a particular interest in patch-based grading methods. First, we studied patch-based grading methods for different anatomical scales (i.e., whole brain, hippocampus, and hippocampal subfields). We adapted patch-based grading method to different MRI modalities (i.e., anatomical MRI and diffusion-weighted MRI) and developed an adaptive fusion scheme. Then, we showed that patch comparisons are improved with the use of multi-directional derivative features. Finally, we proposed a new method based on a graph modeling that enables to combine information from inter-subjects’ similarities and intra-subjects’ variability. The conducted experiments demonstrate that our proposed method enable an improvement of AD detection and prediction
APA, Harvard, Vancouver, ISO, and other styles
42

Riot, Paul. "Blancheur du résidu pour le débruitage d'image." Thesis, Paris, ENST, 2018. http://www.theses.fr/2018ENST0006/document.

Full text
Abstract:
Nous proposons une étude de l’utilisation avancée de l’hypothèse de blancheur du bruit pour améliorer les performances de débruitage. Nous mettons en avant l’intérêt d’évaluer la blancheur du résidu par des mesures de corrélation dans différents cadres applicatifs. Dans un premier temps, nous nous plaçons dans un cadre variationnel et nous montrons qu’un terme de contrainte sur la blancheur du résidu peut remplacer l’attache aux données L2 en améliorant significativement les performances de débruitage. Nous le complétons ensuite par des termes de contrôle de la distribution du résidu au moyen des moments bruts. Dans une seconde partie, nous proposons une alternative au rapport de vraisemblance menant, à la norme L2 dans le cas Gaussien blanc, pour mesurer la dissimilarité entre patchs. La métrique introduite, fondée sur l’autocorrélation de la différence des patchs, se révèle plus performante pour le débruitage et la reconnaissance de patchs similaires. Finalement, les problématiques d’évaluation de qualité sans oracle et de choix local de modèle sont abordées. Encore une fois, la mesure de la blancheur du résidu apporte une information pertinente pour estimer localement la fidélité du débruitage
We propose an advanced use of the whiteness hypothesis on the noise to imrove denoising performances. We show the interest of evaluating the residual whiteness by correlation measures in multiple applications. First, in a variational denoising framework, we show that a cost function locally constraining the residual whiteness can replace the L2 norm commonly used in the white Gaussian case, while significantly improving the denoising performances. This term is then completed by cost function constraining the residual raw moments which are a mean to control the residual distribution. In the second part of our work, we propose an alternative to the likelihood ratio, leading to the L2 norm in the white Gaussian case, to evaluate the dissimilarity between noisy patches. The introduced metric, based on the autocorrelation of the patches difference, achieves better performances both for denoising and similar patches recognition. Finally, we tackle the no reference quality evaluation and the local model choice problems. Once again, the residual whiteness bring a meaningful information to locally estimate the truthfulness of the denoising
APA, Harvard, Vancouver, ISO, and other styles
43

Stanic, Andjelka. "Solution methods for failure analysis of massive structural elements." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2383/document.

Full text
Abstract:
Objectifs de la thèse : l’analyse à rupture de structure de type solides et membranes et la modélisation de la rupture quasi-fragile par la méthode des éléments finis à forte discontinuité en cas de solide 2D. Dans ce travail, la méthode de continuation avec une équation de contrainte quadratique est présentée sous sa forme linéarisée. En présence de ruptures locales, la méthode de continuation standard peut échouer. Afin d’améliorer la performance de cette méthode, nous proposons de nouvelles versions plus sophistiquées qui prennent en compte les ruptures locales des matériaux. D’une part, une version est basée sur une équation supplémentaire adaptative imposant une limitation. Cette version est considérée relativement satisfaisante pour les matériaux adoucissants. D’autres versions sont basées sur le contrôle de la dissipation incrémentale pour les matériaux inélastiques. Plusieurs formulations d’éléments finis à forte discontinuité sont présentées en détails pour l’analyse de rupture quasi-fragile. Les approximations discrètes du champ de déplacement sont basées sur des éléments quadrilatéraux isoparamétriques ou des éléments quadrilatéraux enrichis par la méthode des modes incompatibles. Afin de décrire la formation d’une fissure ainsi que son ouverture, la cinématique de l’élément est enrichie par quatre modes de séparation et des paramètres cinématiques. On a également proposé un nouvel algorithme de repérage de fissure pour l’évaluation de la propagation de la fissure à travers le maillage. Plusieurs exemples numériques sont réalisés afin de montrer la performance de l’élément quadrilatéral à forte discontinuité ainsi que l’algorithme de repérage de fissure proposé
The thesis studies: the methods for failure analysis of solids and structures, and the embedded strong discontinuity finite elements for modelling material failures in quasi brittle 2d solids. As for the failure analysis, the consistently linearized path-following method with quadratic constraint equation is first presented and studied in detail. The derived path-following method can be applied in the nonlinear finite element analysis of solids and structures in order to compute a highly nonlinear solution path. However, when analysing the nonlinear problems with the localized material failures (i.e. materialsoftening), standard path-following methods can fail. For this reason we derived new versions of the pathfollowing method, with other constraint functions, more suited for problems that take into account localized material failures. One version is based on adaptive one-degree-of-freedom constraint equation, which proved to be relatively successful in analysing problems with the material softening that are modelled by the embedded-discontinuity finite elements. The other versions are based on controlling incremental plastic dissipation or plastic work in an inelastic structure. The dissipation due to crack opening and propagation, computed by e.g. embedded discontinuity finite elements, is taken into account. The advantages and disadvantages of the presented path-following methods with different constraint equations are discussed and illustrated on a set of numerical examples. As for the modelling material failures in quasi brittle 2d solids (e.g. concrete), several embedded strong discontinuity finite element formulations are derived and studied. The considered formulations are based either on: (a) classical displacement-based isoparametric quadrilateral finite element or (b) on quadrilateral finite element enhanced with incompatible displacements. In order to describe a crack formation and opening, the element kinematics is enhanced by four basic separation modes and related kinematic parameters. The interpolation functions that describe enhanced kinematics have a jump in displacements along the crack. Two possibilities were studied for deriving the operators in the local equilibrium equations that are responsible for relating the bulk stresses with the tractions in the crack. For the crack embedment, the major-principle-stress criterion was used, which is suitable for the quasi brittle materials. The normal and tangential cohesion tractions in the crack are described by two uncoupled, nonassociative damage-softening constitutive relations. A new crack tracing algorithm is proposed for computation of crack propagation through the mesh. It allows for crack formation in several elements in a single solution increment. Results of a set of numerical examples are provided in order to assess the performance of derived embedded strong discontinuity quadrilateral finite element formulations, the crack tracing algorithm, and the solution methods
Doktorska disertacija obravnava: (i) metode za porušno analizo trdnih teles in konstrukcij, ter (ii) končne elemente z vgrajeno močno nezveznostjo za modeliranje materialne porušitve v kvazi krhkih 2d trdnih telesih. Za porušno analizo smo najprej preučili konsistentno linearizirano metodo sledenja ravnotežne poti skvadratno vezno enačbo (metoda krožnega loka). Metoda omogoča izračun analize nelinearnih modelov, ki imajo izrazito nelinearno ravnotežno pot. Kljub temu standardne metode sledenja poti lahko odpovedo,kadar analiziramo nelinearne probleme z lokalizirano materialno porušitvijo (mehčanje materiala). Zatosmo izpeljali nove različice metode sledenja poti z drugimi veznimi enačbami, ki so bolj primerne zaprobleme z lokalizirano porušitvijo materiala. Ena različica temelji na adaptivni vezni enačbi, pri katerivodimo izbrano prostostno stopnjo. Izkazalo se je, da je metoda relativno uspešna pri analizi problemov zmaterialnim mehčanjem, ki so modelirani s končnimi elementi z vgrajeno nezveznostjo. Druge različicetemeljijo na kontroli plastične disipacije ali plastičnega dela v neelastičnem trdnem telesu ali konstrukciji.Upoštevana je tudi disipacija zaradi širjenja razpok v elementih z vgrajeno nezveznostjo. Prednosti inslabosti predstavljenih metod sledenja ravnotežnih poti z različnimi veznimi enačbami so predstavljeni naštevilnih numeričnih primerih. Za modeliranje porušitve materiala v kvazi krhkih 2d trdnih telesih (npr. betonskih) smo izpeljali različne formulacije končnih elementov z vgrajeno močno nezveznostjo v pomikih. Obravnavane formulacije temeljijo bodisi (a) na klasičnem izoparametričnem štirikotnem končnem elementu bodisi (b) na štirikotnem končnem elementu, ki je izboljšan z nekompatibilnimi oblikami za pomike. Nastanek in širjenje razpoke opišemo tako, da kinematiko v elementu dopolnimo s štirimi osnovnimi oblikami širjenja razpoke in pripadajočimi kinematičnimi parametri. Interpolacijske funkcije, ki opisujejo izboljšano kinematiko, zajemajo skoke v pomikih vzdolž razpoke. Obravnavali smo dva načina izpeljave operatorjev, ki nastopajo v lokalni ravnotežni enačbi in povezujejo napetosti v končnem elementu z napetostmi na vgrajeni nezveznosti. Kriterij za vstavitev nezveznosti (razpoke) temelji na kriteriju največje glavne napetosti in je primeren za krhke materiale. Normalne in tangentne kohezijske napetosti v razpoki opišemo z dvema nepovezanima, poškodbenima konstitutivnima zakonoma za mehčanje. Predlagamo novi algoritem za sledenje razpoki za izračun širjenja razpoke v mreži končnih elementov. Algoritem omogoča formacijo razpok v več končnih elementih v enem obtežnem koraku. Izračunali smo številne numerične primere, da bi ocenili delovanje izpeljanih formulacij štirikotnih končnih elementov z vgrajeno nezveznostjo in algoritma za sledenje razpoki kot tudi delovanje metod sledenja ravnotežnih poti
APA, Harvard, Vancouver, ISO, and other styles
44

Riot, Paul. "Blancheur du résidu pour le débruitage d'image." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0006.

Full text
Abstract:
Nous proposons une étude de l’utilisation avancée de l’hypothèse de blancheur du bruit pour améliorer les performances de débruitage. Nous mettons en avant l’intérêt d’évaluer la blancheur du résidu par des mesures de corrélation dans différents cadres applicatifs. Dans un premier temps, nous nous plaçons dans un cadre variationnel et nous montrons qu’un terme de contrainte sur la blancheur du résidu peut remplacer l’attache aux données L2 en améliorant significativement les performances de débruitage. Nous le complétons ensuite par des termes de contrôle de la distribution du résidu au moyen des moments bruts. Dans une seconde partie, nous proposons une alternative au rapport de vraisemblance menant, à la norme L2 dans le cas Gaussien blanc, pour mesurer la dissimilarité entre patchs. La métrique introduite, fondée sur l’autocorrélation de la différence des patchs, se révèle plus performante pour le débruitage et la reconnaissance de patchs similaires. Finalement, les problématiques d’évaluation de qualité sans oracle et de choix local de modèle sont abordées. Encore une fois, la mesure de la blancheur du résidu apporte une information pertinente pour estimer localement la fidélité du débruitage
We propose an advanced use of the whiteness hypothesis on the noise to imrove denoising performances. We show the interest of evaluating the residual whiteness by correlation measures in multiple applications. First, in a variational denoising framework, we show that a cost function locally constraining the residual whiteness can replace the L2 norm commonly used in the white Gaussian case, while significantly improving the denoising performances. This term is then completed by cost function constraining the residual raw moments which are a mean to control the residual distribution. In the second part of our work, we propose an alternative to the likelihood ratio, leading to the L2 norm in the white Gaussian case, to evaluate the dissimilarity between noisy patches. The introduced metric, based on the autocorrelation of the patches difference, achieves better performances both for denoising and similar patches recognition. Finally, we tackle the no reference quality evaluation and the local model choice problems. Once again, the residual whiteness bring a meaningful information to locally estimate the truthfulness of the denoising
APA, Harvard, Vancouver, ISO, and other styles
45

Mora, Gómez Luis Fernando. "Bifurcations dans des systèmes avec bruit : applications aux sciences sociales et à la physique." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4228.

Full text
Abstract:
La théorie des bifurcations est utilisée pour étudier certains aspects des systèmes dynamiques qui intervient lorsqu'un petit changement d'un paramètre physique produit un changement majeur dans l'organisation du système. Ces phénomènes ont lieu dans les systèmes physiques, chimiques, biologiques, écologiques, économiques et sociaux. Cette idée unificatrice a été appliquée pour modéliser et explorer à la fois tant les systèmes sociaux que les systèmes physiques. Dans la première partie de cette thèse, nous appliquons les outils de la physique statistique et de la théorie des bifurcations pour modéliser le problème des décisions binaires dans les sciences sociales. Nous avons mis au point un schéma permettant de prédire l’apparition de sauts extrêmes dans ces systèmes en se basant sur la notion de précurseurs, utilisés comme signal d'alerte d'apparition de ces événements catastrophiques. Nous avons également résolu un modèle mathématique d’effondrement social fondé sur une équation de "régression logistique" utilisée pour décrire la croissance d’une population et la façon dont celle-ci peut être influencée par des ressources limitées. Ce modèle présente des bifurcations sous-critiques et nous avons étudié sa relation avec le phénomène social du « sunk-cost effect » (effet de coût irrécupérable). Ce dernier phénomène explique l’influence des investissements passés sur les décisions présentes, et la combinaison de ces deux phénomènes est utilisé comme modèle pour expliquer la désintégration de certaines sociétés anciennes (basés sur des témoignages archéologiques). Dans la deuxième partie de cette thèse, nous étudions les systèmes macroscopiques décrits par des équations différentielles stochastiques multidimensionnelles ou, de manière équivalente, par les équations multidimensionnelles de Fokker-Planck. Afin de calculer la fonction de distribution de probabilité (PDF), nous avons introduit un nouveau schéma alternatif de calcul basé sur les intégrales de chemin (« Path Integral ») lié aux processus stochastiques. Les calculs basés sur les intégrales de chemin sont effectués sur des systèmes uni et bidimensionnels et successivement comparés avec certains modèles dont on connaît la solution pour confirmer la validité de notre méthode. Nous avons également étendu ce schéma pour estimer le temps d’activation moyen (« Mean Exit Time »), ce qui a donné lieu à une nouvelle expression de calcul pour les systèmes à dimension arbitraire. A` noter que pour le cas des systèmes dynamiques à deux dimensions, les calculs de la fonction de distribution de probabilité ainsi que du temps de sortie moyen ont validé le schéma des intégrales du chemin. Ça vaut la peine de souligner que la perspective de poursuivre cette ligne de recherche repose sur le fait que cette méthode est valable pour les « non gradient systems » assujettis à des bruits d'intensité arbitraires. Cela ouvre la possibilité d'analyser des situations plus complexes où, à l'heure actuelle, il n'existe aucune méthode permettant de calculer les PDFs et/ou les METs
Bifurcations in continuous dynamical systems, i.e., those described by ordinary differential equations, are found in a multitude of models such as those used to study phenomena related to physical, chemical, biological, ecological, economic and social systems. Using this concept as a unifying idea, in this thesis, we apply it to model and explore both Social as well as Physical systems. In the first part of this thesis we apply tools of statistical physics and bifurcation theory to model a problem of binary decision in Social Sciences. We find an scheme to predict the appearance of extreme jumps in these systems based on the notion of precursors which act as a kind of warning signal for the upcoming appearance of these catastrophic events. We also solve a mathematical model of social collapse based on a logistic re-growing equation used to model population grow and how limited resources change grow patterns. This model exhibits subcritical bifurcations and its relation to the social phenomenon of sunk-cost effect is studied. This last phenomenon explains how past investments affect current decisions and the combination of both phenomena is used as a model to explain the disintegration of some ancient societies, based on evidence from archeological records. In the second part of this thesis, we study macroscopic systems described by multidimensional stochastic differential equations or equivalently by their deterministic counterpart, the multidimensional FokkerPlanck equation. A new and alternative scheme of computation based on Path Integrals, related to stochastic processes is introduced in order to calculate the Probability Distribution Function. The computations based on this Path Integral scheme are performed on systems in one and two dimensions and contrasted to some soluble models completely validating this method. We also extended this scheme to the case of computation of Mean Exit Time, finding a new expression for each computation in systems in arbitrary dimensions. It is worth noting that in case of two-dimensional dynamical systems, the computations of both the probability distribution function as well as of the mean exit time validated the Path Integral scheme and the perspective for continuing this line of work are based on the fact that this method is valid for both arbitrary non gradient systems and noise intensities. This opens the possibility to explore new cases, for which no methods are known to obtain them
APA, Harvard, Vancouver, ISO, and other styles
46

Sun, Zhenzhou. "Amélioration de la localisation de défauts dans les circuits digitaux par diagnostic au niveau transistor." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20018/document.

Full text
Abstract:
La croissance rapide dans le domaine des semi-conducteurs fait que les circuits digitaux deviennent de plus en plus complexes. La capacité à identifier la cause réelle d'une défaillance dans un circuit digital est donc critique. Le diagnostic logique est une procédure qui permet de localiser une erreur observée dans un circuit fautif, l'analyse de défaillance peut être ensuite appliquée pour déterminer la cause réelle de cette erreur. Un diagnostic efficace et précis est donc fondamental pour améliorer les résultats de l'analyse de défaillance et augmenter éventuellement le rendement de production."Effet à Cause" et "Cause à Effet" sont deux approches classiques pour le diagnostic logique. Ce diagnostic fournit une liste de suspects au niveau porte logique. Cependant, cette approche n'est pas précise dans le cas où le défaut est localisé à l'intérieur de la cellule logique.Dans cette thèse, nous proposons une nouvelle méthode de diagnostic intra-cell basé sur l'approche "Effet à Cause" pour améliorer la précision de la localisation de défaut au niveau transistor. L'approche proposée utilise l'algorithme CPT (Traçage de chemins critiques) appliqué au niveau transistor. Pour chaque cellule suspecte, nous appliquons un CPT avec les vecteurs de test fautifs. Le résultat obtenu est une liste de suspects préliminaires. Chaque suspect peut être un noeud (G, S, D) de transistor. Par la suite, nous appliquons un CPT avec les vecteurs de test non-fautifs pour minimiser la liste de suspects. La méthode proposée donne la localisation précise du défaut pour une erreur observée. Par ailleurs, la méthode est indépendante du modèle de faute invoqué
The rapid growth in semiconductor field results in an increasing complexity of digital circuits. The ability to identify the root cause of a failing digital circuit is becoming critical for defect localization. Logic diagnosis is the process of isolating the source of observed errors in a defective circuit, so that a physical failure analysis can be performed to determine the root cause of such errors. Effective and precise logic diagnosis is crucial to speed up the failure analysis and eventually to improve the yield.“Effect-Cause” and “Cause-Effect” are the two classical approaches for logic diagnosis. Logic diagnosis provides a list of gates as suspects. However, this approach may not leads to accurate results in the case of the defect is inside a gate.We propose a new intra-cell diagnosis method based on “Effect-Cause” approach to improve the defect localization accuracy at transistor level. The proposed approach exploits the CPT (Critical Path Tracing) applied at transistor level. For each suspected cell, we apply the CPT for every given failing test vector. The result is a preliminary list of candidates. Each candidate can be a net or a transistor drain, gate or source. After that, we apply the CPT for each passing test vector in order to narrow down the the list of candidates. The proposed method gives precise localization of the root cause of the observed errors. Moreover, it does not require the explicit use of a fault model
APA, Harvard, Vancouver, ISO, and other styles
47

Abdul, Karim Ahmad. "Procedural locomotion of multi-legged characters in complex dynamic environments : real-time applications." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10181/document.

Full text
Abstract:
Les créatures à n-pattes, comme les quadrupèdes, les arachnides ou les reptiles, sont une partie essentielle de n’importe quelle simulation et ils participent à rendre les mondes virtuels plus crédibles et réalistes. Ces créatures à n-pattes doivent être capables de se déplacer librement vers les points d’intérêt de façon réaliste, afin d’offrir une meilleure expérience immersive aux utilisateurs. Ces animations de locomotion sont complexes en raison d’une grande variété de morphologies et de modes de déplacement. Il convient d’ajouter à cette problématique la complexité des environnements où ils naviguent. Un autre défi lors de la modélisation de tels mouvements vient de la difficulté à obtenir des données sources. Dans cette thèse nous présentons un système capable de générer de manière procédurale des animations de locomotion pour des dizaines de créatures à n-pattes, en temps réel, sans aucune donnée de mouvement préexistante. Notre système est générique et contrôlable. Il est capable d’animer des morphologies différentes, tout en adaptant les animations générées à un environnement dynamique complexe, en temps réel, ce qui donne une grande liberté de déplacement aux créatures à n-pattes simulées. De plus, notre système permet à l’utilisateur de contrôler totalement l’animation produite et donc le style de locomotion
Multi-legged characters like quadrupeds, arachnids, reptiles, etc. are an essential part of any simulation and they greatly participate in making virtual worlds more life-like. These multi-legged characters should be capable of moving freely and in a believable way in order to convey a better immersive experience for the users. But these locomotion animations are quite rich due to the complexity of the navigated environments and the variety of the animated morphologies, gaits, body sizes and proportions, etc. Another challenge when modeling such animations arises from the lack of motion data inherent to either the difficulty to obtain them or the impossibility to capture them.This thesis addresses these challenges by presenting a system capable of procedurally generating locomotion animations fordozens of multi-legged characters in real-time and without anymotion data. Our system is quite generic thanks to the chosen Procedural-Based techniques and it is capable of animating different multi-legged morphologies. On top of that, the simulated characters have more freedom while moving, as we adapt the generated animations to the dynamic complex environments in real-time. Themain focus is plausible movements that are, at the same time,believable and fully controllable. This controllability is one of the forces of our system as it gives the user the possibility to control all aspects of the generated animation thus producing the needed style of locomotion
APA, Harvard, Vancouver, ISO, and other styles
48

Moussaud, Simon. "Etude de l'implication des cellules microgliales et de l'α-synucleine dans la maladie neurodégénérative de Parkinson." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00668186.

Full text
Abstract:
Les maladies neurodégénératives liées à l'âge, telle celle de Parkinson, sont un problème majeur de santé publique. Cependant, la maladie de Parkinson reste incurable et les traitements sont très limités. En effet, les causes de la maladie restent encore mal comprises et la recherche se concentre sur ses mécanismes moléculaires. Dans cette étude, nous nous sommes intéressés à deux phénomènes anormaux se produisant dans la maladie de Parkinson : l'agrégation de l'α-synucléine et l'activation des cellules microgliales. Pour étudier la polymérisation de l'α-synucléine, nous avons établi de nouvelles méthodes permettant la production in vitro de différents types d'oligomères d'α-synucléine. Grâce à des méthodes biophysiques de pointe, nous avons caractérisé ces différents oligomères à l'échelle moléculaire. Puis nous avons étudié leurs effets toxiques sur les neurones. Ensuite, nous nous sommes intéressés à l'activation des microglies et en particulier à leurs canaux potassiques et aux changements liés au vieillissement. Nous avons identifié les canaux Kv1.3 et Kir2.1 et montré qu'ils étaient impliqués dans l'activation des microglies. En parallèle, nous avons établi une méthode originale qui permet l'isolation et la culture de microglies primaires issues de cerveaux adultes. En comparaison à celles de nouveaux-nés, les microglies adultes montrent des différences subtiles mais cruciales qui soutiennent l'hypothèse de changements liés au vieillissement. Globalement, nos résultats suggèrent qu'il est possible de développer de nouvelles approches thérapeutiques contre la maladie de Parkinson en modulant l'action des microglies ou en bloquant l'oligomérisation de l' α-synucléine.
APA, Harvard, Vancouver, ISO, and other styles
49

Roudaut, Yann. "Sensibilité des cellules de Merkel humaines au froid : vers un rôle des complexes de Merkel dans la sensibilité thermique cutanée ?" Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5016.

Full text
Abstract:
Le rôle des cellules de Merkel dans la sensibilité cutanée reste imprécis. Elles assurent la décharge continue du récepteur de Merkel lors d'une pression sur la peau, mais on ne connait ni les autres stimuli capables de les activer, ni les médiateurs régulant leur activité. Cette ignorance est en partie liée à la difficulté d'isoler ces cellules qui ne représentent que 3 à 5% des cellules de la peau.Dans ce travail nous avons développé une technique de culture des cellules de Merkel à partir de peau humaine, en utilisant un tri cellulaire basé sur l'expression du récepteur CD56. Nous avons alors montré que les cellules de Merkel sont thermosensibles. Leur sensibilité aux températures fraiches est associée au fonctionnement du canal TRPM8. Cette sensibilité thermique ne module pas le fonctionnement du récepteur à une stimulation tactile. En revanche, les contacts entre les fibres cutanées C et Aδ, qui sont connues pour véhiculer les sensations thermiques, et les cellules de Merkel suggèrent que ces récepteurs pourraient intervenir aussi dans la thermosensation. Nous proposons donc pour la première fois que les récepteurs de Merkel soient aussi des récepteurs thermosensibles assurant une détection concordante de la pression et de la température cutanée
The role of Merkel cells in cutaneous sensitivity remains imprecise. They provide continuous discharge of the receptor to a pressure. Nevertheless, other stimuli able to activate this complex, mediators regulating their activity are unknown. This ignorance is partly related to the difficulty to isolate these cells that represent only 3 to 5 % of skin cells.In this work, we have developed a Merkel cells cultured technique from human skin, using cell sorting based on the expression of the CD56 receptor. In this work, we show that Merkel cells are temperature sensitive. Their cool sensitivity is associated to TRPM8 channel. This thermal sensitivity does not modulate the discharge of the receptors during tactile stimulation. However, contacts between cutaneous Aδ and C fibres, which are known to carry the thermal sensations, and Merkel cells suggest that these receptors may also be involved in thermosensation. We propose for the first time that Merkel receptors are also temperature sensitive receptors providing a concurring detection of cutaneous pressure and temperature
APA, Harvard, Vancouver, ISO, and other styles
50

Chelda, Samir. "Simulation du parcours des électrons élastiques dans les matériaux et structures. Application à la spectroscopie du pic élastique multi-modes MM-EPES." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00629659.

Full text
Abstract:
La spectroscopie EPES (Elastic Peak Electron Spectroscopy) permet de mesurer le pourcentage he d'électrons rétrodiffusés élastiquement par la surface d'un échantillon soumis à un bombardement électronique. C'est une méthode non destructive et extrêmement sensible à la surface. L'objectif de ce travail est de modéliser le cheminement des électrons élastiques dans la matière grâce à une simulation informatique basée sur la méthode Monte Carlo. Cette simulation contribue de manière essentielle à la connaissance et à l'interprétation des résultats expérimentaux obtenus par spectroscopie EPES. Nous avons, de plus, adapté cette simulation à différentes surfaces transformées à l'échelle micrométrique et nanométrique. A l'aide d'une méthode originale, basée sur une description couche par couche du matériau, j'ai réalisé un programme informatique (MC1) rendant compte du cheminement des électrons élastiques dans les différentes couches du matériau. Le nombre d'électrons ressortant de la surface dépend de nombreux paramètres comme : la nature du matériau à étudier, l'énergie des électrons incidents, l'angle d'incidence, les angles de collection des analyseurs. De plus, je me suis intéressé à l'effet de la rugosité de la surface et j'ai démontré qu'elle joue un rôle déterminant sur l'intensité du pic élastique. Ensuite, grâce à l'association de la spectroscopie EPES et de la simulation Monte Carlo, j'ai déduit les modes de croissance de l'or sur substrat d'argent et de cuivre. Les effets de l'arrangement atomique et des pertes énergétiques de surfaces ont ensuite été étudiés. Pour cela, une deuxième simulation MC2 tenant compte de ces deux paramètres a été réalisée permettant d'étudier les surfaces à l'échelle nanométriques. Ces paramètres jusqu'alors non pris en compte dans notre simulation MC1, joue un rôle essentiel sur l'intensité élastique. Ensuite, j'ai obtenu une formulation simple et exploitable pour l'interprétation des résultats obtenus par la simulation MC2 pour un analyseur RFA. Afin de valider, les différents résultats de la simulationMC2, j'ai réalisé des surfaces de silicium nanostructurées, à l'aide de masques d'oxyde d'alumine réalisés par voie électrochimique. J'ai pu créer des nano-pores par bombardement ionique sous ultravide sur des surfaces de silicium. Afin de contrôler la morphologie de la surface, j'ai effectué de l'imagerie MEB ex-situ. La simulation Monte Carlo développée associée aux résultats EPES expérimentaux permet d'estimer la profondeur, le diamètre et la morphologie des pores sans avoir recours à d'autres techniques ex-situ.Cette simulation MC2 permet de connaître la surface étudiée à l'échelle nanométrique.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography