Dissertationen zum Thema „Méthode à entropie maximale“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Méthode à entropie maximale.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Méthode à entropie maximale" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Touboul, Jacques. „Extension de la méthode de poursuite de projection et applications“. Paris 6, 2011. http://www.theses.fr/2011PA066186.

Der volle Inhalt der Quelle
Annotation:
L’objet de cette thèse consiste en l’étude de la méthode de Poursuite de Projection au travers du prisme de la théorie des mesures de ф-divergence, dont nous developperons ici plusieurs applications. La Poursuite de Projection permet d’isoler une ou plusieurs structures en particulier fournissant le plus d’information possible sur un ensemble de données et ce indépendamment de la dimension de l’espace contenant ces données. Ce qui rend cette démarche de Poursuite de Projection innovante réside dans le fait que lorsqu’une structure a été isolée, les données correspondantes sont ensuite gaussianisées. Ainsi, à travers une approche récursive, ce processus est réitéré de manière à trouver une autre structure dans les données restantes, jusqu’à ce qu’il ne soit au final plus possible de mettre en évidence une quelconque information. Friedman (1984) et Huber (1985) figurent parmi les premiers auteurs à avoir introduit ce genre d’approche. A cette fin, ils décrivent chacun, par de nombreux exemples, comment mettre en évidence de telles structures et par conséquent comment estimer la densité de telles données à travers deux méthodologies différentes. Pendant longtemps, les deux méthodologies exposées par ces deux auteurs étaient considérées comme étant équivalentes, mais Zhu (2004) a montré que ce n’était pas le cas lorsque le nombre d’itérations de ces algorithmes excède la dimension de l’espace qui contient les données. Dans cet thèse, nous nous concentrerons par conséquent sur les études d’Huber - tout en prenant en compte les remarques de Zhu. Introduisons donc à présent notre approche et nos objectifs. Chapitre 1 L’objectif du chapitre 1 est, tout d’abord, de montrer que les méthodes d’Huber - basées sur la famille des lois Gaussiennes - sont aussi valables si elles sont réalisées à partir de la famille des lois elliptiques. Puis, dans un second temps, l’objectif sera de donner une méthode qui permette de définir une nouvelle approche de la Poursuite de Projection. Cette méthode généralise de façon naturelle ce qu’avait introduit Huber dans son article. Elle sera non seulement valable à partir de la famille des lois elliptiques et elle présente l’autre avantage d’être plus robuste. Chapitre 2 Dans le chapitre 2, nous généralisons la minimisation de l’entropie relative à la minimisation de toutes les ф−divergences majorant la distance L1. Nous obtenons ainsi une nouvelle approche de la Poursuite de Projection qui non seulement conserve toutes les propriétés de la méthode introduite au premier chapitre, mais dont les applications vont de la réécriture du produit de convolution à la théorie de la régression. Chapitre 3 Dans ce dernier chapitre, nous explicitons une importante et très utile application de la théorie développée au chapitre précédent, à savoir un test d’adéquation de copule elliptique et un test d’adéquation de copule indépendante.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Michel, Julien. „Un principe de maximum d'entropie pour les mesures de Young : applications“. Lyon 1, 1993. http://www.theses.fr/1993LYO10225.

Der volle Inhalt der Quelle
Annotation:
A partir d'un theoreme de grandes deviations de p. Baldi on etablit un principe de maximum d'entropie dans l'espace des mesures de young. On utilise ce principe pour definir des etats d'equilibre statistique pour une classe de systemes dynamiques de dimension infinie. On montre que la theorie s'applique notamment au modele quasi geostrophique utilise pour decrire les mouvements atmospheriques sur les planetes en rotation rapide. On examine egalement l'application de ces idees au processus d'homogeneisation des materiaux composites
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Champion, Julie. „Sur les algorithmes de projections en entropie relative avec contraintes marginales“. Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2036/.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est centrée autour d'un algorithme de construction de mesures de probabilités à lois marginales prescrites, appelé Iterative Proportional Fitting (IPF). Issu de la statistique, cet algorithme est basé sur des projections successives sur des espaces de probabilités avec la pseudo-distance d'entropie relative de Kullback-Leibler. Cette thèse constitue un panorama des résultats disponibles sur le sujet, et contient quelques extensions et raffinements. La première partie est consacrée à l'étude des projections en entropie relative, à des critères d'existence, d'unicité ainsi que de caractérisation liés à la fermeture d'une somme de sous- espaces. Sous certaines conditions, le problème devient un problème de maximum d'entropie pour des contraintes marginales graphiques. La seconde partie met en avant le procédé itératif IPF. Répondant à l'origine à un problème d'estimation pour les tables de contingence, il constitue plus généralement un analogue d'un algorithme classique de projections alternées sur des espaces de Hilbert. Après avoir présenté les propriétés de l'IPF, on s'intéresse à des résultats de convergence dans le cas fini discret et dans le cas gaussien, ainsi qu'au cas continu à deux marginales, pour lequel une extension est proposée. On traite ensuite plus particulièrement du cas gaussien, pour lequel une nouvelle formulation de l'IPF permet d'obtenir une vitesse de convergence dans le cas à deux marginales prescrites, dont on montre l'optimalité en dimension 2
This work is focused on an algorithm of construction of probability measures with prescribed marginal laws, called Iterative Proportional Fitting (IPF). Deriving from statistical problems, this algorithm is based on successive projections on probability spaces for the relative entropy pseudometric of Kullback Leibler. This thesis consists in a survey of the current results on this subject and gives some extensions and subtleties. The first part deals with the study of projections in relative entropy, namely existence, uniqueness criteria, and characterization properties related to closedness of sumspaces. Under certain assumptions, the problem becomes a problem of maximisation of the entropy for graphical marginal constraints. In the second part, we study the iterative procedure IPF. Introduced initially for an estimation problem on contingency tables, it corresponds in a more general setting to an analogue of a classic algorithm of alternating projections on Hilbert spaces. After presenting the IPF properties, we look for convergence results in the finite discrete case, the Gaussian case, and the more general continuous case with two marginals, for which some extensions are given. Then, the thesis focused on Gaussian case with two prescribed marginal, for which we get a rate of convergence using a new formulation of the IPF. Moreover we prove the optimality for the 2-dimensional case
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Gamboa, Fabrice. „Méthode du maximum d'entropie sur la moyenne et applications“. Paris 11, 1989. http://www.theses.fr/1989PA112346.

Der volle Inhalt der Quelle
Annotation:
La méthode du maximum d'entropie permet de donner une solution explicite au problème de reconstruction d'une mesure de probabilité lorsque l'on ne dispose que des valeurs moyennes de certaines variables aléatoires. Nous utilisons cette méthode pour reconstruire une fonction contrainte à appartenir à un convexe C (contrainte non linéaire), en utilisant un nombre fini de ses moments généralisés (contrainte linéaire). Pour cela on considère une suite de problèmes de maximisation de l'entropie, le n-ème problème consiste à reconstruire une probabilité sur Cn, projection de C sur Rⁿ, dont la moyenne vérifie une contrainte approchant la contrainte initiale (moments généralisés). Faisant ensuite tendre n vers l’infini, on obtient une solution au problème initial en considérant la limite de la suite des moyennes des lois du maximum d'entropie sur les espaces Cn. Ce procédé de reconstruction est baptisé méthode du maximum d'entropie sur la moyenne (M. E. M), car la contrainte linéaire ne porte que sur la moyenne des lois à reconstruire. On étudie principalement le cas où C est une bande de fonctions continues. On obtient alors une famille de reconstructions, chacun des éléments de cette famille ne dépend que de la suite des mesures de référence utilisée dans la suite des problèmes d'entropie. Nous montrons que la méthode (M. E. M) est équivalente à la maximisation d'un critère concave. Nous utilisons ensuite la méthode (M. E. M) pour construire un critère numériquement calculable permettant de résoudre le problème des moments généralisés sur une bande bornée de fonctions continues. Enfin nous nous intéressons à des applications statistiques de la méthode
An explicit solution for the problem of probability reconstruction when only the averages of random variables are known is given by the maximum entropy method. We use this method to reconstruct a function constrained to a convex set C, (no linear constraint) using a finite number of its generalized moments linear constraint). A sequence of entropy maximization problems is considered. The nth problem consists in the reconstruction of a probability distribution on Cn, the projection of C on Rⁿ whose mean satisfies a constraint approximating the initial linear constraint (generalized moments). When n approaches infinity this gives a solution for the initial problem as the limit of the sequence of means of maximum entropy distributions on Cn. We call this technique the maximum entropy method on the mean (M. E. M) because linear constraints are only on the mean of the distribution to be reconstructed. We mainly study the case where C is a band of continuous functions. We find a reconstruction familly, each element of this family only depends of referenced measures used for the sequence of entropy problems. We show that the M. E. M method is equivalent to a concav criteria maximization. We then use the M. E. M method to construct a numerically computable criteria to solve generalized moments problem on a bounded band of continuous functions. In the last chapter we discuss statistical applications of the method
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Mounsif, Mostafa. „Le problème des moments par la méthode de l'entropie maximale“. Montpellier 2, 1992. http://www.theses.fr/1992MON20171.

Der volle Inhalt der Quelle
Annotation:
On utilise la methode de l'entropie maximale pour obtenir une solution du probleme classique des moments dans le cas ou seulement un nombre fini des valeurs des moments est connu qui, en plus, sont affectes d'erreurs. De meme une solution analytique des donnees au probleme de la reconstruction du spectre d'une matrice d auto-adjointe positivement definie a partir d'un nombre insuffisant de ses traces (moments) #n=trd#n
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ugalde-Saldaña, Edgardo. „Modèles dynamiques pour la turbulence locale“. Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11044.

Der volle Inhalt der Quelle
Annotation:
Dans cette these nous definissons une famille de quantites significatives sur l'ensemble des suites de vitesse, afin de caracteriser la turbulence locale. Nous construisons ensuite un modele symbolique avec topologie markovienne, que nous appelons systeme rond. Pour ce systeme nous pouvons calculer les quantites significatives, en considerant la mesure d'entropie maximale, puis des mesures non-markoviennes. Nous pouvons ainsi etudier le comportement en echelle des differences de vitesse dans le modele, en identifiant la relation entre la structure de la mesure ergodique consideree et le comportement de la famille d'exposants qui lui est associee. Nous proposons une methode d'analyse de donnees nous permettant d'associer un systeme rond a une suite experimentale donnee. Finalement nous considerons les effets de temps fini dans la determination des exposants d'echelle, dans le cadre d'un systeme asymptotiquement auto-similaire
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Jaeger, Sébastien. „Indicateurs statistiques pour l'analyse de séquences génétiques“. Aix-Marseille 2, 2002. http://www.theses.fr/2002AIX22060.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chauvet, Guillaume. „Méthodes de Bootstrap en population finie“. Phd thesis, Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00267689.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée aux méthodes de Bootstrap pour unepopulation ?nie. Le premier chapitre introduit quelques rappels sur l'échantillonnage et propose une présentation synthétique des principales méthodes d'estimation de précision. Le chapitre 2 rappelle les méthodes de Bootstrap proposées pour un sondage aléatoire simple et introduit deux nouvelles mé thodes. Le chapitre 3 donne un nouvel algorithme de Bootstrap, consistant pour l'estimation de variance d'un estimateur par substitution dans le cas d'un tirage à forte entropie. Dans le chapitre 4, nous introduisons la notion d'échantillonnage équilibré et proposons un algorithme rapide. Nous montrons que l'algorithme de Bootstrap proposé est également consistant pour l'estimation de variance d'un tirage équilibré à entropie maximale. Le cas d'un échantillonnage complexe et celui d'un redressement est traité au chapitre 5. Une application au Nouveau Recensement de la population est donnée dans le chapitre 6.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ruette, Sylvie. „Chaos en dynamique topologique, en particulier sur l'intervalle, mesures d'entropie maximale“. Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2001. http://tel.archives-ouvertes.fr/tel-00001144.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse on s'intéresse aux propriétés liées au chaos et aux mesures d'entropie maximale (ou mesures maximales) pour certains systèmes, en particulier ceux sur l'intervalle. Pour un système dynamique $(X,T)$, une entropie non nulle est considérée comme une propriété chaotique. On montre qu'une entropie non nulle implique la présence de couples asymptotiques propres, c'est-à-dire des couples de points distincts $(x,y)$ tels que la distance entre $T^n x$ et $T^n y$ tend vers zéro quand $n$ tend vers l'infini. Si $T$ est de plus inversible, de nombreux couples asymptotiques pour $T$ sont des couples de Li-Yorke pour l'inverse de $T$. Les preuves de ces résultats sont ergodiques. Une chaîne de Markov topologique est l'ensemble des chemins sur un graphe orienté ; c'est un outil pour l'étude des mesures maximales. Un graphe connexe est transient, récurrent nul ou récurrent positif. On rappelle les liens entre ces classes et la possibilité d'étendre ou de restreindre le graphe sans changer l'entropie, et on montre qu'un graphe transient admet un surgraphe récurrent de même entropie. On sait qu'une chaîne de Markov transitive a une mesure maximale si et seulement si le graphe est récurrent positif. On donne un nouveau critère impliquant la récurrence positive et on montre l'existence de mesures presque maximales fuyant vers l'infini pour un graphe non récurrent positif. Quand on se restreint aux systèmes sur l'intervalle, les diverses notions de chaos coïncident largement. On présente une synthèse des liens existant entre les différentes propriétés chaotiques. Pour un système sur l'intervalle, la question d'existence d'une mesure maximale se ramène dans certains cas à l'étude d'une chaîne de Markov. Cela permet de donner une condition assurant l'existence d'une mesure maximale pour les transformations $C^1$. Pour tout entier $n$, on construit des exemples de transformations de l'intervalle $C^n$ et mélangeantes mais n'admettant aucune mesure maximale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Friedel, Paul. „Étude par photoémission X et UV du nettoyage et de la passivation en plasma multipolaire d'une surface (100) de semiconducteur III-V“. Paris 11, 1987. http://www.theses.fr/1987PA112139.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est une étude des mécanismes microscopiques d’interaction d'un plasma d'hydrogène ou d'azote avec une surface de GaAs en vue de sa passivation. Le but poursuivi est d'obtenir une interface isolant-semiconducteur débarrassée de la forte densité d'états dans la bande interdite que l'on observe entre GaAs et son oxyde. Nous avons fondé notre thèse sur un processus de retrait de l'oxyde puis de croissance d’un isolant exempt d'oxygène. Nous avons cherché à établir des corrélations entre la composition chimique et la position du niveau de Fermi à l'interface. La structure atomique de l'interface a été observée. Nous avons développé un ensemble expérimental de traitement en plasma multipolaire et d'étude des surfaces par photoémission X de niveaux de cœur utilisant une source conventionnelle. Des études des bandes de valence ont été menées au synchrotron d'Orsay par photoémission UV résolue en angle. Des moyens d'interprétation des données tant du point de vue de la déconvolution des spectres que du calcul des densités d'états et des déplacements de niveaux de cœur ont été étudiés. Cette thèse a abouti à une description détaillée de la liaison entre l'hydrogène et la surface obtenue en épitaxie par jets moléculaires ou bien nettoyée chimiquement. Les mouvements de niveau de Fermi sont observés et leur relation avec un composé que l'on identifie à l'arsenic élémentaire est discutée. Le plasma d'azote conduit à une liaison sur le gallium et l'arsenic. Le niveau de Fermi peut être trouvé à sa position de volume au moins sur un matériau dopé de type p.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Lecompte, Matthieu. „Etude expérimentale des sprays d’huile dans un moteur à combustion interne : Influence de l’écoulement de blow-by et participation à la consommation d’huile“. Rouen, 2007. http://www.theses.fr/2007ROUES069.

Der volle Inhalt der Quelle
Annotation:
Face aux exigences de la clientèle en terme de réduction de la consommation d’huile et des émissions polluantes, il devient impératif de comprendre le comportement de l’huile dans l’environnement critique que représente la chambre de combustion. Le travail entrepris dans cette thèse s’intéresse plus particulièrement à la caractérisation granulométrique des sprays d’huile créés au niveau du jeu à la coupe des segments par l’écoulement de blow-by ( écoulement d’air s’établissant dans la zone segment-piston-chemise (SPC) pendant la phase de compression) et à leur participation à la consommation totale de lubrifiant. Pour cela, une étude expérimentale, articulée en deux volets, a été conduite. Un atomiseur recréant les phénomènes d’atomisation présents au niveau du jeu à la coupe des segments a tout d’abord été réalisé et étudié en laboratoire. Les distributions de taille des sprays d’huile formés ont été mesurées à l’aide de plusieurs diagnostics en fonction du débit de lubrifiant et de la pression d’air amont. Dans un second temps, une approche expérimentale sur un moteur préparé s’est intéressé à l’étude de la distribution de taille des sprays d’huile présents à différents endroits du moteur. Par ailleurs, pour chacun des points de fonctionnement examiné, une mesure de la consommation d‘huile en temps réel par traçage SO2 a été réalisée. Dans ces deux études, les distributions de taille des sprays de lubrifiant ont été modélisées avec succès par une approche reposant sur l’application du formalisme d’entropie maximum. Parmi les résultats importants, cette étude montre la dépendance entre les distributions de taille des sprays d’huile produits par l’écoulement de blow-by au niveau du jeu à la coupe et le point de fonctionnement de moteur (régime et charge). En outre, pour certaines conditions de fonctionnement, cette source de spray d’huile est majoritaire dans l’écoulement retour dont l’influence sur la consommation totale d’huile a été mise en évidence
In the face of customer requirements in terms of oil consumption reduction and pollutant emissions, it becomes important to understand the behavior of oil in the combustion chamber environment. The work carried out in the present Ph. D. Concentrates mainly on the drop-size distribution characterization of oil sprays produced through the ring gap by the blow-by-flow (air flow taking place between the piston and the liner during the compression stroke) and on the determination of their participation to the total lubricant consumption. To achieve this, a two-step experimental study was conducted. An atomizer reproducing the atomizing phenomena through a ring gap was first realized and studied in the laboratory. The drop-size distribution of the produced oil sprays were measured thanks to the use of several measurement techniques as a function of the lubricant flow rate and the upper air pressure. Second, an experimental investigation conducted on a car engine investigated the oil spray drop-size distribution at several locations. Furthermore, for each working condition, measurements of oil consumption in real time were achieved using a SO2 tracer technique. In these two studies, the oil-spray drop-size distributions were successfully modeled by an approach based on the Maximum Entropy Formalism. Among the most important results, this study reports that the drop-size distribution of oil-sprays produced by blow-by depends on the engine regime and load. Furthermore, for some working conditions, this oil-spray production is majority in the return flow whose influence on the total oil consumption was evidenced
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Pougaza, Doriano-Boris. „Utilisation de la notion de copule en tomographie“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00684637.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur le lien entre la tomographie et la notion de copule. La tomographie à rayons X consiste à (re)construire la structure cachée d'un objet (une densité de matière, la distribution d'une quantité physique, ou une densité de loi conjointe) à partir de certaines données obtenues ou mesurées de l'objet (les projections, les radiographies, les densités marginales). Le lien entre les mesures et l'objet se modélise mathématiquement par la Transformée à Rayons X ou la Transformée de Radon. Par exemple, dans les problèmes d'imagerie en géométrie parallèle, lorsqu'on a seulement deux projections à deux angles de 0 et pi/2 (horizontale et verticale), le problème peut être identifié comme un autre problème très important en mathématique qui est la détermination d'une densité conjointe à partir de ses marginales. En se limitant à deux projections, les deux problèmes sont des problèmes mal posés au sens de Hadamard. Il faut alors ajouter de l'information a priori, ou bien des contraintes supplémentaires. L'apport principal de cette thèse est l'utilisation des critères de plusieurs entropies (Rényi, Tsallis, Burg, Shannon) permettant d'aboutir à une solution régularisée. Ce travail couvre alors différents domaines. Les aspects mathématiques de la tomographie via l'élément fondamental qui est la transformée de Radon. En probabilité sur la recherche d'une loi conjointe connaissant ses lois marginales d'où la notion de ''copule'' via le théorème de Sklar. Avec seulement deux projections, ce problème est extrêmement difficile. Mais en assimilant les deux projections (normalisées) aux densités marginales et l'image à reconstruire à une densité de probabilité, le lien se fait et les deux problèmes sont équivalents et peuvent se transposer dans le cadre statistique. Pour caractériser toutes les images possibles à reconstruire on a choisi alors l'outil de la théorie de probabilité, c'est-à-dire les copules. Et pour faire notre choix parmi les copules ou les images nous avons imposé le critère d'information a priori qui se base sur différentes entropies. L'entropie est une quantité scientifique importante car elle est utilisée dans divers domaines (en Thermodynamique, en théorie de l'information, etc). Ainsi, en utilisant par exemple l'entropie de Rényi nous avons découvert de nouvelles classes de copules. Cette thèse apporte de nouvelles contributions à l'imagerie, par l'interaction entre les domaines qui sont la tomographie et la théorie des probabilités et statistiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Venditti, Véronique. „Aspects du principe de maximum d'entropie en modélisation statistique“. Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10108.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente certains aspects du principe de maximum d'entropie (PME) en tant que principe de modélisation statistique. Nous proposons une définition de ce principe basée sur une notion de l'entropie totalement justifiée en dehors de toute approche subjective, et dont le mécanisme soit facilement abordable et compréhensible. Cette présentation s'articule autour de l'utilisation de ce principe d'un point de vue théorique et d'une application à des données médicales. Il ne s'agit pas dans cette approche de la modélisation statistique de choisir directement la structure statistique que l'on pense la mieux correspondre au phénomène aléatoire étudié. En fait, l'information que l'on possède sur celui-ci est traduite au niveau de la loi des variables qui le représentent. Pour formaliser cette connaissance, on utilise l'association entre des fonctions de ces variables (observables) et les niveaux de leurs espérances (niveaux de contraintes). L'approche proposée du PME par le théorème de concentration, et les démonstrations des formes des lois qui en sont issues, fournissent une présentation homogène de ce principe. Nous précisons de plus les liens existant entre différentes lectures des modèles paramètres de structure exponentielle et leur relecture en tant que modèle de maximum d'entropie. Ainsi, en choisissant d'utiliser des niveaux de contraintes empiriques dans la recherche des équations permettant d'estimer les paramètres des lois obtenues par PME, nous montrons que le mode de calcul alors imposé se trouve être la méthode de maximum de vraisemblance. D'autre part, la présentation d'exemples de relecture de modèles de discrimination illustre bien l'intérêt didactique du PME (en particulier pour la procédure de régression logistique). Enfin, l'utilisation du PME pour la recherche d'un modèle paramètré, sur la base d'une loi empirique ne correspondant visiblement à aucune loi théorique usuelle, illustre le mécanisme d'application du PME.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Ramos, Fernando Manuel. „Résolution d'un problème inverse multidimensionnel de diffusion par la méthode des éléments analytiques et par le principe de l'entropie maximale : contribution à la caractérisation de défauts internes“. Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0015.

Der volle Inhalt der Quelle
Annotation:
Une méthode de reconstruction défectométrique permettant de reconstituer une distribution tridimensionnelle représentative de défauts situés au sein d'un solide, à partir d'un ensemble incomplet et bruité de données, est présentée. Le problème direct est résolu numériquement par la méthode des éléments analytiques, en utilisant un schéma implicite à directions alternées. Un algorithme itératif d'optimisation avec contraintes, associe à une technique de régularisation basée sur le principe de l'entropie maximale est utilisé pour résoudre le problème inverse. Des résultats numériques et expérimentaux attestent la bonne performance de la méthode d'inversion proposée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Barrat-Charlaix, Pierre. „Comprendre et améliorer les modèles statistiques de séquences de protéines“. Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS378.

Der volle Inhalt der Quelle
Annotation:
Dans les dernières décennies, les progrès des techniques expérimentales ont permis une augmentation considérable du nombre de séquences d'ADN et de protéines connues. Cela a incité au développement de méthodes statistiques variées visant à tirer parti de cette quantité massive de données. Les méthodes dites co-évolutives en font partie, utilisant des idées de physique statistique pour construire un modèle global de la variabilité des séquences de protéines. Ces méthodes se sont montrées très efficaces pour extraire des informations pertinentes des seules séquences, comme des contacts structurels ou les effets mutationnels. Alors que les modèles co-évolutifs sont pour l'instant utilisés comme outils prédictifs, leur succès plaide pour une meilleure compréhension de leur fonctionnement. Dans cette thèse, nous proposons des élaborations sur les méthodes déjà existantes tout en questionnant leur fonctionnement. Nous étudions premièrement sur la capacité de l'Analyse en Couplages Directs (DCA) à reproduire les motifs statistiques rencontrés dans les séquences des familles de protéines. La possibilité d'inclure d'autres types d'information comme des effets mutationnels dans cette méthode est présentée, suivie de corrections potentielles des biais phylogénétiques présents dans les données utilisées. Finalement, des considérations sur les limites des modèles co-évolutifs actuels sont développées, de même que des suggestions pour les surmonter
In the last decades, progress in experimental techniques have given rise to a vast increase in the number of known DNA and protein sequences. This has prompted the development of various statistical methods in order to make sense of this massive amount of data. Among those are pairwise co-evolutionary methods, using ideas coming from statistical physics to construct a global model for protein sequence variability. These methods have proven to be very effective at extracting relevant information from sequences, such as structural contacts or effects of mutations. While co-evolutionary models are for the moment used as predictive tools, their success calls for a better understanding of they functioning. In this thesis, we propose developments on existing methods while also asking the question of how and why they work. We first focus on the ability of the so-called Direct Coupling Analysis (DCA) to reproduce statistical patterns found in sequences in a protein family. We then discuss the possibility to include other types of information such as mutational effects in this method, and then potential corrections for the phylogenetic biases present in available data. Finally, considerations about limitations of current co-evolutionary models are presented, along with suggestions on how to overcome them
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Domps, Baptiste. „Identification et détection de phénomènes transitoires contenus dans des mesures radar à faible rapport signal à bruit : Applications conjointes aux problématiques océanographique et atmosphérique“. Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL0001.

Der volle Inhalt der Quelle
Annotation:
L'observation de la dynamique de l'atmosphère et de la surface de l'océan peut être réalisée par télédétection radar. L'approche habituelle consiste, dans les deux cas, à calculer numériquement le spectre Doppler des échos temporels reçus à l'aide d'une transformée de Fourier discrète. Bien que satisfaisante pour la plupart des applications, cette méthode ne convient pas pour l'observation de phénomènes transitoires, plus courts que le temps d'intégration nécessaire à l'observation radar. Nous utilisons une technique alternative, basée sur une représentation autorégressive des séries temporelles radar et associée à la méthode dite à entropie maximale. Cette approche est appliquée à la mesure de courants de surface par radar côtier dans la bande des hautes fréquences, puis à celle de vent dans la basse atmosphère par radar en bande L. Dans les deux situations, nous montrons à l'aide de simulations numériques, de comparaisons avec d'autres instruments et d'études de cas que l'approche proposée conduit à des estimations fiables des grandeurs géophysiques (courants marins et vitesses de vent) pour des temps d'intégration brefs, là où la méthode conventionnelle échoue
Observations of atmospheric and ocean surface dynamics can be performed via radar remote sensing. The usual approach consists, in both cases, in numerically calculating the Doppler spectrum of the received temporal echoes using a discrete Fourier transform. Although satisfactory for most applications, this method is not suitable for observations of transient phenomena due to being shorter than the integration time required for radar observations. We use an alternative technique based on an autoregressive representation of the radar time series combined with the maximum entropy method. This approach is applied to coastal radar measurements of surface currents in the high frequency band as well as to L-band radar measurements of wind in the lower atmosphere. For both cases, through numerical simulations and case studies, we compare our approach with others that use different instruments. We show that for short integration times, where conventional methods fail, our proposed approach leads to reliable estimates of geophysical quantities (ocean currents and wind speeds)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Lutton, Jean-Luc. „Mécanique statistique et théorie des systèmes : utilisation de méthodes de mécanique statistique pour étudier des systèmes de télécommunication et traiter des problèmes de recherche opérationnelle“. Paris 11, 1985. http://www.theses.fr/1985PA112172.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est d'utiliser les concepts issus de la mécanique statistique pour étudier les problèmes d'ingénierie. Dans une première partie, nous analysons les performances de réseaux de connexion: réseaux de CLOS à 2k+1 étages. Nous montrons que ces réseaux, comme les systèmes physiques admettent une limite thermodynamique. Nous en déduisons alors, analytiquement, les valeurs de certaines grandeurs macroscopiques décrivant leurs divers modes de fonctionnement (systèmes avec perte des appels bloqués, avec réarrangement ou mise en attente de ces derniers) en fonction de la charge. Nous estimons en particulier certaines lois de distribution de probabilité d'événement (loi du nombre de réarrangements, loi des temps d'attente) grâce au principe du maximum d'entropie. Tous ces résultats analytiques sont comparés avec succès à des résultats de simulation numérique. Dans une deuxième partie, nous appliquons la procédure dite d· recuit simulé à des problèmes d'optimisation combinatoire (voyageur de commerce, couplage parfait de points de poids minimum, affectation à coût quadratique minimum). En fait nous utilisons l'algorithme de Metropolis pour déterminer la solution "optimale" des problèmes considérés. Nous obtenons ainsi une heuristique dont les performances sont favorablement comparées à celles d'autres méthodes classiques. Nous en profitons pour traiter des problèmes de grande taille (voyageur de commerce avec 10000 villes). De plus utilisant le formalisme des ensembles statistiques, nous estimons le comportement asymptotique des solutions optimales des problèmes étudiés
The aim of this work is to use· statistical mechanics ideas for studying engineering problems. First we analyze the performance of a class of connecting networks: Clos connecting Networks with 2 k + 1 stages. We show that these networks, like physical systems, exhibit the thermodynamical limit property. We deduce analytical expressions which give values of macroscopic system performance parameters (system with loss, system with rearrangement or system with queueing) in terms of the offered traffic. In particular, we estimate probability distribution of the number of rearrangements and the waiting time distribution using the maximum entropy principle. All these analytical results give good agreements with numerical simulations. We then apply the simulated annealing procedure to some combinatorial optimization problems (travelling salesman problem, minimum weighted matching problem, quadratic sum assignment problem). In fact, we use the Metropolis algorithm to determine a quasi-optimal solution to the problem we consider. We deduce a good heuristic with better performances than other classical methods, especially for large problems. For example we obtain a "good" solution for a 10000-city travelling salesman problem. Using statistical mechanics formalism, we also estimate the asymptotic behaviour of the optimal solution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Tonus, Florent. „Étude de la chimie redox d'oxydes Ruddlesden-Popper n=1 par diffraction de neutrons in situ à haute température sous flux de H₂ et O₂“. Rennes 1, 2011. http://www.theses.fr/2011REN1S023.

Der volle Inhalt der Quelle
Annotation:
Ce travail concerne la synthèse et l'étude cristallochimique avancée de nouveaux oxydes Ruddlesden-Popper n=1, présentant un intérêt comme matériaux d'électrodes pour des piles à combustibles SOFC. La synthèse sol-gel de deux nouvelles familles de composés a été menée ainsi que leur caractérisation thermogravimétrique, magnétique, structurale et microstructurale par diffraction des rayons X, des neutrons sur poudre (NPD) et des électrons. Une cellule de réactivité originale dédiée à l'étude in situ du comportement rédox sous différents flux gazeux par thermodiffractométrie des neutrons a été conçue. L'évolution structurale, notamment le désordre des atomes d'oxygène, a été suivi in situ et en temps réel en conditions de fonctionnement d'anode SOFC sous hydrogène par thermodiffraction des neutrons (instrument D20, ILL / Grenoble) en fonction de la valeur de δ. Des affinements Rietveld séquentiels ont démontré une désintercalation de l'oxygène en site équatorial contrôlée par la réduction du cation Μ. Ces matériaux sont prometteurs au niveau technologique du fait de leur excellente stabilité chimique, structurale et dimensionnelle en conditions d'opération, assurée par la présence d'ions Cr³⁺. Ce suivi in situ, appliqué aux composés homologues synthétisés en Grande-Bretagne (Université de Birmingham) et analysé en combinant les affinements de Rietveld et la méthode du maximum d'entropie a clarifié les détails de la densité nucléaire moyenne des oxygènes pour certaines valeurs de δ et de Τ, allant jusqu'à esquisser à haute T les chemins de diffusion anisotropes des ions O²⁻ dans ces composés
This study is concerned with the synthesis and crystal chemistry of new Ruddlesden-Popper n=1, oxides which are of interest because of their potential as electrode materials in SOFC batteries. The sol-gel synthesis of two new families having the compositions has been undertaken, along with their characterisation by thermogravimetric analysis, magnetometry, and X-ray, neutron and electron diffraction. A novel reaction cell for in situ neutron thermodiffraction studies of a redox behaviour under different gas flows has been designed. The evolution of the structure, particularly the disorder of the oxygen atoms, has been followed in situ and in real time under the working conditions of a SOFC anode under hydrogen by neutron thermodiffraction (instrument D20, ILL / Grenoble) as a function of the value of δ. Sequential Rietveld refinements showed a deintercalation of oxygen from the equatorial site controlled by the reduction of the cation M. These materials are promising at the technological level given their excellent chemical and structural stability under operating conditions, which is likely attributable to the presence of Cr³⁺ ions. This in situ monitoring was also applied to the similar compositions synthezised at the University of Birmingham, U. K. Data anlysis by a combination of Rietveld refinements and maximum entropy clarified the details of the average nuclear density of the oxygens for certain values of δ and T, and suggested possible anisotropic diffusion pathways of the oxide ions in these compositions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Boukerbout, Hassina. „Analyse en ondelettes et prolongement des champs de potentiel. Développement d'une théorie 3-D et application en géophysique“. Rennes 1, 2004. http://www.theses.fr/2004REN10095.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur les méthodes de traitement des données de champs de potentiel. Vu l'importance des informations que nous pouvons en extraire, les méthodes de traitement sont en perpétuelle évolution. Ce travail comporte trois parties: la première porte sur le développement d'un programme de prolongement des données de champs de potentiel sur des surfaces arbitraires, en apportant des améliorations à la méthode et en faisant des tests sur des modèles synthétiques. La deuxième partie de cette thèse porte sur un rappel de la méthode de localisation des sources de champs de potentiel, à partir des lignes de maxima de la transformée en ondelettes. En moyennant le principe d'entropie maximum, nous avons pu mettre au point une méthode automatique pour réaliser le passage du demi-plan supérieur de la transformée en ondelettes, vers le demi-plan inférieur des profondeurs. Le calcul des pentes le long des lignes de maxima permet d'accéder au degré d'homogénéité de la source. Nous avons étendu l'application de cette méthode, en utilisant la phase de la transformée en ondelettes sur les données VLF. La troisième partie de ce travail porte sur le développement d'une méthode de localisation des sources de champs de potentiel, dans le cas 3-D. Pour cela, nous avons mis au point une méthode pour calculer la transformée en ondelettes dans le cas 3-D, en faisant intervenir les transformées de radon et en ridgelet. La méthode de localisation suit le même principe que celui dans le cas 2-D. Nous avons testé la méthode développée sur des données synthétiques et sur des données aéromagnétiques, ceci nous a permis d'améliorer la méthode et de valider les résultats obtenus par rapport à ceux obtenus avec d'autres méthodes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Seghier, Abdellatif. „Matrices de Toeplitz dans le cas d-dimensionnel : développement asymptotique à l'ordre d.Extension de fonctions de type positif dans le cas d-dimensionnel et maximum d'entropie : application à la reconstruction de densités“. Paris 11, 1988. http://www.theses.fr/1988PA112038.

Der volle Inhalt der Quelle
Annotation:
Les deux premiers articles traitent de la prédiction d'un processus stationnaire du 2°ordre. La prédiction s'effectue relativement à une information provenant d'une partie du passé. L'aspect le plus important de ce travail est l'introduction d'opérateurs (de Tœplitz et de Hankel) qui permettent d'appliquer des techniques de géométrie hilbertienne. II. Les trois articles qui suivent reprennent un problème de Szëgo lié à la prédiction linéaire de processus dépendant d'un paramètre discret. Nous considérons le problème dans le cas d-dimensionnel. Nous donnons un développement asymptotique de la trace de l'inverse de matrice de Tœplitz correspondante jusqu'à l'ordre d. Les cœfficients du développement dépendent alors du symbole (densité spectrale) et de mesures positives à support, selon l'ordre, le domaine de troncature de l'opérateur de Tœplitz (volume, les faces d'ordre d-1 (arêtes) et les sommets. III. Les deux derniers articles sont consacrés à la reconstruction de densités de probabilité et de densités spectrales à l'aide d'extension de fonction de type positif et du principe du maximum d'entropie. Ce problème provient de la cristallographie dont l'un des objectifs est la reconstruction de la densité électronique de molécules. Nous montrons dans le cas d'informations partielles (nombre fini de coefficients de Fourier) et de phases connues que cas multidimensionnel la reconstruction est possible dans le (implantable dans les ordinateurs)
In the two first chapters we are concerned with the prediction of the second order stationnary process. Here the information depends on a part of past. The main aspect of these papers is the use of hilbertian technics based on Tœplitz and Hankel operators. In the following three papers, we deal with an old Szegö's problem on the expansion of the determinant of Tœplitz matrix. We give in the multidimensionnal case a more precise expansion of the trace of the inverse with order d). Moreover the knew cœfficients which appear are strongly related with geometrical invariants of the domain on which the the Tœplitz operators are truncated. In the last two papers knew results about reconstruction of the spectral densities in the multidimentional case are given. The methods are based on extensions of positive defined function and maximum entropy principle. This work is motivated by the problem of the determination of the phases of the electron density function in crystal analysis. Nevertheless, there is still a great amount of work to be done in order to solve this problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Fischer, Richard. „Modélisation de la dépendance pour des statistiques d'ordre et estimation non-paramétrique“. Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1039/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on considère la modélisation de la loi jointe des statistiques d'ordre, c.à.d. des vecteurs aléatoires avec des composantes ordonnées presque sûrement. La première partie est dédiée à la modélisation probabiliste des statistiques d'ordre d'entropie maximale à marginales fixées. Les marginales étant fixées, la caractérisation de la loi jointe revient à considérer la copule associée. Dans le Chapitre 2, on présente un résultat auxiliaire sur les copules d'entropie maximale à diagonale fixée. Une condition nécessaire et suffisante est donnée pour l'existence d'une telle copule, ainsi qu'une formule explicite de sa densité et de son entropie. La solution du problème de maximisation d'entropie pour les statistiques d'ordre à marginales fixées est présentée dans le Chapitre 3. On donne des formules explicites pour sa copule et sa densité jointe. On applique le modèle obtenu pour modéliser des paramètres physiques dans le Chapitre 4.Dans la deuxième partie de la thèse, on étudie le problème d'estimation non-paramétrique des densités d'entropie maximale des statistiques d'ordre en distance de Kullback-Leibler. Le chapitre 5 décrit une méthode d'agrégation pour des densités de probabilité et des densités spectrales, basée sur une combinaison convexe de ses logarithmes, et montre des bornes optimales non-asymptotiques en déviation. Dans le Chapitre 6, on propose une méthode adaptative issue d'un modèle exponentiel log-additif pour estimer les densités considérées, et on démontre qu'elle atteint les vitesses connues minimax. L'application de cette méthode pour estimer des dimensions des défauts est présentée dans le Chapitre 7
In this thesis we consider the modelling of the joint distribution of order statistics, i.e. random vectors with almost surely ordered components. The first part is dedicated to the probabilistic modelling of order statistics of maximal entropy with marginal constraints. Given the marginal constraints, the characterization of the joint distribution can be given by the associated copula. Chapter 2 presents an auxiliary result giving the maximum entropy copula with a fixed diagonal section. We give a necessary and sufficient condition for its existence, and derive an explicit formula for its density and entropy. Chapter 3 provides the solution for the maximum entropy problem for order statistics with marginal constraints by identifying the copula of the maximum entropy distribution. We give explicit formulas for the copula and the joint density. An application for modelling physical parameters is given in Chapter 4.In the second part of the thesis, we consider the problem of nonparametric estimation of maximum entropy densities of order statistics in Kullback-Leibler distance. Chapter 5 presents an aggregation method for probability density and spectral density estimation, based on the convex combination of the logarithms of these functions, and gives non-asymptotic bounds on the aggregation rate. In Chapter 6, we propose an adaptive estimation method based on a log-additive exponential model to estimate maximum entropy densities of order statistics which achieves the known minimax convergence rates. The method is applied to estimating flaw dimensions in Chapter 7
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Cousin, Jean. „Prédiction des distributions granulométriques par le formalisme d'entropie maximum. Applications à plusieurs injecteurs mécaniques“. Rouen, 1996. http://www.theses.fr/1996ROUES037.

Der volle Inhalt der Quelle
Annotation:
Les systèmes liquides produits par les injecteurs mécaniques sont par nature instables. Ceci a pour effet de rompre le système liquide en un spray, c'est à dire en un ensemble de gouttes. Ces gouttes se caractérisent alors par leur dispersion en taille, en vitesse voire en température. Le travail présenté ici ne traite que de la dispersion en taille des particules sphériques. Les phénomènes qui régissent la rupture des systèmes liquides en gouttes restent jusqu'à maintenant mal connus et ne sont pas complètement traités. Les quelques modèles existant ne permettent la prédiction que d'un nombre restreint d'échelles de longueur caractéristiques des instabilités. Le modèle utilisé dans ce travail est la théorie linéaire couplée à un schéma de rupture simplifié et adapté au cas traité. Ceci permet alors le calcul d'une échelle de longueur caractéristique des instabilités présentes et homogène à un diamètre de goutte. L'originalité de notre méthode consiste à proposer une procédure qui couple le résultat de la théorie linéaire au formalisme d'entropie maximum. Ce formalisme permet de calculer la dispersion en taille de goutte la plus vraisemblable tout en respectant l'information réduite issue de la théorie linéaire. La dispersion en taille obtenue est alors représentée sous la forme d'une fonction de densité de probabilité basée sur le volume des gouttes. Cette nouvelle procédure est validée sur trois études expérimentales : les injecteurs d'essence, les injecteurs mécaniques à rotation et les injecteurs ultrasoniques sont traités.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Lacerda, Neto Raul Liberato de. „Exploiting the wireless channel for communication“. Nice, 2008. http://www.theses.fr/2008NICE4049.

Der volle Inhalt der Quelle
Annotation:
The recent development in digital communications has made wireless networks one of the most promising areas of research. Fueled by the advances in digital processing, high data rate connections have recently become the focus of research in the communication domain. The growth of the Internet and the introduction of a multitude of applications culminated in a new era of communications in which wireless networks play a very important role. However, the wireless environment still offers some challenges that need to be addressed before meeting next generation mobile requirements. Due to imperfect channel characterization and modeling, much of the potential of the wireless environment is wasted. Furthermore, the need of multiple simultaneous connections lead to the use of multiple access schemes that were not designed to cope with some of the wideband/multiple antenna wireless characteristics. The objective of the thesis is to treat these two points. The first part of this thesis is dedicated to the use of bayesian probability theory tools that enable the derivation of models based only on partial knowledge of the environment. Using Jaynes' maximum entropy principle, we present a framework that allows us to infer on the channel characteristics by choosing probability distributions that maximize entropy under the constraints that represent the actual state of knowledge. This technique is at the heart of scientific inference and has applications in many other fields. Probabilistic channel Models for two different types of environment are derived: wideband channels and multiple-input multiple-output (MIMO) channels. In the second part, the multiple access problem for ultra wideband (UWB) systems is considered. Despite the large amount of work conducted during recent years on UWB technology, no scheme can cope with the high dispersion of UWB channels and still offer reasonable spectral efficiency. An innovative scheme that exploits the users' channels to guarantee multiple access is introduced, entitled channel division multiple access (ChDMA)
Le récent développement des communications mobiles a fait des réseaux sans fil un des secteurs technologiques les plus prometteurs. Stimulé par les avancées en traitement de l'information, le haut débit est récemment devenu le centre de la recherche dans le domaine des communications. La croissance des flux Internet et l'introduction d'une multitude d'applications ont abouti à une nouvelle ère des communications dans lesquelles les réseaux sans fil jouent un rôle très important. Cependant, l'environnement sans fil offre toujours quelques défis qui doivent être adressés avant d'atteindre les pré-requis nécessaires pour les futurs réseaux sans fils. En raison de la caractérisation imprécise du canal de transmission, une grande partie du potentiel du canal sans fil est gaspillé. En outre, les schémas de communications multi-utilisateurs actuels n'exploitent pas convenablement les différents degrés de liberté (espace et bande) du canal. Le but de cette thèse est de traiter précisément ces deux points. La première partie de cette thèse est consacrée à l'utilisation des outils de théorie des probabilités bayésiens qui permettent de générer des modèles basés seulement sur la connaissance partielle de l'environnement. A partir du principe de maximisation d'entropie, nous présentons une approche qui permet d'inférer sur les caractéristiques des canaux en choisissant les distributions de probabilité qui maximisent l'entropie sous des contraintes qui représentent l'état de la connaissance de l'environnement. Cette technique est à la base des procédés d'inférences et a connu un large succès dans différentes disciplines. Des modèles pour deux différents types d'environnement sont analysés et proposés: canaux à large bande et canaux multi-antennes (MIMO). Dans la deuxième partie, le problème d'accès multiple pour les systèmes ultra large bande (UWB) est étudié. Malgré la grande quantité de travaux effectués ces dernières années sur la technologie d'UWB, aucune technique d'accès multiple n'exploite actuellement la dispersion élevée des canaux d'UWB, ce qui engendre une faible efficacité spectrale. Un schéma innovant qui exploite les canaux des utilisateurs s'intitulant "Channel Division Multiple Access" (ChDMA) est proposé. Ce schéma fournit une solution très simple tout en obtenant une efficacité spectrale élevée
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Triballier, Kaëlig. „Etude énergétique des processus d'atomisation primaire : application au comportement des injecteurs essence basse pression à triple disque“. Rouen, 2003. http://www.theses.fr/2003ROUES032.

Der volle Inhalt der Quelle
Annotation:
Cette étude s'intéresse aux processus d'atomisation générés par une buse triple disque dédiée à l'injection indirecte essence. L'approche consiste à considérer toutes les étapes de la production des sprays, depuis la caractérisation de l'écoulement interne (FLUENT) jusqu'à l'analyse des distributions de taille des sprays (Formalisme d'Entropie Maximum). L'étude de la rupture de l'écoulement liquide repose sur une approche originale d'analyse d'images. Le processus d'atomisation est vu comme une croissance de l'interface entre les phases liquide et gazeuse. Ainsi, une technique de mesure locale d'interface a été développée à partir d'images des écoulements en sortie d'injecteur. Elle conduit à la détermination de l'étirement local de l'interface, permettant de mieux appréhender les processus d'atomisation et leur origine. En parallèle, il a été montré que les interfaces sont des objets fractals. Cette caractéristique des processus d'atomisation trouve son origine dans la nature turbulente des écoulements impliqués. Tous ces résultats ont abouti à l'établissement d'une cartographie à deux dimensions permettant une classification de tous les comportements observés. Ces deux dimensions sont l'énergie cinétique de la composante non axiale de l'écoulement de sortie et l'énergie cinétique de turbulence. Cette classification organise de façon cohérente les évolutions de l'expansion de l'écoulement de sortie, de l'étirement et de la dimension fractale de l'interface, ainsi que des caractéristiques mathématiques des distributions de tailles. En outre, elle délimite clairement une zone à prohiber caractérisée par une atomisation pauvre
This study describes the atomization processes generated by triple-disk nozzles dedicated to port-fuel injected engines. The approach consists in considering all the stages of the spray production, from the internal flow characterization (FLUENT) to the spray drop size distribution analysis (Maximum Entropy Formalism). The study of the intermediate phase, the disintegration of the liquid flow, lies on an original image analysis approach. The atomization process is seen as a growth of the interface between the liquid and gas phases. Thus, a local interface measurement technique was developed and applied to images of the flows that issue from the injector. It led to the determination of the local stretching of the interface, allowing a better understanding of the atomization processes and of their origin. In parallel, it was shown that the interfaces are fractal objects. This characteristic of the atomization processes finds its origin in the turbulent nature of the implied flows. All these results led to the establishment of a two-dimension cartography, allowing a classification of all the observed behaviours. These two dimensions are the non-axial kinetic energy components and the turbulent kinetic energy. This classification organizes in a coherent way the evolutions of the exit flow expansion, stretching and fractal dimension of the interface, as well as mathematical characteristics of the drop size distributions. Moreover, it clearly delimits a zone to be prohibited, characterized by a poor atomization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Chen, Zhou. „Simulation virtuelle des essais de validation pour l'ameublement - meubles à base de plaques“. Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2071.

Der volle Inhalt der Quelle
Annotation:
La simulation numérique est un outil puissant au service de la conception de produit et la réalisation d’« essais virtuels pour meubles » permet de raccourcir la phase de mise au point et d’optimisation des produits. L’objectif du travail présenté est de mettre au point un outil de simulation permettant aux industriels de mener une étude de validation (tenue aux tests normalisés) avant la mise en fabrication des meubles. De nombreux outils de calcul 3D permettent ces simulations mais le domaine de l’ameublement est spécifique : d’une part, les éléments de meuble sont généralement de géométrie simple assimilable à un assemblage de plaques et/ou de poutres mais d’autre part, (i) les matériaux utilisés (ici, panneaux de particules) présentent beaucoup de dispersions dans leur comportement hétérogène et anisotrope et (ii) les liaisons entre éléments de meubles peuvent être complexes et induisent des effets locaux qu’une modélisation simplifiée en plaques et poutres ne peut représenter. Ces spécificités nous amènent à développer un code dédié aux meubles dans lequel une bibliothèque d’éléments de liaisons sera introduite et où les paramètres matériaux seront modélisés par des variables aléatoires suivant des lois de probabilité a priori inconnues. Cette étude porte sur le second point et présente l’identification des propriétés élastiques du matériau bois en panneau de particules à partir d’une technique d’analyse d’images et la mise en place d’un modèle éléments finis plaques pour simuler la réponse de meubles aux essais de validation. Une étude statistique du comportement des meubles prenant en compte la dispersion des propriétés matériaux est menée en utilisant une méthode de Monte Carlo
In furniture industry, the numerical simulation allows the design and optimization of wood-based structures, thus avoiding expensive experimental campaigns. Most of wood-based furniture present some particular features in terms of material properties and geometries. On the one hand, the properties of timber materials (such as particule boards) are strongly heterogeneous and anisotropic. On the other hand, the furniture are often made of simply-shaped elements and then can be represented by an assembly of plates and/or beams. The present work deals with those specific features and presents the identification of the elastic properties of particle boards from digital image correlation (DIC) [Chevalier et al. 2001] as well as the simulation of the mechanical behavior of furniture. First, three-point bending tests based on Timoshenko’s beam theory are performed on different samples cut from a prototype desk for the identification of the material properties using DIC techniques. Secondly, a probabilistic model for the uncertain material parameters is constructed by using the Maximum Entropy (MaxEnt)principle [Soize 2017] combined with a Markov Chain Monte-Carlo (MCMC) method based on Metropolis-Hastings algorithm for generating realizations of the underlying random variables. Thirdly, numerical virtual tests are performed to propagate the uncertainties in the material properties through the model and assess the impact of such variabilities on the response of the structure. Lastly, several real tests were previously conducted on the desk in order to validate the proposed numerical approach. Quite good agreement is observed between the numerical computations and the experimental measurements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Nasser, Hassan. „Analyse des trains de spike à large échelle avec contraintes spatio-temporelles : application aux acquisitions multi-électrodes rétiniennes“. Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00990744.

Der volle Inhalt der Quelle
Annotation:
L'évolution des techniques d'acquisition de l'activité neuronale permet désormais d'enregistrer simultanément jusqu'à plusieurs centaines de neurones dans le cortex ou dans la rétine. L'analyse de ces données nécessite des méthodes mathématiques et numériques pour décrire les corrélations spatiotemporelles de la population neuronale. Une méthode couramment employée est basée sur le principe d'entropie maximale. Dans ce cas, le produit N×R, où N est le nombre de neurones et R le temps maximal considéré dans les corrélations, est un paramètre crucial. Les méthodes de physique statistique usuelles sont limitées aux corrélations spatiales avec R = 1 (Ising) alors que les méthodes basées sur des matrices de transfert, permettant l'analyse des corrélations spatio-temporelles (R > 1), sont limitées à N×R≤20. Dans une première partie, nous proposons une version modifiée de la méthode de matrice de transfert, basée sur un algorithme de Monte-Carlo parallèle, qui nous permet d'aller jusqu'à N×R=100. Dans la deuxième partie, nous présentons la bibliothèque C++ Enas, dotée d'une interface graphique développée pour les neurobiologistes. Enas offre un environnement hautement interactif permettant aux utilisateurs de gérer les données, effectuer des analyses empiriques, interpoler des modèles statistiques et visualiser les résultats. Enfin, dans une troisième partie, nous testons notre méthode sur des données synthétiques et réelles (rétine, fournies par nos partenaires biologistes). Notre analyse non exhaustive montre l'avantage de considérer des corrélations spatio-temporelles pour l'analyse des données rétiniennes; mais elle montre aussi les limites des méthodes d'entropie maximale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Gallón, Gómez Santiago Alejandro. „Template estimation for samples of curves and functional calibration estimation via the method of maximum entropy on the mean“. Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2000/.

Der volle Inhalt der Quelle
Annotation:
L'une des principales difficultés de l'analyse des données fonctionnelles consiste à extraire un motif commun qui synthétise l'information contenue par toutes les fonctions de l'échantillon. Le Chapitre 2 examine le problème d'identification d'une fonction qui représente le motif commun en supposant que les données appartiennent à une variété ou en sont suffisamment proches, d'une variété non linéaire de basse dimension intrinsèque munie d'une structure géométrique inconnue et incluse dans un espace de grande dimension. Sous cette hypothèse, un approximation de la distance géodésique est proposé basé sur une version modifiée de l'algorithme Isomap. Cette approximation est utilisée pour calculer la fonction médiane empirique de Fréchet correspondante. Cela fournit un estimateur intrinsèque robuste de la forme commune. Le Chapitre 3 étudie les propriétés asymptotiques de la méthode de normalisation quantile développée par Bolstad, et al. (2003) qui est devenue l'une des méthodes les plus populaires pour aligner des courbes de densité en analyse de données de microarrays en bioinformatique. Les propriétés sont démontrées considérant la méthode comme un cas particulier de la procédure de la moyenne structurelle pour l'alignement des courbes proposée par Dupuy, Loubes and Maza (2011). Toutefois, la méthode échoue dans certains cas. Ainsi, nous proposons une nouvelle méthode, pour faire face à ce problème. Cette méthode utilise l'algorithme développée dans le Chapitre 2. Dans le Chapitre 4, nous étendons le problème d'estimation de calage pour la moyenne d'une population finie de la variable de sondage dans un cadre de données fonctionnelles. Nous considérons le problème de l'estimation des poids de sondage fonctionnel à travers le principe du maximum d'entropie sur la moyenne -MEM-. En particulier, l'estimation par calage est considérée comme un problème inverse linéaire de dimension infinie suivant la structure de l'approche du MEM. Nous donnons un résultat précis d'estimation des poids de calage fonctionnels pour deux types de mesures aléatoires a priori: la measure Gaussienne centrée et la measure de Poisson généralisée
One of the main difficulties in functional data analysis is the extraction of a meaningful common pattern that summarizes the information conveyed by all functions in the sample. The problem of finding a meaningful template function that represents this pattern is considered in Chapter 2 assuming that the functional data lie on an intrinsically low-dimensional smooth manifold with an unknown underlying geometric structure embedding in a high-dimensional space. Under this setting, an approximation of the geodesic distance is developed based on a robust version of the Isomap algorithm. This approximation is used to compute the corresponding empirical Fréchet median function, which provides a robust intrinsic estimator of the template. The Chapter 3 investigates the asymptotic properties of the quantile normalization method by Bolstad, et al. (2003) which is one of the most popular methods to align density curves in microarray data analysis. The properties are proved by considering the method as a particular case of the structural mean curve alignment procedure by Dupuy, Loubes and Maza (2011). However, the method fails in some case of mixtures, and a new methodology to cope with this issue is proposed via the algorithm developed in Chapter 2. Finally, the problem of calibration estimation for the finite population mean of a survey variable under a functional data framework is studied in Chapter 4. The functional calibration sampling weights of the estimator are obtained by matching the calibration estimation problem with the maximum entropy on the mean -MEM- principle. In particular, the calibration estimation is viewed as an infinite-dimensional linear inverse problem following the structure of the MEM approach. A precise theoretical setting is given and the estimation of functional calibration weights assuming, as prior measures, the centered Gaussian and compound Poisson random measures is carried out
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Li, Songzi. „W-entropy formulas on super ricci flows and matrix dirichlet processes“. Toulouse 3, 2015. http://www.theses.fr/2015TOU30365.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se compose de 5 parties reliées entre elles. Dans la première, nous démontrons des inégalités de Harnack et de Sobolev logarithmiques pour le semigroupe de la chaleur associé au laplacien de Witten du K-super flot de Ricci et du (K,m) super flot de Ricci. Dans la seconde, nous introduisons la W-entropie, pour laquelle nous démontrons une formule variationnelle et sa monotonicité le long du flot. Dans la troisième, nous introduisons la déformation de Langevin des flots géométriques sur l'espace de Wasserstein au dessus d'une variété Riemanienne compacte, qui interpole entre le flot géodésique et le flot de gradient sur l'espace de Wasserstein. Nous démontrons ainsi une formule de W-entropie. Dans la quatrième, nous étudions le mouvement Brownien de Dyson sur l'algèbre des octonions, et donnons deux modèles où ce mouvement existe, ce qui permet de déterminer à la fois la mesure invariante et la multiplicité des valeurs propres. Enfin, dans la cinquième partie, nous introduisons les processus sur le simplexe matriciel (les processus de Dirichlet matriciels), et donnons une description de modèles polynomiaux sur ce simplexe matriciel qui admettent les mesures de Dirichlet matricielles comme mesure invariante
This PhD thesis consists of five parts, which are closely related. In part 1, we prove the Harnack inequality and the logarithmic Sobolev inequalities for the heat semigroup of the Witten Laplacian on the K-super Ricci flows and the (K, m)-super Ricci flows. In part 2, we introduce the W-entropy for the heat equation of the weighted Laplacian on the K-super Ricci flows and the (K, m)-super Ricci flows, and prove its variational formula and monotonicity property. In part 3, we introduce the Langevin deformation of geometric flows on the Wasserstein space over ompact Riemannian manifolds, which interpolate the geodesic flow and the gradient flows on the Wasserstein space. The W-entropy formula has been proved. In part 4, we study the Dyson Brownian motion on the octonion algebra, and give two specific models on which the invariant measure and the algebraic multiplicity can be determined. In part 5, we introduce the matrix Dirichlet distribution as their invariant measure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Stoven, Véronique. „Nouvelles techniques pour la reconstruction par RMN de la structure tridimensionnelle de molécules en solution“. Paris 11, 1989. http://www.theses.fr/1989PA112190.

Der volle Inhalt der Quelle
Annotation:
De nouvelles techniques de traitement des spectres de Résonance Magnétique Nucléaire à deux dimensions (RMN-2D) sont présentées, en vue d’aider à la reconstitution de la structure tridimensionnelle des molécules. L’expérience de NOESY-2D étant l’expérience clef dans la détermination des conformations, les problèmes posés par l’interprétation quantitative de l’Effet Nucléaire Overhauser (NOE), sont présentées en détail. Une méthode est proposée pour la détection et l’intégration automatique des pics dans les cartes de RMN-2D. Elle est utilisée dans la détermination de distances internucléaires à partir des cartes NOE, y compris en cas de présence de cohérences zéro-quanta. Les principes de la confrontation entre les données RMN, et celles de méthode de calculs théoriques de conformations, sont exposés. Un exemple d’application est donné par la détermination de la géométrie d’un oligo-nucléotide platiné. Cet exemple constitue un modèle dans l’étude de l’interaction entre l’ADN et une drogue antitumorale : le cisdiamine-dichloro-platine (II). Par ailleurs, l’auteur propose un algorithme de phasage automatique, et une méthode de déconvolution dans le cadre général de la reconstruction inverse des spectres par Maximum Entropie. Ces techniques devraient aider le spectroscopiste dans le traitement et l’interprétation de spectres complexes de macro-molécules.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

De, bortoli Valentin. „Statistiques non locales dans les images : modélisation, estimation et échantillonnage“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN020.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on étudie d'un point de vueprobabiliste deux statistiques non locales dans les images : laredondance spatiale et les moments de certaines couches de réseauxde neurones convolutionnels. Plus particulièrement, on s'intéresse àl'estimation et à la détection de la redondance spatiale dans lesimages naturelles et à l'échantillonnage de modèles d'images souscontraintes de moments de sorties de réseaux deneurones.On commence par proposer une définition de la redondance spatialedans les images naturelles. Celle-ci repose sur une analyseGestaltiste de la notion de similarité ainsi que sur un cadrestatistique pour le test d'hypothèses via la méthode acontrario. On développe un algorithme pour identifier cetteredondance dans les images naturelles. Celui-ci permet d'identifierles patchs similaires dans une image. On utilise cette informationpour proposer de nouveaux algorithmes de traitement d'image(débruitage, analyse de périodicité).Le reste de cette thèse est consacré à la modélisation et àl'échantillonnage d'images sous contraintes non locales. Les modèlesd'images considérés sont obtenus via le principe de maximumd'entropie. On peut alors déterminer la distribution cible sur lesimages via une procédure de minimisation. On aborde ce problème enutilisant des outils issus de l'optimisationstochastique.Plus précisément, on propose et analyse un nouvel algorithme pourl'optimisation stochastique : l'algorithme SOUL (StochasticOptimization with Unadjusted Langevin). Dans cette méthodologie, legradient est estimé par une méthode de Monte Carlo par chaîne deMarkov (ici l'algorithme de Langevin non ajusté). Les performancesde cet algorithme repose sur les propriétés de convergenceergodiques des noyaux de Markov associés aux chaînes de Markovutilisées. On s'intéresse donc aux propriétés de convergencegéométrique de certaines classes de modèles fonctionnelsautorégressifs. On caractérise précisément la dépendance des taux deconvergence de ces modèles vis à vis des constantes du modèle(dimension, régularité,convexité...).Enfin, on applique l'algorithme SOUL au problème de synthèse detexture par maximum d'entropie. On étudie les liens qu'entretientcette approche avec d'autres modèles de maximisation d'entropie(modèles macrocanoniques, modèles microcanoniques). En utilisant desstatistiques de moments de sorties de réseaux de neuronesconvolutionnels on obtient des résultats visuels comparables à ceux del'état de l'art
In this thesis we study two non-localstatistics in images from a probabilistic point of view: spatialredundancy and convolutional neural network features. Moreprecisely, we are interested in the estimation and detection ofspatial redundancy in naturalimages. We also aim at sampling images with neural network constraints.We start by giving a definition of spatial redundancy in naturalimages. This definition relies on two concepts: a Gestalt analysisof the notion of similarity in images, and a hypothesis testingframework (the a contrario method). We propose an algorithm toidentify this redundancy in natural images. Using this methodologywe can detect similar patches in images and, with this information,we propose new algorithms for diverse image processing tasks(denoising, periodicity analysis).The rest of this thesis deals with sampling images with non-localconstraints. The image models we consider are obtained via themaximum entropy principle. The target distribution is then obtainedby minimizing an energy functional. We use tools from stochasticoptimization to tackle thisproblem.More precisely, we propose and analyze a new algorithm: the SOUL(Stochastic Optimization with Unadjusted Langevin) algorithm. Inthis methodology, the gradient is estimated using Monte Carlo MarkovChains methods. In the case of the SOUL algorithm we use an unadjustedLangevin algorithm. The efficiency of the SOUL algorithm is relatedto the ergodic properties of the underlying Markov chains. Thereforewe are interested in the convergence properties of certain class offunctional autoregressive models. We characterize precisely thedependency of the convergence rates of these models with respect totheir parameters (dimension, smoothness,convexity).Finally, we apply the SOUL algorithm to the problem ofexamplar-based texture synthesis with a maximum entropy approach. Wedraw links between our model and other entropy maximizationprocedures (macrocanonical models, microcanonical models). Usingconvolutional neural network constraints we obtain state-of-the artvisual results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Krysta, Monika. „Modélisation numérique et assimilation de données de la dispersion de radionucléides en champ proche et à l'échelle continentale“. Phd thesis, Université Paris XII Val de Marne, 2006. http://tel.archives-ouvertes.fr/tel-00652840.

Der volle Inhalt der Quelle
Annotation:
La prévision des conséquences de rejets radioactifs dans l'atmosphère repose sur des modèles de dispersion qui fournissent des solutions analytiques (pX 0.1 développé par IRSN/ECL) ou numériques (Polair3D développé au CEREA) de l'équation d'advection-diffusion. Les modèles s'appuient d'une part sur des champs météorologiques possédant une résolution limitée et intègrent d'autre part des processus d'appauvrissement d'un nuage radioactif dont la description est imparfaite. Afin de contourner ces difficultés nous exploitons dans cette thèse les opportunités offertes par le couplage des modèles aux mesures, connu sous le nom d'assimilation de données. Dans un premier temps nous confrontons les modèles utilisés à des observations. Ces dernières sont fournies par des expériences effectuées avec des traceurs passifs ou collectées suite a des rejets de radionucléides. La dispersion sur une maquette de la centrale de Bugey dans une soufflerie en champ proche, l'expérience ETEX-I à l'échelle continentale et les rejets accidentels de Tchernobyl et Algésiras font l'objet d'études dans ce travail. Dans un deuxième temps, les modèles de dispersion sont associés aux mesures dans le but d'améliorer l'évaluation de conséquences de rejets radioactifs et d'inverser leur sources si la qualité du modèle le permet. En champ proche, l'approche variationnelle standard est utilisée. L'adjoint de pX 0.1 est construit à l'aide d'un différenciateur automatique. Les mesures collectées dans la soufflerie sont assimilées afin d'inverser le débit de la source. Dans le but d'obtenir un meilleur accord entre le modèle et les mesures, l'optimisation des paramètres gouvernant la distribution spatiale du panache est ensuite abordée. L'avantage de l'emploi de mesures est conditionné par leur contenu informatif. Ainsi, l'analyse a posteriori du réseau de mesures est effectuée et des possibilités de réduire sa taille en vue des applications opérationnelles sont exploitées. A l'échelle continentale, malgré la restriction aux mailles contenant des sites nucléaires, l'espace engendré par des sources est de dimension considérablement plus grande que l'espace d'observations. Par conséquent le problème inverse de reconstruction de la position et du profil temporel des sources est mal posé. Ce problème est régularisé en utilisant le principe du maximum d'entropie sur la moyenne. Des nouvelles fonctions coût prenant en compte le confinement spatio-temporel des sources accidentelles sont construites dans l'espace d'observations. Le lien entre la source recherchée et les mesures est décrit par l'adjoint de Polair3D. Les observations assimilées par la méthode sont constituées de mesures synthétiques, parfaites ou bruitées. Une série d'expériences se focalisant sur des sensibilités de la méthode est menée et leur qualité évaluée à l'aide d'un indicateur objectif. Un algorithme de réduction des sites suspectés pour des applications opérationnelles est testé. Finalement, les résultats de l'inversion du profil temporel de la source de l'accident d'Algésiras sont présentés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Bochard, Pierre. „Vortex, entropies et énergies de ligne en micromagnétisme“. Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112119/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de questions mathématiques posées par des problèmes issus du micromagnétisme ; un thème central en est les champs de vecteur de rotationnel nul et de norme 1, qu'on voit naturellement apparaître comme configurations minimisant des énergies micromagnétiques.Le premier chapitre est motivé par la question suivante : peut-on, en dimension plus grande que deux, caractériser les champs de vecteur de rotationnel nul et de norme 1 par une formulation cinétique ?Une telle formulation a d'abord été introduite en dimension 2 dans l'article \cite{Jabin_Otto_Perthame_Line_energy_2002} de Jabin, Otto et Perthame où elle apparaît naturellement dans le cadre de la minimisation d'une énergie de type Ginzburg-Landau. Ignat et De Lellis ont ensuite montré dans \cite{DeLellis_Ignat_Regularizing_2014} qu'une telle formulation cinétique caractérise les champs de rotationnel nul et de norme 1 possédant une certaine régularité en dimension 2. Le premier chapitre de cette thèse est consacré à l'étude d'une formulation cinétique similaire en dimension quelconque ; le résultat principal en est qu'en dimension strictement plus grande que 2, cette fomulation cinétique ne caractérise non plus tous les champs de rotationnel nul et de norme 1, mais seulement les champs constants ou les vortex.La caractérsation cinétique des champs de vecteur de rotationnel nul et de norme 1 en dimension 2,prouvée par De Lellis et Ignat et que nous venons de mentionner reposait sur la notion d'entropie.Ayant obtenu une formulation cinétique en dimension quelconque, il était naturel de vouloir l'exploiter un tentant d'étendre également la notion d'entropie aux dimensions supérieures à 2. C'est ce à quoi est consacré le deuxième chapitre de cette thèse ; nous y définissons en particulier une notion d'entropie en dimension quelconque. Le point central en est la caractérisation de ces entropies par un système d'\équations aux dérivées partielles, et leur description complète en dimension 3, ainsi que la preuve pour ces entropies de propriétés tout à fait semblables à celles des entropies deux dimensionnelles.Le troisième chapitre de cette thèse, qui expose les résultats d'un travail en collaboration avec Antonin Monteil, s'intéresse à la minimisation d'\'energies de type Aviles-Giga de la forme $\mathcal_f(m)=\int_f(|m^+-m^-|)$ o\`u $m$ est un champ de rotationnel nul et de norme 1 et où $J(m)$ désigne les lignes de saut de $m$. Deux questions classiques se posent pour ce type d'énergie : la solution de viscosité de l'équation eikonale est-elle un minimiseur et l'énergie est-elle semi-continue inférieurement pour une certaine topologie. Le résutat principal de cette partie est un construction, qui nous permet en particulier de répondre par la négative à ces deux questions dans les cas où $f(t)= t^p$ avec $p \in ]0,1[$ en donnant une condition nécessaire sur $f$ pour que $\mathcal_f$ soit semi-continue inférieurement.Enfin, le dernier chapitre de cette thèse est consacré à l'étude d'une variante de l'énergie de Ginzburg-Landau introduite par Béthuel, Brezis et Helein où on a remplacé la condition de bord par une pénalisation dépendant d'un paramètre. Nous y décrivons le comportement asymptotique de l'énergie minimale qui, suivant la valeur de ce paramètre, soit se comporte comme l'énergie de Ginzburg-Landau classique en privilégiant une configuration vortex, soit privilégie au contraire une configuration singulière suivant une ligne
This thesis is motivated by mathematical questions arising from micromagnetism. One would say that a central topic of this thesis is curl-free vector fields taking value into the sphere. Such fields naturally arise as minimizers of micromagnetic-type energies. The first part of this thesis is motivated by the following question : can we find a kinetic formulation caracterizing curl-free vector fields taking value into the sphere in dimension greater than 2 ? Such a formulation has been found in two dimension by Jabin, Otto and Perthame in \cite. De Lellis and Ignat used this formulation in \cite{DeLellis_Ignat_Regularizing_2014} to caracterize curl-free vector fields taking value into the sphere with a given regularity. The main result of this part is the generalization of their kinetic formulation in any dimension and the proof that if $d>2$, this formulation caracterizes only constant vector fields and vorteces, i. e. vector fields of the form $\pm \frac$. The second part of this thesis is devoted to a generalization of the notion of \textit, which plays a key role in the article of De Lellis and Ignat we talked about above. We give a definition of entropy in any dimension, and prove properties quite similar to those enjoyed by the classical two-dimensional entropy. The third part of this thesis, which is the result of a joint work with Antonin Monteil, is about the study of an Aviles-Giga type energy. The main point of this part is a necessary condition for such an energy to be lower semi continuous. We give in particular an example of energy of this type for which the viscosity solution of the eikonal equation is \textit a minimizer. The last part, finally is devoted to the study of a Ginzburg-Landau type energy where we replace the boundary condition of the classical Ginzburg-Landau energy introduced by Béthuel, Brezis and Helein by a penalization within the energy at the critical scaling depending on a parameter. The core result of this part is the description of the asymptotic of the minimal energy, which, depending on the parameter, favorizes vortices-like configuration like in the classical Ginzburg-Landau case, or configurations singular along a line
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Zheng, Huicheng. „Modèles de maximum d'entropie pour la détection de la peau : application au filtrage de l'internet“. Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Zheng.pdf.

Der volle Inhalt der Quelle
Annotation:
La détection de la peau dans les images en couleur joue un rôle très important pour de nombreux problèmes de reconnaissance de formes. Citons la détection de visages ou encore la détection de corps humain dans une image. La résolution partielle de ces problèmes permet de faire des progrès dans les applications suivantes : le filtrage de l'internet, afin, par exemple, de signaler les images pornographiques, l'indexation par le contenu de catalogues d'images, ou encore la visioconférence, en permettant le suivi des visages dans des séquences d'images. Nous disposons d'une large collection d'images qui ont été étiquetées manuellement. Ainsi, chaque pixel de chaque image de cette collection admet un label binaire : "peau" ou "non-peau". Nous considérons successivement trois modèles probabilistes de complexité croissante pour la détection de la peau. Chaque modèle est un modèle de maximum d'entropie sur la moyenne. Tout d'abord, les contraintes ne portent que sur les lois marginales des couleurs pour chaque pixels. Puis, nous ajoutons des contraintes sur les lois jointes des labels binaires - "peau" ou "non-peau" - des pixels voisins. Le modèle obtenu est alors un champs de Markov
Dans un troisième temps, nous ajoutons des contraintes sur les couleurs des pixels voisins. Le modèle obtenu est à nouveau un champs de Markov mais contenant un très grand nombre de paramètres. Afin, aussi bien d'estimer les paramètres de ces modèles que d'effectuer de l'inférence, c'est à dire, étant donné une image couleur, calculer la probabilité pour chaque pixel qu'il corresponde à de la peau, nous proposons d'approximer, localement, le graphe associé aux pixels par un arbre. On dispose alors de l'algorithme "iterative scaling" pour l'estimation des paramètres et de l'algorithme "belief propagation" pour l'inférence. Nous avons effectué de nombreuses études expérimentales afin d'évaluer les performances respectives des différents modèles, en particulier en modifiant la taille et la géométrie des arbres. Dans le cas du projet européen Poesia, nous avons utilisé notre détecteur de peau en entrée d'un système de classification utlisant la méthode des réseaux neuronaux pour bloquer les pages webs indésirable pour les enfants. Nous avons obtenu des résultats extrèmement encourageants
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Le, Tien-Thinh. „Modélisation stochastique, en mécanique des milieux continus, de l'interphase inclusion-matrice à partir de simulations en dynamique moléculaire“. Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1172/document.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, nous nous intéressons à la modélisation stochastique continue et à l'identification des propriétés élastiques dans la zone d'interphase présente au voisinage des hétérogénéités dans un nano composite prototypique, composé d'une matrice polymère modèle renforcée par une nano inclusion de silice. Des simulations par dynamique moléculaire (DM) sont tout d'abord conduites afin d'extraire certaines caractéristiques de conformation des chaînes proches de la surface de l'inclusion, ainsi que pour estimer, par des essais mécaniques virtuels, des réalisations du tenseur apparent associé au domaine de simulation. Sur la base des résultats obtenus, un modèle informationnel de champ aléatoire est proposé afin de modéliser les fluctuations spatiales du tenseur des rigidités dans l'interphase. Les paramètres du modèle probabiliste sont alors identifiés par la résolution séquentielle de deux problèmes d'optimisation inverses (l'un déterministe et associé au modèle moyen, l'autre stochastique et lié aux paramètres de dispersion et de corrélation spatiale) impliquant une procédure d'homogénéisation numérique. On montre en particulier que la longueur de corrélation dans la direction radiale est du même ordre de grandeur que l'épaisseur de l'interphase, indiquant ainsi la non-séparation des échelles. Enfin, la prise en compte, par un modèle de matrices aléatoires, du bruit intrinsèque généré par les simulations de DM (dans la procédure de calibration) est discutée
This work is concerned with the stochastic modeling and identification of the elastic properties in the so-called interphase region surrounding the inclusions in nanoreinforced composites. For the sake of illustration, a prototypical nanocomposite made up with a model polymer matrix filled by a silica nanoinclusion is considered. Molecular Dynamics (MD) simulations are first performed in order to get a physical insight about the local conformation of the polymer chains in the vicinity of the inclusion surface. In addition, a virtual mechanical testing procedure is proposed so as to estimate realizations of the apparent stiffness tensor associated with the MD simulation box. An information-theoretic probabilistic representation is then proposed as a surrogate model for mimicking the spatial fluctuations of the elasticity field within the interphase. The hyper parameters defining the aforementioned model are subsequently calibrated by solving, in a sequential manner, two inverse problems involving a computational homogenization scheme. The first problem, related to the mean model, is formulated in a deterministic framework, whereas the second one involves a statistical metric allowing the dispersion parameter and the spatial correlation lengths to be estimated. It is shown in particular that the spatial correlation length in the radial direction is roughly equal to the interphase thickness, hence showing that the scales under consideration are not well separated. The calibration results are finally refined by taking into account, by means of a random matrix model, the MD finite-sampling noise
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Durantel, Florent. „Mesure de luminescence induite par faisceaux d'ions lourds rapides résolue à l'echelle picoseconde“. Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC261/document.

Der volle Inhalt der Quelle
Annotation:
Nous avons travaillé sur le développement d’un instrument de mesure de la luminescence induite par un faisceau d’ions lourds (nucléons  12) et d’énergie de l’ordre du MeV/nucléons. Basé sur une méthode de comptage de photons uniques obtenus par coïncidences, le dispositif permet d’obtenir sur 16 voies à la fois un spectre en énergie dans le domaine proche UV-visible-proche IR (185-920 nm) et la réponse temporelle sur la gamme ns-µs, avec un échantillonnage de 100 ps. Des mesures en température peuvent être réalisées depuis la température ambiante jusqu’à 30K.Ce travail met particulièrement l’accent sur les méthodes d’extraction des données : Une fois montrée la nécessité de déconvoluer les signaux, on s’intéresse dans un premier temps à évaluer différents profils instrumentaux modélisés et reconstruit à partir de mesures. A cet effet, un travail de caractérisation temporelle de chaque constituant du dispositif est mené. Puis ces profils instrumentaux sont utilisés dans deux méthodes de déconvolution par moindres carrés d’abord puis par maximum d’entropie ensuite.Deux matériaux types sont testés : Le Titanate de Strontium pour l’étude de la dynamique de l’excitation électronique, et un scintillateur plastique commercial, le BC400, pour l’étude du vieillissement et de la baisse des performances en fonction de la fluence. Dans les deux cas on a pu mettre en évidence la présence d’une composante ultra rapide de constante de temps subnanoseconde
We developed an instrument for measuring the luminescence induced by a heavy ion beam (nucleons  12) and energy in the range of MeV / nucleon. Based on a single photon counting method obtained by coincidences, the device can provide in the same run a 16-channel energy spectrum in the UV-visible- IR region (185-920 nm) and a time-resolved response in the range of ns up to µs for each channel. Temperature measurements can be performed from room temperature down to 30K.This work places particular emphasis on data extraction methods: Once the need to deconvolve the signals demonstrated the evaluation of different instrument profiles (simulated and reconstructed from measurements) leads to a systematic temporal characterization of each component of the device. Then, these instrumental profiles are used in two deconvolution methods: least squares first followed by maximum entropy method.Two typical materials are tested: the Strontium Titanate for the study of the dynamics of the electronic excitation, and a commercial scintillator, the BC400, for the study of the aging and the decrease of performances with fluence. In both cases, we have been able to highlight the presence of an ultrafast component of subnanosecond time constant
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Rabenoro, Dimbihery. „Distribution asymptotique de vecteurs aléatoires indépendants non identiquement distribués conditionnés par leur somme. Lois limites fonctionnelles pour les incréments d’un processus de Lévy“. Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS572.

Der volle Inhalt der Quelle
Annotation:
Dans la première partie de cette thèse, nous développons des théorèmes limites conditionnels pour des vecteurs aléatoires indépendants, non nécessairement identiquement distribués. Nous étendons ainsi des théorèmes classiques du type principe de Gibbs conditionnels, obtenu dans le cas i.i.d. Nous utilisons notamment des développements de type point-selle. Dans la seconde partie, nous obtenons des théorèmes d’Erdös-Renyi pour les incréments d’un processus de Lévy, dans une version fonctionnelle. L’outil clé est ici celui de grandes déviations fonctionnelles
In the first part of this work, we develop conditional limit theorems for independent not necessarily identically distributed random vectors. We extend thus classical theorems, as the Gibbs conditioning principle, obtained in the i.i.d. case. We use, among other tools, some saddlepoint approximations. In the second part, we obtain a functional form of Erdös-Renyi theorems for the increments of Lévy processes. The main tools are here functional large deviations principles
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Caron, Jérôme. „Etude et validation clinique d'un modèle aux moments entropique pour le transport de particules énergétiques : application aux faisceaux d'électrons pour la radiothérapie externe“. Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0452/document.

Der volle Inhalt der Quelle
Annotation:
En radiothérapie externe, les simulations des dépôts de dose aux patients sont réalisées sur des systèmesde planification de traitement (SPT) dotés d'algorithmes de calcul qui diffèrent dans leur modélisationdes processus physiques d'interaction des électrons et des photons. Or ces SPT, bien que rapides enclinique, montrent parfois des erreurs significatives aux abords des hétérogénéités du corps humain. Montravail de thèse a consisté à valider le modèle aux moments entropique M1 pour des faisceaux d'électronscliniques. Cet algorithme développé au CELIA dans le cadre de la physique des plasmas repose sur larésolution de l'équation cinétique de transport de Boltzmann linéarisée selon une décomposition auxmoments. M1 nécessite une fermeture du système d'équations basée sur le H-Théorème (maximisationde l'entropie). Les cartographies de dose 1D de faisceaux d'électrons de 9 et 20 MeV issues de M1 ontété comparées à celles issues de codes de référence : macro Monte-Carlo clinique (eMC) et full Monte-Carlo (GEANT-MCNPX) ainsi qu'à des données expérimentales. Les cas tests consistent en des fantômesd'abord homogènes puis de complexité croissante avec insertion d'hétérogéenéités mimant les tissus osseuxet pulmonaire. In fine, le modèle aux moments M1 démontre des propriétés de précision meilleures quecertains algorithmes de type Pencil Beam Kernel encore utilisés cliniquement et proches de celles fourniespar des codes full Monte-Carlo académiques ou macro Monte-Carlo cliniques, même dans les cas testscomplexes retenus. Les performances liées aux temps de calcul de M1 ont été évaluées comme étantmeilleures que celles de codes Monte-Carlo
In radiotherapy field, dose deposition simulations in patients are performed on Treatment Planning Systems (TPS) equipped with specific algorithms that differ in the way they model the physical interaction processes of electrons and photons. Although those clinical TPS are fast, they show significant discrepancies in the neighbooring of inhomogeneous tissues. My work consisted in validating for clinical electron beams an entropic moments based algorithm called M1. Develelopped in CELIA for warm and dense plasma simulations, M1 relies on the the resolution of the linearized Boltzmann kinetic equation for particles transport according to a moments decomposition. M1 equations system requires a closure based on H-Theorem (entropy maximisation). M1 dose deposition maps of 9 and 20 MeV electron beams simulations were compared to those extracted from reference codes simulations : clinical macro Monte-Carlo (eMC) and full Monte-carlo (GEANT4-MCNPX) codes and from experimental data as well. The different test cases consisted in homogeneous et complex inhomogeneous fantoms with bone and lung inserts. We found that M1 model provided a dose deposition accuracy better than some Pencil Beam Kernel algorithm and close of those furnished by clinical macro and academic full Monte-carlo codes, even in the worst inhomogeneous cases. Time calculation performances were also investigated and found better than the Monte-Carlo codes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Bennani, Youssef. „Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données
This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Krysta, Monika Le Dimet François-Xavier Bocquet Marc. „Modélisation numérique et assimilation de données de la dispersion de radionucléides en champ proche et à l'échelle continentale“. Créteil : Université de Paris-Val-de-Marne, 2006. http://doxa.scd.univ-paris12.fr:80/theses/th0243186.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Tixier, Eliott. „Variability modeling and numerical biomarkers design in cardiac electrophysiology“. Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066325/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse de doctorat est consacrée à l'étude de la variabilité observée dans les mesures d'électrophysiologie (i.e. l'activité électrique des tissus biologiques) cardiaque et à la conception de biomarqueurs numériques extraits de ces mesures. Les applications potentielles sont nombreuses, pouvant aller d'une meilleure compréhension des modèles électrophysiologiques existants à l'évaluations des effets nocifs de médicaments en passant par le diagnostic de pathologies cardiaques. Les modèles d'électrophysiologie cardiaque présentés dans ce travail sont, soit des équations différentielles ordinaires (EDOs), soit des équations aux dérivées partielles (EDPs), selon qu'ils concernent l'échelle cellulaire ou l'échelle du tissu. Dans les deux cas, ces modèles sont hautement non linéaires et nécessitent d'intenses ressources computationnelles. Nous adoptons l'approche suivante : de prime abord, nous développons des outils numériques afin de répondre à des problèmes généraux, au-delà de l'électrophysiologie. Puis, nous appliquons ces outils à des mesures synthétiques d'électrophysiologie dans différents scénarios réalistes et, lorsque cela est possible, à des mesures expérimentales. Dans la première partie de cette thèse, nous présentons une méthode générale pour estimer la densité de probabilité de paramètres incertains de modèles basés sur des EDOs ou des EDPs. La méthode est non intrusive et repose sur des évaluations "hors-ligne" du modèle direct, ce qui la rend en pratique computationellement moins dispendieuse que d'autres approches plus sophistiquées. La méthode est illustrée avec des mesures synthétiques et expérimentales d'électrophysiologie. Dans la seconde partie de cette thèse, nous présentons une méthode de sélectionde biomarqueurs à partir des sorties de modèles en vue d'effectuer des tâches de classification ou de résoudre des problèmes d'estimation de paramètres. La méthode repose sur la résolution d'un problème d'optimisation creux. La méthode est illustrée avec des modèles simples et ensuite appliquée à des mesures synthétiques, incluant des enregistrements d'électrocardiogramme, et à des données expérimentales obtenues à partir de mesures de matrices de microélectrodes
This PhD thesis is dedicated to the study of the variability observed in cardiac electrophysiology (i.e. the electrical activity of biological tissues) measurements and to the design of numerical biomarkers extracted from these measurements. The potential applications are numerous, ranging from a better understanding of existing electrophysiology models to the assessment of adverse effects of drugs or the diagnosis of cardiac pathologies. The cardiac electrophysiology models considered in the present work are either ODEs or PDEs depending on whether we focus on the cell scale or the tissue scale. In both cases, these models are highly non-linear and computationally intensive. We proceed as follows: first we develop numerical tools that address general issues and that are applicable beyond the scope of cardiac electrophysiology. Then, we apply those tools to synthetic electrophysiology measurements in various realistic scenarios and, when available, to real experimental data. In the first part of this thesis, we present a general method for estimating the probability density function (PDF) of uncertain parameters of models based on ordinary differential equations (ODEs) or partial differential equations (PDEs). The method is non-instrusive and relies on offline evaluations of the forward model, making it computationally cheap in practice compared to more sophisticated approaches. The method is illustrated with generic PDE and ODE models. It is then applied to synthetic and experimental electrophysiology measurements. In the second part of this thesis, we present a method to extract and select biomarkers from models outputs in view of performing classication tasks or solving parameter identification problems. The method relies on the resolution of a sparse optimization problem. The method is illustrated with simple models and then applied to synthetic measurements, including electrocardiogram recordings, and to experimental data obtained from micro-electrode array measurements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Bosché, Aurélien. „Flots géodésiques expansifs sur les variétés compactes sans points conjugués“. Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM085/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est composée de deux parties indépendantes.Dans la première partie nous étudions les propriétés dynamiques des flots géodésiques expansifs sur des variétés compactes sans points conjugués à l'aide du travail de R.O.~Ruggiero. Plus précisément nous montrons qu'un tel flot admet une unique mesure d'entropie maximale et nous construisons cette mesure. Cela généralise des résultats connus dans le cas des variétés compactes à courbure négative et de rang un. Nous montrons ensuite à l'aide de cette mesure que l'équivalent de Margulis (connu pour les variétés compactes à courbure strictement négative) concernant le nombre de lacets géodésiques est toujours valable dans ce cas.Dans la seconde partie nous étudions les isométries des cônes symétriques de dimension finie pour la métrique de Thompson et pour la métrique de Hilbert. Plus précisément nous montrons que le groupe d'isométries induit par les automorphismes linéaires de ce cône est un sous-groupe d'indice fini du groupe d'isométries pour chacune de ces deux métriques et donnons des représentant naturels pour le quotient de ces deux groupes. Cela généralise des résultats deL.~Molnár (qui a étudié ces isométries dans le cas des opérateurs symétriques positifs définis sur un espace de Hilbert complexe)
This thesis is divided in two independants parts.In the first part we investigate dynamical properties of expansive geodesic flows on compact manifolds without conjugate points using the work of R.O.~Ruggiero. More precisely we show that such a flow admits a unique measure of maximal entropy and constructthis measure. This extends results known in non-positively curved manifolds of rank one (and our construction is analogous). Wethen show, using this measure of maximal entropy, that the asymptotics of Margulis (known for compact negatively curvedmanifolds) on the number of geodesic loops still hold in this framework.In the second part we study isometries of finite dimensionalsymmetric cones for both the Thompson and the Hilbert metric. More precisely we show that the isometry group induced by the linear automorphisms preserving such a cone is a subgroup of finite indexin the full group of isometries for those two metrics and give a natural set of representatives of the quotient. This extends resultsof L.~Molnar (who studied such isometies for the symmetric irreducible cone of symmetric positive definite operators on acomplex Hilbert space)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Chauvet, Guillaume Carbon Michel. „Méthodes de Bootstrap en population finie“. Rennes : Université Rennes 2, 2008. http://tel.archives-ouvertes.fr/tel-00267689/fr.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Broux, Thibault. „Caractérisations structurales in situ avancées d'oxydes dérivées de la pérovskite pour des applications électrochimiques à haute température“. Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S125/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse se situe dans la thématique des oxydes dérivés de la pérovskite ayant des propriétés de conduction mixte tels que les structures de type K2NiF4, les pérovskites doubles et la brownmillérite. Cette aptitude à conduire à la fois l'oxygène et les électrons présente un intérêt pour des dispositifs électrochimiques fonctionnant à haute température et notamment en tant qu'électrode pour les piles à combustible à oxyde solide. Plus précisément, cette thèse concerne la synthèse et l'étude cristallochimique avancée de la réactivité de ces matériaux essentiellement par les grands instruments par le biais de la diffraction de neutrons (NPD) et des rayons X synchrotron. Le travail préliminaire à ces études implique de la synthèse inorganique par voie solide ou par voie sol-gel, l'analyse thermogravimétrique et la titration iodométrique. Des cellules de réactivité originales ont été développées spécialement à l'ISCR pour l'étude in situ du comportement redox sous différents flux gazeux et en fonction de la température à la fois dans le cadre de la diffraction des neutrons et rayons X synchrotron. L'étude in situ par NPD des composés La2-xSrxMnO4±δ où x = 2,0 et x = 0,8 qui dérivent du composé de cathode de référence La1-xSrxMnO3 a permis de suivre l'évolution structurale en fonction du δ en conditions réductrices pour x = 2,0 et en conditions oxydantes pour x = 0,8. L'étude DRX synchrotron de Pr2NiO4,22 a permis de mettre en évidence la symétrie monoclinique à température ambiante alors que les études précédentes annonçaient une symétrie orthorhombique. Les variations structurales notamment la transition vers la phase HTT sont accompagnées d'une modulation incommensurable qui persiste jusqu'à au moins 900 °C. L'étude des pérovskites doubles NdBaCo2−xMnxO5+δ où 0 ≤ x ≤ 2 a permis de montrer que ces matériaux présentent des conductivités électriques totales très prometteuses pour des applications en tant que cathode de SOFC. De plus, la confrontation de la dynamique moléculaire et de la NPD combinée à la MEM pour le composé x = 0 a permis d'élucider le mécanisme de diffusion de l'oxygène dans cette famille de composés. L'étude par NPD de la réduction de LaSrFeCoO6 vers LaSrFeCoO5 de structure brownmillérite a permis de mettre en évidence que la structure réduite persiste à haute température et l'évolution de la mise en ordre des moments magnétiques lors du refroidissement de LaSrFeCoO5
This thesis is focused on oxides related to perovskite such as K2NiF4 structure-type, double perovskite and brownmillerite with mixed conduction properties. This ability to conduct both oxygen ions and electrons is relevant for electrochemical devices operating at high temperature, particularly as an electrode for solid oxide fuel cell. Specifically, this thesis deals with the synthesis and advanced crystal structure characterization of the reactivity of these materials mainly through large scale facilities by means of neutron powder diffraction (NPD) and X-ray synchrotron. Preliminary work in these studies involves inorganic synthesis by solid-state or by sol-gel route, thermogravimetric analysis and the iodometric titration. Original reactivity cells have been developed at the ISCR to study redox behavior under different gas flow and as a function of temperature for both neutron diffraction and X-ray synchrotron experiment. In situ study by NPD of La2-xSrxMnO4 ± δ compounds where x = 2.0 and x = 0.8 which derived from the compound cathode reference La1-xSrxMnO3 allowed to follow the structural evolution as a function of δ in reducing conditions for x = 2.0 and oxidizing conditions for x = 0.8. The synchrotron study of Pr2NiO4.22 helped to highlight the monoclinic symmetry at room temperature while previous studies announced an orthorhombic symmetry. Besides, structural changes including the transition to the HTT phase are accompanied by an incommensurable modulation that persists at least up to 900 °C. The study of double perovskites NdBaCo2-xMnxO5+δ where 0 ≤ x ≤ 2 showed that these materials exhibit a promising electrical conductivities for SOFC applications as cathode. In addition, the comparison of the molecular dynamics and NDP combined with MEM for x = 0 compound has elucidated the oxygen diffusion mechanism in these compounds. The study by NPD in reducing condition of LaSrFeCoO6 to the brownmillerite LaSrFeCoO5 has showed that the reduced structure persists at high temperatures and allowed to follow the evolution in the ordering of the magnetic moments while cooling LaSrFeCoO5
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Labsy, Zakaria. „Méthode indirecte de détermination de la vitesse maximale aérobie sur le terrain par un test spécifique au football“. Paris 11, 2002. http://www.theses.fr/2002PA112318.

Der volle Inhalt der Quelle
Annotation:
Le but de ce travail est d'évaluer la fiabilité de deux versions d'un test de terrain spécifique au football pour déterminer la vitesse maximale aérobie (VMA). Le test de Probst est effectué sur un circuit de 140 m incluant des changements de direction, avec des paliers de 280 m, 0,6 km/h d'augmentation et 30 s d'intervalles de récupération. Sa version adaptée respecte le même protocole, mais, avec des paliers stables de 2 mn et 1,2 km/h d'augmentation à chaque palier. La première étude montre que la version originale du test de Probst surestime significativement la VMA chez les footballeurs par rapport aux athlètes de demi-fond, en comparant ce test à deux épreuves classiques, à sa version alignée et à sa version sur tapis roulant. La seconde étude confirme cette surestimation et montre que notre version adaptée du test de Probst est très proche et bien corrélée avec la VMA obtenue par l'épreuve classique de détermination de la VMA sur tapis roulant en mesure directe chez les footballeurs. En conclusion, notre version adaptée du test de Probst et non sa version originale apparaît comme une épreuve de terrain fiable, spécifique au football et facilement utilisable pour estimer la VMA chez les footballeurs
The aim of the study is to test the accuracy of two versions of a specific soccer field test for assessing Maximal Aerobic Velocity (MAV). The original Probst field test consists in repetition of 280 m successive races including changes in direction separated by a 30s rest with an initial speed of 8. 4 km/h and a 0. 6 km/h increment at each stage. The adapted version is carried out with the same protocol but constant stages of 2 min length and a 1. 2 km/h increment at each stage. The first study demonstrates that the original version of the Probst field test overestimates significantly the maximal aerobic velocity in soccer players, but not in athletes of medium-distance race, in comparison with two classical tests, with an aligned version and with the same protocol that that of the test of Probst in laboratory. The second study confirms this overestimation and demonstrates that our adapted version is much closed and highly correlated with a maximal aerobic velocity obtained by a laboratory treadmill test in soccer players. In conclusion, our adapted version of the Probst test but not the original version appears as a reliable specific soccer field test and easily conductible for estimate the maximal aerobic velocity in soccer players
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Caputo, Jean-Guy. „Dimension et entropie des attracteurs associés à des écoulements réels : estimation et analyse de la méthode“. Grenoble 1, 1986. http://www.theses.fr/1986GRE10057.

Der volle Inhalt der Quelle
Annotation:
On s'interesse a la caracterisation des regimes chaotiques par lesquels un ecoulement atteint la turbulence. On montre qu'un regime chaotique de convection de rayleigh-benard est decrit par un attracteur dont on determine la dimension et l'entropie. En vue de caracteriser des attracteurs de dimension plus elevee on determine les conditions d'obtention de resultats corrects sur des exemples precis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Minoukadeh, Kimiya. „Deterministic and stochastic methods for molecular simulation“. Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00597694.

Der volle Inhalt der Quelle
Annotation:
Molecular simulation is an essential tool in understanding complex chemical and biochemical processes as real-life experiments prove increasingly costly or infeasible in practice . This thesis is devoted to methodological aspects of molecular simulation, with a particular focus on computing transition paths and their associated free energy profiles. The first part is dedicated to computational methods for reaction path and transition state searches on a potential energy surface. In Chapter 3 we propose an improvement to a widely-used transition state search method, the Activation Relaxation Technique (ART). We also present a local convergence study of a prototypical algorithm. The second part is dedicated to free energy computations. We focus in particular on an adaptive importance sampling technique, the Adaptive Biasing Force (ABF) method. The first contribution to this field, presented in Chapter 5, consists in showing the applicability to a large molecular system of a new parallel implementation, named multiple-walker ABF (MW-ABF). Numerical experiments demonstrated the robustness of MW-ABF against artefacts arising due to poorly chosen or oversimplified reaction coordinates. These numerical findings inspired a new study of the longtime convergence of the ABF method, as presented in Chapter 6. By studying a slightly modified model, we back our numerical results by showing a faster theoretical rate of convergence of ABF than was previously shown
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Barbut, Charlotte. „Méthode d'évaluation de l'intérêt d'un tri basée sur les bilans de valeurs“. Compiègne, 2005. http://www.theses.fr/2005COMP1605.

Der volle Inhalt der Quelle
Annotation:
Nous présentons une méthode pour évaluer l'intérêt d'un tri. Cette méthode utilise des bilans de valeurs. Nous les appliquons à des tris générant deux types d'ensembles de matériaux, l'un destiné au recyclage et l'autre à l'incinération. Nous étudions trois propriétés: l'énergie fournie par les trieurs, la recyclabilité d'un ensemble de matériaux et sa combustibilité. Pour définir la recyclabilité d'un ensemble de matériaux, nous choisissons l'entropie, synonyme de niveau d'ordre. Par analogie avec la thermodynamique, nous définissons aussi l'énergie fournie par les trieurs. Ensuite, nous utilisons l'exergie pour évaluer l'énergie contenue dans un combustible. Enfin, nous attribuons des valeurs à ces trois propriétés. Seule une valeur totale du système de tri supérieure à la valeur de l'ensemble initial désigne un tri intéressant. Toutefois, si cette valeur totale passe par un maximum au cours du tri, continuer le tri après ce maximum devient inintéressant
We present a method to estimate the interest of sorting. This method is based on values assessments. We apply them to sortings producing two types of mixtures of materials , for recycling or for incineration. We study three properties : the energy provided by the operators, the recyclability of a mixture of materials and its combustibility. To define the recyclability of a mixture of materials, we choose entropy, synonymous of order level. By analogy with thermodynamics, we define the energy provided by the operators. Next, we use exergy to estimate the energy in a fuel. Finally, we assign values to these three properties. Only a total value of a sorting system above the value of the initial mixture points out an interesting sorting. However, if this total value peaks during sorting, continuing to sort after this maximum becomes uninteresting
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Poinsotte, Patrice. „Pluie, crue et inondation maximale probable en Versilia (Toscane, Alpes Apuane) : une nouvelle méthode d'évaluation des aléas pluvio-hydrologiques extrêmes“. Dijon, 2004. http://www.theses.fr/2004DIJOL009.

Der volle Inhalt der Quelle
Annotation:
Depuis quelques années, de nouvelles approches synthétiques se sont développées dans les sciences de l'eau, car la demande de protection de l'opinion publique autour de la problématique inondation est de plus en plus forte. Ces considérations nécessitent donc une amélioration de la prévention des aléas d'inondation en améliorant les méthodes d'analyse. C'est pour répondre à cette problématique que ce travail a cherché à développer une méthode basée sur la détermination de la pluie et de la crue maximale probable (PMP et CMP). L'objectif est de construire une méthodologie standard pour l'établissement des cartes d'aléas d'inondations. Cette étude nous a ainsi permis de décrire les fondements et le mode d'emploi de la méthode dont les conclusions s'articulent en quatre niveaux d'échelle, de l'échelle régionale à celle du cours d'eau
The prospect of this work is building a new methodology for flood management and damage mitigation with accepted standards, especially on risk map implementation. The objectives are to implement into models and tools a new synthetic approach based on the local-storm Probable Maximum Precipitation (PMP) and Probable Maximum Flood (PMF). These concepts are devoted to hazard mitigation and thermodynamic improvement in the Apuane Alps. Research is done in the field of regionalisation in hydrology, in the field of extreme rainfalls and discharges evaluations. First results have been obtain and are conform to the Mediterranean meteorology. The quantification and localization of maximum hazard, at watershed scale, gives a good estimation of the objectives of protection against floods. Thus, the methodology gives effective answers to help decision-makers and engineers to develop solutions in order to resolve specific problems in flood risk prevention
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Billat, Véronique. „Puissance critique déterminée par la lactatémie en régime continu d'exercice musculaire pour la validation d'une méthode d'évaluation de la capacité maximale aérobie“. Grenoble 1, 1988. http://www.theses.fr/1988GRE10140.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Boussandel, Sahbi. „Méthodes de résolution d'équations algébriques et d'évolution en dimension finie et infinie“. Thesis, Metz, 2010. http://www.theses.fr/2010METZ027S/document.

Der volle Inhalt der Quelle
Annotation:
Dans la présente thèse, on s’intéresse à la résolution de problèmes algébriques et d’évolution en dimension finie et infinie. Dans le premier chapitre, on a étudié l’existence globale et la régularité maximale d’un système gradient abstrait avec des applications à des problèmes de diffusion non-linéaires et à une équation de la chaleur avec des coefficients non-locaux. La méthode utilisée est la méthode d’approximation de Galerkin. Dans le deuxième chapitre, on a étudié l’existence locale, l’unicité et la régularité maximale des solutions de l’équation de raccourcissement des courbes en utilisant le théorème d’inversion locale. Finalement, dans le dernier chapitre, on a résolu une équation algébrique entre deux espaces de Banach en utilisant la méthode de Newton continue avec une application à une équation différentielle avec des conditions aux limites périodiques
In this work, we solve algebraic and evolution equations in finite and infinite-dimensional sapces. In the first chapter, we use the Galerkin method to study existence and maximal regularity of solutions of a gradient abstract system with applications to non-linear diffusion equations and to non-degenerate quasilinear parabolic equations with nonlocal coefficients. In the second chapter, we Study local existence, uniqueness and maximal regularity of solutions of the curve shortening flow equation by using the local inverse theorem. Finally, in the third chapter, we solve an algebraic equation between two Banach spaces by using the continuous Newton’s method and we apply this result to solve a non-linear ordinary differential equation with periodic boundary conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie