To see the other types of publications on this topic, follow the link: Théorie de moyenne portée.

Dissertations / Theses on the topic 'Théorie de moyenne portée'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Théorie de moyenne portée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cheffi, Walid. "Étude de l’utilisation des systèmes comptables par les managers de grandes entreprises : Contribution à la génération d’une théorie de moyenne portée." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090002.

Full text
Abstract:
L'insatisfaction, résultant des approches classiques de l'analyse de l’utilisation de la comptabilité par les managers, tient au fait (1) qu’elles manquent d’alignement sur les spécificités du travail managérial et (2) qu'elles prennent rarement en considération la dimension cognitive liée aux représentations mentales de ces acteurs. Cette thèse adoptant une perspective cognitive rend compte d’une recherche sur les rôles du dispositif comptable selon les managers. Fondée à la fois sur des entretiens auprès de managers d’entreprises différentes (1ère phase) et sur l’étude de cas d’une grande organisation (2ème phase), la recherche propose un cadre d’analyse de la perception et de l’utilisation du dispositif comptable. La revue de la littérature complétée par l’étude empirique permet de construire une grille intégrative d’analyse des rôles assignés à la comptabilité : informationnel, décisionnel, relationnel et cognitif. Des modes de rationalité : substantif, procédural, partenarial et cognitif, permettent respectivement de révéler ces méta-rôles. Des facteurs d’ordre cognitif contribuant à comprendre les comportements des managers sont, ensuite, identifiés. En outre, une large divergence cognitive entre le manager et le comptable est mise en lumière. Enfin, une typologie de styles managériaux d’utilisation du dispositif comptable est proposée à partir des deux phases empiriques. Trois idéo-types sont mis en évidence : le style faible (le détracteur), le style médium (le résistant) et le style fort (l’adepte)
The non satisfaction stemming from classical perspectives on the use of accounting by managers is bound to (1) that they suffer from a lack of alignment onto the specificities of managerial work and to (2) that they seldom take into account the cognitive dimension of actors’ mental representations. That dissertation, in adopting a cognitive perspective, reports on a research about the roles of the accounting drivers in accordance with the manager’s expectations. Based simultaneously upon interviews with managers in several organisations (1st stage) and upon a case study of a large organisation (2nd stage), the research offers an analytical framework of the perception and the use of the accounting drivers. The literature review supplemented with the empirical study allows the construction of an integrative analysis grill of the roles devoted to accounting: information, decision making, relational and cognitive. Modes of rationality help reveal those meta-roles. These modes are substantial, procedural, partnerial and cognitive. Afterwards, cognitive issues were identified, that contribute to a better understanding of the behaviour of managers. Moreover light was shed on a large cognitive gap in between the manager and the accountant. Lastly, a taxonomy of managerial styles in the use of accounting drivers could stem from both empirical stages. Three ideal-types were stressed: a weak style (the detractor), a middle-range style (the opponent) and a strong style (the adept)
APA, Harvard, Vancouver, ISO, and other styles
2

Barré, Julien. "Mécanique statistique et dynamique hors équilibre de systèmes avec interactions à longue portée." Lyon, École normale supérieure (sciences), 2003. http://www.theses.fr/2003ENSL0253.

Full text
Abstract:
La présence d'interactions à longue portée induit des propriétés très particulières : énergie non additive, dynamique chohérente à lé́chelle du système entier. . . Ces propirétés spécifiques ne dépendent pas de la nature de l'interaction à longue portée, qui peut avoir une origine variée (gravitationnnelle, Coulombienne non écrantée, interaction entre vortex en turbulence 2D, couplage ondes-particules. . . ); le but de cette thèse est d'explorer l'universatlité des comportements de ces systèmes avec interactions à longue partée. Nous partons donc de modèles jouets simples, pour dégager des méthodes et résultats généraux. Nous étudions d'abord la mécanique statistique d'équilibre, dont certaines anomalies sont connues : chaleur spécifique négative, ensembles statistiques inéquivalents par exemple. Nous montrons la présence de ces anomalies sur l'exemple d'un modèle de spins champ moyen exactement soluble, autour d'un point tricritique. Nous utilisons ensuite une méthode générale fondée sur la théorie des grandes déviations pour résoudre la mécanique statistique des systèmes à longue portée, dans les ensembles canonique et microcanonique, et nous l'appliquons à plusieurs systèmes dont la solution microcanonique était jusqu'ici inaccesssible. A partir de ces résultats, nous classifions les différentes situations possibles d'inéquivalence entre les ensembles. Puis nous nous intéressons à la dynamique hors équilibre des systèmes avec interactions à longue portée : nous étudions en détail un exemple de formation de structures, et nous présentons et illustrons un scénario général de la relaxation lente vers l'équilibre, fondée sur le lien étroit avec l'équation de Vlasov. Enfin, nous appliquons les idées et méthodes mises en évidence à un modèle simple de laser à électrons libres, ce qui fournit une approche originale, complémentaire à l'étude habituelle purement dynamique de ce type de lasers
In the presence of long range interactions, physics is very peculiar : energy is no more additive, phase separation in the usual sense is impossible, dynamics is necessarily coherent on a global scale. . . These peculiarities are independent of the origin of the long range interaction involved, which may be of many different types : gravitational, interaction between vortices in 2D turbulence, unshielded Coulombic interaction, wave-particles couplings for instance. The goal of this thesis is to explore precisely the universality of behaviours in these long range interaction systems; we start from the analysis of toy models, aiming at general results and methods. In a first part, we study equilibrium statistical mechanics which, as is known, may be anomalous and show for instance negative specific heat, or inequivalence between statistical ensembles. We show these anomalies around a tricritical point on an exactly solvable mean field spin model. We then use a general method, based on large deviation theory, to solve the statistical mechanics of long range interaction systems, and we apply it to a number of examples, whose microcanonical solution was till now inaccessible. From these results, and using singularity theory, we are able to classify all the possible inequivalence of ensembles situations. In a second part, we study the out of equilibrium dynamics of long range interacting systems : we explain in details an example of structure formation, and then we present and illustrate a general scenario for slow relaxation to equilibrium, based on the tight link with Vlasov equation. Finally, we apply the previous ideas and methods to a model of free electron laser on a linear accelerator, which yields an original approach, complementary to the usual purely dynamical one for this type of lasers
APA, Harvard, Vancouver, ISO, and other styles
3

Lapouge, Aurélien. "Que produisent les crises ? Le cas des itinéraires professionnels d'animateurs socioculturels toulousains." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEJ087.

Full text
Abstract:
L’objectif de mes travaux consiste à étudier en profondeur l’itinéraire professionnel d’animateurs socioculturels. Ma thèse conduit à interroger la dynamique des acteurs et des organisations. Elle positionne les « crises » (Abbott, 2009 ; Morin, 1976 ; Pain, 2011) comme le lieu et le moment où les choses sont en mouvement. L’enquête est inscrite dans la région Toulousaine. Ce territoire est teinté par de nombreux soubresauts touchant à une histoire ancienne et globale, par des conflits qui ont traversé la société française tout au long du XXe siècle. Il est aussi marqué par des configurations plus récentes et locales : depuis les années 2000, sur fond de mise en concurrence et de course à la technicité, les organisations du secteur ont été régulièrement remodelées. Mon approche, qualifiée d’écologique, s’inspire de la sociologie de l’école de Chicago (Abbott, 1988 ; Becker et al., 2016; Hughes, 1958 ; Thomas, 1928, 1938). Elle est qualitative, inductive et à visée compréhensive. Elle mobilise des travaux éclectiques dans une démarche relevant de la « Grounded Theory » (Glaser & Strauss, 1967), de l’ethnographie (Bordes, 2015 ; Delas & Milly, 2015 ; Olivier De Sardan & Mouchenik, 2018 ; Olivier de Sardan, 1995), ou de courants sociologiques liés à la démarche autobiographique (Bertaux, 1976; Demazière, 2007; Demazière&Dubar, 2005). Le recueil de données s’est déployé entre 2018 et 2024. Il a consisté à documenter les parcours et trajectoires de 12 individus. Au travers d’entretiens autobiographiques, d’observation distanciées et flottantes, les données prennent la forme de récits. L’enquête aboutit à une théorie de moyenne portée du mouvement crisique
The aim of my work is to study in depth the professional career of socio-cultural animators. My thesis leads to questioning the dynamics of actors and organizations. It positions “crises” (Abbott, 2009 ; Morin, 1976 ; Pain, 2011) as the place and moment where things are in motion. The investigation is carried out in the Toulouse region. This territory is colored by numerous upheavals affecting an ancient and global history, by conflicts which crossed French society throughout the 20th century. It is also marked by more recent and local configurations. Since the 2000s, against a backdrop of competition and the race for technicality, organizations in the sector have been regularly remodeled. My approach, described as ecological, is inspired by the sociology of the Chicago school (Abbott, 1988 ; Becker et al., 2016 ; Hughes, 1958 ; Thomas, 1928, 1938). It is qualitative, inductive and with a comprehensive aim. It mobilizes eclectic works in an approach based on “Grounded theory” (Glaser & Strauss, 1967), ethnography (Bordes, 2015 ; Delas & Milly, 2015 ; Olivier De Sardan & Mouchenik, 2018 ; Olivier de Sardan, 1995), or sociological currents linked to the autobiographical approach (Bertaux, 1976 ; Demazière, 2007 ; Demazière&Dubar, 2005). The data collection was carried out between 2018 and 2024. It consisted of documenting the paths and trajectories of 12 individuals. Through autobiographical interviews, distanced and floating observation, the data takes the form of stories. The investigation leads to a medium-range theory of the crisis movement
APA, Harvard, Vancouver, ISO, and other styles
4

Gendron, Bernard. "Ponts composites bois-béton collaborant en portée simple : théorie, essais et conception." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26803.

Full text
Abstract:
Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.
APA, Harvard, Vancouver, ISO, and other styles
5

Paquier, Julien. "Théorie de la fonctionnelle de la densité relativiste à séparation de portée." Thesis, Sorbonne université, 2020. http://www.theses.fr/2020SORUS059.

Full text
Abstract:
Cette thèse de doctorat constitue une contribution à l’extension relativiste de la théorie de la fonctionnelle de la densité à séparation de portée, en combinant un calcul de fonction d’onde relativiste à quatre composantes pour la contribution de longue portée avec une fonctionnelle de la densité relativiste à courte portée complémentaire, basée sur l’Hamiltonien Dirac-Coulomb ou Dirac-Coulomb-Breit sans paire. Nous avons étudié les propriétés du gaz d’électrons homogène relativiste dans l’approximation sans paire pour développer des fonctionnelles de la densité d’échange-corrélation relativistes à courte portée dans l’approximation de la densité locale (LDA). Nous avons implémenté un code de fonctionnelle de la densité relativiste à séparation de portée en tant que module dans le logiciel QUANTUM PACKAGE 2.0 pour tester ces fonctionnelles. Nous avons étendu la fonctionnelle d’échange relativiste à courte portée au niveau de l’approximation du gradient généralisée (GGA). Enfin, nous avons relevé le rôle important de la densité de paire d’échange à coalescence dans l’évaluation correcte de l’énergie d’échange à très courte portée
This PhD thesis constitutes a contribution to the relativistic extension of the range-separated density functional theory scheme, by combining a relativistic four-component wave function calculation for the long-range contribution with a complementary relativistic short-range exchange-correlation density functional based on the no-pair Dirac-Coulomb or Dirac-Coulomb-Breit Hamiltonian. We have studied properties of the relativistic homogeneous electron gas in the no-pair approximation to develop relativistic short-range exchange-correlation density functionals at the local density approximation (LDA) level. We have implemented a four-component range-separated density functional code as a plugin in the software QUANTUM PACKAGE 2.0 to test these functionals. We have extended the relativistic short-range exchange density functional to the generalized-gradient approximation (GGA) level. Finally, we have pointed out the important role of the on-top exchange pair density in the correct evaluation of the exchange energy at very short-range
APA, Harvard, Vancouver, ISO, and other styles
6

Birichinaga, Edurne. "Estimation spline de la moyenne d'une fonction aléatoire." Pau, 1987. http://www.theses.fr/1987PAUU3021.

Full text
Abstract:
Estismation de la moyenne M(T) d'un processus stochastique réel du second ordre, à partir d'un échantillon observé à un nombre fini d'instants d'un intervalle borné de la droite réelle. Le processus est à trajectoires dans l'espace des fonctions réelles de carré intégrable et la moyenne M est supposée appartenir à un espace de Sobolev. Dans ces conditions, il semble naturel d'estimer par des fonctions spline. Trois estimateurs sont proposés et etudiés : fonction spline d'interpolation ou d'ajustement de la moyenne empirique obtenue à partir de l'échantillon et fonction spline dans un ensemble convexe construit à partir d'intervalles de confiance de M en chaque point de discrétisation. Dans le 1er chapitre, après quelques généralités, on s'intéresse aux conditions d'existence et d'unicité de ces estimateurs; cette étude est spécifique dans le cas des fonctions spline d'ajustement car la métrique considérée tient compte de la variance empirique du processus en chaque instant de discrétisation et n'est donc pas la métrique classique. Puis on démontre que, sous des hypothèses convenables, chacun des trois estimateurs proposes converge presque sûrement vers la moyenne M du processus dans l'espace de Sobolev considéré. Les trois méthodes d'estimation proposées ont été programmées et testées sur des échantillons issus de simulations de processus de naissance et de mort. Les résultats de cette étude numérique sont exposés et comparés dans le second chapitre. Le 3ème chapitre est l'application de ces méthodes d'estimation spline à l'analyse en composantes principales d'une fonction aléatoire du second ordre et de moyenne inconnue M. On démontre alors la convergence uniforme presque sure des analyses obtenues par estimation de M vers l'analyse en composantes principales exacte de la fonction aléatoire considérée.
APA, Harvard, Vancouver, ISO, and other styles
7

Freitas, Paulo da Costa Bernardo. "Courbes de Brody : dimension moyenne et distribution des valeurs." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00724444.

Full text
Abstract:
Cette thèse présente une étude des propriétés des courbes de Brody, dont la plupart est motivée par des questions issues des calculs de dimension moyenne. On se positionne donc en quelque sorte à l'opposée du cadre qui leur a engendré, l'hyperbolicité des variétés complexes, où ces courbes sont plutôt rares. Dans cette voie, on montre que l'espace de courbes de Brody à valeurs dans une surface de Hopf est de dimension moyenne nulle, tandis que celles à valeurs dans certains complémentaires d'hyperplans de $P^n$ constituent un espace de dimension moyenne positive. On sera aussi amené à comprendre la distribution des valeurs pour les courbes de Brody, en retrouvant des contraintes supplémentaires que leur structure particulière induit, dans la direction d'un second théorème.
APA, Harvard, Vancouver, ISO, and other styles
8

Iribarne, Christophe d'. "Etude du phénomène de percolation à l'aide de l'arbre à portée minimale." Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX30058.

Full text
Abstract:
Ce memoire est consacre au developpement d'une methodologie permettant l'etude du phenomene de percolation a l'aide de la theorie des graphes, via l'arbre a portee minimale (alm). Dans un premier temps on montre qu'il est possible, en utilisant l'algorithme de rohlf de construction d'un alm convenablement modifie, de determiner le plus grand amas et d'en deduire les probabilites critiques p#c de percolation de sites pour les reseaux reguliers et semi-reguliers du plan. Une relation remarquable entre les valeurs de p#c (dont la plupart etaient inconnues dans la litterature) et la longueur d'arete normalisee caracterisant chaque reseau, est mise en evidence. On montre ensuite que les differents moments, ainsi que leurs derivees premiere et seconde, des histogrammes de longueur de branche de l'alm, presentent des accidents qui peuvent etre relies au phenomene de percolation et qui permettent egalement une determination de p#c. Enfin, la souplesse de la methodologie que nous avons developpee a permis d'aborder de facon originale la percolation de sites longue distance.
APA, Harvard, Vancouver, ISO, and other styles
9

Roux, Philippe. "La matrice de diffusion pour l'opérateur de Schrödinger avec un potentiel électromagnétique à longue portée." Rennes 1, 2001. http://www.theses.fr/2001REN10101.

Full text
Abstract:
Dans cette thèse on étudie la matrice de diffusion pour l'opérateur de Schrödinger avec un potentiel électromagnétique lentement décroissant à l'infini et ceci sans restrictions de jauge ni sur la vitesse de décroissance du potentiel. On construit des opérateurs d'onde modifiés de type Isozaki-Kitada qui sont complets et coi͏̈ncident avec d'autres constructions dépendantes du temps puis on obtient une formule de représentation stationnaire pour la matrice de diffusion. Cette approche repose sur la théorie des perturbations lisses et nécessite des résultats de la théorie de Mourre et du calcul pseudo-différentiel pour des symboles oscillants. De là on montre qu'en général le spectre de la matrice de diffusion recouvre le cercle unité. Parmi les exceptions à cette règle on trouve le cas des champs magnétiques à support compact. On généralise les propriétés spécifiques de la matrice de diffusion, connues sous le nom d'effet Aharonov-Bohm, à une large classe de tels potentiels.
APA, Harvard, Vancouver, ISO, and other styles
10

Rebolini, Elisa. "Théorie de la fonctionnelle de la densité à séparation de portée pour les énergies d'excitation moléculaires." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01027522.

Full text
Abstract:
La théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) est aujourd'hui une méthode de référence pour le calcul des énergies d'excitation électroniques. Cependant, dans les approximations usuelles, elle n'est pas capable de décrire correctement les excitations de Rydberg, à transfert de charge ou présentant un caractère multiple. La séparation de portée de l'interaction électronique permet de combiner rigoureusement les méthodes fonctionnelles pour décrire la courte portée de l'interaction et les méthodes fonctions d'onde ou fonctions de Green pour la longue portée. Dans cette thèse, les effets de cette séparation de portée sur les énergies d'un système en interaction partielle sont d'abord étudiés le long de la connexion adiabatique dans le cas indépendant du temps afin d'aider le développement des méthodes à séparation de portée pour les énergies d'excitation. La séparation de portée est ensuite appliquée dans le cadre de la TDDFT aux noyaux d'échange et de corrélation, où dans le cas d'une approximation monodéterminentale, la longue portée du noyau de corrélation est absente. Afin de prendre en compte l'effet des doubles excitations, un noyau de corrélation de longue portée dépendant de la fréquence est développé en s'inspirant du noyau Bethe-Salpeter. Ce noyau est alors ajouté de façon perturbative au noyau TDDFT à séparation de portée afin de prendre en compte les effets des excitations doubles.
APA, Harvard, Vancouver, ISO, and other styles
11

Huang, Guan. "Une théorie de la moyenne pour les équations aux dérivées partielles non linéaires." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-01002527.

Full text
Abstract:
Cette thèse se consacre aux études des comportements de longtemps des solutions pour les EDPs nonlinéaires qui sont proches d'une EDP linéaire ou intégrable hamiltonienne. Une théorie de la moyenne pour les EDPs nonlinéaires est presenté. Les modèles d'équations sont les équations Korteweg-de Vries (KdV) perturbées et quelques équations aux dérivées partielles nonlinéaires faiblement.
APA, Harvard, Vancouver, ISO, and other styles
12

Cherdieu, Jean-Pierre. "Analyse harmonique des suites en arithmétique : la méthode de la moyenne." Nice, 1985. http://www.theses.fr/1985NICE4026.

Full text
Abstract:
On étudie le comportement asymptotique de certaines suites définies par voie arithmétique. La topologie induite sur A par celle de l'anneau A::(o) des adèles restreints permet d'identifier les suites quasi-périodiques aux fonctions continues sur A::(o). L'anneau A::(o) étant un groupe abélien compact, on peut définir les coefficients de Fourier des suites quasi-périodiques, ainsi que la série de Fourier (ou série singulière) de ces suites. Soit f une forme a coefficients entiers, et R(n) le nombre de solutions entières de l'équation diophantienne f(x::(1),. . . ,x::(s)) = n. On détermine les coefficients de la série singulière attachée a la suite R(n); c'est pour la détermination de ces coefficients qu'on introduit la "méthode de la moyenne" de f relativement a une racine de l'unité; on établit le lien avec les sommes de Gauss. On généralise enfin au cas d'un système les résultats obtenus précédemment
APA, Harvard, Vancouver, ISO, and other styles
13

Toulouse, Julien. "Extension multidéterminantale de la méthode de Kohn-Sham en théorie de la fonctionnelle de la densité par décomposition de l'interaction électronique en contributions de longue portée et de courte portée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00550772.

Full text
Abstract:
Cette thèse constitue une contribution à l'extension multidéterminantale de la méthode de Kohn-Sham en théorie de la fonctionnelle de la densité, basée sur une décomposition longue portée/courte portée de l'interaction électronique et visant à améliorer le calcul des effets de corrélation de (quasi-)dégénérescence des systèmes atomiques et moléculaires. Cette approche met en jeu un calcul de type fonction d'onde pour la contribution de longue portée à l'énergie complété de façon autocohérente par une fonctionnelle de la densité pour la contribution de courte portée. Nous avons réexaminé la décomposition longue portée/courte portée de l'énergie. Nous avons étudié des propriétés théoriques de la fonctionnelle d'échange-corrélation de courte portée et analysé son approximation locale. Enfin, nous avons exploré diverses approximations pour cette fonctionnelle dépassant l'approximation locale et appliqué la méthode à quelques systèmes atomiques et moléculaires présentant des effets de corrélation de (quasi-)dégénérescence importants.
APA, Harvard, Vancouver, ISO, and other styles
14

Toulouse, Julien. "Extension multidéterminantale de la méthode de Kohn-Sham en théorie de la fonctionnelle de la densité par décomposition de l' interaction électronique en contributions de longue portée et de courte portée." Paris 6, 2005. https://tel.archives-ouvertes.fr/tel-00550772.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Nicaud, Cyril. "Etude du comportement en moyenne des automates finis et des langages rationnels." Paris 7, 2000. http://www.theses.fr/2000PA077280.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Roule, Mathieu. "Théorie cinétique des systèmes stellaires auto-gravitants." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS312.

Full text
Abstract:
Les systèmes stellaires, tels que les galaxies et les amas globulaires, sont des systèmes complexes où les étoiles sont liées par le champ gravitationnel qu'elles contribuent à créer collectivement. L'étude de ces systèmes est particulièrement intéressante car la gravité est une force attractive à longue portée qui tend à former des structures inhomogènes sujettes à de forts comportements collectifs (bras spiraux, barres). Au cours des cinq dernières décennies, les simulations numériques ont fourni des informations inestimables sur la formation et l'évolution des galaxies sur des temps cosmiques. En parallèle, les développements de la théorie cinétique offrent un cadre théorique remarquable pour comprendre les résultats statistiques de ces processus d'évolution non linéaires. L'état de l'art actuel de la théorie cinétique des systèmes stellaires isolés est l'équation inhomogène de Balescu-Lenard. Elle décrit l'évolution à long terme d'un système auto-gravitant sous l'effet des interactions résonantes entre fluctuations internes (bruit de Poisson), tout en tenant compte de leur dynamique collective. Ce formalisme est particulièrement important car il capture de manière perturbative le réarrangement non linéaire des orbites. Cette thèse aborde plusieurs questions clés sur l'évolution des systèmes stellaires isolés : Comment les interactions résonantes et les effets collectifs influencent-ils leur évolution à long terme ? Dans quelles conditions ces effets augmentent-ils ou diminuent-ils la diffusion orbitale ? Quelles sont les limites des théories cinétiques actuelles pour prédire l'évolution des systèmes auto-gravitants ? Pour aborder ces questions, je considère deux systèmes : un modèle unidimensionnel imitant le mouvement vertical des étoiles dans un disque galactique et un disque (infiniment) mince décrivant leur mouvement dans le plan. Je reprends la notion de susceptibilité gravitationnelle qui joue un rôle fondamental dans la compréhension de leur évolution. En fonction de leur configuration, qu'ils soient dynamiquement froids (disque mince) ou chauds (unidimensionnel), je montre que les systèmes stellaires réagissent différemment aux perturbations. J'analyse cette susceptibilité en utilisant le formalisme de la matrice de polarisation. Cette méthode générique me permet de sonder la présence de modes instables ou faiblement amortis dans différents disques. Je discute de la difficulté intrinsèque d'analyser les fréquences propres des systèmes stellaires stables ainsi que les comportements spécifiques qu'ils présentent, tels que l'amortissement algébrique de Landau. En confrontant les prédictions théoriques de l'équation de Balescu-Lenard aux simulations numériques, je montre que la théorie cinétique capture quantitativement l'évolution moyenne à long terme des systèmes stellaires. Les effets collectifs jouent cependant un rôle très différent dans les deux systèmes envisagés. Dans le modèle unidimensionnel, ils rigidifient le système contre les perturbations, entraînant une diffusion plus faible. Cette géométrie souffre également d'un quasi-blocage cinétique : le réarrangement orbital est fortement retardé car les résonances dominantes ne transfèrent pas efficacement l'énergie entre les différentes régions. En étudiant des configurations encore plus contraintes pour lesquelles les rencontres à deux corps ne prédisent aucune évolution, je fournis une borne supérieure pour le temps typique de relaxation. Grâce aux effets collectifs, les interactions à trois corps entraînent nécessairement une évolution. A contrario, les modes faiblement amortis amplifient les fluctuations dans les disques froids. Cela pousse le système à évoluer vers un état instable rapidement. À la transition de phase, l'évolution dépend de plus en plus des conditions initiales, une caractéristique qui dépasse la portée actuelle de la théorie cinétique
Stellar systems, such as galaxies and globular clusters, are fascinating yet complex many-body systems in which stars are bound together by their collective gravitational field. The analytical study of these systems is particularly challenging because gravity is a long-range attractive force which tends to form inhomogeneous structures prone to impressive collective behaviours such as spiral arms and bars. In the last five decades, numerical simulations have provided invaluable insights in the formation and evolution of galaxies over cosmic times. As a complementary approach, developments in kinetic theory offer a theoretical framework to understand the statistical outcome of these non-linear evolution processes. The current state-of-the-art kinetic theory of isolated stellar systems is the inhomogeneous Balescu-Lenard equation. It describes the long-term evolution of a self-gravitating system under the effect of resonant interactions between noise-driven fluctuations while accounting for their collective dynamics. Such a formalism is particularly valuable because it captures perturbatively the non-linear reshuffling of orbits. This thesis addresses several key questions on the fate of isolated stellar systems: How do resonant interactions and collective effects influence their long-term evolution? Under what conditions do these effects enhance or dampen orbital diffusion? What are the limitations of current kinetic theories in predicting the evolution of self-gravitating systems? To tackle these questions, I consider side-by-side two different self-gravitating systems: a one-dimensional model mimicking the vertical motion of stars in a galactic disc and a razor-thin disc describing their in-plane motion. At the heart of this investigation is the role of the susceptibility of self-gravitating systems. Depending on their configuration, whether they are centrifugally (razor-thin) or pressure (one-dimensional) supported, I show that stellar systems exhibit different responses to perturbations. I analyse this susceptibility using the polarisation matrix formalism. This generic method allows me to probe the presence of growing modes in unstable discs as well as weakly damped modes in stable ones. I discuss the intrinsic difficulty of analysing the natural frequencies of stable stellar systems as well as the specific behaviours they exhibit such as algebraic Landau damping. Confronting theoretical predictions from the Balescu-Lenard equation to numerical simulations, I show that kinetic theory quantitatively captures the average long-term evolution of stellar systems. Collective effects play a very different role in the two studied systems. On the one hand, they stiffen the one-dimensional system against perturbations, leading to a slower diffusion rate. This geometry also suffers from a quasi-kinetic blocking: orbital reshuffling is delayed because dominant resonances do not efficiently transfer energy between different regions. Studying even more contrived configurations for which two-body encounters predict exactly no evolution, I provide an upper limit for the typical relaxation time. Thanks to collective effects, three-body interactions can always drive a relaxation. On the other hand, weakly damped modes (swing) amplify the fluctuations in cold discs. It ultimately urges the system to evolve towards an unstable state. At phase transition, the pathway increasingly depends on the initial conditions, a feature that lies beyond the reach of current kinetic theory
APA, Harvard, Vancouver, ISO, and other styles
17

Messio, Laura. "Etats fondamentaux et excitations de systèmes magnétiques frustrés, du classique au quantique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00523976.

Full text
Abstract:
La première partie de cette thèse est consacrée aux systèmes magnétiques classiques. Une méthode de recherche exhaustive des états ne brisant aucune symétrie spatiale de divers réseaux est présentée. De nouveaux ordres de Néel sur le réseau kagome sont décrits. Leurs facteurs de structure statiques fournissent une grille d'analyse pour les résultats expérimentaux. Certains ordres ayant des spins non coplanaires sont les uniques états fondamentaux de Hamiltoniens d'Heisenberg. La chiralité, paramètre d'ordre discret, donne lieu à une transition de phase à température finie, étudiée sur un modèle générique. Nous montrons que des défauts topologiques Z2 prolifèrent aux murs de domaines chiraux. L'ordre de la transition (premier ordre ou classe d'universalité d'Ising) dépend des interactions entre spins. La théorie des bosons de Schwinger en champ moyen (SBMFT) permet de faire le lien entre physique de spins classiques et quantiques : elle permet de décrire à la fois des phases ordonnées à longue portée et des phases désordonnées, parmi lesquelles les liquides de spins topologiques. Les symétries et les moyens de les imposer en SBMFT sont analysés. Différentes phases se distinguent grâce aux flux, quantités invariantes de jauge ayant une signification physique aussi bien dans un système quantique que dans la limite classique. Les visons, excitations quantiques modifiant les flux, ont ainsi leur limite classique avec les vortex Z2. En relâchant certaines contraintes de symétrie, on obtient des phases chirales, dont la limite classique renvoie au premier chapitre de cette thèse, et dont la phase désordonnée fournit des liquides de spin chiraux. L'exemple de l'interaction Dzyaloshinskii-Moriya sur le réseau kagome est étudié.
APA, Harvard, Vancouver, ISO, and other styles
18

Demerdache, Julien Moukhtar El. "Effets de séquence sur les propriétés thermodynamiques de brins d'ADN : de la théorie à l'expérience." Lyon, École normale supérieure (sciences), 2008. http://www.theses.fr/2008ENSL0488.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Dooze, David. "Conception et réalisation d'un stéréoscope bimodal à portée variable : application à la détection d'obstacles à l'avant de véhicules guidés automatisés." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-231.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Paolantoni, Victoria. "Propriétés d'extension et estimations de sous-moyenne pour des fonctions de Cauchy-Riemann définies sur une hypersurface de Cn." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11026.

Full text
Abstract:
On montre des proprietes de sous-moyenne pour les fonctions de cauchy-riemann (notees cr) sur une hypersurface lisse m de l'espace complexe a n dimensions. Premierement, on presente differemment un resultat de regularite, deja etabli par f. Treves, affirmant que toute distribution cr sur une variete hypocomplexe est en fait lisse. Sous l'hypothese d'extension holomorphe locale bilaterale de toute fonction cr sur un voisinage de 0 dans m, nous montrons que les fonctions cr verifient une propriete de sous-moyenne. Dans la seconde partie, nous precisons la constante intervenant dans cette estimation en fonction de la geometrie des points de m. Nous utilisons la construction de disques analytiques, idee deja exploitee par a. Boggess, r. Dwilewicz et a. Nagel, pour obtenir des proprietes de sous-moyenne en des points situes d'un cote de m pour des fonctions plurisousharmoniques dans le cadre de domaines pseudoconvexes. Nous generalisons leurs estimations a des domaines de type fini. De plus dans le cas ou l'on dispose des proprietes de stabilite du type et de l'extension bilaterale, nous demontrons que la constante est de l'ordre de l'inverse de la mesure d'une boule anisotrope de m. Dans la troisieme partie, nous generalisons un resultat de boggess et dwilewicz pour des hypersurfaces m pseudoconvexes de type fini et estimons la valeur moyenne d'une fonction cr sur une variete n uniformement par rapport a la norme de cette fonction sur un voisinage de n dans m. Enfin, nous soulignons la necessite de l'hypothese n non tangente complexe en tout point en proposant un contre-exemple
APA, Harvard, Vancouver, ISO, and other styles
21

Leconte, Gauvain. "L'activité prédictives des sciences empirique : analyse d'un succès scientifique et de sa portée." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01H223/document.

Full text
Abstract:
La réalisation de prédictions précises et surprenantes est une pratique essentielle des sciences empiriques et la confirmation de ces prédictions semble représenter l’un de leurs principaux succès théoriques et pratiques. Ainsi de nombreux scientifiques et épistémologues attribuent-ils aux succès prédictifs le pouvoir de confirmer des hypothèses, d’influencer le cours de l’histoire scientifique, voire de révéler quelles théories reflètent la réalité. Pourtant les prédictions s’appuient souvent sur des représentations simplifiées, idéalisées ou fictionnelles de la réalité. L’objectif de cette thèse est d’analyser l’activité prédictive pour comprendre en quoi consistent les succès prédictifs et quelle portée on peut légitimement leur conférer. L’enjeu de cette analyse est notamment de savoir si une théorie ayant engendré un succès prédictif peut être considérée comme vraie ou partiellement vraie.La première partie de la thèse est consacrée à l’analyse de l’activité prédictive et conclut qu’il existe une pluralité de raisonnements et de succès prédictifs. La deuxième partie étudie l’influence de ces succès sur l’évolution d’une discipline, la cosmologie, de 1917 à nos jours et montre que les scientifiques attribuent de l’importance aux prédictions qui indiquent la capacité prédictive d’une hypothèse ou d’une théorie. Dans la troisième partie, je soutiens que le rôle des prédictions dans le choix rationnel des hypothèses est de permettre de juger de leur fécondité. La quatrième partie étudie les limites de la portée des succès prédictifs en montrant qu’ils ne permettent pas de savoir quels aspects des théories dont ils sont issus reflètent la réalité
Deriving precise and surprising predictions is a key feature of scientific activity. The confirmation of these predictions by severe tests seems to represent major theoretical and practical successes in the field of empirical sciences. Therefore, many scientists and philosophers of science view predictive successes as having an important weight in scientific change, theory choice and for the identification of true claims about reality. However, predictions are often derived from simplified or idealised representations of real-world systems. The aim of this dissertation is to analyse the predictive activity of empirical sciences in order to circumscribe the scope of predictive success. First, I claim that predictive successes come in many forms and structures. In the second part, I investigate the impact of successful predictions in the history of modern cosmology since 1917 and argue that scientists value predictions attesting the predictive capacity of new hypotheses. In a third part, I examine the weight of successful predictions in the confirmation of hypotheses and claim that they serve as a proxy for one of the most important virtues of theories: fruitfulness. The last part is dedicated to the limits of scientific successes and shows that novel predictions cannot help us to circumscribe which posits of scientific theories are worthy of belief
APA, Harvard, Vancouver, ISO, and other styles
22

Flores-Sola, Emilio José. "Les effets de taille finie au-dessus de la dimension critique supérieure." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0337/document.

Full text
Abstract:
Dans cette thèse on étudie les effets de taille finie au-dessus de la dimension critique supérieure d_c. Les effets de taille finie y ont longtemps été incomplètement compris, en particulier vis-à-vis de leur dépendance en fonction des conditions aux limites. La violation de la relation d’échelle dite d’hyperscaling a été l’un des aspects les plus évidents des difficultés rencontrées. Le désaccord avec le scaling usuel est dû au caractère de variable non pertinente dangereuse du terme de self-interaction dans la théorie en ϕ^4. Celle-ci était considérée comme dangereuse pour la densité d’énergie libre et les fonctions thermodynamiques associées, mais pas dans le secteur des corrélations. Récemment, un schéma nouveau de scaling a été proposé dans lequel la longueur de corrélation joue un rôle central et est également affectée par la variable non pertinente dangereuse. Ce nouveau schéma, appelé QFSS, est basé sur le fait que la longueur de corrélation exhibe au lieu du scaling usuel ξ~L un comportement en puissance de la taille finie ξ~L^ϙ. Ce pseudo-exposant critique ϙ est lié à la dimension critique supérieure et à la variable dangereuse. Au-dessous de d_c, cet exposant prend la valeur ϙ=1, mais au-dessus, il vaut ϙ=d/d_c. Le schéma QFSS est parvenu à réconcilier les exposants de champs moyen et le Finite-Size-Scaling tel que dérivé du Groupe de Renormalisation pour les modèles avec interactions à courte portée au-dessus de d_c en conditions aux limites périodiques. Si ϙ est un exposant universel, la validité de la théorie doit toutefois s’étendre également aux conditions de bords libres. Des tests initiaux dans de telles conditions ont mis en évidence de nouvelles difficultés: alors que le QFSS est valable au point pseudo-critique auquel les grandeurs thermodynamiques telles que la susceptibilité manifestent un pic à taille finie, au point critique on a pensé que c’était le FSS standard qui prévalait avec les exposants de champ moyen et ξ~L. On montre dans ce travail qu’il en va différemment de la situation au point critique et qu’à la place ce sont les exposants gaussiens qui s’appliquent en l’absence de variable non pertinente dangereuse. Pour mettre en évidence ce résultat, nous avons mené des simulations de modèles avec interactions à longue portée, qui peuvent être à volonté étudiés au-dessus de leur dimension critique supérieure. Nous avons aussi développé une étude des modes de Fourier qui permet de fournir des exemples de quantités non affectées par la présence de la variable non pertinente dangereuse
In this project finite-size size scaling above the upper critical dimension〖 d〗_c is investigated. Finite-size scaling there has long been poorly understood, especially its dependency on boundary conditions. The violation of the hyperscaling relation above d_c has also been one of the most visible issues. The breakdown in standard scaling is due to the dangerous irrelevant variables presented in the self-interacting term in the ϕ^4 theory, which were considered dangerous to the free energy density and associated thermodynamic functions, but not to the correlation sector. Recently, a modified finite-size scaling scheme has been proposed, which considers that the correlation length actually plays a pivotal role and is affected by dangerous variables too. This new scheme, named QFSS, considers that the correlation length, instead of having standard scaling behaviour ξ~L , scales as ξ~L^ϙ. This pseudocritical exponent is connected to the critical dimension and dangerous variables. Below d_c this exponent takes the value ϙ=1, but above the upper critical dimension it is ϙ=d/d_c. QFSS succeeded in reconciling the mean-field exponents and FSS derived from the renormalisation-group for the models with short-range interactions above d_c with periodic boundary conditions. If ϙ is an universal exponent, the validity of that theory should also hold for the free boundary conditions. Initial tests for such systems faced new problems. Whereas QFSS is valid at pseudocritical points where quantities such as the magnetic susceptibility experience a peak for finite systems, at critical points the standard FSS seemed to prevail, i.e., mean-field exponents with ξ~L. Here, we show that this last picture at critical point is not correct and instead the exponents that applied there actually arise from the Gaussian fixed-point FSS where the dangerous variables are suppressed. To achieve this aim, we study Ising models with long-range interaction, which can be tuned above〖 d〗_c, with periodic and free boundary conditions. We also include a study of the Fourier modes which can be used as an example of scaling quantities without dangerous variables
APA, Harvard, Vancouver, ISO, and other styles
23

Olivetti, Alain. "Effets collectifs et particules en interaction : Des systèmes à longue portée aux atomes froids." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00682012.

Full text
Abstract:
Un grand nombre de systèmes physiques sont le siège d'interactions à longue portée : systèmes auto gravitants, plasmas, interactions entre vortex... et partagent de ce fait certaines propriétés. Dans cette thèse, un autre type de système expérimental est envisagé : des atomes froids ; dans ce cas, ce sont les échanges de photons qui peuvent induire des interactions effectives à longue portée. La dynamique de ces systèmes à longue portée est décrite sur une certaine échelle de temps par une équation de type Vlasov, ou Vlasov-Fokker-Planck. Le but de cette thèse est d'étudier le comportement hors équilibre de plusieurs systèmes de particules comportant en général des interactions à longue portée, d'un point de vue théorique, numérique et expérimental. Dans une première partie, nous étudions dans le cadre de l'équation de Vlasov la dynamique d'un système de particules au voisinage d'un état stationnaire inhomogène. Nous montrons que si un amortissement de type Landau apparaît aux temps courts, une relaxation vers un état stationnaire en loi de puissance domine toujours aux temps longs. Nous testons et validons ensuite nos prédictions par des simulations numériques du modèle HMF (archétype des systèmes à longue portée). Nous nous intéressons ensuite aux oscillations de respiration et du centre de masse d'un système de particules en interaction. En supposant une invariance de la forme de la distribution des particules, nous obtenons deux équations qui décrivent approximativement l'évolution de ces modes pour une grande gamme de systèmes (longue/courte portée, avec/sans thermostat, ...). Pour finir, nous présentons l'utilisation des résultats précédemment obtenus pour explorer un régime d'instabilité dans un piège magnéto-optique, et la possible existence de l'analogue d'un régime auto-gravitant 1d.
APA, Harvard, Vancouver, ISO, and other styles
24

Deur, Killian. "Etats excités en théorie de la fonctionnelle de la densité pour les ensembles : du modèle de Hubbard à l’hamiltonien exact avec séparation de portée." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAF021/document.

Full text
Abstract:
Les travaux présentés dans ce manuscrit de thèse peuvent être divisés en deux parties. Dans une première partie, nous nous sommes intéressé à une extension multiconfigurationnelle de la théorie de la fonctionnelle de la densité (DFT) par l'intermédiaire d'une séparation de portée permettant un traitement hybride entre DFT et fonction d'onde multiconfigurationnelle « state-averaged ». Ainsi, nous récupérons en même temps la corrélation dynamique et la corrélation statique. De plus, cette étude est réalisée en considérant la DFT pour les ensembles afin de considérer une alternative à la méthode usuelle utilisée (DFT dépendante du temps) pour la détermination des états excités d'une molécule, évitant ainsi certains problèmes théoriques rencontrés avec cette approche. En particulier, les intersections coniques entre états excités nous intéressent particulièrement car il s'agit de cas pour lesquels une approche multiconfigurationnelle est primordiale. Dans une seconde partie, le développement de nouvelles fonctionnelles est réalisé sur le dimère de Hubbard asymétrique afin de tester de nouvelles approximations et d'étudier plus en détail les processus auto-cohérents. De plus, des couplages non-adiabatiques sont calculés en utilisant des énergies déterminées dans le cadre de la DFT pour les ensembles ayant la particularité de ne pas être dépendant du temps
This thesis manuscript can be divided in two parts. In the first one, we are interested in a multiconfigurational extension for the density functional theory (DFT) including a range separation to deal with a hybrid theory between DFT and state-averaged wave function theory. In this case, we recover, at the same time, the dynamical correlation and the static correlation. Moreover, this study is performed considering the ensemble DFT to use an alternative to the usual method (time-dependent DFT) to describe the excited states of a molecule, avoiding some theoretical problems known with this approach. Particularly, conical intersections between excited states are interesting because a multiconfigurational approach is necessary. In the second part, new functionals development are performed and applied on the non-symmetric Hubbard dimer in order to test new approximations and to study more in detail self-consistency processes. In addition, non-adiabatic couplings are calculated using energies from ensemble DFT framework without time-dependence
APA, Harvard, Vancouver, ISO, and other styles
25

Andre, Eric. "Trois essais sur la généralisation des préférences moyenne-variance à l'ambiguïté." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM2019/document.

Full text
Abstract:
Cette thèse propose une généralisation des préférences moyenne-variance à l'ambiguïté, c'est-à-dire aux contextes dans lesquels l'investisseur ne peut pas, ou ne souhaite pas, décrire le comportement des actifs risqués par un modèle probabilisé unique. Elle se rattache donc au champ de recherche qui vise à appliquer les modèles de décision dans l'ambiguïté à la théorie mathématique de la finance, et dont le but est d'améliorer les capacités descriptives de cette théorie financière par la généralisation d'une de ses hypothèses centrales : l'utilité espérée.Les modèles étudiés ici sont ceux qui représentent les croyances du décideur par un ensemble de probabilités, ou priors : on cherche à montrer, d'une part, sous quelles conditions ces modèles peuvent être appliqués à la théorie financière et, d'autre part, ce qu'ils lui apportent. Ainsi, après une introduction générale qui propose une synthèse des avancées de ce champ de recherche, un premier essai étudie les conditions de compatibilité entre ces modèles à ensemble de priors et les préférences moyenne-variance, un deuxième essai analyse les possibilités offertes par le modèle Vector Expected Utility pour généraliser ces préférences à l'ambiguïté et, finalement, un troisième essai développe l'une de ces pistes pour construire un critère moyenne-variance généralisé et étudier les effets de l'aversion à l'ambiguïté sur la composition optimale d'un portefeuille d'actifs risqués. Les résultats obtenus permettent notamment de conclure que l'aversion à l'ambiguïté est bien une explication possible du puzzle de la préférence pour le pays d'origine
This dissertation proposes a generalisation of the mean-variance preferences to ambiguity, that is contexts in which the investor can not, or does not wish to, describe the behaviour of the risky assets with a single probabilistic model. Hence it belongs to the field of research that seeks to apply models of decision under ambiguity to the mathematical theory of finance, and whose aim is to improve the descriptive capacities of this theory of finance through the generalisation of one of its central hypothesis: expected utility.The models that are studied here are those which represent the decision maker's beliefs by a set of priors: we aim to show, on the one hand, under which conditions these models can be applied to the financial theory, and, on the other hand, what they bring to it. Therefore, following a general introduction which proposes a survey of the advances of this field of research, a first essay studies the conditions of compatibility between these models with a set of priors and the mean-variance preferences, a second essay analyses the possibilities given by the Vector Expected Utility model to generalise these preferences to ambiguity and, finally, a third essay develops one of these threads to construct a generalised mean-variance criterion and to study the effects of ambiguity aversion on the optimal composition of a portfolio of risky assets. The results that are obtained allow notably to conclude that aversion to ambiguity is indeed a possible explanation of the home-bias puzzle
APA, Harvard, Vancouver, ISO, and other styles
26

Ayadim, Abderrahime. "Structure et thermodynamique des suspensions colloïdales en phase volumique et confinée par la théorie des mélanges binaires." Paris 12, 2005. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002513970204611&vid=upec.

Full text
Abstract:
Les équations intégrales d'Ornstein-Zernike sont utilisées pour étudier la structure et la thermodynamique de suspensions colloïdales modélisées par un mélange binaire très dissymétrique en taille. Nous proposons une nouvelle fermeture surmontant le problème de non-convergence de la fermeture RHNC dans la variante de la théorie des mesures fondaùmentales de Rosenfeld. Après l'avoir testée sur les fonctions de distributions radiales, nous calculons la ligne de coexistence de phase fluide-fluide du mélange de sphères dures de rapport taille R=10. Nous confirmons ainsi à partir du diagramme de phase la validité de l'approche du fluide effectif. Nous examinons ensuite ces systèmes en phase inhomogène (face à un mur ou confinées entre deux murs) en incluant des forces attractives entre les différents constituants. La fermeture RHNC est testée alors au niveau de la structure et du potentiel de force moyenne intercolloïdale. La méthode est ensuite utilisée pour étudier la solvation
The Ornstein-Zernike integral equations are used to study the structure and the thermodynamics of colloidal suspensions modelled as a highly asymmetric solute-solvent mixture. We propose a new closure to remedy the non-convergence problem of the RHNC closure. After having tested it on the radial distribution functions, we determine the fluid-fluid coexistence line of asymmetric binary hard spheres with diameter ration R=10. We thus confirm from the phase diagram the validity of the effective one-component approach. Then, we examine these sytems in inhomogeneous phase (colloids near a wall or in a slit pore) and include attractions between the various components. The RHNC closure is tested then at the level of the structure and the potential of mean force. The method is finally used to study solvation effects of confined colloids
APA, Harvard, Vancouver, ISO, and other styles
27

Nzeukou, Takougang Armand Cyrille. "Variabilité spatiale à moyenne échelle des conditions de propagation des micro-ondes dans les précipitations." Toulouse 3, 2002. http://www.theses.fr/2002TOU30011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Gnandou, Ide. "La théorie des anticipations rationnelles et la nouvelle macroéconomie classique : portée, sens et signification pour l'analyse économique avec une étude de comportements économiques au Niger." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090018.

Full text
Abstract:
La nouvelle école classique (NEC) constitue une véritable innovation dans la théorie économique. Par ses hypothèses de base, sa démarche et enfin ses recommandations, elle pose d'importants problèmes que la macroéconomie keynésienne dominante sur plusieurs années a ignorés. L'hypothèse d'anticipations rationnelles (A. R) combinée à des éléments du taux naturel de Friedman-Phelps et du concept d'équilibre de Hayek permirent aux nouveaux classiques de développer un modèle théorique très controversé au niveau de la fonction d'offre essentiellement dite "courbe d'offre de Lucas". Lucas, Sargent, Barro, etc. . . Vont, par une démonstration cohérente et rigoureuse, remettre en cause l'efficacité de la macroéconométrie usuelle et l'intervention de l'état dans l'économie. Ces conclusions vont susciter d'importantes réactions au sein de la profession économique. Celle des économistes keynésiens sont particulièrement vives. A l'image de Tobin, Buiter et Taylor, ils vont contester d'abord le réalisme des hypothèses du modèle d'équilibre de la nec. Par la suite ils vont développer des modèles de contre propositions aux thèses des nouveaux classiques. Le débat n'est pas facile à apprécier du fait même du caractère inobservable des anticipations qui obligent à poser des hypothèses arbitraires dans leur modélisation. Ces difficultés objectives expliquent le recours à une procédure très théorique pour analyser la rationalité des agents économiques du secteur du BTP au Niger et la responsabilité du gouvernement de ce pays dans la "crise" actuelle.
APA, Harvard, Vancouver, ISO, and other styles
29

Fernandez, Charles. "Modélisation et validation expérimentale des complexes insonorisants pour la prévision vibroacoustique numérique basse et moyenne fréquences des automobiles." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00470535.

Full text
Abstract:
Dans cette recherche, on construit un modèle simplifié en basses et moyennes fréquences de complexes insonorisants (habillages) de l'industrie automobile à partir d'un élément élastoacoustique stochastique. Le modèle simplifié moyen est issu d'une extension de la théorie des structures floues et dépend de trois paramètres physiques : densité modale, amortissement et masse participante. Le modèle simplifié stochastique qui prend en compte les incertitudes de modèle et de données est construit en utilisant une approche probabiliste non paramétrique et dépend de trois paramètres de dispersion. Le modèle simplifié de l'habillage est implémenté dans un modèle vibroacoustique stochastique industriel d'automobile. Deux problèmes inverses sont résolus à l'aide d'une base de données expérimentales sur véhicules construite en parallèle et permettent d'identifier les paramètres du modèle complet. L'analyse des résultats permet de valider les développements théoriques et la méthodologie proposée
APA, Harvard, Vancouver, ISO, and other styles
30

Dupuy, Eric. "Etude du monoxyde de carbone dans l'atmosphère moyenne à partir des observations sub-millimétriques de l'instrument Odin/SMR." Bordeaux 1, 2005. http://www.theses.fr/2005BOR12959.

Full text
Abstract:
Le satellite Odin, fruit d'une collaboration entre la Suède, la France, la Canada et la Finlande, a été lancé le 20 février 2001. A son bord, l'instrument Sub-Millimetre Radiometer (SMR) mesure l'émission thermique de l'atmosphère, produite par des espèces-traces comme O3, H2O, CO, CIO et N2O, dans la gamme de fréquence 486-581 Ghz. Le temps d'observation de SMR est divisé à parts égales entre le sondage du limbe de l'atmosphère moyenne de la Terre (10-110 km) et l'observation d'objets astrophysiques. Pour traiter et valider les mesures atmosphèriques d'Odin/SMR, un modèle de transfert radiatif et d'inversion, MOLIERE, a été développé par l'équipe d'Aéronomie du Laboratoire d'Astrodynamique, d'Astrophysique et d'Aéronomie de Bordeaux. Odin et MOLIERE sont présentés dans la première partie du manuscrit. Pour suivre les phénomènes de transport à l'échelle globale, SMR observe des molècules à longue durée de vie, dont le monoxyde de carbone par sa transition centrée à 576,27 Ghz. Les propriétés atmosphériques du CO, l'inversion et les premiers éléments de validation des mesures de SMR sont décrits dans la seconde partie. Une méthode de correction des fréquences a été établie pour pallier une défaillance instrumentale. Les données corrigées permettent l'utilisation opérationnelle de MOLIERE pour inverser les mesures autour de 576,5 Ghz. Le rapport de mélange de CO est finalement restitué entre 20 et 105 km, conjointement au profil de O3(18-85 km) de la température atmosphérique (12-52 km). Des premières comparaisons sont présentées, Elles montrent une bonne concordance entre le produit CO de SMR, les observations de UARS/ISAMS et des résultats des modèles WACCM et REPROBUS, et un excellent accord avec SciSat/ACE. Le drapport de mélange de O3 est nettement sous-estimé (jusqu'à 40 %) par rapportà Odin/OSIRIS et à REPROBUS. Au contraire, les différences entre la température estimée par SMR et des sources indépendantes (lidars, ECMWF, REPROBUS) sont inférieures à 5 %.
APA, Harvard, Vancouver, ISO, and other styles
31

Gerber, Iann. "Description des forces de van der Waals dans le cadre de la théorie de la fonctionnelle de la densité par un traitement explicite des interactions de longueportée." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011397.

Full text
Abstract:
L'idée qui consiste à traiter séparément les parties courte- et longue portée de l'interaction électronique dans la théorie de la fonctionnelle de la densité, par une fonctionnelle de la densité d'une part, et par une description par fonction d'onde d'autre part s'est largement développée récemment. Ce schéma conduit naturellement à la construction d'une fonctionnelle hybride d'un nouveau type, avec la combinaison d'une énergie d'échange de longue portée explicite et d'une fonctionnelle d'échange-corrélation de courte portée appropriée. L'ajout, dans une approche perturbative, d'un terme rendant compte des corrélations dynamiques de longue portée, se présente comme une solution alternative au problème fondamental de l'incorporation des forces de dispersion dans la méthode de la fonctionnelle de la densité, applicable aussi bien au niveau moléculaire qu'en conditions périodiques.
APA, Harvard, Vancouver, ISO, and other styles
32

Charpenel, Philippe. "Effets d'irradiations aux électrons de basse et moyenne énergie sur des isolants MOS issus de différentes technologies." Montpellier 2, 1992. http://www.theses.fr/1992MON20240.

Full text
Abstract:
Dans la premiere partie, nous presentons une methode originale permettant une determination precise de l'energie de non charge des isolants en microscopie electronique a balayage. Elle est basee sur l'etude de la variation du potentiel de la surface d'un isolant induite par un depot de charges. Elle utilise pour cela l'analyse des spectres energetiques des electrons secondaires reemis. De plus, elle permet un acces qualitatif au rendement de charge. Elle est appliquee avec succes a divers oxydes de silicium ainsi qu'a des resines lithographiques. Les resultats obtenus sont correles avec d'autres methodes utilisees en metrologie et une generalisation de theories existant dans la litterature. Dans la deuxieme partie, dans le cas de composants mos, nous caracterisons divers processus technologiques a partir des densites de charge d'oxyde de grille et d'etats d'interface induites par les irradiations aux electrons basse ou moyenne energie. Les composants sont issus de technologies a lithographie optique et a faisceau d'electrons, a un et deux niveaux de metal. Un comportement original est observe sur des transistors a canal p a un niveau de metal. Il s'agit d'une deformation de la caracteristique de transfert avec la dose d'electrons incidents et d'une augmentation de la transconductance. Ce phenomene est interprete et modelise comme la mise en serie, sous l'effet de l'irradiation electronique, de plusieurs transistors. Les simulations realisees a partir d'un modele a une dimension sont en excellent accord avec l'experience. Nous avons de plus, mis en evidence, sur des composants a deux niveaux de metal, les effets de sur-irradiation en cours de processus technologique
APA, Harvard, Vancouver, ISO, and other styles
33

El, Korso Mohammed Nabil, and Korso Mohammed Nabil El. "Analyse de performances en traitement d'antenne. : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00625681.

Full text
Abstract:
Ce manuscrit est dédié à l'analyse de performances en traitement d'antenne pour l'estimation des paramètres d'intérêt à l'aide d'un réseau de capteurs. Il est divisé en deux parties :- Tout d'abord, nous présentons l'étude de certaines bornes inférieures de l'erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l'étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d'observations). Puis, nous étudions d'autres bornes inférieures de l'erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l'erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).- Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c'est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une "correcte" estimation des paramètres. Nous présentons quelques applications bien connues en traitement d'antenne avant d'étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d'hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d'observation multidimensionnels
APA, Harvard, Vancouver, ISO, and other styles
34

Teillet-Billy, Dominique. "Attachement dissociatif sur des molécules polaires et très polaires." Paris 11, 1985. http://www.theses.fr/1985PA112174.

Full text
Abstract:
La réaction d'attachement dissociatif (AD) est étudiée expérimentalement et théoriquement pour des molécules polaires (chlorure et fluorure d'hydrogène) et très polaires (halogénures de sodium et de lithium) à basse énergie (E<15eV). La formation des ions Na⁻ de NaX(X=F, Cl, Br) et H⁻ de HF observés et caractérisée angulairement par une très forte asymétrie. Une reformulation de la théorie d'O'Malley et Taylor, adaptée au caractère dipolaire de l'interaction électron-molécule permet d'attribuer la symétrie électronique des résonances de Feshbach NaX⁻ et HF⁻ mises en jeu. Une nouvelle approche, non résonnante, adaptée aux caractères de l'électron capturé par HCl(DCl) aux très basses énergies (E<1eV), est utilisée : l'interaction e⁻-molécule est décrite dans la théorie de la portée effective et la dynamique nucléaire est traitée exactement. Ceci développe une autre image de l'AD où l'électron reste piégé par le mouvement des noyaux qu'il a induit (couplage non-adiabatique). Les propriétés du système collisionnel e⁻-HCl correspondent à la transformation d'un état virtuel en état lié, lorsque la distance internucléaire s'accroit
An experimental and theoretical investigation of dissociative electron attachment (DA) on polar molecules (hydrogen fluoride and chloride, sodium halides) in the low energy range (E
APA, Harvard, Vancouver, ISO, and other styles
35

El, Korso Mohammed Nabil. "Analyse de performances en traitement d'antenne : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112074/document.

Full text
Abstract:
Ce manuscrit est dédié à l’analyse de performances en traitement d’antenne pour l’estimation des paramètres d’intérêt à l’aide d’un réseau de capteurs. Il est divisé en deux parties :– Tout d’abord, nous présentons l’étude de certaines bornes inférieures de l’erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l’étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d’observations). Puis, nous étudions d’autres bornes inférieures de l’erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l’erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).– Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c’est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une ”correcte” estimation des paramètres. Nous présentons quelques applications bien connues en traitement d’antenne avant d’étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d’hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d’observation multidimensionnels
This manuscript concerns the performance analysis in array signal processing. It can bedivided into two parts :- First, we present the study of some lower bounds on the mean square error related to the source localization in the near eld context. Using the Cramér-Rao bound, we investigate the mean square error of the maximum likelihood estimator w.r.t. the direction of arrivals in the so-called asymptotic area (i.e., for a high signal to noise ratio with a nite number of observations.) Then, using other bounds than the Cramér-Rao bound, we predict the threshold phenomena.- Secondly, we focus on the concept of the statistical resolution limit (i.e., the minimum distance between two closely spaced signals embedded in an additive noise that allows a correct resolvability/parameter estimation.) We de ne and derive the statistical resolution limit using the Cramér-Rao bound and the hypothesis test approaches for the mono-dimensional case. Then, we extend this concept to the multidimensional case. Finally, a generalized likelihood ratio test based framework for the multidimensional statistical resolution limit is given to assess the validity of the proposed extension
APA, Harvard, Vancouver, ISO, and other styles
36

Gerber, Iann. "Description des forces de van der Waals dans le cadre de la théorie de la fonctionnelle de la densité par un traitement explicite des interactions de longue portée." Nancy 1, 2005. http://docnum.univ-lorraine.fr/public/SCD_T_2005_0129_GERBER.pdf.

Full text
Abstract:
L'idée qui consiste à traiter séparément les parties courte- et longue portée de l'interaction électronique dans la théorie de la fonctionnelle de la densité, par une fonctionnelle de la densité d'une part, et par une description par fonction d'onde d'autre part s'est largement développée récemment. Ce schéma conduit naturellement à la construction d'une fonctionnelle hybride d'un nouveau type, avec la combinaison d'une énergie d'échange de longue portée explicite et d'une fonctionnelle d'échange-corrélation de courte portée appropriée. L'ajout, dans une approche perturbative, d'un terme rendant compte des corrélations dynamiques de longue portée, se présente comme une solution alternative au problème fondamental de l'incorporation des forces de dispersion dans la méthode de la fonctionnelle de la densité, applicable aussi bien au niveau moléculaire qu'en conditions périodiques
The separation of electron-electron interactions to a short- and long-range components within the density functional theory has been recently promoted by the combination of a pure density functional description in the short-range part with a wave-function approach in the long-range contribution. Based on this idea, a novel kind of hybrid functional is developped which combines an explicit long-range exchange term with an appropriate short-range exchange-correlation functional. By adding explicit MP2-like long-range electron correlation corrections, one obtains an alternative solution, to take into account the van der Waals forces in the framework of the density functional theory, fully applicable in the context of molecular calculations as well as in periodic boundary conditions
APA, Harvard, Vancouver, ISO, and other styles
37

Wassaf, Joseph. "Théorie de l'ionisation des atomes en champ laser intense : étude des structures observées aux hautes énergies." Paris 6, 2002. http://www.theses.fr/2002PA066373.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Favaron, Odile. "Stabilité, domination, irredondance et autres paramètres de graphes." Paris 11, 1986. http://www.theses.fr/1986PA112175.

Full text
Abstract:
La première partie de cette thèse concerne certains paramètres des graphes non orientés finis. Des inégalités liant les paramètres classiques ou généralisés de stabilité, de domination et d'irredondance à l'ordre et au degré minimum sont établies, et des cas d'égalité sont étudiés. On y trouve une caractérisation et la structure des graphes n/2 quasirégularisables, des n/2-B graphes et des graphes n/2 bien couverts. Enfin on y étudie des propriétés des graphes facteur­ crlti9ues ainsi qu'une généralisation de cette notion. La seconde partie est constituée d'articles traitant de la décomposition de graphes, de la distance moyenne, des graphes gracieux et de l'existence de circuits hamiltoniens
The thirst part of this thesis deals with some parameters of simple finite graphs. We study inequalities relating classical or generalized parameters of stability, domination and irredondance, and the order or the minimum degree. Some cases of equality are considered. We present a characterization of n/2 quasiregularizable graphs, n/2-B graphs and n/2 well covered graphs and discuss their structure. Finally, some properties of the factor-critical graphs and a generalization of this notion are studied. The second part consists of articles about decomposition of graphs, mean distance, Hamiltonian circuits and graceful graphs
APA, Harvard, Vancouver, ISO, and other styles
39

Fouvry, Jean-Baptiste. "Secular evolution of self-gravitating systems over cosmic age." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066356/document.

Full text
Abstract:
La description de l’évolution à long-terme des systèmes astrophysiques auto-gravitants tels que les disques stellaires, fait aujourd’hui l’objet d’un regain d’intérêt sous l’impulsion de deux développements récents. Cela repose tout d’abord sur le succès de la théorie Lambda-CDM pour décrire la formation des grandes structures et leurs interactions avec le milieu circum-galactique. En outre, de nouveaux développements théoriques permettent maintenant de décrire précisément l’amplification des perturbations extérieures ou internes, et leurs effets sur la structure orbitale d’un système sur les temps cosmiques. Ces progrès complémentaires nous permettent d’aborder la question lancinante des rôles respectifs de l’inné et de l’acquis sur les propriétés observées des systèmes auto-gravitants. Cette thèse est consacrée à la description de ces dynamiques séculaires, notamment lorsque l’auto-gravité joue un rôle important. Deux formalismes de diffusion, externe et interne, seront présentés en détail, et appliqués à différents problèmes astrophysiques. Dans un premier temps, nous étudierons les disques stellaires discrets infiniment fins, et retrouverons la formation d’étroites arêtes d’orbites résonantes en accord avec les observations et les simulations numériques, par le biais de la première mise en oeuvre de l’équation de Balescu-Lenard. Nous considérerons ensuite le mécanisme d’épaississement spontané des disques stellaires sous l’effet du bruit de Poisson. Enfin, nous illustrerons comment ces formalismes permettent également de décrire la dynamique des étoiles orbitant un trou noir supermassif dans les centres galactiques
Understanding the long-term evolution of self-gravitating astrophysical systems, such as for example stellar discs, is now a subject of renewed interest, motivated by the combination of two factors. On the one hand, we now have at our disposal the well established Lambda-CDM model to describe the formation of structures and their interactions with the circum-galactic environment. On the other hand, recent theoretical works now provide a precise description of the amplification of external disturbances and discreteness noise, as well as their effects on a system’s orbital structure over cosmic time. These two complementary developments now allow us to address the pressing question of the respective roles of nature vs. nurture in the establishment of the observed properties of self-gravitating systems. The purpose of the present thesis is to describe such secular dynamics in contexts where self-gravity is deemed important. Two frameworks of diffusion, either external or internal, will be presented in detail, and applied to various astrophysical systems. This thesis will first investigate the secular evolution of discrete razor-thin stellar discs and recover the formation of narrow ridges of resonant orbits in agreement with observations and numerical simulations, thanks to the first implementation of the Balescu-Lenard equation. The spontaneous thickening of stellar discs as a result of Poisson shot noise will also be investigated. Finally, we will illustrate how the same formalisms allow us to describe the dynamics of stars orbiting a central super massive black hole in galactic centres
APA, Harvard, Vancouver, ISO, and other styles
40

Sulzer, David. "Modélisation des interactions faibles en théorie de la fonctionnelle de la densité." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00945896.

Full text
Abstract:
Les descriptions des interactions faibles et notamment de la dispersion représentent un problème majeur pour la théorie de la fonctionnelle de la densité. En effet, le caractère fortement local des fonctionnelles rend problématique la description des interactions à longue-portée. Aussi, plusieurs stratégies sont envisagées: des corrections des fonctionnelles existantes ou une introduction de méthodes post-Hartree-Fock par séparation de portée. Des résultats dans les deux cas sont exposés. Tout d'abord, la méthodologie hybride est appliquée à des dimères de métaux de transition (Cr2, Mn2 et Zn2). Ensuite, le calcul de coefficients de corrections pour la dispersion dans un cadre relativiste est présenté. Enfin, les interactions faibles peuvent également résulter de l'interaction d'une molécule avec un champ magnétique. Dans ce cadre, une modélisation de la modification de la densité électronique dans les systèmes aromatiques sous l'influence d'un champ magnétique extérieur est présentée.
APA, Harvard, Vancouver, ISO, and other styles
41

Hanaf, Anas. "Algorithmes distribués de consensus de moyenne et leurs applications dans la détection des trous de couverture dans un réseau de capteurs." Thesis, Reims, 2016. http://www.theses.fr/2016REIMS018/document.

Full text
Abstract:
Les algorithmes distribués de consensus sont des algorithmes itératifs de faible complexité où les nœuds de capteurs voisins interagissent les uns avec les autres pour parvenir à un accord commun sans unité coordinatrice. Comme les nœuds dans un réseau de capteurs sans fil ont une puissance de calcul et une batterie limitées, ces algorithmes distribués doivent parvenir à un consensus en peu de temps et avec peu d’échange de messages. La première partie de cette thèse s’est basée sur l’étude et la comparaison des différents algorithmes de consensus en mode synchrone et asynchrone en termes de vitesse de convergence et taux de communications. La seconde partie de nos travaux concerne l’application de ces algorithmes de consensus au problème de la détection de trous de couverture dans les réseaux de capteurs sans fil.Ce problème de couverture fournit aussi le contexte de la suite de nos travaux. Il se décrit comme étant la façon dont une région d’intérêt est surveillée par des capteurs. Différentes approches géométriques ont été proposées mais elles sont limitées par la nécessité de connaitre exactement la position des capteurs ; or cette information peut ne pas être disponible si les dispositifs de localisation comme par exemple le GPS ne sont pas sur les capteurs. À partir de l’outil mathématique appelé topologie algébrique, nous avons développé un algorithme distribué de détection de trous de couverture qui recherche une fonction harmonique d’un réseau, c’est-à-dire annulant l’opérateur du Laplacien de dimension 1. Cette fonction harmonique est reliée au groupe d’homologie H1 qui recense les trous de couverture. Une fois une fonction harmonique obtenue, la détection des trous se réalise par une simple marche aléatoire dans le réseau
Distributed consensus algorithms are iterative algorithms of low complexity where neighboring sensors interact with each other to reach an agreement without coordinating unit. As the nodes in a wireless sensor network have limited computing power and limited battery, these distributed algorithms must reach a consensus in a short time and with little message exchange. The first part of this thesis is based on the study and comparison of different consensus algorithms synchronously and asynchronously in terms of convergence speed and communication rates. The second part of our work concerns the application of these consensus algorithms to the problem of detecting coverage holes in wireless sensor networks.This coverage problem also provides the context for the continuation of our work. This problem is described as how a region of interest is monitored by sensors. Different geometrical approaches have been proposed but are limited by the need to know exactly the position of the sensors; but this information may not be available if the locating devices such as GPS are not on the sensors. From the mathematical tool called algebraic topology, we have developed a distributed algorithm of coverage hole detection searching a harmonic function of a network, that is to say canceling the operator of the 1-dimensional Laplacian. This harmonic function is connected to the homology group H1 which identifies the coverage holes. Once a harmonic function obtained, detection of the holes is realized by a simple random walk in the network
APA, Harvard, Vancouver, ISO, and other styles
42

Criticou, Doukissa. "Estimateurs à rétrécisseurs (cas de distributions normales) : une classe d'estimateurs bayesiens." Rouen, 1986. http://www.theses.fr/1986ROUES050.

Full text
Abstract:
On s'intéresse au traitement bayésien de l'estimation de la moyenne dans le modèle linéaire gaussien, quand: 1) la variance est connue à un facteur multiplicatif près; 2) le coût utilisé est quadratique (inverse de la variance); 3) la probabilité a priori est un mélange de lois gaussiennes
APA, Harvard, Vancouver, ISO, and other styles
43

Ghannoum, Abir. "EDSs réfléchies en moyenne avec sauts et EDSs rétrogrades de type McKean-Vlasov : étude théorique et numérique." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM068.

Full text
Abstract:
Cette thèse est consacrée à l'étude théorique et numérique de deux principaux sujets de recherche: les équations différentielles stochastiques (EDSs) réfléchies en moyenne avec sauts et les équations différentielles stochastiques rétrogrades (EDSRs) de type McKean-Vlasov.Le premier travail de ma thèse établit la propagation du chaos pour les EDSs réfléchies en moyenne avec sauts. Nous avons étudié dans un premier temps l'existence et l'unicité d'une solution. Nous avons développé ensuite un schéma numérique via le système de particules. Enfin nous avons obtenu une vitesse de convergence pour ce schéma.Le deuxième travail de ma thèse consiste à étudier les EDSRs de type McKean-Vlasov. Nous avons prouvé l'existence et l'unicité de solutions de telles équations, et nous avons proposé une approximation numérique basée sur la décomposition en chaos de Wiener ainsi que sa vitesse de convergence.Le troisième travail de ma thèse s'intéresse à une autre type de simulation pour les EDSRs de type McKean-Vlasov. Nous avons proposé un schéma numérique basé sur l'approximation du mouvement brownien par une marche aléatoire et nous avons obtenu une vitesse de convergence pour ce schéma.Par ailleurs, quelques exemples numériques dans ces trois travaux permettent de constater l'efficacité de nos schémas et les vitesses de convergences annoncées par les résultats théoriques
This thesis is devoted to the theoretical and numerical study of two main subjects in the context of stochastic differential equations (SDEs): mean reflected SDEs with jumps and McKean-Vlasov backward SDEs.The first part of my thesis establishes the propagation of chaos for the mean reflected SDEs with jumps. First, we study the existence and uniqueness of a solution. Then, we develop a numerical scheme based on the particle system. Finally, we obtain the rate of convergence of this scheme.The second part of my thesis studies the McKean-Vlasov backward SDEs. In this case, we prove the existence and uniqueness of a solution for such equations. Then, thanks to the Wiener chaos expansion, we provide a numerical approximation. Moreover, the convergence rate of this approximation is also determined.The third part of my thesis proposes another type of simulation for the McKean-Vlasov backward SDEs. Due to the approximation of Brownian motion by a scaled random walk, we develop a numerical scheme and we get its convergence rate.In addition, a few numerical examples in these three parts are given to illustrate the efficiency of our schemes and their convergence rates stated by the theoretical results
APA, Harvard, Vancouver, ISO, and other styles
44

Geindre, Hugo. "Outils théoriques pour la simulation de la spectroscopie vibrationnelle et de la réactivité des hydrocarbures aromatiques polycycliques dans le milieu interstellaire : analyse critique et nouvelles approches." Electronic Thesis or Diss., Université de Lille (2018-2021), 2020. http://www.theses.fr/2020LILUR018.

Full text
Abstract:
Les hydrocarbures aromatiques polycycliques (HAP), une famille de molécules composées de cycle de carbones agrégés, sont suspectés depuis de nombreuses années d’être à l’origine des bandes infrarouges non identifiées (UIB) qui sont des bandes d’émission détectées dans de très nombreuses régions du milieu interstellaire. Il est communément admis de nos jours que les HAP sont omniprésents dans le milieu interstellaire (ISM) et sont donc un acteur majeur de nombreux phénomènes s’y déroulant, de la naissance des étoiles à la formation de l’hydrogène moléculaire. Malgré cela, aucune identification certaine d’un HAP au sein du milieu interstellaire n’a pu être menée à bien. Pour attaquer le problème de l’attribution de bandes dans le spectre infrarouge, il est nécessaire, entre autres, de disposer de données théoriques précises sur les différents HAP (linéaires, coudées, etc.) dans leurs différents états de charge, d’hydrogénation ou, même, environnements (adsorption sur des grains de poussière interstellaires, présence de glace. . . ). En ce sens, on peut également considérer que les HAP constituent des sondes moléculaires très appropriées pour interroger le milieu interstellaire. Le but de cette thèse est d’analyser en profondeur les différents outils théoriques les plus répandus ainsi que de proposer méthodologies et développements techniques permettant d’améliorer les descriptions théoriques actuelles et de déverrouiller des limitations techniques afin de servir de guide dans le choix des méthodes pour les études futures. Dans un premier temps, nous nous sommes penchés sur le problème de la surestimation des intensités des bandes dans la zone de stretching-CH dans les spectres infrarouges théoriques des HAP, qui est particulièrement difficile à reproduire. Afin de comprendre les fondements sous-jacents à cette description anormale, nous avons systématiquement échantillonné les différentes familles de fonctionnelles DFT ainsi que les différentes bases électroniques pour étudier le HAP modèle, naphtalène, et d’autres molécules chimiquement proches. Nous avons démontré que la correction longue portée possède un fort impact sur ces calculs (cas harmonique et anharmonique), en particulier dans la région qui nous intéresse, la stretching C-H. Notre étude met aussi en évidence des erreurs numériques dues à la présence de bases contenant des fonctions diffuses. Enfin, nous proposons une approche méthodologique qui minimes toutes ces erreurs. Dans un second temps, nous présentons la première application d’un nouvel algorithme, van der Waals Transition State Search Using Chemical Dynamics Simulation (dit vdW-TSSCDS), dans le champ de la réactivité des HAP dans l’ISM, plus spécifiquement pour l’étude de l’hydrogénation de notre HAP modèle, le naphtalène. L’hydrogénation des HAP est un mécanisme crucial, notamment pour la formation de l’hydrogène moléculaire dans l’ISM qui est essentielle pour les modèles astrophysiques. La méthode vdW-TSSCDS permet de trouver de manière totalement automatisée tous les points stationnaires de la surface d’énergie potentielle d’un système moléculaire ou intermoléculaire pouvant contenir des liaisons covalentes et van der Waals et en considérant les trois approximations : monomère rigide, semi-rigide et complètement flexible. Nous avons démontré la faisabilité et l’efficacité de cette méthodologie dans le cadre de la première hydrogénation du naphtalène en obtenant le réseau de réaction complet, c’est-à-dire tous les états de transition (TS) et les minima, ainsi que les chemins de plus basse énergie les reliant. Nos résultats nous ont permis d’obtenir tous les TS qui n’étaient pas encore décrits ainsi que des configurations stables de basse énergie de type indène. Nous présentons également quelques résultats préliminaires sur la seconde hydrogénation et établissons des lignes claires pour l’avancement de ce type de recherche en utilisant cette méthodologie qui permet d’aller au-delà de l’intuition chimique
Polycyclic aromatic hydrocarbons (PAH), a family of molecule consisting of fused carbon cycles are suspected for many years to be responsible for the unidentified infrared bands (UIB) which are some emission features detected in many regions of the interstellar medium. It is now generally accepted that PAHs are ubiquitous in the interstellar medium and a key factor in a lot of events in these regions, from the birth of stars to molecular hydrogen formation. However, no PAH has never been formally identified in the interstellar medium. To address the bands allocation problem in the infrared spectra, scientists need, among others, precise theoretical data on different PAHs (linear, bent, etc.) in different charge,hydrogenation state or, even, environment (adsorption on interstellar dust, occurrence of ice. . . ). In this regard, one can also view the PAH as a molecular probe for the interstellar medium. The goal of this thesis is to perform an in-depth analysis of the most common theoretical tools as well as provide new methodologies and technical developments in order to improve current theoretical descriptions and unlock technical limitations with the aim to serve as a guide for future studies. At first, we looked at the problem of the intensity overestimation in the CH-stretching region of the PAH infrared spectra, which is especially difficult to reproduce. In order to understand the foundations of this anomalous description, we have systematically sampled the different families of DFT functionals as well as the electronic basis set to study the model PAH, naphthalene and some chemically close molecules. We have demonstrated that the long-range correction strongly impact these calculations (harmonic and anharmonic cases), especially in our region of interest, the CH-stretching. Our study highlights some numerical errors due to the presence of diffuse functions in the electronic basis set. Finally, we propose a methodological approach to minimise all these errors. Secondly, we report the first application of a new algorithm, van der Waals Transition State Search Using Chemical Dynamics Simulation (vdW-TSSCDS), in the field of PAH reactivity in ISM, more specifically the hydrogenation of our model PAH, naphthalene. PAH hydrogenation is a key mechanism, especially for molecular hydrogen formation in the ISM, which is critical for astrophysical models. vdW-TSSCDS method provides, in a totally automated fashion, all the stationary points for the potential energy surface of a molecular or intermolecular system which may contain covalent and van der Waals bonds, taking into account the three approximations : rigid monomer, semi-rigid and fully flexible. We have demonstrated the feasibility and efficiency of this methodology in the context of the first hydrogenation of naphthalene by obtaining the whole reaction network, i.e. all the transition states, minimas and lowest energy paths between them. With our results, we were able to find all the previously undescribed TS as well as low-energy species of the indene type. Furthermore, we report some preliminary results on second hydrogenation and establish some clear lines for the progress of this type of research by using this methodology allowing going beyond chemical intuition
APA, Harvard, Vancouver, ISO, and other styles
45

Ryazanova, Oleksiv Marta. "Approche statistique pour l'optimisation des stratégies d'analyses techniques basées sur des seuils." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005145.

Full text
Abstract:
Cette thèse propose des approches probabilistes pour améliorer et optimiser un des instruments les plus populaires de l'analyse technique, les bandes de trading. Les parties I et II se concentrent sur l'optimisation des composantes des bandes de trading: ligne centrale (représentée par la moyenne mobile) et lignes des bandes. La partie III est dédiée à l'amélioration du processus de prise de décision. Dans la partie I on propose d'utiliser le krigeage, une approche géostatistique, pour l'optimisation des poids des moyennes mobiles. Le krigeage permet d'obtenir l'estimateur optimal, qui incorpore les caractéristiques statistiques des données. Contrairement aux méthodes classiques, qui sont utilisées en finance, celle ci peut être appliquée aux données échantillonnées à maille régulière ou irrégulière. La partie II propose une méthode, basée sur la transformation des données en une variable normale, qui permet de définir les valeurs extrêmes et en conséquence les valeurs des bandes sans imposition de contraintes sur la distribution des résidus. Enfin, la partie III présente l'application des méthodes de krigeage disjonctif , une autre méthode géostatistique, pour les décision plus informative sur le timing et le type de position. Le krigeage disjonctif permet d'estimer les probabilités que certain seuils seront atteints dans le futur. Les résultats expérimentaux prouvent que les techniques proposées sont prometteuses et peuvent être utilisées en pratique.
APA, Harvard, Vancouver, ISO, and other styles
46

Puma, André-Charles. "Les deux corps du juge et le syndrome du dispositif : étude sur les causes de l'incomplétude normative, sa portée juridictionnelle et ses autres conséquences en droit continental français contemporain." Thesis, Paris 2, 2018. http://www.theses.fr/2018PA020047.

Full text
Abstract:
L’État de droit peut se définir comme un système institutionnel dans lequel la puissance publique est soumise au droit. Cette notion, a été redéfinie au début du vingtième siècle par Hans Kelsen comme : « un État dans lequel les normes juridiques sont hiérarchisées de telle sorte que sa puissance s’en trouve limitée ». Un tel système qui pose la soumission des patients à la règle, présuppose outre la légitimité de ses agents, la traduction objective de la normativité qui en est issue. Pour autant il appert de l’observation des dispositifs qui en résultent, des anomalies structurelles et fonctionnelles dont les effets cliniques constitutifs d’un syndrome, pointent les dysfonctionnements d’un espace juridictionnel essentiellement abandonné aux individualités. En conséquence, les interactions entre les agents et les patients (justiciables, défendeurs, demandeurs) ne sauraient être dissociées de l’analyse de ces manifestations spécifiques au droit continental, notamment français contemporain. C’est donc, après avoir procédé à l’identification du syndrome et à l’analyse du « concept dispositif », fait le constat d’un paradoxe régulatoire constant et relevé les signes cliniques des affections, que nous en avons déduis les vecteurs. Toutefois, le constat qui en est résulté conduisait, soit à considérer le phénomène inéluctable et à l’intégrer, soit à en rechercher les causes originelles et les voies susceptibles d’en atténuer les effets. Par suite, c’est à l’aune d’un paradigme constant, propre au droit continental, qu’après avoir relevé les effets et identifié les causes des affections ainsi révélées par le syndrome du dispositif, que nous avons imaginé le concept de résidualisme. Partant, après en avoir aperçu tant les fondements que la stratégie, nous en avons recherché les premières pistes susceptibles d’en réduire la portée et de conduire à l’élaboration d’un dispositif « assisté », visant tant à obtenir l’adhésion effective des agents et des patients, qu’à décharger le juge d’une responsabilité normative qui n’est pas la sienne
The two bodies of the judge and the syndrome of the device: study on the causes of the normative incompleteness, legal scope and its other consequences in contemporary French continental law.The rule of law can be defined as an institutional system in which the public authority is subject to the law. This notion has been redefined in the early twentieth century by Hans Kelsen as: "a State in which legal standards are prioritized so that its power is limited. Such a system that asks patients to the rule submission, presupposes the legitimacy of its agents, in addition to objective translation of normativity which from. So far it appears from the observation devices resulting, structural and functional abnormalities with the constituent clinical effects of a syndrome, that point the dysfunctions of a jurisdictional space essentially abandoned to individualities. As a result, the interactions between agents and patients (litigants, defendants, plaintiffs) cannot be separated from the analysis of these events specific to the continental law, including contemporary french. It is therefore, after identification of the syndrome and the analysis of the 'system concept', made the observation that for a constant regulatory paradox and noted the clinical signs of disease, that we examined the vectors. However, the observation that resulted was driving, consider the inevitable and to integrate it, either search for the original causes and ways to mitigate the effects. Accordingly, it is in the light of a paradigm of constant, clean to the continental law, after having noted the effects and identified the causes of disease as revealed by the syndrome of the device, we have created the concept of residualism. Therefore, after to have seen both the foundations that the strategy we sought in the first tracks likely to reduce the scope and lead to the development of a "guided" device, both aiming to get effective accession of agents and of the patients, to unload the judge of a normative responsibility is not hers
APA, Harvard, Vancouver, ISO, and other styles
47

Geindre, Hugo. "Outils théoriques pour la simulation de la spectroscopie vibrationnelle et de la réactivité des hydrocarbures aromatiques polycycliques dans le milieu interstellaire : analyse critique et nouvelles approches." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1R018.

Full text
Abstract:
Les hydrocarbures aromatiques polycycliques (HAP), une famille de molécules composées de cycle de carbones agrégés, sont suspectés depuis de nombreuses années d’être à l’origine des bandes infrarouges non identifiées (UIB) qui sont des bandes d’émission détectées dans de très nombreuses régions du milieu interstellaire. Il est communément admis de nos jours que les HAP sont omniprésents dans le milieu interstellaire (ISM) et sont donc un acteur majeur de nombreux phénomènes s’y déroulant, de la naissance des étoiles à la formation de l’hydrogène moléculaire. Malgré cela, aucune identification certaine d’un HAP au sein du milieu interstellaire n’a pu être menée à bien. Pour attaquer le problème de l’attribution de bandes dans le spectre infrarouge, il est nécessaire, entre autres, de disposer de données théoriques précises sur les différents HAP (linéaires, coudées, etc.) dans leurs différents états de charge, d’hydrogénation ou, même, environnements (adsorption sur des grains de poussière interstellaires, présence de glace. . . ). En ce sens, on peut également considérer que les HAP constituent des sondes moléculaires très appropriées pour interroger le milieu interstellaire. Le but de cette thèse est d’analyser en profondeur les différents outils théoriques les plus répandus ainsi que de proposer méthodologies et développements techniques permettant d’améliorer les descriptions théoriques actuelles et de déverrouiller des limitations techniques afin de servir de guide dans le choix des méthodes pour les études futures. Dans un premier temps, nous nous sommes penchés sur le problème de la surestimation des intensités des bandes dans la zone de stretching-CH dans les spectres infrarouges théoriques des HAP, qui est particulièrement difficile à reproduire. Afin de comprendre les fondements sous-jacents à cette description anormale, nous avons systématiquement échantillonné les différentes familles de fonctionnelles DFT ainsi que les différentes bases électroniques pour étudier le HAP modèle, naphtalène, et d’autres molécules chimiquement proches. Nous avons démontré que la correction longue portée possède un fort impact sur ces calculs (cas harmonique et anharmonique), en particulier dans la région qui nous intéresse, la stretching C-H. Notre étude met aussi en évidence des erreurs numériques dues à la présence de bases contenant des fonctions diffuses. Enfin, nous proposons une approche méthodologique qui minimes toutes ces erreurs. Dans un second temps, nous présentons la première application d’un nouvel algorithme, van der Waals Transition State Search Using Chemical Dynamics Simulation (dit vdW-TSSCDS), dans le champ de la réactivité des HAP dans l’ISM, plus spécifiquement pour l’étude de l’hydrogénation de notre HAP modèle, le naphtalène. L’hydrogénation des HAP est un mécanisme crucial, notamment pour la formation de l’hydrogène moléculaire dans l’ISM qui est essentielle pour les modèles astrophysiques. La méthode vdW-TSSCDS permet de trouver de manière totalement automatisée tous les points stationnaires de la surface d’énergie potentielle d’un système moléculaire ou intermoléculaire pouvant contenir des liaisons covalentes et van der Waals et en considérant les trois approximations : monomère rigide, semi-rigide et complètement flexible. Nous avons démontré la faisabilité et l’efficacité de cette méthodologie dans le cadre de la première hydrogénation du naphtalène en obtenant le réseau de réaction complet, c’est-à-dire tous les états de transition (TS) et les minima, ainsi que les chemins de plus basse énergie les reliant. Nos résultats nous ont permis d’obtenir tous les TS qui n’étaient pas encore décrits ainsi que des configurations stables de basse énergie de type indène. Nous présentons également quelques résultats préliminaires sur la seconde hydrogénation et établissons des lignes claires pour l’avancement de ce type de recherche en utilisant cette méthodologie qui permet d’aller au-delà de l’intuition chimique
Polycyclic aromatic hydrocarbons (PAH), a family of molecule consisting of fused carbon cycles are suspected for many years to be responsible for the unidentified infrared bands (UIB) which are some emission features detected in many regions of the interstellar medium. It is now generally accepted that PAHs are ubiquitous in the interstellar medium and a key factor in a lot of events in these regions, from the birth of stars to molecular hydrogen formation. However, no PAH has never been formally identified in the interstellar medium. To address the bands allocation problem in the infrared spectra, scientists need, among others, precise theoretical data on different PAHs (linear, bent, etc.) in different charge,hydrogenation state or, even, environment (adsorption on interstellar dust, occurrence of ice. . . ). In this regard, one can also view the PAH as a molecular probe for the interstellar medium. The goal of this thesis is to perform an in-depth analysis of the most common theoretical tools as well as provide new methodologies and technical developments in order to improve current theoretical descriptions and unlock technical limitations with the aim to serve as a guide for future studies. At first, we looked at the problem of the intensity overestimation in the CH-stretching region of the PAH infrared spectra, which is especially difficult to reproduce. In order to understand the foundations of this anomalous description, we have systematically sampled the different families of DFT functionals as well as the electronic basis set to study the model PAH, naphthalene and some chemically close molecules. We have demonstrated that the long-range correction strongly impact these calculations (harmonic and anharmonic cases), especially in our region of interest, the CH-stretching. Our study highlights some numerical errors due to the presence of diffuse functions in the electronic basis set. Finally, we propose a methodological approach to minimise all these errors. Secondly, we report the first application of a new algorithm, van der Waals Transition State Search Using Chemical Dynamics Simulation (vdW-TSSCDS), in the field of PAH reactivity in ISM, more specifically the hydrogenation of our model PAH, naphthalene. PAH hydrogenation is a key mechanism, especially for molecular hydrogen formation in the ISM, which is critical for astrophysical models. vdW-TSSCDS method provides, in a totally automated fashion, all the stationary points for the potential energy surface of a molecular or intermolecular system which may contain covalent and van der Waals bonds, taking into account the three approximations : rigid monomer, semi-rigid and fully flexible. We have demonstrated the feasibility and efficiency of this methodology in the context of the first hydrogenation of naphthalene by obtaining the whole reaction network, i.e. all the transition states, minimas and lowest energy paths between them. With our results, we were able to find all the previously undescribed TS as well as low-energy species of the indene type. Furthermore, we report some preliminary results on second hydrogenation and establish some clear lines for the progress of this type of research by using this methodology allowing going beyond chemical intuition
APA, Harvard, Vancouver, ISO, and other styles
48

Vaudor, Lise. "Estimation de la moyenne et de la variance de l’abondance de populations en écologie à partir d’échantillons de petite taille." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10013/document.

Full text
Abstract:
En écologie comme dans bien d’autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d’inférence sont souvent mal adaptées à ces distributions, à moins de disposer d’échantillons de très grande taille. Il est donc nécessaire de s’interroger sur la validité des méthodes d’inférence, et de quantifier les erreurs d’estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d’abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d’une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l’estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d’estimation de la dispersion. L’erreur d’estimation est d’autant plus importante que le nombre d’individus observés est faible, et l’on peut, pour une population donnée, quantifier le gain en précision résultant de l’exclusion d’échantillons comprenant très peu d’individus. Nous avons ensuite comparé plusieurs méthodes de calcul d’intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d’estimation étaient prévisibles, à travers l’observation de statistiques simples des échantillons comme le nombre total d’individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d’échantillonnage à taille fixe, à une méthode séquentielle, où l’on échantillonne jusqu’à observer un nombre minimum d’individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l’échantillonnage séquentiel améliore l’estimation du paramètre de dispersion mais induit un biais dans l’estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d’estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d’estimations, et aboutit à des recommandations pratiques en termes de méthodes d’échantillonnage et d’estimation
In ecology as well as in other scientific areas, count samples often comprise many zeros, and few high abundances. Their distribution is particularly overdispersed, and skewed. The most classical methods of inference are often ill-adapted to these distributions, unless sample size is really large. It is thus necessary to question the validity of inference methods, and to quantify estimation errors for such data. This work has been motivated by a fish abundance dataset, corresponding to punctual sampling by electrofishing. This dataset comprises more than 2000 samples : each sample corresponds to punctual abundances (considered to be independent and identically distributed) for one species and one fishing campaign. These samples are small-sized (generally, 20 _ n _ 50) and comprise many zeros (overall, 80% of counts are zeros). The fits of various classical distribution models were compared on these samples, and the negative binomial distribution was selected. Consequently, we dealt with the estimation of the parameters of this distribution : the parameter of mean m and parameter of dispersion q. First, we studied estimation problems for the dispersion. The estimation error is higher when few individuals are observed, and the gain in precision for a population, resulting from the exclusion of samples comprising very few individuals, can be quantified. We then compared several methods of interval estimation for the mean. Confidence intervals based on negative binomial likelihood are, by far, preferable to more classical ones such as Student’s method. Besides, both studies showed that some estimation problems are predictable through simple statistics such as total number of individuals or number of non-null counts. Accordingly, we compared the fixed sample size sampling method, to a sequential method, where sampling goes on until a minimum number of individuals or positive counts have been observed. We showed that sequential sampling improves the estimation of dispersion but causes the estimation of mean to be biased ; still, it improves the estimation of confidence intervals for the mean. Hence, this work quantifies errors in the estimation of mean and dispersion in the case of overdispersed count data, compares various estimation methods, and leads to practical recommendations as for sampling and estimation methods
APA, Harvard, Vancouver, ISO, and other styles
49

Blanc, Thomas. "Etude mathématique des problèmes paraboliques fortement anisotropes." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0570.

Full text
Abstract:
Ce manuscrit de thèse traite de l'analyse asymptotique de problèmes paraboliques possédant des termes raides. Dans un premier temps, on fait l'analyse asymptotique d'un système parabolique possédant des termes de transport raide. Une analyse à deux échelles, basée sur des résultats de théorie ergodique, nous permet de dériver un système limite effectif. Ce système effectif se trouve être, de nouveau, un système parabolique dont le champ de diffusion peut être explicité par une moyenne du champ de diffusion initial le long d'un groupe d'opérateurs unitaires. L'introduction d'un correcteur nous permet d'obtenir un résultat de convergence forte, avec un ordre de convergence, pour des données initiales non nécessairement bien préparées. On propose dans un second temps une méthode numérique permettant de calculer le champ de diffusion effectif. Celle-ci est basée sur la combinaison d'un schéma Runge-Kutta et d'un schéma de type semi-Lagrangien. L'ordre de convergence obtenu théoriquement est mis en évidence de manière numérique. On propose une méthode numérique basée sur un splitting d'opérateur pour la résolution du système parabolique avec termes de transport raide. Enfin, on effectue l'analyse asymptotique d'un système parabolique fortement anisotrope. Sous de bonnes hypothèses de régularité, un système variationnel effectif est proposé et l'introduction d'un correcteur adapté permet d'obtenir un résultat de convergence forte avec un ordre de convergence. Les arguments utilisés relèvent une nouvelle fois de l'analyse à deux échelles et de la théorie ergodique
This manuscript is devoted to the asymptotic analysis of parabolic equations with stiff terms. First, we perform the asymptotic analysis of a parabolic equation with stiff transport terms. An effective limit model is obtained by a two-scale analysis based on ergodic theory results. This effective system is again a parabolic system whose diffusion field is an average of the initial diffusion field along a group of unitary operators. The introduction of a corrector allows us to obtain a strong convergence result, with an order of convergence, for initial data not necessarily well prepared. We propose a numerical method to compute the effective diffusion field. This method is based on a Runge-Kutta scheme and a semi-Lagrangian scheme. The theoretically order of convergence is obtained numerically. We propose a numerical method based on operator splitting for the resolution of the parabolic system with stiff transport terms. Finally, we perform the asymptotic analysis of a strongly anisotropic parabolic problem. Under suitable smoothness hypotheses, an effective variational system is proposed. By using a suitable corrector, we obtain a strong convergence result and we are able to perform the error analysis. The arguments relate again to the two-scale analysis and the ergodic theory
APA, Harvard, Vancouver, ISO, and other styles
50

Comparat, Daniel. "Formation de molécules froides par photoassociation d'atomes froids de césium. Mise en évidence de forces à longue portée entre atomes froids excités de césium." Phd thesis, Université Paris Sud - Paris XI, 1999. http://tel.archives-ouvertes.fr/tel-00002752.

Full text
Abstract:
Cette thèse porte sur l'étude expérimentale et l'interprétation théorique des processus de photoassociation et de formation de molécules froides de césium, ainsi que sur l'étude des forces dipolaires entre une paire d'atomes de césium froids excités. La photoassociation moléculaire d'atomes froids de césium a été réalisée expérimentalement : deux atomes absorbent un photon pour former une molécule électroniquement excitée dans un état de rotation-vibration donné. L'expérience a permis la première observation de molécules translationnellement froides obtenues après désexcitation spontanée des molécules photoassociées. La forme en double puits des courbes de potentiel des états moléculaires $0_g^- (6s+6p_(3/2))$ et $1_u (6s+6p_(3/2))$ du césium est la clé de l'efficacité du processus. Ces molécules froides formées sont détectées sélectivement par temps de vol après leur photoionisation en ions Cs$_2^+$. Des températures de $20-200\,\mu$K ont été mesurées. La photoassociation offre une méthode de spectroscopie à haute résolution qui permet d'atteindre des états moléculaires de grande élongation, donnant accès aux données asymptotiques. La spectroscopie du puits de potentiel externe de l'état $0_g^-(6s+6p_(3/2))$ du césium a été effectuée et est analysée par une approche R.K.R.. Une théorie unifiée de la photoassociation en champ faible, vue comme une collision assistée par laser, est développée dans ce manuscrit. Les expériences avec les atomes froids permettent l'étude des collisions entre deux atomes soumis à une interaction mutuelle à grande distance de type dipôle-dipôle. Deux systèmes physiques différents sont étudiés : une assemblée d'atomes de Rydberg et la photoassociation. La modification du mouvement d'une paire d'atomes offre la possibilité de ``contrôler" les forces dipolaires et de ``choisir" les vitesses relatives entre atomes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography