Tesi sul tema "Distributions discrètes"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Distributions discrètes.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-15 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Distributions discrètes".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Geiswiller, Johann. "Application de la méthode des distributions surfaciques de charges discrètes à la modélisation d'antennes électriques en milieu plasma". Orléans, 2001. http://www.theses.fr/2001ORLE2027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mesure des propriétés électroniques des plasmas naturels est couramment réalisée à l'aide d'antennes électriques embarquées à bord de satellites. Nous étudions dans un premier temps le cas académique d'une antenne double-brin filaire disposée dans un plasma cinétique, maxwellien, homogène et isotrope. Nous confirmons par une approche numérique basée sur la méthode des distributions surfaciques de charges discrètes (DSCD) les résultats obtenus par différents auteurs dans le cas du dipôle double brin court, i. E. Inférieur à 50 longueurs de Debye. Cette approche numérique a permis d'aller plus loin et notamment d'étendre l'étude de manière systématique au cas des dipôles dont la longueur est comprise entre 16 et 800 ?, tout en introduisant les notions fondamentales d'impédance électrostatique, de répartition surfacique de charges et d'ondes de charge stationnaires. Nous étudions l'influence de la gaine ionique qui se développe naturellement autour de tout conducteur immergé dans un plasma et nous montrons que sa présence suffit à expliquer les résistances anormales observées expérimentalement au voisinage de la fréquence plasma.
2

Chhor, Julien. "Topics in high-dimensional and non-parametric inference". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAG005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous traitons les sujets suivants: tests minimax locaux, estimation sous contraintes combinées de robustesse et de confidentialité locale différentielle, estimation adaptative en régression non-paramétrique avec benign overfitting.Nous étudions en premier lieu le problème de test minimax d'adéquation pour des lois discrètes et des lois à densité Hölder-régulières.Le problème consiste à tester l'égalité à une loi connue contre une alternative composée de distributions séparées de l'hypothèse nulle au sens d'une certaine métrique.Nous identifions les vitesses locales non-asymptotiques sur la séparation nécessaire pour assurer l'existence d'un test uniformément consistant et nous donnons leur dépendance précise par rapport à l'hypothèse nulle pour différentes distances de séparation.Nous identifions également les tests locaux optimaux correspondants.Nous étudions le problème d'estimation de lois discrètes avec contrainte de confidentialité differentielle locale en supposant de plus que les données sont issues d'un modèle de contamination adversariale.Nous proposons un algorithme robuste aux outliers et adapté à la confidentialité, dont nous montrons l'optimalité statistique ainsi que l'efficacité en temps de calcul.Enfin, dans le cadre de la régression non-paramétrique, nous utilisons des estimateurs par polynômes locaux avec noyau singulier afin de construire des estimateurs continus, minimax et adaptatifs à la régularité inconnue de la fonction à estimer, et qui interpolent tous les points de données avec grande probabilité - un phenomène connu sous le nom de ``benign overfitting"
In this thesis, we consider the following topics: Local minimax testing, estimation under the combined constraints of robustness and local differential privacy, adaptive estimation in non-parametric regression with benign overfitting.A first theme addressed in this thesis is the local minimax goodness-of-fit testing problem for high-dimensional discrete distributions and Hölder-smooth densities.The problem consists in testing equality to a given distribution when observing iid data, against an alternative separated from the null distribution in some given metric. We identify the sharp non-asymptotic local minimax rates on the separation needed to ensure the existence of a uniformly consistent test and give its precise dependency on the null distribution for a variety of separation distances. We also derive the corresponding local minimax tests.In the second part of the thesis, we study an estimation problem with learning constraints. We consider the problem of estimating discrete distributions under local differential privacy, assuming also that the data follow an adversarial contamination model.We propose a locally differentially private algorithm that is robust to adversarially chosen outliers. We prove its near statistical optimality and show that it has polynomial time complexity.In the third part of the thesis, we consider the non-parametric regression setting, and we show that local polynomial estimators with singular kernel can be minimax optimal and adaptive to unknown smoothness, while continuously interpolating all the datapoints with high probability -- a phenomenon known as "benign overfitting''
3

Foret, Lionel. "Effets de charges discrètes aux interfaces d'un électrolyte confiné". Bordeaux 1, 2003. http://www.theses.fr/2003BOR12720.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un film électrolyte plan, lorsque la distance entre les charges de surface excède la longueur d'écrantage, l'approximation de distribution continue de charge de surface ne s'applique plus. Il faut prendre en compte la nature discrète des charges. Dans une géométrie interfaciale, l'écrantage de charges ponctuelles n'est pas exponentiel mais algébrique ; la densité de charges d'écrans et le potentiel d'interaction écranté variant en r-3. En conséquence : (i) Il y a étalement du nuage d'écrantage qui dans un film électrolyte fin peut alors avoir une largeur typique bien supérieur à la longueur de Debye. (ii) L'interaction entre les charges est à longue portée malgré l'écrantage ; nous montrons que, malgré la dépendance en r-3, il ne s'agit pas d'une interaction dipolaire. Lorsque la nature discrète des charges est pertinente, la pression s'exerçant sur les interfaces du film diffère de celle de surface chargée de manière homogène. La pression provient, dans ce cas, de la force exercée par chaque charge discrète et varie, en conséquence, linéairement avec la densité de charge. La pression des charges discrète est très inhomogène et peut induire des déformations lorsque les interfaces sont "molles". . Deux charges induisent deux déformations de l'interface qui vont interagir. Nous montrons que les déformations de deux charges sur une interface liquide se repoussent. Cet effet n'est donc pas à l'origine de l'attraction entre charges de surface observée expérimentalement récemment
In an electrolyte film, if the lateral surface charge distance exceeds the screening length, the standard continuous approximation for the charge distribution fails. The discrete nature of the charge has to be taken into account. In interfacial geometries, screening of punctual charge is no longer exponential but algebraic ; the screening cloud charge density and the screened potential decay as r-3. As a consequence : (i) The screening cloud is spread along the interface and can reach a typical lateral length larger than the Debye length. (ii) There is a long-range interaction between the charges. We have shown that despite the r-3 law, this is not a dipolar interaction. If the discreteness of the charge is relavant, the disjoining pressure of the film deviates from that of homogeneously charged surfaces. The pressure is now due to the force created by each discrete charge and is thus, linear in surface charge density. The pressure of the discrete charges is strongly inhomogeneous and may deform "soft" interfaces. The deformations superposition induces an effective interaction of the surface charges. We have shown that the effective interaction of two charges on a liquid interface is repulsive. Thus, this force is not responsible for the charges attraction observed in recent experiments
4

Maillard, Jean-Marie. "Intégrabilité, série discrète des groupes de Lorentz et transformation de Weyl des distributions tempérées". Dijon, 1986. http://www.theses.fr/1986DIJOS025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Koladjo, Babagnidé François. "Estimation non paramétrique du nombre d'espèces : Application à l'étude de la faune ichtyologique du bassin du fleuve Ouëmé". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112153.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce manuscrit est structuré en deux parties. La première partie composée des chapitres 2à 4 aborde le problème d'estimation du nombre de classes dans une population avec une application en écologie. La deuxième partie, correspondant au chapitre 5,concerne la mise en oeuvre de méthodes statistiques pour analyser des données de pêche. Dans la première partie, nous considérons une population hétérogène subdiviséeen plusieurs classes. À partir d'un échantillon, les effectifs d'individus observés parclasse, encore appelés abondances, sont utilisés pour estimer le nombre total declasses dans la population. Dans la littérature consacrée à l'estimation du nombrede classes, les méthodes basées sur un mélange de distributions de Poisson semblentêtre les plus performantes (voir par exemple les travaux de Chao and Bunge (2002)dans le cadre paramétrique et celui de Wang and Lindsay (2005) dans un cadrenon paramétrique). La mise en oeuvre de ces approches sur des données réellesmet en évidence que la distribution des abondances peut être approchée par unedistribution convexe. Nous proposons une approche non paramétrique pour estimerla distribution des abondances sous contrainte de convexité. Cette contrainte définitun cadre théorique d'estimation d'une densité discrète. Le problème d'estimation dunombre de classes est donc abordé en deux volets. Nous montrons d'une part l'existenceet l'unicité d'un estimateur d'une densité discrète sous la contrainte de convexité.Sous cette contrainte, nous démontrons qu'une densité discrète s'écrit comme un mélange de densités triangulaires. À partir de l'algorithme de réduction du supportproposé par Groeneboom et al. (2008), nous proposons un algorithme exact pourestimer les proportions dans le mélange. D'autre part, la procédure d'estimationd'une densité discrète convexe nous sert de cadre pour l'estimation de la distributiontronquée en zéro des observations d'abondance. L'estimation de la loi tronquée obtenue est ensuite prolongée en zéro pour estimer la probabilité qu'une classe ne soit pasobservée. Ce prolongement en zéro est fait de façon à annuler la proportion dela première composante dans le mélange de densités triangulaires. Nousaboutissons à une estimation du nombre de classes à l'aide d'un modèle binomial ensupposant que chaque classe apparaît dans un échantillon par une épreuve deBernoulli. Nous montrons la convergence en loi de l'estimateur proposé. Sur le plan pratique, une application aux données réelles en écologie est présentée. La méthode est ensuite comparée à d'autres méthodes concurrentes à l'aide de simulations. La seconde partie présente l'analyse des données de pêche collectées dans le fleuveOuémé au Bénin. Nous proposons une démarche statistique permettant de regrouperles espèces selon leur profil temporel d'abondances, d'estimer le stock d'une espèceainsi que leur capturabilité par les engins de pêche artisanale
This manuscript is structured in two parts. The #rst part composed of Chapters 2to 4 deals with the problem of estimating the number of classes in a population withan application in ecology. The second part, corresponding to Chapter 5, concernsthe application of statistical methods to analyze fisheries data.In the first part, we consider a heterogeneous population split into several classes.From a sample, the numbers of observed individuals per class, also called abun-dances, are used to estimate the total number of classes in the population. In theliterature devoted to the number of classes estimation, methods based on a mix-ture of Poisson distributions seem to be the most effcient (see for example the workof Chao and Bunge (2002) in the parametric framework and that of Wang and Lind-say (2005) in a non-parametric framework). Applications of these approaches to realdata show that the distribution of abundances can be approximated by a convexdistribution. We propose a non-parametric approach to estimate the distribution ofabundances under the constraint of convexity. This constraint defines a theoreticalframework for estimating a discrete density. The problem of estimating the numberof classes is then tackled in two steps.We show on the one hand the existence and uniqueness of an estimator of adiscrete density under the constraint of convexity. Under this constraint, we provethat a discrete density can be written as a mixture of triangular distributions. Usingthe support reduction algorithm proposed by Groeneboom et al. (2008), we proposean exact algorithm to estimate the proportions in the mixture.On the other hand, the estimation procedure of a discrete convex density is usedto estimate the zero-truncated distribution of the observed abundance data. Thezero-truncated distribution estimate is then extended at zero to derive an estimateof the probability that a class is not observed. This extension is made so as tocancel the first component in the mixture of triangular distributions. An estimateof the total number of classes is obtained through a binomial model assuming thateach class appears in a sample by a Bernoulli trial. We show the convergence inlaw of the proposed estimator. On practical view, an application to real ecologicaldata is presented. The method is then compared to other concurrent methods usingsimulations.The second part presents the analysis of fisheries data collected on the Ouémériver in Benin. We propose a statistical approach for grouping species accordingto their temporal abundance profile, to estimate the stock of a species and theircatchability by artisanal fishing gears
6

Papin, Morgane. "Apport de la bioacoustique pour le suivi d’une espèce discrète : le Loup gris (Canis lupus)". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0258/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le nombre croissant de travaux réalisés ces dernières années a montré que la bioacoustique est particulièrement intéressante pour le suivi d’espèces discrètes. L’émergence de dispositifs d’enregistrement autonomes, associée à de nouvelles méthodes d’analyse, ont récemment participé à l’accroissement des études dans ce domaine. Au cours des 30 dernières années, le Loup gris (Canis lupus), mammifère carnivore aux mœurs discrètes connu pour ses hurlements de longue portée, a fait l’objet de nombreuses études acoustiques. Ces dernières visaient notamment à améliorer son suivi, qui s’avère complexe du fait des grandes capacités de déplacement des loups, de l’étendue de leurs territoires et de la diversité des milieux dans lesquels ils vivent. Cependant, la bioacoustique passive a jusqu’alors très peu été exploitée pour le suivi du Loup. C’est dans ce contexte que la présente thèse s’est organisée autour de trois axes de recherche. Les deux premiers axes portent sur l’apport de la bioacoustique passive pour le suivi du Loup gris en milieu naturel. En combinant des analyses acoustiques, statistiques et cartographiques, le premier objectif a été d’élaborer une méthode pour l’échantillonnage spatial de vastes zones d’étude, afin d’y détecter des hurlements de loups à l’aide de réseaux d’enregistreurs autonomes. Ce même dispositif a ensuite permis, dans un second temps, de tester la possibilité de localiser les loups grâce à leurs hurlements. Les expérimentations conduites en milieu de moyenne montagne (Massif des Vosges) et de plaine (Côtes de Meuse), sur deux zones d’étude de 30 km² et avec un réseau de 20 enregistreurs autonomes, ont permis de démontrer l’intérêt de la bioacoustique passive pour le suivi du Loup gris. En effet, près de 70% des émissions sonores (son synthétique aux propriétés similaires à celles de hurlements de loups) ont été détectés par au moins un enregistreur autonome en milieu de moyenne montagne et plus de 80% en milieu de plaine, pour des distances enregistreurs– source sonore atteignant respectivement plus de 2.7 km et plus de 3.5 km. Grâce à un modèle statistique et à un Système d’Information Géographique, la probabilité de détection des hurlements a pu être cartographiée sur les deux zones. En moyenne montagne, elle était forte à très forte (>0.5) sur 5.72 km² de la zone d’étude, contre 21.43 km² en milieu de plaine. Les sites d’émission ont été localisés avec une précision moyenne de 315 ± 617 (SD) m, réduite à 167 ± 308 (SD) m après l’application d’un seuil d’erreur temporelle défini d’après la distribution des données. Le troisième axe de travail porte quant à lui sur l’application d’indices de diversité acoustique pour estimer le nombre d’individus participant à un chorus et ainsi contribuer au suivi de l’effectif des meutes. Les valeurs obtenues pour les six indices (H, Ht, Hf, AR, M et ACI) étaient corrélées avec le nombre de loups hurlant dans les chorus artificiels testés. De bonnes prédictions de l’effectif ont été obtenues sur des chorus réels avec l’un de ces indices (ACI). L’influence de plusieurs biais sur la précision des prédictions de chacun des six indices a ensuite pu être étudiée, montrant que trois d’entre eux y étaient relativement peu sensibles (Hf, AR et ACI). Finalement, les résultats obtenus avec les enregistreurs autonomes montrent le potentiel des méthodes acoustiques passives pour la détection de la présence de loups mais aussi pour les localiser avec une bonne précision, dans des milieux contrastés et à de larges échelles spatiale et temporelle. L’utilisation des indices de diversité acoustique ouvre également de nouvelles perspectives pour l’estimation de l’effectif des meutes. Prometteuses, l’ensemble des méthodes émergeant de ce travail nécessite à présent quelques investigations complémentaires avant d’envisager une application concrète pour le suivi du Loup gris dans son milieu naturel
The growing number of studies carried out in recent years has shown that bioacoustics is particularly interesting for the monitoring of secretive species. The emergence of autonomous recording devices, combined with new methods of analysis, have recently contributed to the increase of studies in this field. Over the last 30 years, many bioacoustic studies have been developed for the Grey wolf (Canis lupus), a secretive large carnivore known for its howls spreading over distances up to several kilometers. These researches notably aimed to improve its monitoring, which is complex because of the strong wolf dispersal capacities over long distances, the large extent of their territories and the various natural contexts in which they live. In this context, this PhD thesis was organized around three research axes. The first two axes focused on the contribution of passive bioacoustics for the Grey wolf monitoring in the field. By combining acoustic, statistical and cartographic analysis, the first objective was to develop a spatial sampling method adapted to large study areas for the detection of wolf howls by using autonomous recorders. Then, the same protocol was used to investigate the possibility to localize wolves thanks to their howls. Field experimentations, conducted in mid-mountain (Massif des Vosges) and lowland (Côtes de Meuse) environments, in two study areas of 30 km² and with an array of 20 autonomous recorders, demonstrated the high potential of passive bioacoustics for the Grey wolf monitoring. Indeed, nearly 70% of broadcasts (synthetic sound with similar acoustic properties to howls) were detected by at least one autonomous recorder in mid-mountain environment and more than 80% in lowland environment, for sound source-recorders distances of up to 2.7 km and 3.5 km respectively. By using statistical model and Geographic Information System, the detection probability of wolf howls was modeled in both study areas. In the mid-mountain environment, this detection probability was high or very high (greater than 0.5) in 5.72 km² of the study area, compared with 21.43 km² in lowland environment. The broadcast sites were localized with an overall mean accuracy of 315 ± 617 (SD) m, reducing until 167 ± 308 (SD) m after setting a temporal error threshold defined from the data distribution. The third axe focused on the application of acoustic diversity indices to estimate the number of howling wolves in choruses and thus to contribute to pack size monitoring. Index values of the six indices (H, Ht, Hf, AR, M, and ACI) were positively correlated with the number of howling wolves in the artificial tested choruses. Interesting size predictions based on real choruses were obtained with one of the indices (ACI). The effects of several biases on the reference values for the acoustic indices were then explored, showing that three of them were relatively insensitive (Hf, AR and, ACI). Finally, results obtained with autonomous recorders confirm the real potential of passive acoustic methods for detecting the presence of wolves but also for localizing individuals with high precision, in contrasting natural environments, at large spatial and temporal scales. The use of acoustic diversity indices also opens new perspectives for estimating pack sizes. All of the promising methods emerging from this thesis require now further investigations before considering a concrete application for monitoring the Grey wolf in its natural environment
7

André, Jean. "Optimization of investments in gas networks". Littoral, 2010. http://www.theses.fr/2010DUNK0286.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux de transport de gaz naturel nécessitent des investissements très importants pour faire face à une demande toujours croissante en énergie et pour satisfaire des contraintes réglementaires de plus en plus importantes. En effet, la libéralisation des marchés gaziers a imposé aux opérateurs de transport de gaz, d’une part, des règles de transparence d’un monopole naturel pour justifier leurs dépenses et, in fine, leurs tarifs, et , d’autre part, des objectifs de fluidification du marché afin de faciliter l’accès a la concurrence des clients finaux. Ces investissements majeurs justifient l’utilisation de techniques d’optimisation permettant de réduire leurs coûts. Vu la présence de choix discrets (choix de la localisation des investissements, choix limité de capacités supplémentaires, planification temporelle) en combinaison avec des contraintes physiques non linéaires (représentant la relation entre l’´ecoulement et les pressions dans les canalisations ou la plage de fonctionnement des compresseurs), les programmes à résoudre sont des programmes d’optimisation non linéaires en nombres entiers (PNLNE) de grandes tailles. Ce type de programmes étant connu pour être particulièrement difficile à résoudre en temps polynomial (NP-difficile), des méthodes avancées d’optimisation doivent être mises en oeuvre pour obtenir des réponses réalistes. Les objectifs de cette thèse sont au nombre de trois. Il s’agit d’abord de proposer une modélisation des problèmes d’investissement dans les réseaux de transport de gaz à partir des motivations du monde industriel. Il s’agit ensuite d’identifier les méthodes et algorithmes les plus adéquats pour résoudre les problèmes ainsi formulées. Il s’agit enfin d’évaluer les avantages et les inconvénients de ces méthodes à l’aide d’applications numériques sur des cas réels
The natural gas networks require very important investments to cope with a still growing demand and to satisfy the new regulatory constraints. The gas market deregulation imposed to the gas network operators, first, transparency rules of a natural monopoly to justify their costs and ultimately their tariffs, and, second, market fluidity objectives in order to facilitate access for competition to the end-users. These major investments are the main reasons for the use of optimization techniques aiming at reducing the costs. Due to the discrete choice (investment location, limited choice of additional capacities, timing) crossed with physical non linear constraints (flow/pressure relations in the pipe or operating ranges of compressors), the programs to solve are Large Mixed Non Linear Programs (MINLP). As these types of programs are known to be hard to solve exactly in polynomial times (NP-hard), advanced optimization methods have to be implemented to obtain realistic results. The objectives of this thesis are threefold. First, one states several investment problems modeling of natural gas networks from industrial world motivations. Second, one identifies the most suitable methods and algorithms to the formulated problems. Third, one exposes the main advantages and drawbacks of these methods with the help of numerical applications on real causes
8

Coquelin, Loïc. "Contribution aux traitements des incertitudes : application à la métrologie des nanoparticules en phase aérosol". Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-01066760.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif de fournir aux utilisateurs de SMPS (Scanning Mobility Particle Sizer) une méthodologie pour calculer les incertitudes associées à l'estimation de la granulométrie en nombre des aérosols. Le résultat de mesure est le comptage des particules de l'aérosol en fonction du temps. Estimer la granulométrie en nombre de l'aérosol à partir des mesures CNC revient à considérer un problème inverse sous incertitudes.Une revue des modèles existants est présentée dans le premier chapitre. Le modèle physique retenu fait consensus dans le domaine d'application.Dans le deuxième chapitre, un critère pour l'estimation de la granulométrie en nombre qui couple les techniques de régularisation et de la décomposition sur une base d'ondelettes est décrit.La nouveauté des travaux présentés réside dans l'estimation de granulométries présentant à la fois des variations lentes et des variations rapides. L'approche multi-échelle que nous proposons pour la définition du nouveau critère de régularisation permet d'ajuster les poids de la régularisation sur chaque échelle du signal. La méthode est alors comparée avec la régularisation classique. Les résultats montrent que les estimations proposées par la nouvelle méthode sont meilleures (au sens du MSE) que les estimations classiques.Le dernier chapitre de cette thèse traite de la propagation de l'incertitude à travers le modèle d'inversiondes données. C'est une première dans le domaine d'application car aucune incertitude n'est associée actuellement au résultat de mesure. Contrairement à l'approche classique qui utilise un modèle fixe pour l'inversion en faisant porter l'incertitude sur les entrées, nous proposons d'utiliser un modèle d'inversion aléatoire (tirage Monte-Carlo) afin d'intégrer les erreurs de modèle. Une estimation moyenne de la granulométrie en nombre de l'aérosol et une incertitude associée sous forme d'une région de confiance à 95 % est finalement présentée sur quelques mesures réelles.
9

Ghorai, Shouvik. "Continuous-variable quantum cryptographic protocols". Electronic Thesis or Diss., Sorbonne université, 2021. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2021SORUS007.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur l'étude et l'analyse de deux protocoles de cryptographie quantiques: la distribution de clés quantiques (Quantum Key Distribution, QKD) et la monnaie quantique infalsifiable en variables continues (Continuous Variables, CV). Le principal avantage des protocoles CV est que leur mise en œuvre ne nécessite que des composants télécoms standards. La QKD permet à deux parties distantes d'établir une clé sécurisée même en présence d'une espionne. Une propriété remarquable de la QKD est que sa sécurité peut être établie dans le cadre de la théorie de l'information. Prouver la sécurité des protocoles CV-QKD est un défi car les protocoles sont décrits dans un espace de dimension infinie. L'une des questions ouvertes de la CV-QKD était d'établir la sécurité des protocoles QKD bidirectionnels contre les attaques générales. Nous exploitons l'invariance du groupe unitaire du protocole pour établir la sécurité composable. Nous répondons à une autre question pressante dans le domaine de la CV-QKD à modulation discrète en établissant la sécurité asymptotique de tels protocoles contre les attaques collectives. Nous fournissons une technique générale pour dériver une limite inférieure sur le taux de clé secrète en utilisant un programme semi-défini. L'argent quantique exploite la propriété de non-clonage de la mécanique quantique pour générer des jetons, des billets de banque et des cartes de crédit infalsifiables. Nous proposons un schéma de monnaie quantique à clé privée CV avec vérification classique. La motivation derrière ce protocole est de faciliter la mise en œuvre pratique. Les précédents protocoles proposés utilisent des détecteurs à photons uniques, alors que nos protocoles utilisent la détection cohérente
This thesis is concerned with the study and analysis of two quantum cryptographic protocols: quantum key distribution (QKD) and unforgeable quantum money in the continuous-variable (CV) framework. The main advantage of CV protocols is that their implementation only requires standard telecom components. QKD allows two distant parties, Alice and Bob, to establish a secure key, even in the presence of an eavesdropper, Eve. The remarkable property of QKD is that its security can be established in the information-theoretic setting, without appealing to any computational assumptions. Proving the security of CV-QKD protocols is challenging since the protocols are described in an infinite-dimensional Fock space. One of the open questions in CV-QKD was establishing security for two-way QKD protocols against general attacks. We exploit the invariance of Unitary group U(n) of the protocol to establish composable security against general attacks. We answer another pressing question in the field of CV-QKD with a discrete modulation by establishing the asymptotic security of such protocols against collective attacks. We provide a general technique to derive a lower bound on the secret key rate by formulating the problem as a semidefinite program. Quantum money exploits the no-cloning property of quantum mechanics to generate unforgeable tokens, banknotes, and credit cards. We propose a CV private-key quantum money scheme with classical verification. The motivation behind this protocol is to facilitate the process of practical implementation. Previous classical verification money schemes use single-photon detectors for verification, while our protocols use coherent detection
10

Bargui, Henda. "Modélisation des comportements mécaniques et hydrauliques de massifs rocheux simulés par des assemblages de blocs rigides : Introduction d'un couplage hydro-mécanique". Phd thesis, Marne-la-vallée, ENPC, 1997. http://www.theses.fr/1997ENPC9705.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de recherche concerne la modélisation des comportements hydromécaniques des massifs rocheux fissures par amélioration et extension d'un modèle par éléments discrets, brig3d. Ce modèle, brig3d, assimile un massif rocheux fissure a un assemblage de blocs rigides qui interagissent au niveau de leurs interfaces. La déformation du massif résulte des déformations au niveau des interfaces, définies à l'aide des déplacements des blocs. Sous l'effet des sollicitations du massif, chaque bloc, en interaction avec d'autres, se déplace vers une position qui assure l'équilibre entre les efforts de contact et les sollicitations extérieures. Les améliorations concernent la reformulation mécanique de brig3d. De nouvelles définitions concernant la position des interfaces et le champ des contraintes sont introduites. Ce travail de recherche concerne également l'introduction d'un modèle par éléments frontières décrivant un écoulement laminaire, permanent et plan, aux interfaces des blocs. Ces deux modelés ont été ensuite couples et appliques a l'analyse des comportements hydromécaniques des massifs rocheux fissures soumis à diverses sollicitations. Une étude particulière a été consacrée pour analyser le comportement d'une fondation de barrage
This research aims at modelling the hydro-mechanical behaviour of fissured rock masses by improvement and extension of a discrete element model, called BRIG3D. This model simulates fissured rock mass as a set of rigid blocks interacting along their interfaces. Interface deformation is related to the relative displacement of the corresponding blocks. Being subject to external loads, the total set of blocks moves until equilibrium is reached. The computation of this equilibrium has been improved by redefining the model description of the rigid block movement, the interface position and the stress distribution along an interface. To describe flow problems through blocks interfaces, a boundary element model has been developed. Flow through each interface is assumed to be laminar, stationary and planar. This hydraulic model has then been coupled with the mechanical model BRIG3D and used to analyse hydro-mechanical rock mass behaviour under varying loads ; In particulard, a study of a dam foundation has been carried out
11

Marulier, Cyril. "Etudes multi-échelles des couplages entre les propriétés hygroélastiques des papiers et leur microstructure". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI090/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de ce travail est d’étudier les couplages entre les propriétés hygroélastiques des papierset leur microstructure. L’exploitation d’images de papiers modèles acquises par microtomographieà rayons X a permis de caractériser de manière inédite l’évolution des propriétésmicrostructurales de ces matériaux en fonction de leurs conditions d’élaboration ainsique lors d’essais où ils ont été placés sous atmosphère à humidité relative contrôlée.Ces résultats constituent un apport nouveau pour la connaissance de la nature statistique desdescripteurs des propriétés des fibres (dimensions et orientation) et de leurs contacts (surface,degré de liaison), de l’architecture des réseaux fibreux que forment les papiers (nombrede contacts entre fibre) et pour la taille des volumes élémentaires représentatifs des propriétésmicrostructurales et élastiques de ces milieux. Sur la base de ces informations, différentsmodèles, plus oumoins raffinés, ont été élaborés dans le cadre de la théorie de l’homogénéisationdes structures périodiques discrètes, pour décrire les propriétésmécaniques des papiers.Cette approche apporte un éclairage nouveau sur le rôle des liaisons entre fibres sur leur comportement mécanique
The objective of this work is to study the coupling between the hygroelastic properties ofpapers and their microstructure. The use of images of models acquired by X-ray microtomographypapers allowed the characterization in an unprecedentedmanner of the evolutionofmicrostructural properties of thesematerials according to their production conditions andduring tests where they were placed in atmosphere at controlled relative humidity. These resultsprovide a new contribution to the knowledge of the statistical nature of the descriptorsof fibre properties (size and orientation) and their contacts (surface, bonding degree ratio), ofthe architecture of fibrous networks that papers constitute (number of fibre-to-fibre bonds)as well as of the size of the representative elementary volumes of microstructural and elasticproperties. Based on this information, various models, more or less sophisticated, were developedin the framework of the theory of homogenisation of discrete periodic structures todescribe the mechanical properties of paper. This approach sheds new light on the role offibre-to-fibre bonds on themechanical behaviour of thesematerials
12

Bargui, Henda. "Modélisation des comportements mécaniques et hydrauliques de massifs rocheux simulés par des assemblages de blocs rigides : Introduction d'un couplage hydro-mécanique". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1997. http://tel.archives-ouvertes.fr/tel-00529406.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ce travail est de modéliser le comportement hydro-mécanique de massifs rocheux fissurés. Ceci concerne précisément l'amélioration et l'extension d'un modèle par éléments discrets appelé BRIG3D. Ce modèle assimile un massif rocheux fissuré à un assemblage de blocs rigides qui interagissent au niveau de leurs interfaces. La déformation de ces interfaces est reliée aux déplacements relatifs des blocs. Sous l'effet des sollicitations du massif, chaque bloc, en interaction avec d'autres, se déplace vers une position d'équilibre. Les améliorations concernent la reformulation mécanique de BRIG3D. De nouvelles descriptions concernant le mouvement d'un corps rigide, la position des interfaces et le champ des contraintes sont introduites. Ce travail de recherche concerne également l'introduction d'un modèle par éléments frontières décrivant un écoulement laminaire, permanent et plan aux interfaces des blocs. Le couplage de ces deux modèles à permis d'analyser le comportement hydro-mécanique de massifs rocheux fissurés soumis à diverses sollicitations. Une étude particulière a été consacrée à l'analyse du comportement d'une fondation de barrage.
13

Leconte, Mathieu. "Équilibrage de charge et répartition de ressources dans les grands systèmes distribués". Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00933645.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
14

Debry, Edouard. "Modélisation et simulation numérique de la dynamique des aérosols atmosphériques". Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001030.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Des modèles de chimie transport permettent le suivi réaliste des polluants en phase gazeuse dans l'atmosphère. Cependant, lapollution atmosphérique se trouve aussi sous forme de fines particules en suspension, les aérosols, qui interagissent avec la phase gazeuse, le rayonnement solaire, et possèdent une dynamique propre. Cette thèse a pour objet la modélisation et la simulation numérique de l'Equation Générale de la Dynamique des aérosols (GDE). La partie I traite de quelques points théoriques de la modélisation des aérosols. La partie II est consacrée à l'élaboration du module d'aérosols résolu en taille (SIREAM). dans la partie III, on effectue la réduction du modèle en vue de son utilisation dans un modèle de dispersion tel que POLAIR3D. Plusieurs points de modélisation restent encore largement ouverts: la partie organique des aérosols, le mélange externe, le couplage à la turbulence, et les nano-particules.
15

Gravel, Claude. "Échantillonnage des distributions continues non uniformes en précision arbitraire et protocole pour l'échantillonnage exact distribué des distributions discrètes quantiques". Thèse, 2015. http://hdl.handle.net/1866/12337.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
The thesis is divided mainly into two parts. Chapters 2 and 3 contain the first part. Chapters 4 and 5 contain the second part. The first part is about sampling non uniform continuous distributions with a given level of precision. Knuth and Yao showed in 1976 how to sample exactly any discrete distribution using a source of unbiased identically and independently distributed bits. The first part of this thesis extends the theory of Knuth and Yao to non uniform continuous distributions once the precision is fixed. A lower bound and upper bounds for generic algorithms based on discretization or inversion are given as well. In addition, a new simple proof of the original result of Knuth and Yao is given here. The second part is about the solution of a problem in communication complexity that originally appeared within the field of quantum information science. Given a network of N computers with a server capable of generating random unbiased bits and a parametric discrete distribution with a vector of N real parameters where each computer owns one and only one parameter, a protocol to sample exactly the distribution in a distributed manner is given here.

Vai alla bibliografia