Littérature scientifique sur le sujet « Vitesse de convergence (analyse numérique) »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Vitesse de convergence (analyse numérique) ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Vitesse de convergence (analyse numérique)"

1

Ouardighi, Jalal El. « La spécialisation des activités technologiques des régions européennes : une approche empirique de la convergence ». Recherches économiques de Louvain 71, no 3 (2005) : 315–43. http://dx.doi.org/10.1017/s0770451800044547.

Texte intégral
Résumé :
RésuméCe papier analyse la dynamique de la spécialisation des activités technologiques mesurées par les brevets de 221 régions européennes sur la période 1989-2000. L'approche adoptée repose sur la spécification d'un modèle à erreurs composées et à coefficients variables. La modélisation prend en compte l'impact des spécificités régionales sur la vitesse de convergence technologique et étudie comment la croissance économique affecte la spécialisation des régions. Les résultats d'estimation montrent (i) une convergence (dé-spécialisation) des activités technologiques régionales. Les vitesses de déspécialisation varient selon les régions de 0% à 8% par an. (ii) Les capacités inventives initiales et les effets nationaux apparaissent comme des facteurs de décélération de la vitesse de convergence technologique, (iii) l'effet de la croissance économique sur la spécialisation est positif pour les régions à forte propension à breveter mais négatif pour les régions à faibles capacités inventives, toutes choses égales par ailleurs.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Guiffard, Jonathan. « Sur les rives du Potomac, le centre du système de renseignement et de cyberdéfense des États-Unis ». Études françaises de renseignement et de cyber N° 2, no 1 (4 juin 2024) : 43–57. http://dx.doi.org/10.3917/efrc.232.0043.

Texte intégral
Résumé :
La région de Washington D.C. constitue le cœur d’un vaste système de collecte de renseignement, de surveillance et d’action dans l’espace numérique. Comment ce territoire a-t‑il permis l’émergence du cœur du pouvoir topologique américain dans le cyberespace ? Depuis le milieu du xx e siècle, il abrite un système complexe de renseignement, mais aussi le développement d’Internet dans sa dimension militaire. La convergence de ces deux phénomènes a permis l’émergence, au début du xxi e siècle, d’un écosystème de cyberdéfense complexe, concentré géographiquement, et toujours en cours de maturation. Néanmoins, ce processus a favorisé prioritairement le développement de la dimension de sécurité nationale, au détriment de la dimension civile de la cyberdéfense qui peine à se structurer dans cet écosystème fragmenté. L’objet de cet article est de proposer une typologie et une analyse territoriale simplifiée de ce système qui constitue le point de départ d’une position américaine favorable dans l’espace numérique.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Balbi, J. H., P. A. Santoni et J. L. Dupuy. « Dynamic modelling of fire spread across a fuel bed ». International Journal of Wildland Fire 9, no 4 (1999) : 275. http://dx.doi.org/10.1071/wf00005.

Texte intégral
Résumé :
The analysis of laboratory fire experiments led to the development of a reaction-diffusion model for the spread of fire across a fuel bed in windless and slopeless conditions. A method for the determination of coefficients in this model based on the dynamic features of a spreading fire is given. The numerical study of the mathematical problem proposed allows us to predict the rate of spread, the fire front perimeter and the temperature distribution for line-ignition and point-ignition fires. These results are compared with success to experimental data. Furthermore, the model allows us to estimate the acceleration of spread for a point-ignition fire in its initial stage and in the steady-state phase. Résumé Une analyse menée sur des expériences de laboratoires nous a permis de proposer un modèle de réaction-diffussion pour la propagation du feu sans vent et sans pente au travers d’une litière. Une méthode d’identification des coefficients du modèle, à partir des caractéristiques dynamiques de la propagation du feu, est donnée. L’étude numérique du problème mathématique nous permet de prédire la vitesse de propagation, le périmètre du front de feu et la température dans le domaine d’étude pour des allumages en ligne et pour des allumages ponctuels. Ces résultats sont comparés avec succés à des données expérimentales. De plus, nous sommes aussi en mesure de décrire l’accélération du front de feu dans les premiers instants suivant un allumage ponctuel.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Hartmann, Camila, Mauricio de Souza Fanfa et Ada C. Machado da Silveira. « Reconfiguração editorial ». Sur le journalisme, About journalism, Sobre jornalismo 9, no 1 (15 juin 2020) : 104–17. http://dx.doi.org/10.25200/slj.v9.n1.2020.421.

Texte intégral
Résumé :
PT. Com a emergência da plataformização da atividade jornalística, busca-se investigar a relevância das capas na (re)constituição identitária do jornalismo. Desde a abordagem teórico-metodológica da semiótica material articulada aos estudos de plataformas, o objetivo deste texto é problematizar como a capa de jornal e de revista, considerada um elemento que foi fundamental para a atividade jornalística a contar de seu surgimento, passa a ser tratada com a convergência digital. Para tanto, são observadas transformações manifestas em capas jornalísticas. Trata-se de uma reflexão que requer situar as capas dentro de uma complexa rede de relações na qual se inscrevem questões como o propósito de sua produção atualmente, a queda na tiragem de veículos consagrados, a emergência de iniciativas jornalísticas inovadoras, o tensionamento entre a disposição material de capas em bancas, mercados ou na casa das pessoas e no meio digital e os recursos passíveis de se mobilizar em capas impressas e em capas veiculadas online. Reconfigurar suas capas no contexto de uma sociedade midiatizada representa um desafio grandioso às revistas e aos jornais tradicionais em todo o mundo. Observa-se que o valor das capas passa pelo percurso de migrar para as plataformas de mídia social com vistas a promover um determinado veículo. Elas manteriam, assim, seu valor tradicional de venda de um projeto editorial; agora, com o bônus de propagar-se rapidamente para muitas pessoas. O objeto empírico estudado, o projeto ACAPA, destaca-se pela produção de capas avulsas veiculadas exclusivamente em plataformas de mídia social. Como aponta a análise, suas criações subvertem a lógica da formatação consagrada de capas de revista e de jornal. Com recursos verbovisuais análogos, o ACAPA faz jornalismo de uma forma distinta do padrão dominante em capas, explicitando a mutação das modalidades de expressão editorial, e atinente ao contexto plataformizado de uma sociedade midiatizada. Um cenário em que a capa mantém seu potencial jornalístico e se reconfigura, midiatizando-se. *** EN. This paper will examine the relevance of front pages in (re)building journalism's identity in the context of the emergence of platform journalism. From a theoretical-methodological approach of articulated material semiotics to platform studies, our objective is to discuss how the front pages of newspapers and magazines, an essential feature of journalism, are being handled in a world of digital convergence. In order to accomplish this we observed the changes that have occurred to journalistic front pages over time. We looked at factors such as the objective of their current production; the drop in circulation of established media vehicles; the emergence of innovative journalistic initiatives; the tension between the material placement of front pages at newsstands, supermarkets or in people's homes; and the digital medium and the resources (e.g., graphics) that can be mobilized in printed and online front pages. Restructuring front pages in an online media-driven society is a major challenge for magazines and traditional newspapers around the world. Out of all the news products that must adapt to the communicational order of the new media, it is front pages that seem to have gone through a particularly substantial restructuring process. News-promotional pieces are considered editorial identity; they are a direct product of socio-cultural consumption. Front pages have to constantly include innovative elements in order to meet the (new) expectations of readers and, at the same time, keep up with changing social structures, especially in media. We have seen that the value of front pages nowadays has shifted to social media platforms and are used to promote a particular media vehicle. They therefore maintain their traditional selling value for an editorial project, with the added bonus of being quickly spread to many people. This paper's object of study, the ACAPA project, stands out for its production of front pages published exclusively for social media platforms. As our analysis demonstrates, this project’s creations represent a break from traditional forms of doing journalism and supplant the long-standing format of front pages for magazines and newspapers. It uses similar verbal and visual resources, but the ACAPA’s front pages are different from the standard as forms of editorial expression have changed due to the platform-based world of a media-driven society; a time during which front pages must maintain their journalistic relevance while being restructured to accommodate the new media. *** FR. Cet article examine la pertinence des Unes dans la (re)construction de l'identité du journalisme dans le contexte de l'émergence du journalisme de plateforme. D'une approche théorique-méthodologique de la sémiotique des matériaux articulés aux études de plates-formes, notre objectif est de discuter la manière dont les Unes des journaux et des magazines, une caractéristique essentielle du journalisme, sont traitées dans un monde de convergence numérique. Pour ce faire, nous avons observé les évolutions des Unes journalistiques. Nous avons examiné des facteurs tels que l'objectif de leur production actuelle, la baisse de la circulation des supports médiatiques établis, l'émergence d'initiatives journalistiques innovantes, la tension entre le placement matériel des Unes dans les kiosques à journaux, les supermarchés ou au domicile des gens, et le medium numérique et les ressources (par exemple, les graphiques) qui peuvent être mobilisées dans les Unes imprimées et en ligne. La restructuration des Unes dans une société dominée par les médias en ligne est un défi majeur pour les magazines et les journaux traditionnels dans le monde entier. Parmi tous les produits médiatique qui doivent s'adapter à l'ordre communicationnel des nouveaux médias, ce sont les Unes qui semblent avoir subi un processus de restructuration particulièrement important. Les articles promotionnels sont considérés comme une identité éditoriale ; ils sont un produit direct de la consommation socioculturelle. Les Unes doivent constamment inclure des éléments innovants afin de répondre aux (nouvelles) attentes des lecteurs et, en même temps, de suivre l'évolution des structures sociales, notamment dans les médias. Nous avons vu que la valeur des Unes s'est aujourd'hui déplacée vers les plateformes de médias sociaux et qu'elles sont utilisées pour promouvoir un support médiatique particulier. Elles conservent donc leur valeur de vente traditionnelle pour un projet éditorial, avec l'avantage supplémentaire d'être rapidement diffusées à un grand nombre de personnes. L'objet d'étude de ce document, le projet ACAPA, se distingue par sa production de premières pages publiées exclusivement pour les plateformes de médias sociaux. Comme le montre notre analyse, les créations de ce projet représentent une rupture par rapport aux formes traditionnelles de pratiques journalistiques et supplantent le format traditionnel des Unes de magazines et de journaux. Ce projet utilise des ressources textuelles et visuelles similaires, mais les Unes de l'ACAPA sont différentes des standards habituels dans la mesure où les formes d'expression éditoriale ont changé en raison de la prédominance des plates-formes dans une société dominée par les médias. Nous sommes ainsi encore dans une période pendant laquelle les Unes doivent conserver leur pertinence journalistique tout en étant restructurées pour s'adapter aux nouveaux médias. ***
Styles APA, Harvard, Vancouver, ISO, etc.
5

Albertini, Cyril. « Les interventions de l’enseignant au travers de l’outil numérique : quels usages pour une EPS de qualité ? Illustration en natation de vitesse ». Axe 2 – Vers une éducation physique de qualité, 2021. http://dx.doi.org/10.25518/sepaps20.300.

Texte intégral
Résumé :
Notre intervention présente les résultats d’une recherche-action conduite avec le groupe EPIC en natation de vitesse. Nous proposons un dispositif de différenciation pédagogique fondé sur un « tableur numérique », outil à la fois diagnostique, formatif et évaluatif, qui vise à optimiser la relation amplitude / fréquence afin d’améliorer la vitesse de chaque élève. Ancrée sur une analyse multi factorielle d’une part et les grandes statistiques qui s’en dégagent, nous proposons, grâce à l’outil numérique, des Zones Individualisées de Performance (ZIP) raisonnables, adaptées et équitables pour chacun. Pour autant nous engageons une réflexion sur l’usage et les limites de l’outil numérique dans le cadre de l’enseignement en EPS.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Vitesse de convergence (analyse numérique)"

1

Ouafi, Abdellah. « La procédure thêta : applicaton au e-algorithme et aux suites de point fixe ». Lille 1, 1989. http://www.theses.fr/1989LIL10157.

Texte intégral
Résumé :
L'objet de ce travail est l'étude des transformations, dérivées du e-algorithme par application de la procédure thêta. Il est composé de trois chapitres. Le premier est consacré à l'étude des propriétés de ces transformations, de leur convergence et accélération de la convergence. La connexion avec d'autres transformations, déjà connues, est faite et l'intérêt de l'application de la procédure thêta aux règles de e-algorithme est mis en évidence. Le deuxième chapitre est consacré à la construction de quelques méthodes de résolution des équations non linéaires, dans le cas des racines multiples. L'amélioration de ces méthodes est aussi faite ainsi que leur comparaison. Dans le dernier chapitre, nous proposons des critères permettant de tester l'efficacité de certaines transformations de suites. La comparaison entre elles, à l'aide de leur ordre d'accélération, indice d'efficacité, domaine d'accélération, domaine d'amélioration et domaine de contraction est aussi étudiée
Styles APA, Harvard, Vancouver, ISO, etc.
2

Buyer, Paul de. « Vitesse de convergence vers l'équilibre de systèmes de particules en intéraction ». Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100080/document.

Texte intégral
Résumé :
Dans cette thèse nous nous intéressons principalement aux comportements diffusifs et à la vitesse de convergence vers l'équilibre au sens de la variance de différents modèles de systèmes de particules interagissantes ainsi qu'à un problème de percolation. Nous commençons par introduire informellement le premier sujet. Dans l'étude des systèmes dynamiques, un processus de Markov apériodique et irréductible admettant une mesure invariante converge vers celle-ci en temps long. Dans ce travail, nous nous intéressons ici à la quantification de la vitesse de cette convergence en étudiant la variance du semigroupe associé à la dynamique appliqué à certains ensembles de fonctions. Deux vitesses de convergence sont envisagées ici : la vitesse de de convergence exponentielle impliquée par un trou spectral dans le générateur du processus; une vitesse de convergence polynomiale dite diffusive lorsque le trou spectral est nul.Dans le deuxième chapitre, nous nous étudions le modèle de marche aléatoire en milieu aléatoire et nous prouvons dans ce cadre une vitesse de décroissance de type diffusive.Dans le troisième chapitre, nous étudions le modèle d'exclusion simple à taux dégénérés en dimension 1 appelé ka1f. Nous prouvons des bornes sur le trou spectral en volume fini et une vitesse de décroissance sous-diffusive en volume infini.Dans le quatrième chapitre, nous étudions un modèle à spins non bornés. Nous prouvons une correspondance entre la covariance de l'évolution de deux masses et une marche aléatoire en milieu aléatoire dynamique. Dans le dernier chapitre, nous nous intéressons à un modèle de percolation et à l'étude d'une conjecture étudiant la distance de graphe au sens de la percolation
In this thesis, we are interested mainly by the diffusive behaviours and the speed of convergence towards equilibrium in the sense of the variance of different models of interacting particles systems and a problem of percolation.We start by introducing unformally the first subject of interest. In the study of dynamic systems, a markov process aperiodic and irreducible having an invariant measure converges towards it in a long time. In this work, we are interested to quantify the speed of this convergence by studying the variance of the semigroup associated to the dynamic applied to some set of functions. Two speeds of convergence are considered: the exponential speed of convergence implied by a spectral gap in the generator of the process; a polynomial tome of convergence called diffusive when the spectral gap is null.In the second chapter, we study the model of random walk in random environment and we prove in this context a diffusive behavior of the speed of convergence.in the third chapter, we study the simple exclusion process with degenerate rates in dimension 1 called ka1F. We prove bounds on the spectral gap in finite volume and a sub-diffusive behavior in infinite volume. In the fourth chapter, we study an unbounded spin model. We prove a relation betweden the covariance of the evolution of two masses and a random walk in a dynamic random environment.In the last chapter, we are interested in the model of percolation and the study of a conjecture studying the distance of graph in the sense of the percolation
Styles APA, Harvard, Vancouver, ISO, etc.
3

Tagorti, Manel. « Sur les abstractions et les projections des processus décisionnels de Markov de grande taille ». Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0005.

Texte intégral
Résumé :
Les processus décisionnels de Markov (MDP) sont un formalisme mathématique des domaines de l'intelligence artificielle telle que la planification, l'apprentissage automatique, l'apprentissage par renforcement... Résoudre un MDP permet d'identifier la stratégie (politique) optimale d'un agent en interaction avec un environnement stochastique. Lorsque la taille de ce système est très grande il devient difficile de résoudre ces processus par les moyens classiques. Cette thèse porte sur la résolution des MDP de grande taille. Elle étudie certaines méthodes de résolutions: comme les abstractions et les méthodes dites de projection. Elle montre les limites de certaines abstractions et identifie certaines structures "les bisimulations" qui peuvent s'avérer intéressantes pour une résolution approchée du problème. Cette thèse s'est également intéressée à une méthode de projection l'algorithme Least square temporal difference LSTD(λ). Une estimation de la borne sur la vitesse de convergence de cet algorithme a été établie avec une mise en valeur du rôle joué par le paramètre [lambda]. Cette analyse a été étendue pour déduire une borne de performance pour l'algorithme Least square non stationary policy iteration LS(λ)NSPI en estimant la borne d'erreur entre la valeur calculée à une itération fixée et la valeur sous la politique optimale qu'on cherche à identifier
Markov Decision Processes (MDP) are a mathematical formalism of many domains of artifical intelligence such as planning, machine learning, reinforcement learning... Solving an MDP means finding the optimal strategy or policy of an agent interacting in a stochastic environment. When the size of this system becomes very large it becomes hard to solve this problem with classical methods. This thesis deals with the resolution of MDPs with large state space. It studies some resolution methods such as: abstractions and the projection methods. It shows the limits of some approachs and identifies some structures that may be interesting for the MDP resolution. This thesis focuses also on projection methods, the Least square temporal difference algorithm LSTD(λ). An estimate of the rate of the convergence of this algorithm has been derived with an emphasis on the role played by the parameter [lambda]. This analysis has then been generalized to the case of Least square non stationary policy iteration LS(λ)NSPI . We compute a performance bound for LS([lambda])NSPI by bounding the error between the value computed given a fixed iteration and the value computed under the optimal policy, that we aim to determine
Styles APA, Harvard, Vancouver, ISO, etc.
4

Jan, Christophe. « Vitesse de convergence dans le TCL pour des processus associés à des systèmes dynamiques et aux produits de matrices aléatoires ». Rennes 1, 2001. http://www.theses.fr/2001REN10073.

Texte intégral
Résumé :
La question de la vitesse de convergence dans le TCL a fait l'objet de nombreux travaux. Dans cette thèse, nous nous intéressons à différents types de situations liées d'une part à des processus et d'autre part au comportement limite de produits de matrices aléatoires. Dans une première partie, nous établissons quelques résultats de vitesses concernant des processus à accroissement de martingale de moments finis de tout ordre, puis des processus bornés. Dans une seconde partie, nous étudions le comportement asymptotique de produits de matrices aléatoires. Dans ce domaine, nous établissons des résultats de vitesse et de TCL pour des processus de matrices inversibles sous des conditions d'intégrabilité affaiblies.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Guyon, Julien. « Modelisation probabiliste en finance et en biologie : Théorèmes limites et applications ». Marne-la-vallée, ENPC, 2006. http://www.theses.fr/2006ENPCXXX8.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Helali, Amine. « Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique ». Thesis, Brest, 2019. http://www.theses.fr/2019BRES0002/document.

Texte intégral
Résumé :
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre
Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium
Styles APA, Harvard, Vancouver, ISO, etc.
7

García, Gómez Sonia C. « Allocation et optimisation de tolérances géométriques par des polyédres prismatiques ». Electronic Thesis or Diss., Bordeaux, 2023. http://www.theses.fr/2023BORD0504.

Texte intégral
Résumé :
Les écarts géométriques et dimensionnels des pièces mécaniques peuvent causer des perturbations nuisibles aux fonctionnalités attendues des systèmes mécaniques. Les spécifications géométriques et dimensionnelles représentent les limites des défauts de fabrication des surfaces fabriquées. La détermination des tolérances n’est pas une tâche aisée car (i) les valeurs des tolérances assignées affectent les fonctionnalités attendues d’un système et le coût de fabrication de ses pièces, et (ii) l'interdépendance des tolérances et des jeux rend complexe leur agrégation dans une résultante.L’analyse de tolérances et la synthèse de tolérances sont les deux méthodes classiques pour aborder la détermination de la résultante. La synthèse de tolérances est traditionnellement considérée comme un ``problème d’optimisation sous contraintes'' dans lequel la fonction objectif est généralement une fonction de coût, une fonction de qualité ou de coût-qualité.Dans le cas des mécanismes hyperstatiques, la complexité de l'interaction des tolérances ne permet pas de décrire la résultante par une fonction analytique. Par conséquent, il est courant d’effectuer une allocation de tolérances au lieu d’une synthèse de tolérances. L’objectif de l’allocation de tolérances est de maximiser les tolérances et les jeux initialement déterminés selon des retours d'expériences ou des connaissances empiriques, en incorporant certaines méthodes heuristiques d’optimisation.Dans ce travail, nous montrons comment effectuer une allocation de tolérances en utilisant l’approche polyédrique prismatique comme modèle de tolérances et le recuit simulé comme algorithme d’optimisation heuristique. Pour ce faire, certains problèmes intermédiaires sont discutés, tels que la qualité des opérandes versus le temps de calcul. Une méthode de réduction de modèle et un indicateur permettant de quantifier la conformité d’un mécanisme vis-à-vis d'une condition fonctionnelle sont également introduits
Geometric and dimensional deviations of mechanical components can cause problems of assemblability and/or functionality of the mechanisms. The geometric and dimensional specifications represent the limits of the manufacturing defects of a given surface. Tolerance specification is not an easy task because (i) the assigned tolerance values affect the functionalities of a system and the manufacturing cost of its parts, and (ii) design tolerances are often interrelated and contribute to a resultant tolerance.Tolerance analysis and tolerance synthesis are the two typical ways to approach the problem of tolerance design. Tolerance synthesis is traditionally seen as a "constrained optimization problem" in which the objective function is usually a cost function, a quality function or a cost-quality.In the case of over-constrained mechanisms, the interaction of the tolerances is complex and it is not possible to describe it by means of an analytical function. Hence, it is typical to do tolerance allocation instead of tolerance synthesis. The objective of the tolerance allocation is then to complete or augment the tolerance specification, originally made from experience or empirical knowledge, by incorporating some heuristics or optimization methods.In this work we show how to do tolerance allocation using the prismatic polyhedral approach as tolerance model and the simulated annealing as the heuristic optimization algorithm. In order to do this, some intermediate problems are discussed, such us (i) quality of the operands, (ii) computational time required to do a simulation and we also develop (iii) an indicator to quantify the compliance of a mechanism with its functional condition
Styles APA, Harvard, Vancouver, ISO, etc.
8

Durut, Matthieu. « Algorithmes de classification répartis sur le cloud ». Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0055.

Texte intégral
Résumé :
Les thèmes de recherche abordés dans ce manuscrit ont trait à la parallélisation d’algorithmes de classification non-supervisée (clustering) sur des plateformes de Cloud Computing. Le chapitre 2 propose un tour d’horizon de ces technologies. Nous y présentons d’une manière générale le Cloud Computing comme plateforme de calcul. Le chapitre 3 présente l’offre cloud de Microsoft : Windows Azure. Le chapitre suivant analyse certains enjeux techniques de la conception d’applications cloud et propose certains éléments d’architecture logicielle pour de telles applications. Le chapitre 5 propose une analyse du premier algorithme de classification étudié : le Batch K-Means. En particulier, nous approfondissons comment les versions réparties de cet algorithme doivent être adaptées à une architecture cloud. Nous y montrons l’impact des coûts de communication sur l’efficacité de cet algorithme lorsque celui-ci est implémenté sur une plateforme cloud. Les chapitres 6 et 7 présentent un travail de parallélisation d’un autre algorithme de classification : l’algorithme de Vector Quantization (VQ). Dans le chapitre 6 nous explorons quels schémas de parallélisation sont susceptibles de fournir des résultats satisfaisants en terme d’accélération de la convergence. Le chapitre 7 présente une implémentation de ces schémas de parallélisation. Les détails pratiques de l’implémentation soulignent un résultat de première importance : c’est le caractère en ligne du VQ qui permet de proposer une implémentation asynchrone de l’algorithme réparti, supprimant ainsi une partie des problèmes de communication rencontrés lors de la parallélisation du Batch K-Means
He subjects addressed in this thesis are inspired from research problems faced by the Lokad company. These problems are related to the challenge of designing efficient parallelization techniques of clustering algorithms on a Cloud Computing platform. Chapter 2 provides an introduction to the Cloud Computing technologies, especially the ones devoted to intensivecomputations. Chapter 3 details more specifically Microsoft Cloud Computing offer : Windows Azure. The following chapter details technical aspects of cloud application development and provides some cloud design patterns. Chapter 5 is dedicated to the parallelization of a well-known clustering algorithm: the Batch K-Means. It provides insights on the challenges of a cloud implementation of distributed Batch K-Means, especially the impact of communication costs on the implementation efficiency. Chapters 6 and 7 are devoted to the parallelization of another clustering algorithm, the Vector Quantization (VQ). Chapter 6 provides an analysis of different parallelization schemes of VQ and presents the various speedups to convergence provided by them. Chapter 7 provides a cloud implementation of these schemes. It highlights that it is the online nature of the VQ technique that enables an asynchronous cloud implementation, which drastically reducesthe communication costs introduced in Chapter 5
Styles APA, Harvard, Vancouver, ISO, etc.
9

Huang, Chunmao. « Théorèmes limites et vitesses de convergence pour certains processus de branchement et des marches aléatoires branchantes ». Lorient, 2010. http://www.theses.fr/2010LORIS217.

Texte intégral
Résumé :
Cette thèse contient trois parties. La première partie concerne un processus de branchement, (Zn), dans un environnement aléatoire. Nous y montrons des propriétés asymptotiques des moments (d'ordres positifs ou négatifs) de Zn, des principes de grande déviation et de déviation modérée sur log Zn, et des vitesses de convergence (au sens presque sûre, ou en probabilité, ou dans Lp) de la martingale naturelle associée. La deuxième partie est consacrée à l'étude d'une marche aléatoire branchante dans un environnement aléatoire temporel sur la droite réelle R, où une particule de la génération n donne naissance aux enfants qui se déplacent sur R, selon une loi aléatoire indexée par n. Pour la mesure de comptage qui compte le nombre de particules de la génération n situées dans une partie de R, nous établissons des lois des grands nombres, des théorèmes de la limite centrale, des principes de grande déviation et de déviation modérée. Nous y montrons aussi la convergence dans Lp de la martingale naturelle associée et sa vitesse de convergence. Dans la troisième partie, pour les martingales naturelles associées à une marche aléatoire branchante multitype, nous calculons les vitesses de convergence dans Lp
This thesis contains three parts. The first part concerns a branching process, (Zn), in a random environment. We show the asymptotic properties of moments (of positive or negative orders) of Zn, large and moderate deviation principles for log Zn, and the convergence rates of the corresponding natural martingale (in the sense almost sure, or in probability, or in Lp). The second part is devoted to the study of a branching random walk with a random environment in time on real line R, where a particle of generation n give birth to children which are scattered on R, according to a random distribution indexed by n. For the counting measure which counts the number of particles of generation n situated in a subset of R, we establish laws of large numbers, central limit theorems, large and moderate deviation principles. We also show the convergence in Lp of the natural martingale and its convergence rate. In the third part, for the natural martingales of a multiype branching random walk, we calculate their convergence rates in Lp
Styles APA, Harvard, Vancouver, ISO, etc.
10

Yahia, Djabrane. « Conditional quantile for truncated dependent data ». Littoral, 2010. http://www.theses.fr/2010DUNK0297.

Texte intégral
Résumé :
Dans cette thèse nous étudions certaines propriétés asymptotiques de l'estimateur à noyau du quantile conditionnel lorsque la variable d'intérêt est soumise à une troncature gauche. La convergence uniforme presque sûre avec vitesse (sur un compact) de l'estimateur est obtenue. De plus, nous établissons que, sous certaines conditions de régularité, l'estimateur à noyau du quantile conditionnel convenablement normalisé converge en loi vers une variable aléatoire gaussienne centrée et de variance asymptotique donnée explicitement. Les motivations principales sont sa robustesse, la construction d'intervalle de confiance et la prévision des données de séries temporelles. Nos résultats sont obtenus dans un cadre général (mélangeance forte), qui inclut les modèles populaires comme les séries financières et économiques comme cas particuliers
In this thesis we study some asymptotic properties of the kernel conditional quantile estimator when the interest variable is subject to random left truncation. The uniform strong convergence rate of the estimator is obtained. In addition, it is shown that, under regularity conditions and suitably normalized, the kernel estimate of the conditional quantile is asymptotically normally distributed. Our interest in conditional quantile estimation is motivated by it’s robusteness, the constructing of the confidence bands and the forecasting from thime series data. Our results are obtained in a more general setting (strong mixing) which includes time series modelling as a special case
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie