Dissertations / Theses on the topic 'Recommandation à grande échelle'

To see the other types of publications on this topic, follow the link: Recommandation à grande échelle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Recommandation à grande échelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Moin, Afshin. "Les techniques de recommandation et de visualisation pour les données à une grande échelle." Rennes 1, 2012. https://tel.archives-ouvertes.fr/tel-00724121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
We have witnessed the rapid development of the information technology during the last decade. On one side, processing and stocking capacity of digital devices is increasing constantly thanks to advances in construction methods. On the other side, the interaction between these powerful devices has been made possible through networking technology. As a natural consequence of these progresses, the volume of the data generated in different applications has grown with an unprecedented rate. Consequently, it is becoming increasingly harder for internet users to find items and content matching their needs. Henceforth, we are confronted with new challenges to efficiently process and represent the huge mass of data at our disposal. This thesis is centered around the two axes of recommending relevant content and its proper visualization. The role of the recommender systems is to help users in the process of decision making to find items with relevant content and satisfactory quality among the large set of alternatives existing in the Web. On the other hand, the adequate representation of the processed data is central both for increasing its utility to the end-user and for designing efficient analysis tools. In this presentation, the prevalent approaches to recommender systems and the principal techniques for visualization of data in the form of graphs are discussed. Furthermore, it is shown how some of the same techniques applied to recommender systems can be modified to consider visualization requirements
Nous avons assisté au développement rapide de la technologie de l'information au cours de la dernière décennie. D'une part, la capacité du traitement et du stockage des appareils numériques est en constante augmentation grâce aux progrès des méthodes de construction. D'autre part, l'interaction entre ces dispositifs puissants a été rendue possible grâce à la technologie de réseautage. Une conséquence naturelle de ces progrès, est que le volume des données générées dans différentes applications a grandi à un rythme sans précédent. Désormais, nous sommes confrontés à de nouveaux défis pour traiter et représenter efficacement la masse énorme de données à notre disposition. Cette thèse est centrée autour des deux axes de recommandation du contenu pertinent et de sa visualisation correcte. Le rôle des systèmes de recommandation est d'aider les utilisateurs dans le processus de prise de décision pour trouver des articles avec un contenu pertinent et une qualité satisfaisante au sein du vaste ensemble des possibilités existant dans le Web. D'autre part, la représentation correcte des données traitées est un élément central à la fois pour accroître l’utilité des données pour l'utilisateur final et pour la conception des outils d'analyse efficaces. Dans cet exposé, les principales approches des systèmes de recommandation ainsi que les techniques les plus importantes de la visualisation des données sous forme de graphes sont discutées. En outre, il est montré comment quelques-unes des mêmes techniques appliquées aux systèmes de recommandation peuvent être modifiées pour tenir compte des exigences de visualisation
2

Draidi, Fady. "Recommandation Pair-à-Pair pour Communautés en Ligne à Grande Echelle." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00766963.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de recommandation (RS) et le pair-à-pair (P2) sont complémen-taires pour faciliter le partage de données à grande échelle: RS pour filtrer et person-naliser les requêtes des utilisateurs, et P2P pour construire des systèmes de partage de données décentralisés à grande échelle. Cependant, il reste beaucoup de difficultés pour construire des RS efficaces dans une infrastructure P2P. Dans cette thèse, nous considérons des communautés en ligne à grande échelle, où les utilisateurs notent les contenus qu'ils explorent et gardent dans leur espace de travail local les contenus de qualité pour leurs sujets d'intérêt. Notre objectif est de construire un P2P-RS efficace pour ce contexte. Nous exploitons les sujets d'intérêt des utilisateurs (extraits automatiquement des contenus et de leurs notes) et les don-nées sociales (amitié et confiance) afin de construire et maintenir un overlay P2P so-cial. La thèse traite de plusieurs problèmes. D'abord, nous nous concentrons sur la conception d'un P2P-RS qui passe à l'échelle, appelé P2Prec, en combinant les ap-proches de recommandation par filtrage collaboratif et par filtrage basé sur le contenu. Nous proposons alors de construire et maintenir un overlay P2P dynamique grâce à des protocoles de gossip. Nos résultats d'expérimentation montrent que P2Prec per-met d'obtenir un bon rappel avec une charge de requêtes et un trafic réseau accep-tables. Ensuite, nous considérons une infrastructure plus complexe afin de construire et maintenir un overlay P2P social, appelé F2Frec, qui exploite les relations sociales entre utilisateurs. Dans cette infrastructure, nous combinons les aspects filtrage par contenu et filtrage basé social, pour obtenir un P2P-RS qui fournit des résultats de qualité et fiables. A l'aide d'une évaluation de performances extensive, nous mon-trons que F2Frec améliore bien le rappel, ainsi que la confiance dans les résultats avec une surcharge acceptable. Enfin, nous décrivons notre prototype de P2P-RS que nous avons implémenté pour valider notre proposition basée sur P2Prec et F2Frec.
3

Sakhi, Otmane. "Offline Contextual Bandit : Theory and Large Scale Applications." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAG011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse au problème de l'apprentissage à partir d'interactions en utilisant le cadre du bandit contextuel hors ligne. En particulier, nous nous intéressons à deux sujets connexes : (1) l'apprentissage de politiques hors ligne avec des certificats de performance, et (2) l'apprentissage rapide et efficace de politiques, pour le problème de recommandation à grande échelle. Pour (1), nous tirons d'abord parti des résultats du cadre d'optimisation distributionnellement robuste pour construire des bornes asymptotiques, sensibles à la variance, qui permettent l'évaluation des performances des politiques. Ces bornes nous aident à obtenir de nouveaux objectifs d'apprentissage plus pratiques grâce à leur nature composite et à leur calibrage simple. Nous analysons ensuite le problème d'un point de vue PAC-Bayésien et fournissons des bornes, plus étroites, sur les performances des politiques. Nos résultats motivent de nouvelles stratégies, qui offrent des certificats de performance sur nos politiques avant de les déployer en ligne. Les stratégies nouvellement dérivées s'appuient sur des objectifs d'apprentissage composites qui ne nécessitent pas de réglage supplémentaire. Pour (2), nous proposons d'abord un modèle bayésien hiérarchique, qui combine différents signaux, pour estimer efficacement la qualité de la recommandation. Nous fournissons les outils computationnels appropriés pour adapter l'inférence aux problèmes à grande échelle et démontrons empiriquement les avantages de l'approche dans plusieurs scénarios. Nous abordons ensuite la question de l'accélération des approches communes d'optimisation des politiques, en nous concentrant particulièrement sur les problèmes de recommandation avec des catalogues de millions de produits. Nous dérivons des méthodes d'optimisation, basées sur de nouvelles approximations du gradient calculées en temps logarithmique par rapport à la taille du catalogue. Notre approche améliore le temps linéaire des méthodes courantes de calcul de gradient, et permet un apprentissage rapide sans nuire à la qualité des politiques obtenues
This thesis presents contributions to the problem of learning from logged interactions using the offline contextual bandit framework. We are interested in two related topics: (1) offline policy learning with performance certificates, and (2) fast and efficient policy learning applied to large scale, real world recommendation. For (1), we first leverage results from the distributionally robust optimisation framework to construct asymptotic, variance-sensitive bounds to evaluate policies' performances. These bounds lead to new, more practical learning objectives thanks to their composite nature and straightforward calibration. We then analyse the problem from the PAC-Bayesian perspective, and provide tighter, non-asymptotic bounds on the performance of policies. Our results motivate new strategies, that offer performance certificates before deploying the policies online. The newly derived strategies rely on composite learning objectives that do not require additional tuning. For (2), we first propose a hierarchical Bayesian model, that combines different signals, to efficiently estimate the quality of recommendation. We provide proper computational tools to scale the inference to real world problems, and demonstrate empirically the benefits of the approach in multiple scenarios. We then address the question of accelerating common policy optimisation approaches, particularly focusing on recommendation problems with catalogues of millions of items. We derive optimisation routines, based on new gradient approximations, computed in logarithmic time with respect to the catalogue size. Our approach improves on common, linear time gradient computations, yielding fast optimisation with no loss on the quality of the learned policies
4

Griesner, Jean-Benoit. "Systèmes de recommandation de POI à large échelle." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recommandation de points d’intérêts (POI) est une composante essentielle des réseaux sociaux géolocalisés. Cette tâche pose de nouveaux défis dûs aux contraintes spécifiques de ces réseaux. Cette thèse étudie de nouvelles solutions au problème de la recommandation personnalisée de POI. Trois contributions sont proposées dans ce travail. La première contribution est un nouveau modèle de factorisation de matrices qui intègre les influences géographique et temporelle. Ce modèle s’appuie sur un traitement spécifique des données. La deuxième contribution est une nouvelle solution au problème dit du feedback implicite. Ce problème correspond à la difficulté à distinguer parmi les POI non visités, les POI dont l’utilisateur ignore l’existence des POI qui ne l’intéressent pas. Enfin la troisième contribution de cette thèse est une méthode pour générer des recommandations à large échelle. Cette approche combine un algorithme de clustering géographique avec l’influence sociale des utilisateurs à différentes échelles de mobilité
The task of points-of-interest (POI) recommendations has become an essential feature in location-based social networks. However it remains a challenging problem because of specific constraints of these networks. In this thesis I investigate new approaches to solve the personalized POI recommendation problem. Three main contributions are proposed in this work. The first contribution is a new matrix factorization model that integrates geographical and temporal influences. This model is based on a specific processing of geographical data. The second contribution is an innovative solution against the implicit feedback problem. This problem corresponds to the difficulty to distinguish among unvisited POI the actual "unknown" from the "negative" ones. Finally the third contribution of this thesis is a new method to generate recommendations with large-scale datasets. In this approach I propose to combine a new geographical clustering algorithm with users’ implicit social influences in order to define local and global mobility scales
5

Gueye, Modou. "Gestion de données de recommandation à très large échelle." Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à la problématique de passage à l'échelle des systèmes de recommandations. Dans ce cadre, nous proposons deux algorithmes de recommandation passant à l'échelle tout en délivrant une bonne qualité de recommandation. Dans nos premiers travaux, nous considérons l'utilisation de la factorisation de matrice pour prédire les avis des utilisateurs dans des contextes dynamiques où les utilisateurs soumettent sans cesse de nouveaux avis sur des objets. Il est difficile d'y tenir un modèle de prédiction à jour. Nous proposons un modèle de factorisation utilisant plusieurs biais locaux décrivant de façon plus élaborée les comportements des utilisateurs. Leur coût de calcul faible permet de les ajuster à la volée, lorsque de nouvelles notes arrivent. Ils assurent ainsi la robustesse du modèle dans un contexte dynamique, tout en garantissant une meilleure qualité au cours le temps. Nous nous sommes aussi intéressés à la recommandation de tags dans les réseaux sociaux. Notre proposition s'appuie sur l'algorithme des plus proches voisins. Cependant, nous déterminons dynamiquement le nombre optimal de voisins à utiliser. Notre approche prend en compte les avis des voisins indirects en étendant la relation de proximité entre les utilisateurs. Nos expérimentations ont démontré l'efficacité de cette approche qui peut être adaptée à bien d'autres types de recommandation. Enfin, nous proposons une technique d'optimisation du nombre d'objets à recommander en fonction du contexte. L'idée étant ici de chercher le nombre optimal d'objets à proposer à l'utilisateur, de telle sorte que la probabilité qu'il les choisisse tous soit la plus élevée
In this thesis, we address the scalability problem of recommender systems. We propose accu rate and scalable algorithms. We first consider the case of matrix factorization techniques in a dynamic context, where new ratings..are continuously produced. ln such case, it is not possible to have an up to date model, due to the incompressible time needed to compute it. This happens even if a distributed technique is used for matrix factorization. At least, the ratings produced during the model computation will be missing. Our solution reduces the loss of the quality of the recommendations over time, by introducing some stable biases which track users' behavior deviation. These biases are continuously updated with the new ratings, in order to maintain the quality of recommendations at a high leve for a longer time. We also consider the context of online social networks and tag recommendation. We propose an algorithm that takes account of the popularity of the tags and the opinions of the users' neighborhood. But, unlike common nearest neighbors' approaches, our algorithm doe not rely on a fixed number of neighbors when computing a recommendation. We use a heuristic that bounds the network traversai in a way that allows to faster compute the recommendations while preserving the quality of the recommendations. Finally, we propose a novel approach that improves the accuracy of the recommendations for top-k algorithms. Instead of a fixed list size, we adjust the number of items to recommend in a way that optimizes the likelihood that ail the recommended items will be chosen by the user, and find the best candidate sub-list to recommend to the user
6

Tauvel, Claire. "Optimisation stochastique à grande échelle." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10305.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objet de cette thèse est l’étude d’algorithmes itératifs permettant de résoudre des problèmes d’optimisation convexe avec ou sans contraintes fonctionnelles, des problèmes de résolutions d’inégalités variationnelles à opérateur monotone et des problèmes de recherche de point selle. Ces problèmes sont envisagés lorsque la dimension de l’espace de recherche est grande et lorsque les valeurs des différentes fonctions étudiées et leur sous/sur-gradients ne sont pas connues exactement et ne sont accessibles qu’au travers d’un oracle stochastique. Les algorithmes que nous étudions sont des adaptations au cas stochastique de deux algorithmes : le premier inspiré de la méthode de descente en miroir de Nemirovski et Yudin et le second, de l’algorithme d’extrapolation duale de Nesterov. Pour chacun de ces deux algorithmes, nous donnons des bornes pour l’espérance et pour les déviations modérées de l’erreur d’approximation sous différentes hypothèses de régularité pour tous les problèmes sans contraintes fonctionnelles envisagées et nous donnons des versions adaptatives de ces algorithmes qui permettent de s’affranchir de connaître certains paramètres de ces problèmes non accessibles en pratique. Enfin nous montrons comment, à l’aide d’un algorithme auxiliaire inspiré de la méthode de Newton et des résultats obtenus lors de la résolution des problèmes de recherche de point selle, il est possible de résoudre des problèmes d’optimisation sous contraintes fonctionnelles
In this thesis we study iterative algorithms in order to solve constrained and unconstrained convex optimization problems, variational inequalities with monotone operators and saddle point problems. We study these problems when the dimension of the search space is high and when the values of the functions of interest are unknown and we just can deal with a stochastic oracle. The algorithms we study are stochastic adaptation of two algorithms : the first one is a variant of the mirror descent algorithm proposed by Nemirovski and Yudin and the second one a variant of the dual extrapolation algorithm by Nesterov. For both of them, we provide bounds for the expected value and bounds for moderate deviations of the approximation error with different regularity hypothesis for all the unconstrained problems we study and we propose adaptative versions of the algorithms in order to get rid of the knowledge of some parameters depending on the problem studied and unavailable in practice. At last we show how to solve constrained stochastic optimization problems thanks to an auxiliary algorithm inspired by the Newton descent one and thanks to the results we obtained for the saddle point problems
7

Tauvel, Claire. "Optimisation stochastique à grande échelle." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00364777.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est l'étude d'algorithmes itératifs permettant de résoudre des problèmes d'optimisation convexe avec ou sans contraintes fonctionnelles, des problèmes de résolutions d'inégalités variationnelles à opérateur monotone et des problèmes de recherche de point selle. Ces problèmes sont envisagés lorsque la dimension de l'espace de recherche est grande et lorsque les valeurs des différentes fonctions étudiées et leur sous/sur-gradients ne sont pas connues exactement et ne sont accessibles qu'au travers d'un oracle stochastique. Les algorithmes que nous étudions sont des adaptations au cas stochastique de deux algorithmes : le premier inspiré de la méthode de descente en miroir de Nemirovski et Yudin et le second, de l'algorithme d'extrapolation duale de Nesterov. Pour chacun de ces deux algorithmes, nous donnons des bornes pour l'espérance et pour les déviations modérées de l'erreur d'approximation sous différentes hypothèses de régularité pour tous les problèmes sans contraintes fonctionnelles envisagées et nous donnons des versions adaptatives de ces algorithmes qui permettent de s'affranchir de connaître certains paramètres de ces problèmes non accessibles en pratique. Enfin nous montrons comment, à l'aide d'un algorithme auxiliaire inspiré de la méthode de Newton et des résultats obtenus lors de la résolution des problèmes de recherche de point selle, il est possible de résoudre des problèmes d'optimisation sous contraintes fonctionnelles.
8

Bleuse, Raphaël. "Appréhender l'hétérogénéité à (très) grande échelle." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM053/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le besoin de simuler des phénomènes toujours plus complexes accroît les besoinsen puissance de calcul, tout en consommant et produisant de plus en plus dedonnées.Pour répondre à cette demande, la taille et l'hétérogénéité des plateformes decalcul haute performance augmentent.L'hétérogénéité permet en effet de découper les problèmes en sous-problèmes,pour lesquels du matériel ou des algorithmes ad hoc sont plus efficients.Cette hétérogénéité se manifeste dans l'architecture des plateformes et dans lavariété des applications exécutées.Aussi, les performances sont de plus en plus sensibles au contexte d'exécution.L'objet de cette thèse est de considérer, qualitativement et à faible coût,l'impact du contexte d'exécution dans les politiques d'allocation etd'ordonnancement.Cette étude est menée à deux niveaux: au sein d'applications uniques, et àl'échelle des plateformes au niveau inter-applications.Nous étudions en premier lieu la minimisation du temps de complétion pour destâches séquentielles sur des plateformes hybrides intégrant des CPU et des GPU.Nous proposons de tenir compte du contexte d'exécution grâce à un mécanismed'affinité améliorant le comportement local des politiques d'ordonnancement.Ce mécanisme a été implémenté dans un run-time parallèle.Une campagne d'expérience montre qu'il permet de diminuer les transferts dedonnées tout en conservant un faible temps de complétion.Puis, afin de prendre implicitement en compte le parallélisme sur les CPU, nousenrichissons le modèle en considérant les tâches comme moldables sur CPU.Nous proposons un algorithme basé sur la programmation linéaire en nombresentiers.Cet algorithme efficace a un rapport de compétitivité de 3/2+ε.Dans un second temps, nous proposons un nouveau cadre de modélisation danslequel les contraintes sont des outils de premier ordre.Plutôt que d'étendre les modèles existants en considérant toutes lesinteractions possibles, nous réduisons l'espace des ordonnancements réalisablesvia l'ajout de contraintes.Nous proposons des contraintes raisonnables pour modéliser l'étalement desapplications ainsi que les flux d'E/S.Nous proposons ensuite une étude de cas exhaustive dans le cadre de laminimisation du temps de complétion pour des topologies unidimensionnelles,sous les contraintes de convexité et de localité
The demand for computation power is steadily increasing, driven by the need tosimulate more and more complex phenomena with an increasing amount ofconsumed/produced data.To meet this demand, the High Performance Computing platforms grow in both sizeand heterogeneity.Indeed, heterogeneity allows splitting problems for a more efficient resolutionof sub-problems with ad hoc hardware or algorithms.This heterogeneity arises in the platforms' architecture and in the variety ofprocessed applications.Consequently, the performances become more sensitive to the execution context.We study in this thesis how to qualitatively bring—at a reasonablecost—context-awareness/obliviousness into allocation and scheduling policies.This study is conducted from two standpoints: within single applications, andat the whole platform scale from an inter-applications perspective.We first study the minimization of the makespan of sequential tasks onplatforms with a mixed architecture composed of multiple CPUs and GPUs.We integrate context-awareness into schedulers with an affinity mechanism thatimproves local behavior.This mechanism has been implemented in a parallel run-time, and experimentsshow that it is able to reduce the memory transfers while maintaining a lowmakespan.We then extend the model to implicitly consider parallelism on the CPUs withthe moldable-task model.We propose an efficient algorithm formulated as an integer linear program witha constant performance guarantee of 3/2+ε.Second, we devise a new modeling framework where constraints are a first-classtool.Rather than extending existing models to consider all possible interactions, wereduce the set of feasible schedules by further constraining existing models.We propose a set of reasonable constraints to model application spreading andI/O traffic.We then instantiate this framework for unidimensional topologies, and propose acomprehensive case study of the makespan minimization under convex and localconstraints
9

Cameron, Alexandre. "Effets de grande échelle en turbulence." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce manuscrit décrit comment les champs de vitesses solutions de l'équation de Navier-Stokes se comportent à grande échelle pour un forçage à petite échelle. Il analyse aussi le comportement à grande échelle des champs magnétiques solutions de l'équation d'induction cinématique lorsque le champs de vitesse est de petite échelle. Les résultats présentés ont été obtenus à l'aide de simulations numériques directes utilisant des algorithmes pseudo-spectraux des équations non modifiées ou avec un développement utilisant la méthode Floquet. Dans le cadre hydrodynamique, les simulations utilisant la méthode de Floquet permettent de retrouver les résultats de l'effet AKA à bas Reynolds et de les étendre pour des Reynolds d'ordre un. Elles permettent aussi d'étudier des écoulements AKA-stable et de mettre en évidence une autre instabilité pouvant être interprétée comme un effet de viscosité négative. Dans le cadre magnétique, l'effet alpha est observé sur une gamme de séparation d'échelle dépassant par plusieurs ordres de grandeur les autres résultats connus. Il est aussi montré que le taux de croissance de l'instabilité devient indépendant de la séparation d'échelle une fois que le champs magnétique est destabilisé dans ses petites échelles. Le spectre d'énergie et le temps du corrélation d'équilibre absolu solution de l'équation d'Euler tronquée sont présentés. Un nouveau régime où le temps de corrélation est régit par l’hélicité est mis en évidence. Ces résultats sont aussi comparés à ceux des modes de grande échelle de solutions de l'équation de Navier-Stokes forcée dans les petites échelles. Ils montrent que le temps de corrélation croit avec l'hélicité
This manuscript describes how solutions of the Navier-Stokes equations behave in the large scales when forced in the small scales. It analyzes also the large scale behavior of magnetic fields solution of the kinetic induction equation when the velocity is in the small scales. The results were acquired with direct numeric simulation (DNS) using pseudo-spectral algorithms of the equations as well as their Floquet development. In the hydrodynamical case, the Floquet DNS were able to confirm the results of the AKA effect at low Reynolds number and extend them for Reynolds number of order one. The DNS were also used to study AKA-stable flows and identified a new instability that can be interpreted as a negative viscosity effect. In the magnetic case, the alpha effect is observe for a range of scale separation exceed know results by several orders of magnitude. It is also shown that the growth rate of the instability becomes independent of the scale separation once the magnetic field is destabilized in its small scales. The energy spectrum and the correlation time of absolute equilibrium solution of the truncated Euler equation are presented. A new regime where the correlation time is governed by helicity is exhibited. These results are also compared with those coming from large scale modes of solutions of the Navier-Stokes equation forced in the small scales. They show that the correlation time increases with the helicity of the flow
10

Touré, Mahamadou Abdoulaye. "Administration d'applications réparties à grande échelle." Electronic Thesis or Diss., Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'administration d'une application est une tâche de plus en plus complexe et coûteuse en ressources humaines et matérielles. Nous nous intéressons dans cette thèse à l’administration dans un contexte de grande échelle. Dans ce contexte particulier, nous disposons généralement de plusieurs entités logicielles qui doivent être déployées et gérées sur une infrastructure matérielle de type grille composée de nombreuses machines géographiquement dispersées. L’administration sur ce type d’infrastructure pose de multiples problèmes d’expressivité liés à la description des éléments à administrer, de performance liés à la charge des processus d'administration et la répartition géographique des sites de la grille, d’hétérogénéité matérielle et logicielle, et de dynamicité (panne, coupure de lien réseau, etc.). Nos contributions portent essentiellement sur les problèmes précédemment cités. Un formalisme de description tenant compte du facteur d’échelle est proposé pour décrire l'infrastructure matérielle et logicielle. Nous proposons la répartition de la charge et la diminution du coût de l’administration en utilisant plusieurs systèmes d’administration et en personnalisant la phase d’installation du déploiement. Enfin nous proposons une gestion de l’hétérogénéité matérielle et logicielle. Le travail de cette thèse s’inscrit dans le cadre du projet TUNe. Nous proposons donc une application et une implantation de ces contributions au système TUNe afin de valider notre approche dans le cadre d'une expérimentation en vraie grandeur
Administration of distributed systems is a task increasingly complex and expensive. It consists in to carry out two main activities : deployment and management of application in the process of running. The activity of the deployment is subdivided into several activities : description of hardware and software, conguration, installation and starting the application. This thesis work focuses on large-scale administration which consists to deploy and manage a distributed legacy application composed of several thousands of software entities on physical infrastructure grid made up of hundreds or thousands of machines. The administration of this type of infrastructure creates many problems of expressiveness, performance, heterogeneity and dynamicity (breakdown of machine, network, ...). These problems are generally caused to the scale and geographical distribution of the sites (set of clusters). This thesis contributes to resolve the problems previously cited. Therefore, we propose higher-level descriptions formalisms to describe the structure of hardware and software infrastructures. To reduce the load and increase the performance of the administration, we propose to distribute the deployment system in a hierarchical way in order to distribute the load. The work of this thesis comes the scope of the TUNe (autonomic management system) project. Therefore, we propose to hierarchize TUNe in order to adapt in the context of large-scale administration. We showhow to describe the hierarchy of systems. We also show how to take into account the specicity of the hardware infrastructure at the time of deployment notably the topology, characteristics and types of machine. We dene a process langage allowing to describe the process installation which allow managers to dene thier own installation constraints, according to their needs and preferences. We explore the management of heterogeneity during deployment. Finaly our prototype is validated by an implementation and in the context of a real experimentation
11

Le, Chat Gaétan. "Étude du vent solaire à grande échelle." Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00547571.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis les premières mesures in situ du vent solaire en 1960, les propriétés macroscopiques et microscopiques de ce plasma éjecté par le Soleil ont été intensivement étudiées, tant du point de vue théorique qu'observationnel. Aujourd'hui encore, certaines des propriétés du vent solaire sont incomprises, comme par exemple le transport de l'énergie dans un plasma peu collisionnel. Mesurer précisément la température des électrons et leurs propriétés non thermique est nécessaire pour comprendre les propriétés du transport. Pour ce faire, la spectroscopie du bruit quasi-thermique est un outil fiable, en étant moins sensible aux perturbations produites par le satellite que les détecteurs de particules classiques. Le bruit quasi-thermique est produit par les fluctuations du champ électrique causées par le mouvement des charges du plasma directement mesurées par une paire d'antennes reliée à un récepteur radio suffisamment sensible. L'étude de ce bruit permet de déterminer les moments des distributions de vitesses des particules. De nombreux résultats ont ainsi été obtenus à partir du récepteur radio de la sonde Ulysse, en décrivant les distributions des électrons par une somme de Maxwelliennes. Cependant une limitation de l'instrument ne permet pas de mesurer avec une précision suffisante la température totale des électrons avec un tel modèle de fonctions de distribution. Pour pallier à ce problème, une nouvelle méthode d'analyse des spectres de bruit quasi-thermique, utilisant une distribution des électrons de type kappa est proposée. Son application aux données de la sonde Ulysse permet de mesurer les variations avec la distance de la température totale des électrons et de leurs propriétés super thermiques dans le vent solaire. Le profil de température montre un comportement intermédiaire entre adiabatique et isotherme, et le paramètre kappa est constant avec la distance au Soleil. Ces résultats sont en accord avec les modèles exosphériques. Le vent solaire est également en interaction avec l'ensemble des objets du Système Solaire. Deux exemples d'interactions plasma-poussières sont présentés dans la deuxième partie de cette thèse : l'accélération des nanoparticules et leurs découvertes dans le vent solaire à une unité astronomique ; et la modification du champ magnétique interplanétaire par les poussières cométaires. Enfin, un point de vue plus global est adopté. Une comparaison du flux d'énergie, qui dans le cas du vent solaire est observé comme étant très stable temporellement et spatialement, est effectuée pour de nombreux vents stellaires. Cette comparaison met en évidence une similitude entre les étoiles de types solaire et les géantes froides, ainsi qu'une éventuelle conséquence de l'accrétion de matière sur les vents stellaires des T-Tauri.
12

Benoit, Gaëtan. "Métagénomique comparative de novo à grande échelle." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S088/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La métagénomique comparative est dite de novo lorsque les échantillons sont comparés sans connaissances a priori. La similarité est alors estimée en comptant le nombre de séquences d’ADN similaires entre les jeux de données. Un projet métagénomique génère typiquement des centaines de jeux de données. Chaque jeu contient des dizaines de millions de courtes séquences d’ADN de 100 à 200 nucléotides (appelées lectures). Dans le contexte du début de cette thèse, il aurait fallu des années pour comparer une telle masse de données avec les méthodes usuelles. Cette thèse présente des approches de novo pour calculer très rapidement la similarité entre de nombreux jeux de données. Les travaux que nous proposons se basent sur le k-mer (mot de taille k) comme unité de comparaison des métagénomes. La méthode principale développée pendant cette thèse, nommée Simka, calcule de nombreuses mesures de similarité en remplacement les comptages d’espèces classiquement utilisés par des comptages de grands k-mers (k > 21). Simka passe à l’échelle sur les projets métagénomiques actuels grâce à un nouvelle stratégie pour compter les k-mers de nombreux jeux de données en parallèle. Les expériences sur les données du projet Human Microbiome Projet et Tara Oceans montrent que les similarités calculées par Simka sont bien corrélées avec les similarités basées sur des comptages d’espèces ou d’OTUs. Simka a traité ces projets (plus de 30 milliards de lectures réparties dans des centaines de jeux) en quelques heures. C’est actuellement le seul outil à passer à l’échelle sur une telle quantité de données, tout en étant complet du point de vue des résultats de comparaisons
Metagenomics studies the genomic content of a sample extracted from a natural environment. Among available analyses, comparative metagenomics aims at estimating the similarity between two or more environmental samples at the genomic level. The traditional approach compares the samples based on their content in known identified species. However, this method is biased by the incompleteness of reference databases. By contrast, de novo comparative metagenomics does not rely on a priori knowledge. Sample similarity is estimated by counting the number of similar DNA sequences between datasets. A metagenomic project typically generates hundreds of datasets. Each dataset contains tens of millions of short DNA sequences ranging from 100 to 150 base pairs (called reads). In the context of this thesis, it would require years to compare such an amount of data with usual methods. This thesis presents novel de novo approaches to quickly compute the similarity between numerous datasets. The main idea underlying our work is to use the k-mer (word of size k) as a comparison unit of the metagenomes. The main method developed during this thesis, called Simka, computes several similarity measures by replacing species counts by k-mer counts (k > 21). Simka scales-up today’s metagenomic projects thanks to a new parallel k-mer counting strategy on multiple datasets. Experiments on data from the Human Microbiome Project and Tara Oceans show that the similarities computed by Simka are well correlated with reference-based and OTU-based similarities. Simka processed these projects (more than 30 billions of reads distributed in hundreds of datasets) in few hours. It is currently the only tool able to scale-up such projects, while providing precise and extensive comparison results
13

Bethune, William. "Dynamique à grande échelle des disques protoplanétaires." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAY022/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est dédiée aux processus de transport de moment cinétique et de flux magnétique dans les disques faiblement magnétisés et faiblement ionisés ; l’influence des effets microphysiques sur la dynamique du disque à grande échelle y est centrale. Dans un premier temps, j’exclue les effets de stratification et j’examine l’impact des effets MHD non-idéaux sur la turbulence dans le plan du disque. Je montre que l’écoulement peut spontanément s’organiser si la fraction d’ionisation est assez faible ; dans ce cas, l’accrétion est stoppée, et le disque exhibe des anneaux axisymétriques susceptibles d’affecter la formation planétaire. Dans un second temps, je caractérise l’interaction du disque avec un vent magnétisé via un modèle global de disque stratifié. Ce modèle est le premier à décrire globalement les effets MHD non-idéaux d’après un réseau chimique simplifié. Il révèle que le disque est essentiellement non-turbulent, et que le champ magnétique peut adopter différentes configurations globales, affectant drastiquement les processus de transport. Un nouveau processus d’auto-organisation est identifié, produisant aussi des structures axisymétriques, tandis que le précédent est invalidé par l’action du vent. Les propriétés des vents magnéto-thermiques sont examinées pour différentes magnétisations, permettant de discriminer les vents magnétisés des vents photo-évaporés par leur efficacité d’éjection
This thesis is devoted to the transport of angular momentum and magnetic flux through weakly ionized and weakly magnetized accretion disks ; the role of microphysical effects on the large- scale dynamics of the disk is of primary importance. As a first step, I exclude stratification effects and examine the impact of non-ideal MHD effects on the turbulent properties near the disk midplane. I show that the flow can spontaneously organize itself if the ionization fraction is low enough ; in this case, accretion is halted and the disk exhibits axisymmetric structures, with possible consequences on planetary formation. As a second step, I study the disk-wind interaction via a global model of stratified disk. This model is the first to compute non-ideal MHD effects from a simplified chemical network in a global geometry. It reveals that the flow is essentially laminar, and that the magnetic field can adopt different global configurations, drastically affecting the transport processes. A new self-organization process is identified, also leading to the formation of axisymmetric structures, whereas the previous mechanism is discarded by the action of the wind. The properties of magneto-thermal winds are examined for various magnetizations, allowing discrimination between magnetized and photo-evaporative winds based upon their ejection efficiency
14

Le, Chat Gaétan. "Etude du vent solaire à grande échelle." Paris 7, 2010. http://www.theses.fr/2010PA077162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Certaines des propriétés du vent solaire sont incomprises, tel que le transport de l'énergie dans un plasma peu collissionnel. La spectroscopie du bruit quasi-thermique est un outil fiable pour mesurer la température des électrons et leurs propriétés non thermique, nécessaires pour comprendre les propriétés du transport. Le bruit quasi-thermique est produit par les fluctuations du champ électrique causées par le mouvement des charges du plasma directement mesurées par une antenne et un récepteur radio suffisamment sensible. L'étude de ce bruit permet de déterminer les moments des distributions de vitesse. De nombreux résultats ont ainsi été obtenus avec la sonde Ulysse, en décrivant les distributions des électrons par une somme de Maxwelliennes. Cependant l'instrument ne permet pas une mesure précise de la température totale des électrons dans ce cas. Une nouvelle méthode spectroscopique de ce bruit, utilisant une distribution des électrons de type kappa est donc proposée et appliquée aux données d'Ulysse, montrant un comportement de la température intermédiaire entre adiabatique et isotherme, et un paramètre kappa constant avec la distance au Soleil. Deux exemples d'interactions plasma-poussières sont ensuite présentées : les nanoparticules dans le vent solaire à une unité astronomique et la modification du champ magnétique interplanétaire par les poussières cométaires. Enfin, une comparaison du flux d'énergie, très stable dans le vent solaire, est effectuée pour de nombreux vents stellaires, mettant en évidence une similitude entre les étoiles de types solaire et les géantes froides et une conséquence de l'accrétion de matière des T-Tauri
Some features of the solar wind still remain not understood, as the transport of the energy in collision less plasmas. Quasi-thermal noise spectroscopy is a reliable tool for measuring accurately the electron density, temperature and non thermal properties which can give important dues to understand the transport properties. This noise is produced by the quasi-thermal fluctuations of the particles and allow to measure the moments of their velocity distributions. This method, using a sum of Maxwellian as the electron velocity distribution, has produced a large amount of results with the Ulysses mission. Nevertheless, some limitations on the radio receiver prevent an accurate measurement of the total temperature of the electrons with this model. A new method using kappa distribution is proposed and its application on the Ulysses data shows a variation of the temperature between an adiabatic and isothermal behaviour, and a constant kappa parameter. Then, two examples of plasma-dust interactions are studied: the acceleration of nano dust by the solar wind and their detection in the solar wind at one astronomic unit; and the interplanetary magnetic field enhancements possibly due to an interaction between the solar wind and cometary dust. Finally, a more global point of view is taken. The energy flux of the solar wind is almost constant, nearly independent on wind speed and solar activity. A comparison of the energy flux of a spread of stellar winds is made. A shared process at the origin and acceleration of the main-sequence stars and cool giants' winds is suggested. T-Tauri stars' winds show a possible result of an accretion powered wind
15

Tixeuil, Sébastien. "Vers l'auto-stabilisation des systèmes à grande échelle." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00124848.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Ralambondrainy, Tiana. "Observation de simulations multi-agents à grande échelle." La Réunion, 2009. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/09_02ralambondrainy.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simulation de systèmes complexes naturels ou sociaux a pour but de répondre aux questions que se pose un observateur sur ces systèmes. La complexité des situations réelles représentées, des entités impliquées et de leurs interactions produisent une masse de résultats qu'il est paradoxalement aussi diffcile à comprendre que le système réel initial. L'enjeu de notre travail est de faciliter l'observation et l'analyse de ces résultats par un observateur pour une meilleure compréhension des simulations orientées agent (SOA). Nous avons identifé une liste d'exigences inhérentes à l'observation que doit vérifer une plate-forme de SOA afn de faciliter la prise en compte de l'observation. Nous formalisons les concepts relatifs à l'observation sous la forme d'une ontologie de domaine destinée à la fois aux concepteurs de plates-formes de simulation ou de modèles, ainsi qu'aux entités logicielles de ces plates-formes qui utilisent cette ontologie comme vocabulaire conceptuel consensuel pour leurs interactions. Plusieurs moyens pour mieux gérer l'observation dans les plates-formes de simulation sont proposées, à la fois en termes d'architecture logicielle et de visualisation. Les interactions entre agents locaux en SOA sont à l'origine des phénomènes résultants au niveau global. Pour observer ces interactions à toutes les échelles allant du local au global, nous avons développé le concept de conversation, ainsi que des représentations visuelles génériques dédiées aux interactions à grande échelle. Nous avons validé ces propositions par la simulation d'un système à grande échelle de transfert de matières organiques entre exploitations agricoles
The goal of simulation of ecological or social complex systems is to help observers to answer questions about these systems. In individual-based models, the complexity of the system represented, the entities and their interactions produce a huge mass of results. These results are paradoxically as difficult to understand as the real system, that the model is suppoded to simplify. My research interests is to facilitate the observation and analysis of these results by the user, for a better understanding of multi-agent simulations. I have identified a list of requirements, that a multi-agent simulation platform should verify in order to facilitate observation by the user. A domain ontology dedicated to observation formalizes the concepts relative to the observation task. This observation ontology is useful both for humans involved in the simulation process, and for the software entities which can use this ontologyas a common vocabulary in their interactions. Several means are proposed to improve observation management in multi-agent simulation platforms, in term of architecture and visualisation. The interactions between agents are the source of emerging glabal phenomena : it is necessary to observe them at every relevant scales ranging from global to local. Hence, I have proposed the concept of conversation, and visual generic representations dedicated to large scale interactions. These proposals have been valited thanks to the simulation of the management of animal wastes fluxes between farms at a territory scale in Reunion Island
17

Stref, Philippe. "Application à grande échelle d'un modèle hydrodispersif tridimensionnel." Montpellier 2, 1987. http://www.theses.fr/1987MON20068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation des modeles hydrodispersifs permet l'etude de la propagation des polluants dans un aquifere. Apres examen des approches recentes de la theorie de la dispersion, un modele hydrodispersif multicouche a ete developpe. Ce modele est mis en oeuvre pour simuler l'evolution de la mineralisation d'un large secteur de l'aquifere alsacien. Les resultats obtenus s'averent tout a fait satisfaisants. La modelisation hydrodispersive a l'echelle regionale devrait progresser surtout si les moyens d'investigation des caracteristiques de l'aquifere s'accroissent
18

Rawat, Subhandu. "Dynamique cohérente de mouvements turbulents à grande échelle." Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0116/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Mon travail de thèse a porté sur la compréhension «systèmes dynamiques de la dynamique à grande échelle dans l’écoulement pleinement développé de cisaillement turbulent. Dans le plan écoulement de Couette, simulation des grandes échelles (LES) est utilisée pour modéliser petits mouvements d’échelle et de ne résoudre mouvements à grande échelle afin de calculer non linéaire ondes progressives (SNT) et orbites périodiques relatives (RPO). Artificiel sur-amortissement a été utilisé pour étancher une gamme croissante de petite échelle motions et prouvent que les motions grande échelle sont auto-entretenue. Les solutions d’onde inférieure branche itinérantes qui se trouvent sur le bassin laminaire turbulent limite sont obtenues pour ces simulation sur-amortie et continue encore dans l’espace de paramètre à des solutions de branche supérieure. Cette approche ne aurait pas été possible si, comme supposé dans certains enquêtes précédentes, les mouvements à grande échelle dans le mur bornées flux de cisaillement sont forcée par un mécanisme fondé sur l’existence de structures actives à plus petite échelle. En flux Poseuille, orbites périodiques relatives à décalage réflexion symétrie sur la limite du bassin laminaire turbulent sont calculés en utilisant DNS. Nous montrons que le RPO trouvé sont connectés à la paire de voyager vague (TW) solution via bifurcation mondiale (noeud-col-période infinie bifurcation). La branche inférieure de cette solution TW évoluer dans un état de l’envergure localisée lorsque le domaine de l’envergure est augmentée. La solution de branche supérieure développe plusieurs stries avec un espacement de l’envergure compatible avec des mouvements à grande échelle en régime turbulent
My thesis work focused on ‘dynamical systems’ understanding of the large-scale dynamics in fully developed turbulent shear flow. In plane Couette flow, large-eddy simulation (L.E.S) is used to model small scale motions and to only resolve large-scale motions in order to compute nonlinear traveling waves (NTW) and relative periodic orbits (RPO). Artificial over-damping has been used to quench an increasing range of small-scale motions and prove that the motions in large-scale are self-sustained. The lower-branch traveling wave solutions that lie on laminar-turbulent basin boundary are obtained for these over-damped simulation and further continued in parameter space to upper branch solutions. This approach would not have been possible if, as conjectured in some previous investigations, large-scale motions in wall bounded shear flows are forced by mechanism based on the existence of active structures at smaller scales. In Poseuille flow, relative periodic orbits with shift-reflection symmetry on the laminar-turbulent basin boundary are computed using DNS. We show that the found RPO are connected to the pair of traveling wave (TW) solution via global bifurcation (saddle-node-infinite period bifurcation). The lower branch of this TW solution evolve into a spanwise localized state when the spanwise domain is increased. The upper branch solution develops multiple streaks with spanwise spacing consistent with large-scale motions in turbulent regime
19

Chopin, Pierre. "Modélisation à grande échelle pour les phénomènes éruptifs." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX063/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objet la modélisation du champ magnétique de la couronne solaire à l'aide du code de reconstruction non linéaire XTRAPOLS, avec une attention particulière pour les environnements des phénomènes éruptifs. Le caractère novateur des études menées porte sur l'aspect sphérique global de la méthode.Trois études principales de cas sont présentées dans cette thèse. La première concerne les évènements éruptifs de février 2011, géoeffectifs, faisant figurer une région active étendue. Nous mettons en évidences plusieurs structures de tubes de flux torsadés, et caractérisons leur lien avec les structures à grande échelle.La deuxième concerne les évènements du 3 et 4 août 2011. Plusieurs régions actives sont présentes sur le disque solaires, et deux d'entre elles présentent une activité éruptive importante.Là encore, nous mettons en évidences des tubes de flux torsadés dans chacune de ces deux régions active,et mettons en lumière les liens topologiques qui existent entre elles.La Troisième concerne une étude faite dans le cadre d'un groupe NLFFF, pour l'étude de la modélisation non linéaire globale de la couronne. La date correspondant à la reconstruction est celle de l'éclipse totale de soleil du 20 mars 2015. Nous discutons ici de l'impact de différents type de données et de modèles utilisés, et soulignons l'importance de la cohérence temporelle et de l'inclusion du courant dans les régions actives.Les travaux présentés dans cette thèse ont donc permis de caractériser l'environnement global des régions actives éruptives et d'étudier les liens entre les éléments à différentes échelles. Nous présentons en guise d'ouverture différente méthode pour étendre la modélisation au delà de la surface source
The object of this thesis is the modelisation of the magnetic field of the solar corona using the non linear reconstruction code XTRAPOLS, with a special emphasis on eruptive phenomena environments.The innovative nature of the studies we undertook is the spherical global aspect of the method.Three main works are presented in this dissertation. The first one is about the February 2011 geoeffective events, featuring a large active region. We highlight several twisted flux ropes structures,and characterize their relationship with large scale structures.The second work is about the events of August 3rd and 4th. Several active region are present on the disk,and two of them feature a high eruptive activity. Here again, we find twisted flux ropes in each of the active regions, and we highlight the topological relationship between them.The third is a study performed in the context of an NLFFF group, in order to study the non linear modeling of the global corona. The reconstruction is performed at a date corresponding to the total solar eclipse of march 20th 2015. We discuss the impact of the different types of data and models used, and emphasize on the importance of data temporal coherence and of taking into account coronal currents.Thus, the works presented in this dissertation allowed to characterize the global environment of eruptive active regions, to study the relationship between features at different scales. To go further, we present different methods for extending the model beyond the source surface
20

Vergassola, Massimo. "Dynamique à grande échelle en turbulence et cosmologie." Nice, 1994. http://www.theses.fr/1994NICE4712.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse regroupe un ensemble de travaux portant sur la dynamique à grande échelle en turbulence et en cosmologie. On a déterminé la fonction de masse des grandes structures résultant du modèle d'adhésion pour l'évolution des fluctuations de densité dans l'univers en expansion. Les résultats reposent sur de la phénoménologie, des probabilités (mouvement brownien fractionnaire) et des simulations avec un nouvel algorithme de transformée de Legendre rapide. Des techniques multi-échelles, conjuguées avec des simulations numériques, ont permis de découvrir des écoulements dont la viscosité turbulente est à la fois négative et isotrope. La dynamique non-linéaire à grande échelle peut présenter un phénomène chiral qui amplifie sélectivement les tourbillons d'un certain signe. Des extensions de la théorie des gaz sur réseaux permettent des nouvelles approches pseudo-microscopiques pour la modélisation sous-maille et la magnétohydrodynamique. En turbulence développée, des prédictions basées sur le modèle multifractal ont été faites. D'autre part, des artefacts ont été mis en évidence qui peuvent apparaitre dans certaines techniques de traitement des données
21

Cattan, Oralie. "Systèmes de questions-réponses interactifs à grande échelle." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche informationnelle a évolué avec notre besoin d'instantanéité et d'intuitivité en une forme d'interrogation en langue naturelle, non plus uniquement axée sur l'utilisation de mots clés pertinents. L'étude de ces interactions soulève des problématiques majeures relevant du champ de la compréhension en ce qui concerne la contextualisation des questions. En effet, les questions sont rarement posées isolément. Regroupées, elles forment un dialogue qui se construit et se structure au fil de l'échange. Dans la série de questions suivantes : « Quel est le prix d'une chambre d'hôtel à Montréal ? », « Comment préparer un gâteau basque », « Que faut-il savoir sur les abeilles noires ? », « Dorment-elles ? », l'interprétation de certaines questions dépend des questions et réponses précédemment posées. Dans ce contexte, concevoir un système de réponse aux questions interactif capable de soutenir une conversation qui ne se résume pas à une simple succession de questions-réponses sporadiques constitue un défi en matière de modélisation et de calcul haute performance. L'évolution des techniques et solutions de calculs intensifs, la disponibilité de grands volumes de données brutes (dans le cas de l'apprentissage non supervisé) ou enrichies avec des informations linguistiques ou sémantiques (dans le cas de l'apprentissage supervisé) ont permis aux méthodes d'apprentissage automatique de connaître des développement important, avec des applications considérables dans le milieu industriel. Malgré leurs succès, ces modèles, de domaine et de langue, appris à partir d'une quantité de données massive avec un nombre de paramètres important font émerger des questions d'utilisabilité et apparaissent aujourd'hui peu optimaux, compte tenu des nouveaux enjeux de sobriété numérique. Dans une entreprise réelle où les systèmes sont développés rapidement et devraient fonctionner de manière robuste pour une variété croissante de domaines, de tâches et de langues, un apprentissage rapide et efficace à partir d'un nombre limité d'exemples est indispensable. Dans cette cette thèse nous approfondissons chacune des problématiques susmentionnées et proposons des approches fondées sur le transfert de connaissances issues de représentations latentes et contextuelles pour optimiser les performances et faciliter le déploiement à grande échelle
Informational search has evolved with our need for immediacy and intuitiveness into a form of natural language querying, no longer solely focused on the use of relevant keywords. The study of these interactions raises major issues in the field of machine understanding with regard to the contextualization of questions. Indeed, questions are rarely asked in isolation. Grouped together, they form a dialogue that is built and structured over the course of the conversation. In the following series of questions: “How much does a hotel room cost in Montreal? », « how to prepare a Basque cake », « what are black bees? », « do they sleep? », the interpretation of some questions depends on the questions and answers previously asked. In this context, designing an interactive question-answering system capable of sustaining a conversation that is not limited to a simple succession of sporadic questions and answers constitutes a challenge in terms of contextual modeling and high-performance computing. The evolution of intensive computing techniques and solutions, the availability of large volumes of raw data (in the case of unsupervised learning) or enriched with linguistic or semantic information (in the case of supervised learning) have allowed machine learning methods to experience significant development, with considerable applications in the industrial sector. Despite their success, these domain and language models, learned from a massive amount of data with a large number of parameters, raise questions of usability and today appear less than optimal, given the new challenges of digital sobriety. In a real business scenario, where systems are developed rapidly and are expected to work robustly for an increasing variety of domains, tasks and languages, fast and efficient learning from a limited number of examples is essential. In this thesis we deepen each of the aforementioned issues and propose approaches based on the knowledge transfer from latent and contextual representations to optimize performance and facilitate a cost-effective large-scale deployment of systems
22

Akata, Zeynep. "Contributions à l'apprentissage grande échelle pour la classification d'images." Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-00873807.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La construction d'algorithmes classifiant des images à grande échelle est devenue une tache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles inetiquetées présentes sur Internet. Nous visons à classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complèxe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans le cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "ranking", "ranking pondéré moyen" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt anticipé de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles.
23

Akata, Zeynep. "Contributions à l'apprentissage grande échelle pour la classification d'images." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM003/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La construction d'algorithmes classifiant des images à grande échelle est devenue une t^ache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles non-etiquetées présentes sur Internet. L'objetif est de classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complexe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations à l'état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans un cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "classement", "classement avec pondération" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt prématuré de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". Notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles
Building algorithms that classify images on a large scale is an essential task due to the difficulty in searching massive amount of unlabeled visual data available on the Internet. We aim at classifying images based on their content to simplify the manageability of such large-scale collections. Large-scale image classification is a difficult problem as datasets are large with respect to both the number of images and the number of classes. Some of these classes are fine grained and they may not contain any labeled representatives. In this thesis, we use state-of-the-art image representations and focus on efficient learning methods. Our contributions are (1) a benchmark of learning algorithms for large scale image classification, and (2) a novel learning algorithm based on label embedding for learning with scarce training data. Firstly, we propose a benchmark of learning algorithms for large scale image classification in the fully supervised setting. It compares several objective functions for learning linear classifiers such as one-vs-rest, multiclass, ranking and weighted average ranking using the stochastic gradient descent optimization. The output of this benchmark is a set of recommendations for large-scale learning. We experimentally show that, online learning is well suited for large-scale image classification. With simple data rebalancing, One-vs-Rest performs better than all other methods. Moreover, in online learning, using a small enough step size with respect to the learning rate is sufficient for state-of-the-art performance. Finally, regularization through early stopping results in fast training and a good generalization performance. Secondly, when dealing with thousands of classes, it is difficult to collect sufficient labeled training data for each class. For some classes we might not even have a single training example. We propose a novel algorithm for this zero-shot learning scenario. Our algorithm uses side information, such as attributes to embed classes in a Euclidean space. We also introduce a function to measure the compatibility between an image and a label. The parameters of this function are learned using a ranking objective. Our algorithm outperforms the state-of-the-art for zero-shot learning. It is flexible and can accommodate other sources of side information such as hierarchies. It also allows for a smooth transition from zero-shot to few-shots learning
24

Donnet, Benoit. "Algorithmes pour la découverte de topologie à grande échelle." Paris 6, 2006. http://www.theses.fr/2006PA066562.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces dernières années ont vu un intérêt croissant dans la découverte, à grande échelle, de la topologie d'internet au niveau des interfaces IP. Une nouvelle génération de systèmes de mesure fortement distribués est actuellement en train d'être déployée. Malheureusement, avant cette thèse, la communauté de la recherche ne s'est pas attardée sur la question de savoir comment effectuer ces mesures de manière efficace. Dans cette thèse, nous proposons plusieurs contributions pour permettre aux mesures de passer à l'échelle. D'abord, nous montrons que les méthodes classiques de découverte de topologie (i. E. , skitter) sont inefficaces car elles sondent de manière répétée les mêmes interfaces. De telles méthodes peuvent poser problème lors du passage à l'échelle car le trafic généré pourrait aisément ressembler à une attaque de déni de service distribué. Nous mesurons deux types de redondance dans l'envoi de sondes (intra- et inter-moniteur) et montrons qu'ils sont tous deux élevés. Dans un deuxième temps, comme il n'est pas inhabituel pour un moniteur de traceroute d'opérer en isolation, nous proposons et évaluons des stratégies pour réduire la redondance à l'intérieur d'un seul moniteur. L'idée clé de ces stratégies est de commencer à sonder loin du moniteur et de fonctionner en arrière. Nos résultats montrent que nos algorithmes peuvent diminuer la redondance au prix d'une légère réduction dans la découverte de noeuds et de liens. Ensuite, nous proposons et évaluons Doubletree, un algorithme coopératif qui réduit simultanément les deux types de redondance sur les routeurs et les systèmes finaux. Les idées clés sont (i) exploiter les structures en arbres des routes vers et depuis un seul point afin de décider quand arrêter d'envoyer des sondes, (ii) commencer à sonder quelque part au milieu du chemin. Nos résultats montrent que Doubletree peut réduire les deux types de charge sur le réseau de manière drastique tout en permettant de découvrir presque le même ensemble de noeuds et de liens. En plus, nous fournissons et évaluons une implémentation de Doubletree dans un outil appelé traceroute@home. Quatrièmement, nous fournissons plusieurs améliorations à Doubletree afin de réduire le coût de communication, la charge sur les destinations et augmenter la couverture. Enfin, nous proposons une généralisation des filtres de Bloom, les retouched Bloom filters, qui permet des faux négatifs en plus des faux positifs ainsi qu'un moyen d'obtenir un compromis entre les deux. Nous montrons aussi comment diminuer le taux d'erreur global, en l'exprimant comme une combinaison entre les taux de faux positifs et de faux négatifs.
25

Campusano, Luis Eduardo. "Inhomogénéités à grande échelle dans la distribution des quasars." Toulouse 3, 1992. http://www.theses.fr/1992TOU30196.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La constitution d'echantillons complets de quasars optiques, difficile a cause des differents biais a l'uvre est absolument necessaire pour l'etude statistique de ces objets. Le groupe de quasars de 100-200 mpc d'extension present dans nos donnees est un indicateur extremement rare de l'existence de structure a grande echelle dans l'univers
26

Gürgen, Levent. "Gestion à grande échelle de données de capteurs hétérogènes." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite les aspects liés à la gestion à grande échelle de données issues de capteurs hétérogènes. En effet, les capteurs sont de moins en moins chers, de plus en plus nombreux et hétérogènes dans les applications. Ceci implique naturellement le problème de passage à l'échelle et la nécessité de pouvoir exploiter les données provenant de différents types de capteurs. Nous proposons une architecture distribuée et orientée services dans laquelle les tâches de traitement de données sont réparties sur plusieurs niveaux. Les fonctionnalités de gestion de données sont fournies en termes de < > afin de cacher l'hétérogénéité des capteurs sous des services génériques. Nous traitons également les aspects liés à l'administration de parc de capteurs, un sujet non abordé dans ce contexte
This dissertation deals with the issues related to scalable management of heterogeneous sensor data. Ln fact, sensors are becoming less and less expensive, more and more numerous and heterogeneous. This naturally raises the scalability problem and the need for integrating data gathered from heterogeneous sensors. We propose a distributed and service-oriented architecture in which data processing tasks are distributed at severallevels in the architecture. Data management functionalities are provided in terms of "services", in order to hide sensor heterogeneity behind generic services. We equally deal with system management issues in sensor farms, a subject not yet explored in this context
27

Gomez, Castano Mayte. "Métamatériaux optiques : conception, fabrication à grande échelle et caractérisation." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les métamatériaux sont des matériaux structurés artificiellement, soigneusement designés pour obtenir des réponses électromagnétiques inobservables dans la nature, telles qu’un indice de réfraction négatif. Le but de cette thèse est le développement de métamatériaux optiques à grandes échelles pouvant être incorporés au sein de dispositifs réels. En combinant la lithographie colloïdale avec l’électrodéposition, nous avons réalisé par voie ascendante des métamatériaux de type « fishnet » faits de couches d’or et air, présentant un indice de réfraction qui varie entre valeurs positives et négatives dans le proche infrarouge. Des multicouches de type fishnet ont aussi été fabriquées en couplant la lithographie par nanoimpression et l’électrodéposition. Nous avons analysé en détail les réponses optiques de ces structures, qui présentent des valeurs négatives d’indice de réfraction du visible au proche infrarouge. Leur performance comme capteurs optiques a été étudiée via leur infiltration par différents liquides. Les différentes techniques d’élaboration précitées ont également été utilisées pour fabriquer des substrats métalliques nanostructurés afin d’étudier l’émission spontanée collective d’ensembles de molécules fluorescentes
Metamaterials are artificially structured materials, thoroughly designed for achieving electromagnetic properties not observed in nature such as the negative refractive index. The purpose of this thesis is the development of up-scalable optical metamaterials that can be easily incorporated into actual devices. By combining colloidal lithography and electrodeposition, we report an entirely bottom-up fishnet metamaterial made of gold and air layers. A proper theoretical and experimental design gives rise to tunable refractive index, from positive to negative values in the near infrared. This structure is extended to multilayered fishnet metamaterials made by nanoimprint lithography and electrodeposition. We thoroughly analyze the optical response of the structures, which lead to strong negative index from the visible to near infrared. Their performance as optical sensors is studied when infiltrating different liquids through the air cavities. These techniques are used to fabricate nanostructured metallic substrates for studying the collective spontaneous emission of fluorescent molecules
28

Bland, Céline. "Innovations pour l'annotation protéogénomique à grande échelle du vivant." Thesis, Montpellier 1, 2013. http://www.theses.fr/2013MON13508.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La protéogénomique consiste à affiner l'annotation du génome d'organismes modèles pour lesquels des données protéomiques sont générées à haut-débit. Des erreurs d'annotation structurale ou fonctionnelle sont encore fréquentes. Innover dans les méthodologies permettant de lever ces ambiguïtés est essentiel. L'étude spécifique du N-terminome permet de vérifier expérimentalement l'identification du codon d'initiation de la traduction et de certifier les données obtenues. Pour cela, deux stratégies innovantes ont été développées basées sur : i) le marquage sélectif du N-terminal des protéines, ii) une digestion multienzymatique en parallèle, et ii) l'enrichissement spécifique des peptides N-terminaux marqués par chromatographies liquides successives ou immunocapture dirigée contre le groupement N-terminal ajouté. L'efficacité de ces méthodologies a été démontrée à partir du modèle bactérien Roseobacter denitrificans. Après enrichissement par chromatographie, 480 protéines ont été validées et 46 ré-annotées. Plusieurs sites d'initiation de la traduction ont été décelés et l'annotation par similarité a été remise en cause dans certains cas. Après immunocapture, 269 protéines ont été caractérisées dont 40% ont été identifiées spécifiquement après enrichissement. Trois gènes ont également été annotés pour la première fois. Les résultats complémentaires obtenus après analyse par spectrométrie de masse en tandem facilitent l'interprétation des données pour révéler les sites d'initiation réels de la synthèse des protéines et identifier de nouveaux produits d'expression des gènes. La ré-annotation peut devenir automatique et systématique pour améliorer les bases de données protéiques
Proteogenomics is a recent field at the junction of genomics and proteomics which consists of refining the annotation of the genome of model organisms with the help of high-throughput proteomic data. Structural and functional errors are still frequent and have been reported on several occasions. Innovative methodologies to prevent such errors are essential. N-terminomics enables experimental validation of initiation codons and certification of the annotation data. With this objective in mind, two innovative strategies have been developed combining: i) selective N-terminal labeling of proteins, ii) multienzymatic digestion in parallel, and iii) specific enrichment of most N-terminal labeled peptides using either successive liquid chromatography steps or immunocapture directed towards the N-terminal label. Efficiency of these methodologies has been demonstrated using Roseobacter denitrificans as bacterial model organism. After enrichment with chromatography, 480 proteins were validated and 46 re-annotated. Several start sites for translation initiation were detected and homology driven annotation was challenged in some cases. After immunocapture, 269 proteins were characterized of which 40% were identified specifically after enrichment. Three novel genes were also annotated for the first time. Complementary results obtained after tandem mass spectrometry analysis allows easier data interpretation to reveal real start sites of translation initiation of proteins and to identify novel expressed products. In this way, the re-annotation process may become automatic and systematic to improve protein databases
29

Gramoli, Vincent. "Mémoire partagée distribuée pour systèmes dynamiques à grande échelle." Phd thesis, Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/gramoli-e.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie les nouveaux défis du contexte du partage de donnée liés au récent changement d'échelle des systèmes répartis. De nos jours les systèmes répartis deviennent très grands. Cet accroissement concerne non seulement le nombre de personnes qui communiquent entre elles dans le monde mais aussi le nombre d'entités informatiques connectées. De tels grands systèmes sont sujets au dynamisme du fait du comportement imprévisible de leurs entités. Ce dynamisme empêche l'adoption de solutions classiques et plus simplement affecte la communication entre des entités distinctes. Cette thèse étudie les solutions existantes et propose des suggestions de recherche pour la résolution du problème fondamental de mémoire partagée distribuée dans un tel contexte dynamique et à grande échelle
This thesis focuses on newly arising challenges in the context of datasharing due to the recent scale shift of distributed systems. Distributed systems keep enlarging very rapidly. Not only tend users to communicate with more people over the world, but the amount of individual objects that get connected is increasing. Such large scale systems experience an inherent dynamism due to the unpredictability of the users behaviors. This drawback prevents traditional solutions from being adapted to this challenging context. More basically, this affects the communication among distinct computing entities. This thesis investigates the existing research work and proposes research suggestions to solve a fundamental issue, the distributed shared memory problem, in such a large scale and inherently dynamic environment
30

Gramoli, Vincent. "Mémoire partagée distribuée pour systèmes dynamiques à grande échelle." Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00491439.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie les nouveaux défis du contexte du partage de donnée liés au récent changement d'échelle des systèmes répartis. De nos jours les systèmes répartis deviennent très grands. Cet accroissement concerne non seulement le nombre de personnes qui communiquent dans le monde via leur ordinateur mais aussi le nombre d'entités informatiques personnelles connectées. De tels grands systèmes sont sujets au dynamisme du fait du comportement imprévisible de leurs entités. Ce dynamisme empêche l'adoption de solutions classiques et plus simplement affecte la communication entre des entités distinctes. Cette thèse étudie les solutions existantes et propose des suggestions de recherche pour la résolution du problème fondamental de mémoire partagée distribuée dans un tel contexte dynamique et à grande échelle.
31

Oudinet, Johan. "Approches combinatoires pour le test statistique à grande échelle." Paris 11, 2010. http://www.theses.fr/2010PA112347.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le développement de méthodes combinatoires pour le test et la vérification formelle. En particulier, sur des approches probabilistes lorsque la vérification exhaustive n'est plus envisageable. Dans le cadre du test (basé sur un modèle), je cherche à guider l'exploration aléatoire du modèle afin de garantir une bonne satisfaction du critère de couverture attendu, quelle que soit la topologie sous-jacente du modèle exploré. Dans le cadre du model-checking, je montre comment générer aléatoirement un nombre fini de chemins pour savoir si une propriété est satisfaite avec une certaine probabilité. Dans une première partie, je compare différents algorithmes pour générer uniformément des chemins dans un automate. Puis je propose un nouvel algorithme qui offre un bon compromis avec une complexité en espace sous-linéaire en la longueur des chemins et une complexité quasi-linéaire en temps. Cet algorithme permet l'exploration d'un modèle de plusieurs dizaines de millions d'états en y générant des chemins de plusieurs centaines de milliers de transitions. Dans une seconde partie, je présente une manière de combiner réduction par ordres partiels et génération à la volée pour explorer des systèmes concurrents sans construire le modèle global, mais en s'appuyant uniquement sur les modèles des composants. Enfin, je montre comment biaiser les algorithmes précédents pour satisfaire d'autres critères de couverture. Lorsque ces critères ne sont pas basés sur des chemins, mais un ensemble d'états ou de transitions, nous utilisons une solution mixte pour assurer à la fois un ensemble varié de moyens d'atteindre ces états ou transitions et la satisfaction du critère avec une bonne probabilité
This thesis focuses on the development of combinatorial methods for testing and formal verification. Particularly on probabilistic approaches because exhaustive verification is often not tractable for complex systems. For model-based testing, I guide the random exploration of the model to ensure a satisfaction with desired probability of the expected coverage criterion, regardless of the underlying topology of the explored model. Regarding model-checking, I show how to generate a random number of finite paths to check if a property is satisfied with a certain probability. In the first part, I compare different algorithms for generating uniformly at random paths in an automaton. Then I propose a new algorithm that offers a good compromise with a sub-linear space complexity in the path length and a almost-linear time complexity. This algorithm allows the exploration of large models (tens of millions of states) by generating long paths (hundreds of thousands of transitions). In a second part, I present a way to combine partial order reduction and on-the-fly generation techniques to explore concurrent systems without constructing the global model, but relying on models of the components only. Finally, I show how to bias the previous algorithms to satisfy other coverage criteria. When a criterion is not based on paths, but on a set of states or transitions, we use a mixed solution to ensure both various ways of exploring those states or transitions and the criterion satisfaction with a desired probability
32

Lombard, Pierre. "NFSP : Une solution de stockage distribué pour architectures grande échelle." Phd thesis, Grenoble INPG, 2003. http://tel.archives-ouvertes.fr/tel-00004373.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le stockage de données utilise souvent des systèmes se caractérisant par une grande intrusivité : ceux-ci requièrent de nombreuses modifications logicielles, voire parfois même matérielles, pour être déployés et utilisés. Notre solution consiste à offrir un stockage distribué logiciel pour architectures de type grappes de nature faiblement intrusive dans la mesure où le protocole standard omni-présent du monde Unix, NFS, est utilisé. L'approche retenue se caractérise par une séparation de la gestion des méta-données et des données permettant ainsi de répartir la charge d'entrées/sorties et d'obtenir de meilleures performances. L'ajout de redondance permet aussi de disposer à moindre coût de stockage distribué encore plus performant et plus sûr. Le développement d'outils de transfert efficace inter-grappes et d'un système distribué de fichiers à plus grande échelle a permis de valider notre approche.
33

Vargas-Magaña, Mariana. "Analyse des structures à grande échelle avec SDSS-III/BOSS." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00726113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de ma thèse s'est concentré sur l'extraction du signal laissé par les BAO dans la distribution des galaxies. Celui se présente sous forme d'un pic autour de 150 Mpc dans la fonction de corrélation à deux point de la matière. Cette échelle correspond à la distance parcourue par l'onde acoustique dans le fuide matière-radiation entre la période d'égalité matière-radiation et leur découplage à z ∼ 1100. Il en résulte une sur-densité à cette échelle autour de chaque perturbation primordiale. Le but de mon travail était d'efectuer une analyse complète sur les données prises par la collaboration SDSS III/BOSS jusqu'à l'été 2011 afin d'apporter des contraintes sur les paramètres caractérisant l'énergie noire, w0 et wa . On veut savoir si ces observations sont consistantes avec la fameuse constante cosmologique (w0 = 1 et wa = 0) ou si l'équation d'état de l'énergie noire évolue avec le temps (wa ̸= 0) impliquant alors des scénarios bien plus complexes pour cette composante. Pour y arriver, j'ai étudié et testé les outils d'analyse avec des simulations log-normal ainsi qu'avec les données publiques du DR7 de SDSS. J'ai étudié les effets de distorsion des redshifts dans le régime linéaire avec des simulations et j'ai développé une méthode d'optimisation d'estimateur de fonction de corrélation. Dans un second temps j'ai réalisé l'analyse complète des données BOSS-CMASS, qui utilise les galaxies elliptiques très lumineuses (LRGs), depuis la construction du catalogue jusqu'à l'obtention des contraintes cosmologique en passant par la correction des effets systématiques.
34

Samaké, Abdoulaye. "Méthodes non-conformes de décomposition de domaine à grande échelle." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM066/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie les méthodes de décomposition de domaine généralement classées soit comme des méthodes de Schwarz avec recouvrement ou des méthodes par sous-structuration s'appuyant sur des sous-domaines sans recouvrement. Nous nous focalisons principalement sur la méthode des éléments finis joints, aussi appelée la méthode mortar, une approche non conforme des méthodes par sous-structuration impliquant des contraintes de continuité faible sur l'espace d'approximation. Nous introduisons un framework élément fini pour la conception et l'analyse des préconditionneurs par sous-structuration pour une résolution efficace du système linéaire provenant d'une telle méthode de discrétisation. Une attention particulière est accordée à la construction du préconditionneur grille grossière, notamment la principale variante proposée dans ce travailutilisant la méthode de Galerkin Discontinue avec pénalisation intérieure comme problème grossier. D'autres méthodes de décomposition de domaine, telles que les méthodes de Schwarz et la méthode dite three-field sont étudiées dans l'objectif d'établir un environnement de programmation générique d'enseignement et de recherche pour une large gamme de ces méthodes. Nous développons un framework de calcul avancé et dédié à la mise en oeuvre parallèle des méthodesnumériques et des préconditionneurs introduits dans cette thèse. L'efficacité et la scalabilité des préconditionneurs, ainsi que la performance des algorithmes parallèles sont illustrées par des expériences numériques effectuées sur des architectures parallèles à très grande échelle
This thesis investigates domain decomposition methods, commonly classified as either overlapping Schwarz methods or iterative substructuring methods relying on nonoverlapping subdomains. We mainly focus on the mortar finite element method, a nonconforming approach of substructuring method involving weak continuity constraints on the approximation space. We introduce a finiteelement framework for the design and the analysis of the substructuring preconditioners for an efficient solution of the linear system arising from such a discretization method. Particular consideration is given to the construction of the coarse grid preconditioner, specifically the main variantproposed in this work, using a Discontinuous Galerkin interior penalty method as coarse problem. Other domain decomposition methods, such as Schwarz methods and the so-called three-field method are surveyed with the purpose of establishing a generic teaching and research programming environment for a wide range of these methods. We develop an advanced computational framework dedicated to the parallel implementation of numerical methods and preconditioners introduced in this thesis. The efficiency and the scalability of the preconditioners, and the performance of parallel algorithms are illustrated by numerical experiments performed on large scale parallel architectures
35

Signorini, Jacqueline. "Programmation par configurations des ordinateurs cellulaires à très grande échelle." Paris 8, 1992. http://www.theses.fr/1992PA080699.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous presentons un modele et une realisation d'un environnement de programmation pour ordinateurs cellulaires a tres grande echelle. Ces architectures de vastes plans de cellules se programment en construisant des configurations geometriques d'etats et en anticipant leur sequencement par les regles de transition des automates cellulaires sous-jacents. Notre environnement de programmation rassemble des outils logiciels: quatre langages, un editeur et une base de donnees, organises hierarchiquement de facon comparables aux outils de conception de circuits integres complexes, pour la conception, la visualisation graphique et la mise au point de programmes cellulaires. Ces programmes cellulaires sont des organisations de configurations-donnees (ou groupements specifiques de cellules) et de fonctions de controle logiques et cinematiques (reconnaissance, propagation et routage de sequences de donnees) mises en uvre par l'execution de regles de transition et de microinstructions. Nous illustrons notre environnement de programmation cellulaire par deux applications tres contrastees. La premiere application est consacree au calculateur cellulaire auto-recopieur: l'automate a 29 etats de john von neumann. Par sa taille et la complexite de sa regle, cet automate cellulaire nous a fourni un terrain d'experimentation pour concevoir, developper et tester nos outils de programmation. Nous concluons par une seconde application consacree a l'automate cellulaire q2r, dont la regle de calcul est sous-jacente a la modelisation de phenomenes physiques collectifs tels que le modele d'ernst ising de la transition de phase ferromagnetique. En utilisant une version de la regle de q2r mettant en jeu une seule etape de mise a jour, nous cherchons a faire emerger des configurations pouvant servir de configurations de base a un calculateur
36

Côté, Benoit, and Benoit Côté. "Modèle d’évolution de galaxies pour simulations cosmologiques à grande échelle." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25550.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique.
Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique.
We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
37

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
38

Vega, Baez Germàn Eduardo. "Développement d'applications à grande échelle par composition de méta-modèles." Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10278.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Parmi les approches de génie logiciel, l'Ingénierie Dirigée par les Modèles (IDM) vise à fournir un cadre qui permet de s'attaquer à la complexité croissante du développement des logiciels dans un paradigme unificateur : elle conçoit l'intégralité du cycle de vie du logiciel comme un processus de production, de raffinement itératif et d'intégration de modèles. Les travaux de cette thèse se placent dans cette mouvance. Nous nous intéressons particulièrement à la problématique de la gestion de la complexité et de la diversité de domaines métier impliqués dans les applications de grande taille, et nous proposons de l'approcher sous une optique IDM. Un domaine est un champ d'expertise, potentiellement partagé par de multiples applications. La connaissance et le savoir-faire développé au sein de ce domaine deviennent des atouts majeurs. Cette expertise peut être formalisée, et surtout réutilisé, sous la forme d'un langage de modélisation dédié, un Domain Specific Language (DSL). Nous proposons une démarche basée sur la description d'un système par divers modèles exprimés dans des langages de modélisation dédiés différents. La composition de modèles permet de modéliser des applications complexes couvrant plusieurs domaines simultanément. L'originalité de notre démarche est que, d'une part, chaque DSL est spécifié par un méta-modèle suffisamment précis pour pouvoir construire, de façon semi-automatique, une machine virtuelle spécialisée du domaine ; c'est cette machine virtuelle qui permet l'exécution des modèles associés. D'autre part, il est possible de composer ces méta-modèles pour définir de nouveaux domaines plus complexes. La composition de méta-modèles permet d'améliorer la modularité, d'obtenir de taux de réutilisation plus importants, et surtout d'obtenir des fonctionnalités plus vastes et sophistiquées que celles des domaines composés
Model Driven Software Engineering (MDSE) is a Software Engineering approach that addresses the ever increasing complexity of software development and maintenance through a unified conceptual framework in which the whole software life cycle is seen as a process of model production, refinement and integration. This thesis contributes to this MDSE trend. We focus mainly on the issues raised by the complexity and diversity of the domains of expertise involved in large size software applications, and we propose to address these issues in an MDSE perspective. A domain is an expertise area, potentially shared by many different software applications. The knowledge and know-how in a domain are major assets. This expertise can be formalized and reused when captured by a Domain Specific Language (DSL). We propose an approach in which the target system is described by different models, written in different DSL. In this approach, composing these different models allows for modeling complex application covering simultaneously different domains. Our approach is an original contribution in that each DSL is specified by a meta model precise enough to build, in a semi automatic way, a domain virtual machine ; it is this virtual machine that interprets the domain models. Then, it is possible to compose these meta models to define new and more complex domains. Meta model composition increases modularity and reuse, and allows building domain with much larger functional scope than possible with traditional approaches
39

Etcheverry, Arnaud. "Simulation de la dynamique des dislocations à très grande échelle." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0263/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail réalisé durant cette thèse vise à offrir à un code de simulation en dynamique des dislocations les composantes essentielles pour permettre le passage à l’échelle sur les calculateurs modernes. Nous abordons plusieurs aspects de la simulation numérique avec tout d’abord des considérations algorithmiques. Pour permettre de réaliser des simulations efficaces en terme de complexité algorithmique pour des grandes simulations, nous explorons les contraintes des différentes étapes de la simulation en offrant une analyse et des améliorations aux algorithmes. Ensuite, une considération particulière est apportée aux structures de données. En prenant en compte les nouveaux algorithmes, nous proposons une structure de données pour bénéficier d’accès performants à travers la hiérarchie mémoire. Cette structure est modulaire pour faire face à deux types d’algorithmes, avec d’un côté la gestion du maillage nécessitant une gestion dynamique de la mémoire et de l’autre les phases de calcul intensifs avec des accès rapides. Pour cela cette structure modulaire est complétée par un octree pour gérer la décomposition de domaine et aussi les algorithmes hiérarchiques comme le calcul du champ de contrainte et la détection des collisions. Enfin nous présentons les aspects parallèles du code. Pour cela nous introduisons une approche hybride, avec un parallélisme à grain fin à base de threads, et un parallélisme à gros grain de type MPI nécessitant une décomposition de domaine et un équilibrage de charge.Finalement, ces contributions sont testées pour valider les apports pour la simulation numérique. Deux cas d’étude sont présentés pour observer et analyser le comportement des différentes briques de la simulation. Tout d’abord une simulation extrêmement dynamique, composée de sources de Frank-Read dans un cristal de zirconium est utilisée, avant de présenter quelques résultats sur une simulation cible contenant une forte densité de défauts d’irradiation
This research work focuses on bringing performances in 3D dislocation dynamics simulation, to run efficiently on modern computers. First of all, we introduce some algorithmic technics, to reduce the complexity in order to target large scale simulations. Second of all, we focus on data structure to take into account both memory hierachie and algorithmic data access. On one side we build this adaptive data structure to handle dynamism of data and on the other side we use an Octree to combine hierachie decompostion and data locality in order to face intensive arithmetics with force field computation and collision detection. Finnaly, we introduce some parallel aspects of our simulation. We propose a classical hybrid parallelism, with task based openMP threads and domain decomposition technics for MPI
40

Hoyos-Idrobo, Andrés. "Ensembles des modeles en fMRI : l'apprentissage stable à grande échelle." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En imagerie médicale, des collaborations internationales ont lançé l'acquisition de centaines de Terabytes de données - et en particulierde données d'Imagerie par Résonance Magnétique fonctionelle (IRMf) -pour les mettre à disposition de la communauté scientifique.Extraire de l'information utile de ces données nécessite d'importants prétraitements et des étapes de réduction de bruit. La complexité de ces analyses rend les résultats très sensibles aux paramètres choisis. Le temps de calcul requis augmente plus vite que linéairement: les jeux de données sont si importants qu'il ne tiennent plus dans le cache, et les architectures de calcul classiques deviennent inefficaces.Pour réduire les temps de calcul, nous avons étudié le feature-grouping commetechnique de réduction de dimension. Pour ce faire, nous utilisons des méthodes de clustering. Nous proposons un algorithme de clustering agglomératif en temps linéaire: Recursive Nearest Agglomeration (ReNA). ReNA prévient la création de clusters énormes, qui constitue un défaut des méthodes agglomératives rapidesexistantes. Nous démontrons empiriquement que cet algorithme de clustering engendre des modèles très précis et rapides, et permet d'analyser de grands jeux de données avec des ressources limitées.En neuroimagerie, l'apprentissage statistique peut servir à étudierl'organisation cognitive du cerveau. Des modèles prédictifs permettent d'identifier les régions du cerveau impliquées dans le traitement cognitif d'un stimulus externe. L'entraînement de ces modèles est un problème de très grande dimension, et il est nécéssaire d'introduire un a priori pour obtenir un modèle satisfaisant.Afin de pouvoir traiter de grands jeux de données et d'améliorer lastabilité des résultats, nous proposons de combiner le clustering etl'utilisation d'ensembles de modèles. Nous évaluons la performance empirique de ce procédé à travers de nombreux jeux de données de neuroimagerie. Cette méthode est hautement parallélisable et moins coûteuse que l'état del'art en temps de calcul. Elle permet, avec moins de données d'entraînement,d'obtenir de meilleures prédictions. Enfin, nous montrons que l'utilisation d'ensembles de modèles améliore la stabilité des cartes de poids résultantes et réduit la variance du score de prédiction
In medical imaging, collaborative worldwide initiatives have begun theacquisition of hundreds of Terabytes of data that are made available to thescientific community. In particular, functional Magnetic Resonance Imaging --fMRI-- data. However, this signal requires extensive fitting and noise reduction steps to extract useful information. The complexity of these analysis pipelines yields results that are highly dependent on the chosen parameters.The computation cost of this data deluge is worse than linear: as datasetsno longer fit in cache, standard computational architectures cannot beefficiently used.To speed-up the computation time, we considered dimensionality reduction byfeature grouping. We use clustering methods to perform this task. We introduce a linear-time agglomerative clustering scheme, Recursive Nearest Agglomeration (ReNA). Unlike existing fast agglomerative schemes, it avoids the creation of giant clusters. We then show empirically how this clustering algorithm yields very fast and accurate models, enabling to process large datasets on budget.In neuroimaging, machine learning can be used to understand the cognitiveorganization of the brain. The idea is to build predictive models that are used to identify the brain regions involved in the cognitive processing of an external stimulus. However, training such estimators is a high-dimensional problem, and one needs to impose some prior to find a suitable model.To handle large datasets and increase stability of results, we propose to useensembles of models in combination with clustering. We study the empirical performance of this pipeline on a large number of brain imaging datasets. This method is highly parallelizable, it has lower computation time than the state-of-the-art methods and we show that, it requires less data samples to achieve better prediction accuracy. Finally, we show that ensembles of models improve the stability of the weight maps and reduce the variance of prediction accuracy
41

Dandouna, Makarem. "Librairies numériques réutilisables pour le calcul distribué à grande échelle." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons, dans cette thèse, un modèle de conception des librairies numériques orienté composant basé sur une séparation stricte entre le traitement des données, la définition des opérations de calcul et les communications. Ce modèle permet la réutilisabilité séquentielle/parallèle ainsi que l'expression du parallélisme multi-niveaux. L'abstraction des trois aspects principaux d'une librairie parallèle par le modèle de conception proposé permet l'indépendance de celle-ci vis à vis des mécanismes de communication. Une des conséquences de cette indépendance est la possibilité de porter à l'échelle les librairies parallèles existantes et celles conçues selon ce modèle. Afin de valider l'approche proposée, nous réalisons deux applications de notre modèle sur des librairies numériques existantes conçues différemment utilisées conjointement avec YML un environnement de workfow scientifique. Nos expérimentations réalisées sur le supercalculateur HopperII du National Energy Research Scientifc Computing Center (NERSC) et sur la plateforme nationale française Grid'5000 montrent l'efficacité et la mise à l'échelle de notre approche
We propose, in this thesis, a design model for numerical libraries based on a component oriented approach and a strict separation between data management, computation operations and communication control of an application. This model allows the sequential/parallel reusability as well as the expression of the multi-levels parallelism. The abstraction of the three principals aspects of a parallel library suggested by our design model allows the independence of this one from the communication mecanisms. One of the consequences of this independence is the possibility to make more scalable the existing parallel libraries and those built according to this model. To validate the proposed approach, we realize our design model basing on some existing numerical libraries designed differently used jointly with a scientifc workfow environment called YML. Experiments performed on the supercomputer HopperII from the National Energy Research Scientifc Computing Center (NERSC) and on the national French Grid'5000 platform show the effciency and the scalability of our approach
42

Pérès, Olivier. "Construction de topologies autostabilisante dans les systèmes à grande échelle." Paris 11, 2008. http://www.theses.fr/2008PA112119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes à grande échelle ne permettant pas l’utilisation des techniques classiques d’écritures d’algorithmes répartis. Dans le cadre de cette thèse, on propose un nouveau modèle capable de passer à l’échelle des grands systèmes dans lequel il est possible d’écrire des algorithmes autostabilisants. De tels algorithmes convergent vers un état dans lequel ils vérifient leur spécification. Ils sont ainsi capables de récupérer des défaillances transitoires inévitables dans un tel contexte : arrivée et départ de processus, corruption de mémoire, mauvais fonctionnement de liens du réseau
Large scale systems do not allow the use of regular techniques for writing distributed Algorithms. In this thesis, a new model is proposed. It is scalable and allows to write self-stabilizing algorithms. Such algorithms converge towards a state in which they verify their specification. They are thus capable of recovering from the transient failures that inevitably affect such systems : arrival and departure of processes, memory corruption, bad network links
43

Gallet, Basile. "Dynamique d'un champ à grande échelle engendré sur un fond turbulent." Phd thesis, Ecole Normale Supérieure de Paris - ENS Paris, 2011. http://tel.archives-ouvertes.fr/tel-00655623.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'expérience Von Karman sodium (VKS) engendre un champ magnétique par effet dynamo dans un écoulement turbulent de sodium liquide. Ce champ peut être stationnaire, oscillant, ou bistable entre ces 2 états. Pour d'autres valeurs des paramètres de contrôle, il présente un régime de renversements erratiques, similaires à ceux des observations paléomagnétiques. Nous montrons que tous ces régimes dynamiques résultent du couplage de deux modes de champ magnétique. Nous utilisons ensuite un modèle simple de dynamo cinématique pour étudier la structure spatiale du champ magnétique engendré. Nous faisons alors le lien entre les dynamos localisées dans un hémisphère (champ magnétique de Mars) et les renversements erratiques du champ magnétique (géodynamo). La dynamique de basse dimensionalité du champ magnétique à grande échelle présente une forte analogie avec la dérive d'un motif périodique. L'étude de ce système simple permet d'acquérir plus d'intuition sur le problème magnétique. Nous présentons ensuite un mécanisme d'instabilité par lequel une modulation à petite échelle des conditions aux limites magnétiques entraîne la croissance d'un champ à grande échelle. Ce phénomène peut expliquer le rôle déterminant des pales ferromagnétiques des turbines de l'expérience VKS. Enfin, nous présentons une étude numérique de la circulation à grande échelle engendrée dans une turbulence 2D. Un calcul analytique en régime fortement non-linéaire met en évidence le lien entre les petites échelles et la circulation globale. La prise en compte d'une friction linéaire entraîne des renversements erratiques de cette circulation, que nous caractérisons à l'aide des outils des systèmes dynamiques.
44

Laumay, Philippe. "Configuration et déploiement d'intergiciel asynchrone sur système hétérogène à grande échelle." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00005409.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L émergence des environnements omniprésents pose un nouveau défi aux systèmes informatiques. Les intergiciels asynchrones (Message-Oriented Middleware, MOM) sont reconnus comme étant la solution la plus apte à répondre aux besoins de passage à grande échelle, de flexibilité, et d' hétérogénéité des nouvelles applications distribuées. Mais l'implémentation des intergiciels asynchrones actuels reste souvent figée quels que soient les sites d'exécution et l'application (les applications) l'utilisant et sont peu voire pas configurables. Cette thèse s'intéresse à la configuration et au déploiement des intergiciels asynchrones sur système hétérogène à grande échelle. Elle vise la définition d'un modèle d'intergiciel asynchrone configurable permettant une configuration statique et à l'exécution. Elle a pour objectif d'associer les nombreux travaux dans le domaine de l'asynchrone qui ont mené à la définition des modèles de communication asynchrones et les réflexions menées dans les intergiciels synchrones autour des nouveaux besoins de configuration et d'adaptabilité. La synthèse de tous nos travaux nous a mené à la création de DREAM (Dynamic REflective Asynchronous Middleware), un intergiciel asynchrone adaptable. Les mécanismes de contrôles fournis par Dream ainsi que son architecture permettent de réaliser une configuration en se basant sur les besoins applicatifs et les contraintes imposées par le système. Nous validons notre prototype par l'implémentation d'un service à évènement à base d'agents dans lequel nous utilisons les capacités d'adaptation de DREAM pour ajouter de nouvelles fonctionnalités.
45

Côté, Benoît. "Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27873/27873.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Mohamed, Drissi. "Un modèle de propagation de feux de végétation à grande échelle." Phd thesis, Université de Provence - Aix-Marseille I, 2013. http://tel.archives-ouvertes.fr/tel-00931806.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation, de contours de feu et de surface brûlée.
47

Cordonnier, Guillaume. "Modèles à couches pour simuler l'évolution de paysages à grande échelle." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM072/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement des nouvelles technologies permet la visualisation interactive de mondes virtuels de plus en plus vastes et complexes. La production de paysages plausibles au sein de ces mondes devient un défi majeur, en raison de l'importance des éléments de terrain et des écosystèmes dans la qualité et le réalisme du résultat. S'y rajoute la difficulté d'éditer de tels éléments sur des échelles spatiales et temporelles aussi vastes que peuvent l'être celles des chaînes de montagnes. Cette édition se fait souvent en couplant des méthodes manuelles et de longues simulations numériques dont le calibrage est complexifié par le nombre des paramètres et leur caractère peu intuitif.Cette thèse propose d'explorer de nouvelles méthodes de simulation de paysages à grande échelle, avec pour objectif d'améliorer le contrôle et le réalisme des scènes obtenues. Notre stratégie est de fonder nos méthodes sur des lois éprouvées dans différents domaines scientifiques, ce qui permet de renforcer la plausibilité des résultats, tout en construisant des outils de résolution efficaces et des leviers de contrôles intuitifs.En observant des phénomènes liés aux zones de compression de la croûte terrestre, nous proposons une méthode de contrôle intuitif de la surrection à l'aide d'une métaphore de sculpture des plaques tectoniques. Combinée avec de nouvelles méthodes efficaces d'érosion fluviale et glaciaire, celle-ci permet de sculpter rapidement de vastes chaînes de montagnes. Pour visualiser les paysages obtenus à échelle humaine, nous démontrons le besoin de combiner la simulation de phénomènes variés et de temporalités différentes, et nous proposons une méthode de simulation stochastique pour résoudre cette difficile cohabitation, que nous appliquons à la simulation de processus géologiques tels que l'érosion, jointe à la formation d'écosystèmes. Cette méthode est déclinée sur GPU et appliquée à la formation du manteau neigeux, en combinant des aspects au long cours (précipitations, changements d'état de l'eau) et des aspects dynamiques (avalanches, impact des skieurs).Les différentes méthodes proposées permettent de simuler l'évolution de paysages à grande échelle, tout en accordant une attention particulière au contrôle. Ces aspects sont validés par des études utilisateur et des comparaisons avec des données issues de paysages réels
The development of new technologies allows the interactive visualization of virtual worlds showing an increasing amount of details and spacial extent. The production of plausible landscapes within these worlds becomes a major challenge, not only because the important part that terrain features and ecosystems play in the quality and realism of 3D sceneries, but also from the editing complexity of large landforms at mountain range scales. Interactive authoring is often achieved by coupling editing techniques with computationally and time demanding numerical simulation, whose calibration is harder as the number of non-intuitive parameters increases.This thesis explores new methods for the simulation of large-scale landscapes. Our goal is to improve both the control and the realism of the synthetic scenes. Our strategy to increase the plausibility consist on building our methods on physically and geomorphologically-inspired laws: we develop new solving schemes, which, combined with intuitive control tools, improve user experience.By observing phenomena triggered by compression areas within the Earth's crust, we propose a method for the intuitive control of the uplift based on a metaphor on the sculpting of the tectonic plates. Combined with new efficient methods for fluvial and glacial erosion, this allows for the fast sculpting of large mountain ranges. In order to visualize the resulting landscapes withing human sight, we demonstrate the need of combining the simulation of various phenomena with different time spans, and we propose a stochastic simulation technique to solve this complex cohabitation. This methodology is applied to the simulation of geological processes such as erosion interleaved with ecosystems formation. This method is then implemented on the GPU, combining long term effects (snow fall, phase changes of water) with highly dynamics ones (avalanches, skiers impact).Our methods allow the simulation of the evolution of large scale, visually plausible landscapes, while accounting for user control. These results were validated by user studies as well as comparisons with data obtained from real landscapes
48

Guenot, Damien. "Simulation des effets instationnaires à grande échelle dans les écoulements décollés." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2004. http://www.theses.fr/2004ESAE0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calcul des écoulements turbulents décollés est un des enjeux majeurs de l’aérodynamique numérique. Différentes méthodes existent : résolution des équations moyennées stationnaires, instationnaires (RANS/URANS), ou Simulation des Grandes Échelles (SGE). La méthode hybride Detached Eddy Simulation (DES) semble bien adaptée : elle utilise un modèle unique qui se comporte près des parois comme un modèle URANS (limite le coût de calcul), et loin comme une SGE (décrit mieux les écoulements hors équilibre). Les calculs de plaque plane montrent la nécessité de calculer les zones attachées en mode URANS. Pour le profil en décrochage, différents paramètres (maillage, envergure, formulation en mode SGE) sont testés. On obtient une meilleure prévision de la portance et de la traînée par rapport à l’URANS. Le cas de la marche descendante montre les limites de la DES. La géométrie pose le problème de la couche limite amont épaisse où les structures turbulentes sont absentes (traitée en URANS).
49

Guedj, Mickaël. "Méthodes Statistiques pour l’analyse de données génétiques d’association à grande échelle." Evry-Val d'Essonne, 2007. http://www.biblio.univ-evry.fr/theses/2007/2007EVRY0015.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse. Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux test d’association, les approches multi-marqueurs avec le développement d’une méthode fondée sur la statistique du Score Local, et enfin le problème du test-multiple avec l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien
The increasing availability of dense Single Nucleotide Polymorphisms (SNPs) maps due to rapid improvements in Molecular Biology and genotyping technologies have recently led geneticists towards genome-wide association studies with hopes of encouraging results concerning our understanding of the genetic basis of complex diseases. The analysis of such high-throughput data implies today new statistical and computational problematic to face, which constitute the main topic of this thesis. After a brief description of the main questions raised by genome-wide association studies, we deal with single-marker approaches by a power study of the main association tests. We consider then the use of multi-markers approaches by focusing on the method we developed which relies on the Local Score. Finally, this thesis also deals with the multiple-testing problem: our Local Score-based approach circumvents this problem by reducing the number of tests; in parallel, we present an estimation of the Local False Discovery Rate by a simple Gaussian mixed model
50

Benveniste, Jérôme. "Observer la circulation des océans à grande échelle par altimétrie satellitaire." Toulouse 3, 1989. http://www.theses.fr/1989TOU30229.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La circulation de l'ocean et sa variabilite sont des facteurs qui influencent significativement le climat. Le probleme pose ici, est de savoir si l'altimetrie satellitaire est en mesure de detecter la variabilite grande longueur d'onde de l'ocean. Une reflexion a partir de modele nous conduit a estimer l'amplitude de ces signaux a environ 10 cm, sur 1000 km et leur variabilite de l'ordre de 30 jours. Nous montrons que les methodes classiques de traitement du signal, ne permettent pas de detecter de tels signaux, et sommes ainsi conduit a adapter une methode de cartographie spatiotemporelle, basee sur la theorie du probleme inverse en norme l2, ou la connaissance a priori des signaux recherches et des erreurs est traduite en termes statistiques. Les cartes d'erreurs a posteriori, restituees par cette methode, montrent que l'on pourra extraire ces signaux des futures missions, tel topex-poseidon, avec une precision de 6 cm. En revanche, la mission geosat avec son budget d'erreur actuel, ne permet pas de detecter de tels signaux, avec suffisamment de precision. Les solutions semblent tres affectees par l'erreur d'orbite. La sensibilite des solutions aux informations a priori est alors etudiee

To the bibliography